
Google enthüllt KI-Detektor für Deepfakes und Co. Der SynthID Detector soll KI-Inhalte entlarven – doch erkennt er wirklich alles? Wo liegen die Grenzen der Technologie? Kurzfassung | Andreas Becker, 22.05.25
gpt-image-1 | All-AI.de EINLEITUNG Täglich kursieren mehr KI-generierte Bilder, Texte und Audiodateien im Netz. Doch woher stammt der Inhalt? Und wer hat ihn erstellt? Google will mit dem SynthID Detector Klarheit schaffen. Das neue Tool erkennt maschinenlesbare Wasserzeichen in digitalen Medien, ohne dass Menschen diese sehen können. Doch wie gut funktioniert das System – und wo stößt es an seine Grenzen? NEWS Digitale Wasserzeichen für die Maschinen Der SynthID Detector basiert auf einer Technologie von Google DeepMind, die KI-generierte Inhalte unsichtbar markiert. Dafür werden winzige Veränderungen in Medien eingebettet, die weder die Qualität noch die Sichtbarkeit beeinflussen. Diese Wasserzeichen lassen sich später mit dem Detector wieder auslesen. So kann zum Beispiel ein Kamel in einer Schneelandschaft als KI-Element identifiziert werden, während der Rest des Bildes echt bleibt. Auch Texte, Videos und Audiodateien lassen sich entsprechend analysieren. Die Inhalte werden dabei nicht verändert, sondern lediglich geprüft. Ein System mit eingebauten Schranken Allerdings hat das System eine große Einschränkung. Es erkennt nur Inhalte, die mit Googles eigenen Tools erstellt wurden. Dazu zählen Gemini, Imagen, Lyria oder Veo. Inhalte aus anderen Generatoren wie Midjourney, DALL·E oder ChatGPT bleiben für das System unsichtbar. Hinzu kommt, dass der SynthID Detector bislang nur einer kleinen Gruppe zur Verfügung steht. Zugriff haben ausgewählte Journalisten, Wissenschaftler und Medienhäuser. Eine öffentliche Version ist bislang nicht geplant. Einfache Anwendung, große Datenbasis Die Nutzung des Tools ist unkompliziert. Nutzer laden eine Datei hoch, der Detector durchsucht sie nach Wasserzeichen und markiert verdächtige Stellen. In Audiodateien werden bestimmte Passagen hervorgehoben, bei Texten einzelne Sätze. Laut Google wurden bereits über 10 Milliarden Inhalte mit dieser Technik markiert. Das zeigt, wie stark Google auf diese Technologie setzt – und wie wichtig das Unternehmen den Kampf gegen Desinformation nimmt. AUSBLICK Ein Werkzeug mit Potenzial – und Fragezeichen Der SynthID Detector zeigt, wie sich Transparenz in einer Welt voller KI-Inhalte technisch umsetzen lässt. In einer Zeit, in der Deepfakes und Desinformation alltäglich sind, ist jedes Werkzeug willkommen, das Herkunft und Authentizität sichtbar macht. Doch noch ist das System nicht offen, nicht universell und nicht unabhängig. Solange es auf Googles eigene Inhalte beschränkt bleibt, bleibt auch sein Nutzen begrenzt. Die große Herausforderung wird sein, daraus einen offenen Standard zu machen. Erst dann kann das Tool seinem Anspruch gerecht werden, Klarheit in die Welt der künstlichen Medien zu bringen. UNSER ZIEL Wir wollen hauptberuflich über Künstliche Intelligenz berichten und dabei immer besser werden. Du kannst uns auf dem Weg unterstützen! Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube - Kanal PayPal - Kaffee KURZFASSUNG
Googles SynthID Detector erkennt unsichtbare Wasserzeichen in KI-generierten Inhalten wie Bildern, Audio und Texten.
Das Tool funktioniert nur mit Inhalten aus Googles eigener KI-Palette wie Gemini, Imagen oder Veo.
Es ist aktuell nur für ausgewählte Tester verfügbar, ein öffentlicher Zugang ist nicht geplant.
Mehr als 10 Milliarden Inhalte wurden bereits mit SynthID markiert, um mehr Transparenz in digitalen Medien zu schaffen.
QUELLEN
t3n
Google Blog
The Verge
Weiterlesen...