Google sagt dass das Unternehmen plant, Ă„nderungen an der Google-Suche einzufĂĽhren, um deutlicher zu machen, welche Bilder in den Ergebnissen durch KI generiert oder von KI-Tools bearbeitet wurden.
In den nächsten Monaten wird Google damit beginnen, KI-generierte und -bearbeitete Bilder im Fenster „Über dieses Bild“ der Suche, in Google Lens und in der Funktion „Circle to Search“ auf Android zu kennzeichnen. Ähnliche Offenlegungen könnten in Zukunft auch auf anderen Google-Websites wie YouTube erfolgen. Google sagt, dass es im Laufe dieses Jahres mehr dazu bekannt geben wird.
Entscheidend ist, nur Bilder, die „C2PA-Metadaten“ enthalten, werden in der Suche als KI-manipuliert gekennzeichnet. C2PA, die Abkürzung für Coalition for Content Provenance and Authenticity, ist eine Gruppe, die technische Standards entwickelt, um die Geschichte eines Bildes nachzuverfolgen, einschließlich der Geräte und Software, die zur Aufnahme und/oder Erstellung des Bildes verwendet wurden.
Unternehmen wie Google, Amazon, Microsoft, OpenAI und Adobe unterstützen C2PA. Die Standards der Koalition haben jedoch keine breite Akzeptanz gefunden. Wie The Verge berichtet, bemerkt In einem aktuellen Artikel heißt es, dass C2PA mit zahlreichen Herausforderungen hinsichtlich Akzeptanz und Interoperabilität konfrontiert sei; nur eine Handvoll generativer KI-Tools und Kameras von Leica und Sony unterstützten die Spezifikationen der Gruppe.
Darüber hinaus können C2PA-Metadaten – wie alle anderen Metadaten – entfernt oder gelöscht werden oder so beschädigt werden, dass sie nicht mehr lesbar sind. Und Bilder von einigen der beliebtesten generativen KI-Tools wie Flux, das der Grok-Chatbot von xAI zur Bildgenerierung verwendet, nicht sind teilweise deshalb mit C2PA-Metadaten versehen, weil ihre Ersteller sich nicht bereit erklärt haben, den Standard zu unterstützen.
Einige Maßnahmen sind zugegebenermaßen besser als keine, da sich Deepfakes weiterhin schnell verbreiten. Laut einer schätzengab es von 2023 bis 2024 einen Anstieg von 245 % bei Betrügereien mit KI-generierten Inhalten. Deloitte Projekte dass die durch Deepfakes verursachten Verluste von 12,3 Milliarden Dollar im Jahr 2023 auf 40 Milliarden Dollar im Jahr 2027 ansteigen werden.
Umfragen zeigen dass die Mehrheit der Menschen Angst davor hat, auf einen Deepfake hereinzufallen, und dass KI das Potenzial hat, die Verbreitung von Propaganda zu fördern.