Das Weiße Haus veröffentlichte eine heute werden die Verpflichtungen mehrerer KI-Unternehmen dargelegt, die die Erstellung und Verbreitung von bildbasiertem sexuellem Missbrauch eindämmen sollen. Die teilnehmenden Unternehmen haben die Schritte dargelegt, die sie unternehmen, um zu verhindern, dass ihre Plattformen zur Erstellung nicht einvernehmlicher intimer Bilder (NCII) von Erwachsenen und von Material mit sexuellem Kindesmissbrauch (CSAM) verwendet werden.
Konkret erklärten Adobe, Anthropic, Cohere, Common Crawl, Microsoft und OpenAI, dass sie:
Alle oben genannten außer Common Crawl waren sich auch einig, dass sie:
„Integrieren von Feedbackschleifen und iterativen Stressteststrategien in ihren Entwicklungsprozessen, um zu verhindern, dass KI-Modelle Bilder von sexuellem Missbrauch ausgeben“
Und „Entfernen von Nacktbildern aus KI-Trainingsdatensätzen“, wenn dies angebracht ist.
Es handelt sich um eine freiwillige Verpflichtung, sodass die heutige Ankündigung keine neuen Maßnahmen oder Konsequenzen für das Nichteinhalten dieser Versprechen mit sich bringt. Dennoch ist es angebracht, die ernsthaften Bemühungen zur Lösung dieses ernsten Problems zu loben. Auffällig abwesend in der heutigen Veröffentlichung des Weißen Hauses sind Apple, Amazon, Google und Meta.
Viele große Technologie- und KI-Unternehmen haben Anstrengungen unternommen, um es den Opfern von NCII zu erleichtern, die Verbreitung von Deepfake-Bildern und -Videos unabhängig von dieser Bundesinitiative zu stoppen. StopNCII hat mit für einen umfassenden Ansatz zur Bereinigung dieser Inhalte, während andere Unternehmen proprietäre Tools zur Meldung von KI-generiertem, auf Bildern basierendem sexuellen Missbrauch auf ihren Plattformen einführen.
Wenn Sie glauben, dass Sie Opfer eines nicht einvernehmlichen Teilens intimer Bilder geworden sind, können Sie einen Fall bei StopNCII eröffnen. ; wenn Sie unter 18 Jahre alt sind, können Sie einen Bericht beim NCMEC einreichen .