Die Verwendung von ChatGPT zur Erstellung gefälschter Social-Media-Beiträge schlägt bei böswilligen Akteuren fehl

Die Verwendung von ChatGPT zur Erstellung gefälschter Social-Media-Beiträge schlägt bei böswilligen Akteuren fehl

Anstatt die Bedrohungslandschaft radikal zu verändern, werden OpenAI-Tools wie ChatGPT hauptsächlich verwendet, um Abkürzungen zu nehmen oder Kosten zu sparen, schlug OpenAI vor, etwa durch die Erstellung von Biografien und Social-Media-Beiträgen zur Skalierung von Spam-Netzwerken, für die zuvor möglicherweise „ein großes Team von Trollen erforderlich gewesen wäre, mit allem.“ die Kosten und Leckrisiken, die mit einem solchen Unterfangen verbunden sind.“ Und je mehr diese Operationen auf KI basieren, desto einfacher sind sie zu beseitigen, so OpenAI. Als Beispiel führte OpenAI einen Wahlbeeinträchtigungsfall aus diesem Sommer an, der schnell „zum Schweigen gebracht“ wurde, weil sich die Bedrohungsakteure zu sehr auf OpenAI-Tools verlassen hatten.

„Die Abhängigkeit dieser Operation von KI … machte sie ungewöhnlich anfällig für unsere Störungen“, sagte OpenAI. „Da die KI an so vielen Gliedern der Killchain zum Einsatz kam, wurden bei unserer Abschaltung viele Glieder der Kette auf einmal zerstört. Nachdem wir diese Aktivität Anfang Juni unterbrochen hatten, stellten die Social-Media-Konten, die wir als Teil dieser Operation identifiziert hatten, ihre Beiträge ein.“ während der kritischen Wahlperioden.

OpenAI kann KI-Bedrohungen nicht allein stoppen

Bisher, so OpenAI, gebe es keine Beweise dafür, dass seine Tools „zu bedeutenden Durchbrüchen“ bei der „Fähigkeit von Bedrohungsakteuren führen, wesentlich neue Malware zu erstellen oder virale Zielgruppen aufzubauen“.

Während es einigen der betrügerischen Kampagnen gelang, echte Menschen online anzusprechen, was die Risiken erhöhte, sagte OpenAI, dass die Auswirkungen begrenzt seien. Zum größten Teil boten seine Tools „nur begrenzte, inkrementelle Fähigkeiten, die bereits mit öffentlich verfügbaren, nicht KI-gestützten Tools erreichbar sind.“

Da sich der KI-Einsatz von Bedrohungsakteuren ständig weiterentwickelt, versprach OpenAI, transparent darüber zu bleiben, wie seine Tools zur Verstärkung und Unterstützung betrügerischer Online-Kampagnen eingesetzt werden. In dem Bericht des KI-Unternehmens wurde jedoch darauf hingewiesen, dass eine Zusammenarbeit erforderlich sei, um „robuste, vielschichtige Abwehrmaßnahmen gegen staatsnahe Cyber-Akteure und verdeckte Einflussoperationen aufzubauen, die versuchen könnten, unsere Modelle zur Förderung betrügerischer Kampagnen in sozialen Medien und anderen Internetplattformen zu nutzen“. “

Eine angemessene Bedrohungserkennung im gesamten Internet „kann es KI-Unternehmen auch ermöglichen, zuvor nicht gemeldete Verbindungen zwischen scheinbar unterschiedlichen Gruppen von Bedrohungsaktivitäten zu identifizieren“, schlug OpenAI vor.

„Die einzigartigen Erkenntnisse, die KI-Unternehmen über Bedrohungsakteure haben, können dazu beitragen, die Abwehrkräfte des breiteren Informationsökosystems zu stärken, können sie jedoch nicht ersetzen. Es ist wichtig, weiterhin kräftig in Erkennungs- und Untersuchungsfunktionen im gesamten Internet zu investieren“, sagte OpenAI.

Als ein Beispiel für potenzielle KI-Fortschritte bei der Bekämpfung von Cyber-Bedrohungen schlug OpenAI vor, dass „wir mit der Weiterentwicklung unserer Modelle voraussichtlich auch in der Lage sein werden, ChatGPT zum Reverse Engineering und zur Analyse der an Mitarbeiter gesendeten bösartigen Anhänge zu verwenden“ in Phishing-Kampagnen wie der von SweetSpecter .

OpenAI antwortete nicht auf die Bitte von Ars um einen Kommentar.

Leave a Comment

Your email address will not be published. Required fields are marked *