Palmer Luckey: Every country needs a ‘warrior class’ excited to enact ‘violence on others in pursuit of good aims’

Im Silicon Valley wird darüber debattiert, ob es KI-Waffen erlaubt sein sollte, über das Töten zu entscheiden

Ende September schwor Brandon Tseng, Mitbegründer von Shield AI, dass Waffen in den USA niemals völlig autonom sein würden – was bedeutete, dass ein KI-Algorithmus die endgültige Entscheidung treffen würde, jemanden zu töten. „Der Kongress will das nicht“, sagte der Gründer der Verteidigungstechnologie gegenüber TechCrunch. „Das will niemand.“

Aber Tseng sprach zu früh. Fünf Tage später äußerte Anduril-Mitbegründer Palmer Luckey seine Offenheit gegenüber autonomen Waffen – oder äußerte zumindest große Skepsis gegenüber Argumenten dagegen. Die Widersacher der USA „verwenden Sätze, die in einem O-Ton wirklich gut klingen: Nun, können Sie nicht zustimmen, dass ein Roboter niemals in der Lage sein sollte, zu entscheiden, wer lebt und wer stirbt?“ sagte Luckey während eines Vortrags Anfang dieses Monats an der Pepperdine University. „Und ich möchte ihnen sagen: Wo bleibt die moralische Überlegenheit in einer Landmine, die den Unterschied zwischen einem Schulbus voller Kinder und einem russischen Panzer nicht erkennen kann?“

Als er um weitere Kommentare gebeten wurde, sagte Shannon Prior, ein Sprecher von Anduril, dass Luckey nicht meinte, dass Roboter so programmiert werden sollten, dass sie selbst Menschen töten, sondern nur, dass er sich Sorgen darüber machte, dass „böse Menschen schlechte KI nutzen“.

In der Vergangenheit war das Silicon Valley auf der sicheren Seite. Nehmen Sie es von Luckeys Mitbegründer Trae Stephens. „Ich denke, die Technologien, die wir entwickeln, ermöglichen es den Menschen, in diesen Dingen die richtigen Entscheidungen zu treffen.“ sagte er zu Kara Swisher letztes Jahr. „Damit es natürlich eine rechenschaftspflichtige und verantwortliche Partei gibt, die über alle Entscheidungen informiert ist, die tödliche Folgen haben könnten.“

Der Anduril-Sprecher bestritt jegliche Dissonanz zwischen Luckeys (Bild oben) und Stephens‘ Sichtweisen und sagte, dass Stephens nicht meinte, dass immer ein Mensch den Anruf tätigen sollte, sondern nur, dass jemand dafür verantwortlich sei.

Fairerweise muss man sagen, dass die Haltung der US-Regierung selbst ähnlich zweideutig ist. Das US-Militär kauft derzeit keine vollständig autonomen Waffen; Aber es verbietet Unternehmen nicht, sie herzustellen, und es verbietet ihnen auch nicht ausdrücklich die Herstellung solche Dinge ins Ausland verkaufen. Letztes Jahr haben die USA aktualisierte Richtlinien für die KI-Sicherheit im Militär veröffentlicht, die von vielen US-Verbündeten gebilligt wurden und von hochrangigen Militärbeamten verlangen, jede neue autonome Waffe zu genehmigen; Dennoch sind die Richtlinien freiwillig (Anduril sagte, es sei verpflichtet, die Richtlinien zu befolgen), und US-Beamte haben dies immer wieder betont „Nicht der richtige Zeitpunkt“ ein verbindliches Verbot autonomer Waffen in Betracht zu ziehen.

Letzten Monat zeigte auch Palantir-Mitbegründer und Anduril-Investor Joe Lonsdale seine Bereitschaft, vollständig autonome Waffen in Betracht zu ziehen. Bei einer Veranstaltung des Think Tanks Hudson Institute äußerte Lonsdale seine Frustration darüber, dass diese Frage überhaupt als Ja-oder-Nein-Frage gestellt wird. Stattdessen stellte er eine Hypothese vor, in der China KI-Waffen eingeführt hat, die USA jedoch „jedes Mal, wenn sie abfeuern, den Knopf drücken müssen“. Er ermutigte die politischen Entscheidungsträger zu einem flexibleren Ansatz hinsichtlich des KI-Anteils in Waffen.

„Man merkt sehr schnell, dass meine Annahmen falsch waren, wenn ich nur eine dumme Top-Down-Regel aufstellte, weil ich ein Mitarbeiter bin, der dieses Spiel noch nie zuvor gespielt hat“, sagte er. „Ich könnte uns in der Schlacht zerstören.“

Als TC Lonsdale um weitere Kommentare bat, betonte er, dass Verteidigungstechnologieunternehmen nicht diejenigen sein sollten, die die Agenda für tödliche KI festlegen sollten. „Der entscheidende Kontext für das, was ich gesagt habe, ist, dass unsere Unternehmen die Politik nicht machen und sie auch nicht machen wollen: Es ist die Aufgabe der gewählten Amtsträger, die Politik zu machen“, sagte er. „Aber sie müssen sich die Nuancen aneignen, um gute Arbeit leisten zu können.“

Er bekräftigte außerdem seine Bereitschaft, über mehr Autonomie bei Waffen nachzudenken. „Es handelt sich nicht um ein Binärsystem, wie Sie meinen – „völlig autonom oder nicht“ ist nicht die richtige politische Frage. Es gibt eine ausgeklügelte Skala in mehreren Dimensionen dafür, was ein Soldat tun kann und was das Waffensystem tun soll“, sagte er. „Bevor politische Entscheidungsträger diese Regeln einführen und entscheiden, wo unter welchen Umständen die Weichen gestellt werden müssen, müssen sie das Spiel lernen und lernen, was die Bösewichte tun könnten und was notwendig ist, um zu gewinnen, wenn amerikanische Leben auf dem Spiel stehen.“

Aktivisten und Menschenrechtsgruppen haben lange versucht, internationale Verbote für autonome tödliche Waffen einzuführen – Verbote, die es in den USA gibt – und sind damit gescheitert widersetzte sich der Unterschrift. Aber der Krieg in der Ukraine hat möglicherweise das Blatt gegen Aktivisten gewendet und sowohl einen Fundus an Kampfdaten als auch ein Schlachtfeld für Gründer von Verteidigungstechnologien zum Testen bereitgestellt. Derzeit integrieren Unternehmen KI in Waffensysteme, erfordern jedoch immer noch, dass ein Mensch die endgültige Entscheidung zum Töten trifft.

Unterdessen drängen ukrainische Beamte auf mehr Automatisierung bei Waffen, in der Hoffnung, dass sie dadurch einen Vorsprung gegenüber Russland haben. „Wir brauchen maximale Automatisierung“, sagte er Mykhailo Fedorov, Der ukrainische Minister für digitale Transformation in einem Interview mit der New York Times. „Diese Technologien sind von grundlegender Bedeutung für unseren Sieg.“

Für viele im Silicon Valley und in Washington besteht die größte Angst darin, dass China oder Russland zuerst völlig autonome Waffen einsetzen und damit die USA zum Handeln zwingen. Bei einer UN-Debatte über KI-Waffen im vergangenen Jahr zeigte sich ein russischer Diplomat besonders zurückhaltend. „Wir verstehen, dass für viele Delegationen die menschliche Kontrolle Priorität hat.“ sagte er. „Für die Russische Föderation liegen die Prioritäten etwas anders.“

Auf der Veranstaltung des Hudson Institute sagte Lonsdale, dass der Technologiesektor es sich zur Aufgabe machen müsse, „die Marine, das Verteidigungsministerium und den Kongress über das Potenzial der KI zu unterrichten“, um „uns hoffentlich einen Vorsprung vor China zu verschaffen“.

Die verbundenen Unternehmen von Lonsdale und Luckey arbeiten daran, den Kongress dazu zu bringen, ihnen zuzuhören. Laut OpenSecrets haben Anduril und Palantir in diesem Jahr insgesamt über 4 Millionen US-Dollar für Lobbyarbeit ausgegeben.

Leave a Comment

Your email address will not be published. Required fields are marked *