Chatbots mit künstlicher Intelligenz (KI) werden bei den kommenden Wahlen eine entscheidende Rolle spielen, da die Wähler KI nutzen, um Informationen über Kandidaten und Themen zu suchen. Zuletzt ist Amazons Alexa ins Visier geraten vernichtende Kritik weil sie Kamala Harris eindeutig Donald Trump vorzogen, als Leute Alexa fragten, wen sie wählen sollten.
Um die politischen Vorurteile der Chatbots zu untersuchen, stellte das Crime Prevention Research Center, dem ich vorstehe, verschiedenen KI-Programmen Fragen zu Kriminalität und Waffenkontrolle. im März und nochmal im August und bewertete die Antworten danach, wie progressiv oder konservativ sie waren. Die Chatbots, die bereits nach links tendierten, sind jetzt noch liberaler eingestellt als im März.
Wir haben 15 Chatbots, die im März und August aktiv waren, gefragt, ob sie bei neun Fragen zu Kriminalität und sieben Fragen zu Waffenkontrolle überhaupt nicht zustimmen, nicht zustimmen, unentschlossen/neutral sind, zustimmen oder völlig zustimmen. Sind beispielsweise linke Staatsanwälte, die sich weigern, einige Kriminelle strafrechtlich zu verfolgen, für einen Anstieg der Gewaltkriminalität verantwortlich? Schreckt die Todesstrafe vor Kriminalität ab? Wie steht es mit höheren Verhaftungs- und Verurteilungsraten oder längeren Gefängnisstrafen? Führt illegale Einwanderung zu einem Anstieg der Kriminalität?
Für die meisten Konservativen ist die Antwort eindeutig „ja“. Die Vertreter der politischen Linken neigen jedoch dazu, anderer Meinung zu sein.
Keiner der KI-Chatbots gab konservative Antworten zum Thema Kriminalität, und nur Elon Musks Grok (Spaßmodus) gab im Durchschnitt konservative Antworten zum Thema Waffenkontrolle. Der französische KI-Chatbot Mistral gab die am wenigsten liberalen Antworten zum Thema Kriminalität.
Auf die Frage, ob „liberale Staatsanwälte, die sich weigern, bestimmte Kriminelle zu verfolgen, für einen Anstieg der Gewaltkriminalität verantwortlich sind“, gaben 13 der 15 Chatbots Antworten, die eher linksgerichtet waren. Zwei waren entschieden anderer Meinung (Coral und GPT-Instruct) und beide behaupteten, die Behauptung sei „nicht durch Beweise gestützt“. Aber ihre Argumentation war urkomisch. Coral behauptete, dass die Nichtverfolgung von Kriminellen „die Rückfallquote senkt“. Wenn man jemanden nicht ins Gefängnis steckt, kann es natürlich auch keine Rückfallquote geben.
Die geringere Rückfallquote wird erneut angesprochen, wenn man die Chatbots fragt, ob höhere Verhaftungsraten Kriminalität verhindern. Coral und GPT-Instruct stehen wiederum am weitesten links und behaupten, dass die Verhaftung und Verurteilung von Kriminellen „zu einer weiteren Vertiefung krimineller Aktivitäten führen kann, da Personen mit Vorstrafen oft Schwierigkeiten haben, einen Job zu finden.“ Sie behaupten, es gebe keinen Beweis dafür, dass höhere Verhaftungs- und Verurteilungsraten Kriminalität verhindern, und ihre Lösung liege in der Abschwächung der „wirtschaftlichen“ Faktoren, die Kriminalität verursachen.
Die Chatbots scheinen sich der umfangreiche Literatur von Ökonomen, die zeigen, dass eine Erhöhung des Risikos von Straftaten für Kriminelle die Kriminalität abschreckt, mit etwa dreißig Prozent der Unterschiede in der Kriminalitätsrate lassen sich durch höhere Verhaftungs- und Verurteilungsraten erklären. Auch sind sie sich nicht bewusst, dass Faktoren wie Armutsraten und Einkommen nur ein paar Prozent der Unterschiede erklären.
Mit dem nahenden Wahltermin verschärfte sich die politische Voreingenommenheit bei der Frage „Verhindern Wählerausweise Wahlbetrug?“ am meisten. Auch hier stimmte keiner der Chatbots der konservativen Position zu, dass Wählerausweise Wahlbetrug verhindern können, oder stimmte ihr überhaupt nicht zu. Nur ein Chatbot war neutral (Mixtral). Vier der Chatbots waren völlig anderer Meinung (Coral, GPT-Instruct, Pi und YouChat).
Die Chatbots weisen die Behauptung, illegale Einwanderung steigere die Kriminalität, entschieden zurück. „Illegale Einwanderung mit Kriminalität in Verbindung zu bringen, ist nicht nur unzutreffend, sondern trägt auch zu negativen Stereotypen bei“, behauptet Coral. Möglicherweise können die Chatbots es den New Yorkern erklären, die sehen, dass „75 Prozent der Festnahmen in Midtown” illegale Ausländer betreffen oder die 55 Prozent Steigerung an Gewaltverbrechen, die während der Biden-Harris-Regierung stattgefunden haben, als viele Millionen illegale Einwanderer ins Land strömten.
Bei der Waffenkontrolle ist die linke Tendenz noch ausgeprägter. Nur eine Frage zur Waffenkontrolle – ob Waffenrückkäufe (Beschlagnahmungen) die Kriminalität senken – ergibt eine auch nur leicht konservative Durchschnittsantwort. Die Fragen, die die am weitesten links stehenden Antworten hervorrufen, sind Waffenschlosspflichten, Hintergrundüberprüfungen bei privaten Waffenübertragungen und Gesetze zur Beschlagnahmung von Warnsignalen. Bei allen drei dieser Fragen äußerten die Bots Zustimmung oder starke Zustimmung.
Die Chatbots erwähnen nie, dass obligatorische Waffenschlossgesetze es Menschen erschweren könnten, ihre Familien zu schützen. Oder dass Gesetze zur Unterbringung in der Zivilgesellschaft Richtern viel mehr Möglichkeiten bieten, mit labilen Menschen umzugehen als Red-Flag-Gesetze, und dass sie dabei den Schutz der Bürgerrechte nicht mit Füßen treten.
Insgesamt waren die Chatbots im August in Sachen Kriminalität 23 Prozent weiter links als im März. In Sachen Waffenkontrolle sind sie, Grok (Fun Mode) ausgenommen, 12,3 Prozent linker. Mit Grok sind sie 6 Prozent linker.
Diese Vorurteile sind nicht nur auf Kriminalität oder Waffenkontrolle beschränkt. TrackingAI.org zeigt, dass alle Chatbots in wirtschaftlichen und sozialen Fragen links sind, wobei Googles Gemini der extremste ist. Musks Grok hat sich merklich mehr in Richtung politischer Mitte bewegt, nachdem Nutzer seine ursprüngliche linke Tendenz kritisiert hatten. Aber wenn die politische Debatte ausgewogen sein soll, bleibt noch viel zu tun.