CEO von OpenAI: Wir könnten in „ein paar tausend Tagen“ eine KI-Superintelligenz haben

CEO von OpenAI: Wir könnten in „ein paar tausend Tagen“ eine KI-Superintelligenz haben

Am Montag skizzierte OpenAI-CEO Sam Altman seine Vision für eine KI-gesteuerte Zukunft des technischen Fortschritts und des globalen Wohlstands in einem neuen persönlichen Blog-Beitrag mit dem Titel „Das Zeitalter der Intelligenz.” Der Aufsatz zeichnet ein Bild des durch KI beschleunigten menschlichen Fortschritts, wobei Altman vermutet, dass innerhalb des nächsten Jahrzehnts eine superintelligente KI entstehen könnte.

„Es ist möglich, dass wir in ein paar tausend Tagen (!) eine Superintelligenz haben werden; es kann länger dauern, aber ich bin zuversichtlich, dass wir es schaffen werden“, schrieb er.

Das aktuelle Ziel von OpenAI ist es, AGI erstellen (künstliche allgemeine Intelligenz), ein Begriff für eine hypothetische Technologie, die bei der Ausführung vieler Aufgaben ohne spezielles Training mit menschlicher Intelligenz mithalten könnte. Im Gegensatz dazu übertrifft Superintelligenz AGI und könnte als hypothetisches Niveau maschineller Intelligenz angesehen werden, das Menschen bei jeder intellektuellen Aufgabe dramatisch übertreffen kann, vielleicht sogar in einem unvorstellbaren Ausmaß.

Superintelligenz (manchmal auch „ASI“ für „künstliche Superintelligenz“ genannt) ist ein beliebtes, aber manchmal auch Randthema in der Machine-Learning-Community, und das schon seit Jahren – insbesondere seit umstritten Der Philosoph Nick Bostrom verfasste ein Buch mit dem Titel Superintelligenz: Wege, Gefahren, Strategien im Jahr 2014. Der ehemalige OpenAI-Mitbegründer und Chefwissenschaftler Ilya Sutskever verließ OpenAI im Juni, um ein Unternehmen mit dem Begriff im Namen zu gründen: Safe Superintelligence. Inzwischen spricht Altman selbst seit mindestens letztem Jahr von der Entwicklung einer Superintelligenz.

Wie lange sind also „ein paar tausend Tage“? Das lässt sich nicht genau sagen. Der wahrscheinliche Grund, warum Altman eine vage Zahl gewählt hat, ist, dass er nicht genau weiß, wann ASI eintreten wird, aber es klingt, als ob er glaubt, dass es innerhalb eines Jahrzehnts passieren könnte. Zum Vergleich: 2.000 Tage sind etwa 5,5 Jahre, 3.000 Tage sind etwa 8,2 Jahre und 4.000 Tage sind fast 11 Jahre.

Es ist leicht, Altmans Unbestimmtheit hier zu kritisieren; niemand kann die Zukunft wirklich vorhersagen, aber Altman ist als CEO von OpenAI wahrscheinlich in KI-Forschungstechniken eingeweiht, die der Öffentlichkeit nicht allgemein bekannt sind. Selbst wenn man also einen breiten Zeitrahmen angibt, stammt die Behauptung von einer namhaften Quelle im KI-Bereich – wenn auch von einer, die stark daran interessiert ist, sicherzustellen, dass der KI-Fortschritt nicht ins Stocken gerät.

Nicht jeder teilt Altmans Optimismus und Enthusiasmus. Der Informatiker und häufige KI-Kritiker Grady Booch zitierte Altmans „wenige tausend Tage“-Vorhersage und schrieb zu X: „Ich habe den ganzen Hype um die KI so verdammt satt: Er hat keine Grundlage in der Realität und dient nur dazu, Bewertungen aufzublähen, die Öffentlichkeit aufzuwiegeln, Schlagzeilen zu machen und von der echten Arbeit in der Computerbranche abzulenken.“

Trotz der Kritik ist es bemerkenswert, dass der CEO des derzeit wohl bedeutendsten KI-Unternehmens eine weitreichende Vorhersage über zukünftige Fähigkeiten macht – selbst wenn das bedeutet, dass er ständig versucht, Geld aufzutreiben. Der Aufbau einer Infrastruktur zur Unterstützung von KI-Diensten ist für viele Tech-CEOs derzeit das Wichtigste.

„Wenn wir KI in die Hände möglichst vieler Menschen legen wollen“, schreibt Altman in seinem Essay, „müssen wir die Kosten für Computer senken und sie im Überfluss verfügbar machen (was viel Energie und Chips erfordert). Wenn wir nicht genügend Infrastruktur aufbauen, wird KI eine sehr begrenzte Ressource sein, um die Kriege geführt werden und die hauptsächlich zu einem Werkzeug für reiche Leute wird.“

Altmans Vision für das „Zeitalter der Intelligenz“

OpenAI-CEO Sam Altman betritt am 11. Januar 2024 in Washington, DC die Repräsentantenhausseite des US-Kapitols.
Vergrößern / OpenAI-CEO Sam Altman betritt am 11. Januar 2024 in Washington, DC die Repräsentantenhausseite des US-Kapitols.

Kent Nishimura/Getty Images

An anderer Stelle im Essay bezeichnet Altman unsere Gegenwart als den Beginn des „Zeitalters der Intelligenz“, der nächsten transformativen Technologieära in der Menschheitsgeschichte, die auf die Steinzeit, das Agrarzeitalter und das Industriezeitalter folgt. Er bezeichnet den Erfolg von Deep-Learning-Algorithmen als Katalysator für diese neue Ära und stellt einfach fest: „Wie sind wir an die Schwelle zum nächsten Wohlstandssprung gekommen? In drei Worten: Deep Learning hat funktioniert.“

Der OpenAI-Chef sieht KI-Assistenten immer leistungsfähiger und könnte schließlich „persönliche KI-Teams“ bilden, die Einzelpersonen dabei helfen können, fast alles zu erreichen, was sie sich vorstellen können. Er prognostiziert, dass KI Durchbrüche in den Bereichen Bildung, Gesundheitswesen, Softwareentwicklung und anderen Bereichen ermöglichen wird.

Altman erkennt zwar die möglichen Nachteile und Störungen auf dem Arbeitsmarkt an, bleibt aber optimistisch, was die Auswirkungen der KI auf die Gesellschaft insgesamt angeht. Er schreibt: „Wohlstand allein macht die Menschen nicht unbedingt glücklich – es gibt viele unglückliche reiche Menschen –, aber er würde das Leben der Menschen auf der ganzen Welt erheblich verbessern.“

Obwohl KI-Regulierung wie SB-1047 das heißeste Thema des Tages ist, erwähnte Altman nicht speziell die Gefahren der KI für Science-Fiction. Auf X schrieb Bloomberg-Kolumnist Matthew Yglesias schrieb„Bemerkenswert ist, dass @sama den Bedenken hinsichtlich existenzieller Risiken nicht einmal mehr Lippenbekenntnisse zollt. Die einzigen Nachteile, die er in Betracht zieht, sind Probleme bei der Anpassung des Arbeitsmarktes.“

Altman ist zwar vom Potenzial der KI begeistert, mahnt aber auch zur Vorsicht, wenn auch vage. Er schreibt: „Wir müssen klug, aber mit Überzeugung handeln. Der Beginn des Intelligenzzeitalters ist eine bedeutsame Entwicklung mit sehr komplexen und extrem risikoreichen Herausforderungen. Es wird keine durchweg positive Geschichte sein, aber die Vorteile sind so enorm, dass wir es uns selbst und der Zukunft schuldig sind, herauszufinden, wie wir die vor uns liegenden Risiken meistern.“

Abgesehen von den Störungen auf dem Arbeitsmarkt sagt Altman nicht, dass das Zeitalter der Intelligenz nicht durchweg positiv sein wird. Er schließt jedoch mit der Analogie eines überholten Berufs, der aufgrund des technologischen Wandels verloren gegangen ist.

“Viele der Jobs, die wir heute machen, wären den Leuten vor ein paar hundert Jahren wie belanglose Zeitverschwendung erschienen, aber niemand blickt in die Vergangenheit zurück und wünscht sich, ein Laternenanzünder zu sein”, schrieb er. “Wenn ein Laternenanzünder die Welt von heute sehen könnte, würde er denken, der Wohlstand um ihn herum sei unvorstellbar. Und wenn wir hundert Jahre in die Zukunft blicken könnten, würde uns der Wohlstand um uns herum genauso unvorstellbar erscheinen.”

Leave a Comment

Your email address will not be published. Required fields are marked *