Amazon Web Services branding during day one of Web Summit Rio 2023 at Riocentro in Rio de Janeiro, Brazil.

AWS-CEO Matt Garman über generative KI, Open Source und Abschlussdienste

Es war eine ziemliche Überraschung, als Adam Selipsky als CEO der AWS-Cloud-Computing-Einheit von Amazon zurücktrat. Was vielleicht ebenso überraschend war, war, dass Matt Garman sein Nachfolger wurde. Garman kam 2005 als Praktikant zu Amazon und wurde 2006 Vollzeitmitarbeiter, wo er an den frühen AWS-Produkten arbeitete. Nur wenige Menschen kennen das Unternehmen besser als Garman, dessen letzte Position vor seiner Ernennung zum CEO die des Senior VP für AWS-Vertrieb, Marketing und globale Services war.

Garman sagte mir letzte Woche in einem Interview, dass er noch keine massiven Änderungen an der Organisation vorgenommen habe. „In der Organisation hat sich nicht viel verändert. Das Geschäft läuft recht gut, daher besteht keine Notwendigkeit, bei irgendetwas, auf das wir uns konzentrieren, massiv zu wechseln“, sagte er. Er wies jedoch auf einige Bereiche hin, auf die sich das Unternehmen seiner Meinung nach konzentrieren muss und in denen er Möglichkeiten für AWS sieht.

Betonen Sie erneut Startups und schnelle Innovation

AWS-CEO Matt GarmanBildnachweis:AWS

Eines davon sind, etwas überraschend, Startups. „Ich denke, wir haben uns als Organisation weiterentwickelt. … Schon früh im Leben von AWS haben wir uns stark darauf konzentriert, wie wir Entwickler und Start-ups wirklich ansprechen können, und wir haben dort schon früh viel Anklang gefunden“, erklärte er. „Und dann begannen wir zu überlegen, wie wir größere Unternehmen ansprechen, wie wir Regierungen ansprechen, wie wir regulierte Sektoren auf der ganzen Welt ansprechen können? Und ich denke, eines der Dinge, die ich gerade noch einmal betont habe – es ist keine wirkliche Veränderung –, aber ich möchte auch betonen, dass wir diesen Fokus auf die Start-ups und Entwickler nicht verlieren dürfen. Wir müssen all diese Dinge tun.“

Der andere Bereich, auf den sich das Team seiner Meinung nach konzentrieren soll, besteht darin, mit dem Strudel der Veränderungen in der Branche Schritt zu halten.

„Ich habe mit dem Team immer wieder betont, wie wichtig es für uns ist, uns weiterhin nicht auf dem Vorsprung auszuruhen, den wir in Bezug auf die Dienste und Fähigkeiten sowie Merkmale und Funktionen haben, die wir heute haben – und weiterhin nach vorne zu blicken und den Aufbau einer Roadmap für echte Innovation“, sagte er. „Ich denke, der Grund dafür, dass Kunden heute AWS nutzen, liegt darin, dass wir über das beste und umfangreichste Serviceangebot verfügen. Der Grund dafür, dass sich die Menschen heute auf uns verlassen, liegt darin, dass wir nach wie vor die mit Abstand beste Sicherheit und Betriebsleistung der Branche bieten und wir ihnen dabei helfen, Innovationen zu entwickeln und schneller voranzukommen. Und wir müssen diesen Fahrplan der zu erledigenden Dinge weiter vorantreiben. Es ist an sich keine wirkliche Veränderung, aber es ist das, was ich wahrscheinlich am meisten betont habe: Wie wichtig es für uns ist, dieses Innovationsniveau aufrechtzuerhalten und die Geschwindigkeit beizubehalten, mit der wir liefern.“

Als ich ihn fragte, ob er der Meinung sei, dass das Unternehmen in der Vergangenheit möglicherweise nicht schnell genug innoviert habe, antwortete er, dass er das nicht glaube. „Ich glaube, dass sich das Innovationstempo nur noch beschleunigen wird, und deshalb ist es nur ein Schwerpunkt, dass wir auch unser Innovationstempo beschleunigen müssen. Es ist nicht so, dass wir es verlieren; Es geht nur darum, wie sehr wir mit der Geschwindigkeit der verfügbaren Technologie Schritt halten müssen.“

Generative KI bei AWS

Mit dem Aufkommen der generativen KI und der schnellen Veränderung der Technologien müsse AWS auch „bei jedem einzelnen davon auf dem neuesten Stand sein“, sagte er.

Kurz nach der Einführung von ChatGPT stellten viele Experten die Frage, ob AWS bei der Einführung generativer KI-Tools zu langsam gewesen sei und seinen Konkurrenten wie Google Cloud und Microsoft Azure Raum gelassen habe. Aber Garman glaubt, dass dies eher eine Wahrnehmung als eine Realität war. Er wies darauf hin, dass AWS schon lange erfolgreiche maschinelle Lerndienste wie SageMaker angeboten habe, noch bevor generative KI zum Schlagwort wurde. Er wies auch darauf hin, dass das Unternehmen bei der generativen KI einen bewussteren Ansatz verfolgte als vielleicht einige seiner Konkurrenten.

„Wir haben uns mit generativer KI befasst, bevor sie allgemein akzeptiert wurde, aber ich muss sagen, als ChatGPT herauskam, war es eine Art Entdeckung eines neuen Bereichs, von Möglichkeiten, wie diese Technologie angewendet werden könnte. Und ich glaube, alle waren begeistert und haben neue Energie bekommen, oder? … Ich glaube, eine Menge Leute – unsere Konkurrenten – haben sich sozusagen darum gekümmert, Chatbots an die Spitze zu setzen und zu zeigen, dass sie an der Spitze der generativen KI stehen“, sagte er.

Ich glaube, eine Menge Leute – unsere Konkurrenten – haben sich sozusagen darum gekümmert, Chatbots an die Spitze zu setzen und zu zeigen, dass sie an der Spitze der generativen KI stehen.

Stattdessen, so Garman, wolle das AWS-Team einen Schritt zurücktreten und prüfen, wie seine Kunden, ob Startups oder Unternehmen, diese Technologie am besten in ihre Anwendungen integrieren und dafür ihre eigenen differenzierten Daten nutzen könnten. „Sie wollen eine Plattform, auf der sie flexibel aufbauen können und die sie wirklich als Bauplattform und nicht als Anwendung betrachten, die sie anpassen werden. Und so haben wir uns die Zeit genommen, diese Plattform aufzubauen“, sagte er.

Für AWS ist Bedrock diese Plattform, wo sie Zugriff auf eine Vielzahl offener und proprietärer Modelle bietet. Allein dies zu tun – und den Benutzern zu erlauben, verschiedene Modelle miteinander zu verketten – sei damals etwas umstritten, sagte er. „Aber für uns dachten wir, dass die Welt wahrscheinlich dorthin geht, und jetzt ist es sozusagen eine ausgemachte Sache, dass die Welt dorthin geht“, sagte er. Er sagte, seiner Meinung nach werde jeder maßgeschneiderte Modelle wollen und seine eigenen Daten einbringen.

Bedrock, sagte Garman, „wächst im Moment wie Unkraut.“

Ein Problem im Zusammenhang mit generativer KI, das er jedoch noch lösen möchte, ist der Preis. „Ein Großteil davon ist die Verdoppelung unseres kundenspezifischen Siliziums und einiger anderer Modelländerungen, um den Schluss zu ziehen, dass Sie (etwas) viel erschwinglicher in Ihre Anwendungen einbauen werden.“

Die nächste Generation seiner maßgeschneiderten Trainium-Chips von AWS, die das Unternehmen auf seiner re:Invent-Konferenz Ende 2023 vorstellte, werde gegen Ende dieses Jahres auf den Markt kommen, sagte Garman. „Ich freue mich wirklich, dass wir die Kostenkurve wirklich umkehren und unseren Kunden einen echten Mehrwert bieten können.“

Ein Bereich, in dem AWS nicht unbedingt versucht hat, mit einigen anderen Technologiegiganten zu konkurrieren, ist der Aufbau eigener großer Sprachmodelle. Als ich Garman danach fragte, bemerkte er, dass das Unternehmen immer noch „sehr darauf konzentriert“ sei. Er hält es für wichtig, dass AWS über First-Party-Modelle verfügt und gleichzeitig weiterhin auf Modelle von Drittanbietern setzt. Er möchte aber auch sicherstellen, dass die eigenen Modelle von AWS einen einzigartigen Mehrwert schaffen und sich von anderen abheben können, sei es durch die Verwendung eigener Daten oder „durch andere Bereiche, in denen wir Chancen sehen“.

Zu diesen Chancenbereichen gehören die Kosten, aber auch die Agenten, denen in der Branche derzeit offenbar alle optimistisch gegenüberstehen. „Wenn die Modelle zuverlässig sind und ein sehr hohes Maß an Korrektheit aufweisen, dann tatsächlich andere APIs aufrufen und Dinge tun, ist das ein Bereich, in dem meiner Meinung nach einige Innovationen möglich sind“, sagte Garman. Agenten, sagt er, werden den Nutzen der generativen KI erheblich steigern, indem sie Prozesse im Namen ihrer Benutzer automatisieren.

Q, ein KI-gestützter Chatbot

Auf seiner letzten re:Invent-Konferenz stellte AWS außerdem Q vor, seinen generativen KI-gestützten Assistenten. Derzeit gibt es davon im Wesentlichen zwei Varianten: Q Developer und Q Business.

Q Developer lässt sich in viele der beliebtesten Entwicklungsumgebungen integrieren und bietet unter anderem Code-Vervollständigung und Tools zur Modernisierung älterer Java-Apps.

„Wir verstehen Q Developer wirklich als ein umfassenderes Konzept, das Entwicklern im gesamten Lebenszyklus wirklich hilft“, sagte Garman. „Ich denke, viele der frühen Entwicklertools waren stark auf das Codieren ausgerichtet, und wir denken mehr darüber nach, wie wir bei allem helfen können, was für Entwickler schmerzhaft und mühsam ist?“

Bei Amazon nutzten die Teams Q Developer, um 30.000 Java-Apps zu aktualisieren und sparten dabei 260 Millionen US-Dollar und 4.500 Entwicklerjahre, sagte Garman.

Q Business nutzt unter der Haube ähnliche Technologien, der Schwerpunkt liegt jedoch auf der Aggregation interner Unternehmensdaten aus einer Vielzahl von Quellen und deren Durchsuchbarkeit über einen ChatGPT-ähnlichen Frage-und-Antwort-Dienst. Das Unternehmen „sieht dort eine echte Anziehungskraft“, sagte Garman.

Dienste werden heruntergefahren

Während Garman feststellte, dass sich unter seiner Führung nicht viel geändert habe, ist bei AWS kürzlich etwas passiert: Das Unternehmen kündigte Pläne an, einige seiner Dienste einzustellen. Das ist etwas, was AWS traditionell nicht allzu oft getan hat, aber diesen Sommer kündigte das Unternehmen Pläne an, Dienste wie seine webbasierte Cloud9-IDE, seinen CodeCommit-GitHub-Konkurrenten CloudSearch und andere einzustellen.

„Es ist so etwas wie eine Aufräumaktion, bei der wir uns eine Reihe dieser Dienste angeschaut haben, wobei wir, ehrlich gesagt, entweder einen besseren Dienst eingeführt haben, zu dem die Leute wechseln sollten, oder wir haben einen eingeführt, den wir einfach nicht gemacht haben mach es richtig“, erklärte er. „Übrigens gibt es einige davon, die wir einfach nicht richtig hinbekommen und deren Zugkraft ziemlich gering war. Wir schauten es uns an und sagten: ‚Weißt du was? Das Partner-Ökosystem hat tatsächlich eine bessere Lösung und wir werden uns einfach darauf stützen.“ Man kann nicht in alles investieren. Man kann nicht alles bauen. Das machen wir nicht gern. Wir nehmen es ernst, wenn Unternehmen ihr Geschäft darauf setzen, dass wir Dinge langfristig unterstützen. Deshalb gehen wir sehr vorsichtig damit um.“

AWS und das Open-Source-Ökosystem

Eine Beziehung, die für AWS seit langem schwierig ist – oder zumindest als schwierig empfunden wird – ist die des Open-Source-Ökosystems. Das ändert sich, und erst vor wenigen Wochen hat AWS seinen OpenSearch-Code zur Linux Foundation und der neu gegründeten OpenSearch Foundation gebracht.

Wir lieben Open Source. Wir setzen auf Open Source. Ich denke, wir versuchen, die Vorteile der Open-Source-Community zu nutzen Und Seien Sie ein großer Beitrag zur Open-Source-Community.

„Ich denke, unsere Sicht ist ziemlich klar“, sagte Garman, als ich ihn fragte, wie er die künftige Beziehung zwischen AWS und Open Source einschätzt. „Wir lieben Open Source. Wir setzen auf Open Source. Ich denke, wir versuchen, die Vorteile der Open-Source-Community zu nutzen Und Seien Sie ein großer Beitrag zur Open-Source-Community. Ich denke, das ist der Sinn von Open Source – von der Community zu profitieren – und das ist es, was wir ernst nehmen.“

Er wies darauf hin, dass AWS wichtige Investitionen in Open Source getätigt und viele seiner eigenen Projekte als Open Source bereitgestellt habe.

„Der größte Teil der Spannungen kam von Unternehmen, die ursprünglich Open-Source-Projekte starteten und dann beschlossen, sie wieder aus dem Open-Source-Bereich zu entfernen, was meiner Meinung nach ihr gutes Recht ist. Aber wissen Sie, das ist nicht wirklich der Geist von Open Source. Und wenn wir sehen, dass Leute das tun, nehmen wir Elastic als Beispiel, und OpenSearch (der ElasticSearch-Fork von AWS) erfreut sich großer Beliebtheit. … Wenn es ein Linux-(Foundation-)Projekt oder ein Apache-Projekt oder irgendetwas anderes gibt, auf das wir uns einlassen können, dann wollen wir uns darauf einlassen; Wir tragen dazu bei. Ich denke, wir haben uns als Organisation weiterentwickelt und gelernt, wie man in dieser Gemeinschaft ein guter Verwalter ist, und hoffentlich wird das auch von anderen bemerkt.“

Leave a Comment

Your email address will not be published. Required fields are marked *