Rückblick auf Ars in San Jose: Infrastruktur, Nachhaltigkeit, KI, Cocktails

Rückblick auf Ars in San Jose: Infrastruktur, Nachhaltigkeit, KI, Cocktails

Vergrößern / Dr. John Timmer, Jeff Ball, Joanna Wong und Lee Hutchinson diskutieren über Infrastruktur und Umwelt.

Kimberly White/Getty Images

Letzte Woche machten sich Ars Technica-Chefredakteur Ken Fisher und ich auf den Weg nach Westen ins sonnige San Jose, um eine Veranstaltung mit dem Titel „Beyond the Buzz: An Infrastructure Future with GenAI and What Comes Next“ zu starten, die in Zusammenarbeit mit IBM veranstaltet wurde. Es war großartig, auf der Bühne zu stehen und mit einem Raum voller interessierter Ars-Leser zu sprechen, und allen, die kommen konnten, vielen Dank, dass Sie da waren! (Für alle, die nicht kommen konnten: Das ist in Ordnung – wir veranstalten nächsten Monat eine weitere Veranstaltung in DC. Weitere Informationen dazu gibt es am Ende dieses Artikels.)

Die Veranstaltung in San Jose fand im statt Museum für Computergeschichtewas im Hinblick auf Veranstaltungsorte absolut markenkonform und angemessen war – und Ars möchte sich bei den Leuten von CHM dafür bedanken, dass sie so freundlich und entgegenkommend zu unserem Geek-Treffen waren.

„Unsere heutige Aufstellung an Rednern und Themen spiegelt die Komplexität und schnelle Entwicklung der Technologielandschaft wider, in der wir alle tätig sind“, bemerkte Fisher in seiner Eröffnungsrede zum Programm. „Wir werden nicht nur das Versprechen generativer KI diskutieren, sondern auch die Herausforderungen, die sie in Bezug auf Infrastrukturanforderungen, Sicherheitslücken und Umweltauswirkungen mit sich bringt.“

Die Tafeln

Was Ken angeht, ging es in unserem ersten Panel um die Umweltauswirkungen ständig wachsender Rechenzentren (und oft damit einhergehend um die von ihnen bereitgestellten KI-Dienste). Wir haben mit gesprochen Jeff BallStipendiat des Steyer-Taylor Center for Energy Policy & Finance an der Stanford University; Joanna WongLösungsarchitekt für KI und Speicher bei IBM; und Ars‘ leitender Wissenschaftsredakteur Dr. John Timmer.

Einer der Hauptpunkte des Panels, den ich vorher nicht ganz verstanden hatte, der aber nach der Erklärung absolut Sinn machte, war Jeff Balls Behauptung, dass „nicht alle Energie gleich ist“ – das heißt, wenn man Cloud-Ressourcen als eine Möglichkeit betrachtet Um Umweltkosten auf Dritte abzuwälzen, kann der tatsächliche physische Standort dieser Cloud-Ressourcen einen enormen Einfluss auf den CO2-Fußabdruck haben. Die Kosten für die Nutzung eines Rechenzentrums in Island und eines Rechenzentrums in China mögen ungefähr gleich sein, es besteht jedoch eine erhebliche Wahrscheinlichkeit, dass das Rechenzentrum in China Kohlekraft nutzt, während das isländische Rechenzentrum wahrscheinlich auf Geothermie setzt.

Joanna Wong von IBM wies außerdem darauf hin, dass die Infrastruktur oft von unbekannten Fehlerquellen geplagt wird – also von Problemen, die nicht kritisch genug sind, um einen Ausfall zu verursachen, aber dennoch zusätzliche Rechenleistung (und damit Energie) verbrauchen. Wong sagte, dass wir immer nach diesen Fehlerquellen Ausschau halten sollten. Wir können uns zwar Sorgen über die Energiekosten neuer Technologien machen, müssen uns aber darüber im Klaren sein, dass wir wahrscheinlich bereits Ressourcen verschwenden und die Leistung beeinträchtigen, wenn wir unsere Fehlerquellen oder sogar unsere Engpässe nicht verstehen.

Joanna Wong (Mitte) beantwortet eine Frage.
Vergrößern / Joanna Wong (Mitte) beantwortet eine Frage.

Kimberly White/Getty Images

Anschließend begaben wir uns in das sich ständig weiterentwickelnde Land der Sicherheitslücken und des KI-generierten (oder zumindest KI-geprüften) Codes. In diesem Fall wurde ich von begleitet Stephen GoldschmidtGlobal Platform Security Architect bei Box; Patrick GouldDirektor des Cyber- und Telekommunikationsportfolios der Defence Innovation Unit des Verteidigungsministeriums; Und Ram ParasuramanGeschäftsführer für Daten und Ausfallsicherheit bei IBM.

Dies war schon früher ein umstrittenes Thema, und erst kürzlich auf unserer virtuellen Konferenz Ars Frontiers im Jahr 2023 haben Sicherheitsexperten ihr Unbehagen über die Idee von KI-generiertem Code zum Ausdruck gebracht, da die meisten LLMs die Angewohnheit haben, Dinge im Handumdrehen wild zu verwirren. Unseren Diskussionsteilnehmern zufolge besteht die geeignetste Rolle für generative KI bei der Codierung jedoch wahrscheinlich darin, die menschliche Codierung zu verbessern, anstatt sie zu ersetzen – wobei KI dabei hilft, Schwachstellen verursachende Tippfehler im Code zu erkennen, den metaphorischen Besen hinter einem menschlichen Codierer zu schieben und aufzuräumen Fehler. Wir sind noch weit davon entfernt, vollständig KI-generiertem Code in der Produktion zu vertrauen (es sei denn, Sie sind verrückt oder nachlässig), aber KI-geprüfter Code? Diese Zukunft ist da. Parasuraman bringt es auf den Punkt: „Die Frage, wie man der KI-Ausgabe vertrauen kann, wird nie verschwinden. Was sich ändern wird, ist die Art und Weise, wie wir diese Ausgabe überprüfen und überwachen.“

Von links nach rechts: Stephen Goldschmidt von Box, Patrick Gould von DIU/DoD und Ram Parasuraman von IBM.
Vergrößern / Von links nach rechts: Stephen Goldschmidt von Box, Patrick Gould von DIU/DoD und Ram Parasuraman von IBM.

Kimberly White/Getty Images

Abschließend ging es in unserem abschließenden Panel um das „Spielen des Infrastruktur-Langspiels“ – das heißt, die Planung der eigenen Infrastruktur, um unvorhergesehene Probleme zu antizipieren. Bei mir war Mit Ashwin BallChief Information Officer bei Freshworks; Karun ChannaDirektor für Produkt-KI bei Roblox; Und Pete BrayGlobal Product Executive bei IBM. Es ist schwierig, die Frage „Wie antizipieren Sie unvorhergesehene Probleme“ zu beantworten, aber da die Diskussionsteilnehmer die Bandbreite von Cloud-nativ bis Hybrid mit einer starken Präsenz von Rechenzentren vor Ort abdecken, haben sie es versucht.

Es überrascht vielleicht nicht, dass die Antwort eine Kombination aus intelligenter Anforderungserfassung, Ausfallsicherheit und Flexibilität ist. Der unvermeidliche erste Schritt besteht darin, Ihre Anforderungen fest in den Griff zu bekommen. Wenn Ihre Bedarfsplanung gut verläuft, ist der Aufbau einer belastbaren Infrastruktur die Folge. Wenn Ihre Infrastruktur belastbar ist – und, was am wichtigsten ist, wenn Sie über etwas Notfall-Betriebsgeld in Reserve verfügen – sollten Sie in Ihrer Infrastruktur flexibel sein, um auf unerwartete Nachfragespitzen reagieren zu können (oder zumindest die Möglichkeit haben, vorübergehend etwas Geld auf die Last zu werfen, bis … das Problem verschwindet). Es ist keine Raketenwissenschaft – und zum Teufel, selbst bei Unternehmen, die das tun Sind Bei echter Raketenwissenschaft setzt sich eine gute Bedarfsplanung immer durch.

Leave a Comment

Your email address will not be published. Required fields are marked *