Google und Meta aktualisieren ihre KI-Modelle im Zuge des Aufstiegs von „AlphaChip“

Google und Meta aktualisieren ihre KI-Modelle im Zuge des Aufstiegs von „AlphaChip“

Vergrößern / Diese Woche gab es viele KI-Neuigkeiten, und die Berichterstattung darüber fühlt sich manchmal so an, als würde man durch eine Halle voller kaputter CRTs laufen, genau wie diese Illustration von Getty Images.

Dank OpenAI war es eine äußerst arbeitsreiche Woche in den KI-Nachrichten, darunter ein kontroverser Blogbeitrag von CEO Sam Altman, die umfassende Einführung des Advanced Voice Mode, Gerüchte über 5GW-Rechenzentren, große Personalumstrukturierungen und dramatische Umstrukturierungspläne.

Aber der Rest der KI-Welt marschiert nicht im gleichen Takt, macht sein eigenes Ding und bringt jede Minute neue KI-Modelle und Forschungsergebnisse hervor. Hier ist eine Zusammenfassung einiger anderer bemerkenswerter KI-Neuigkeiten der letzten Woche.

Google Gemini-Updates

Am Dienstag, Google angekündigt Aktualisierungen seiner Gemini-Modellpalette, einschließlich der Veröffentlichung von zwei neuen produktionsbereiten Modellen, die auf früheren Versionen basieren: Gemini-1.5-Pro-002 und Gemini-1.5-Flash-002. Das Unternehmen berichtete von Verbesserungen der Gesamtqualität, mit bemerkenswerten Zuwächsen in den Bereichen Mathematik, Umgang mit langen Kontexten und Sehaufgaben. Google gibt eine Leistungssteigerung von 7 Prozent an MMLU-Pro Benchmark und eine 20-prozentige Verbesserung bei mathematischen Aufgaben. Aber wie Sie wissen, wenn Sie Ars Technica schon länger lesen, sind KI-Benchmarks normalerweise nicht so nützlich, wie wir es gerne hätten.

Zusammen mit Modell-Upgrades führte Google erhebliche Preissenkungen für Gemini 1.5 Pro ein und senkte die Eingabe-Token-Kosten um 64 Prozent und die Ausgabe-Token-Kosten um 52 Prozent für Eingabeaufforderungen unter 128.000 Token. Als KI-Forscher Simon Willison notiert In seinem Blog heißt es: „Zum Vergleich: GPT-4o hat derzeit einen Input von 5 $/(Millionen Token) und einen Output von 15 $/m, und Claude 3.5 Sonnet hat einen Input von 3 $/m und einen Output von 15 $/m. Gemini 1.5 Pro war bereits das billigste der Grenze.“ Modelle und jetzt ist es noch günstiger.

Google hat außerdem die Ratenlimits erhöht: Gemini 1.5 Flash unterstützt jetzt 2.000 Anfragen pro Minute und Gemini 1.5 Pro verarbeitet 1.000 Anfragen pro Minute. Google berichtet, dass die neuesten Modelle im Vergleich zu früheren Versionen eine doppelt so hohe Ausgabegeschwindigkeit und eine dreimal geringere Latenz bieten. Diese Änderungen machen es für Entwickler möglicherweise einfacher und kostengünstiger, Anwendungen mit Gemini zu erstellen als zuvor.

Meta bringt Llama 3.2 auf den Markt

Am Mittwoch, Meta angekündigt die Veröffentlichung von Llama 3.2, einem bedeutenden Update seiner Open-Weights-KI-Modellpalette, über die wir in der Vergangenheit ausführlich berichtet haben. Die neue Version umfasst visionsfähige Large Language Models (LLMs) in den Parametergrößen 11 Milliarden und 90B sowie leichte Nur-Text-Modelle mit 1B- und 3B-Parametern, die für Edge- und Mobilgeräte entwickelt wurden. Meta behauptet, dass die Vision-Modelle mit führenden Closed-Source-Modellen bei Bilderkennungs- und visuellen Verständnisaufgaben konkurrenzfähig sind, während die kleineren Modelle Berichten zufolge bei verschiedenen textbasierten Aufgaben Konkurrenten ähnlicher Größe übertreffen.

Willison hat einige Experimente mit einigen der kleineren 3.2-Modelle durchgeführt und berichtete über beeindruckende Ergebnisse für die Größe der Models. KI-Forscher Ethan Mollick zeigte sich Er führt Llama 3.2 auf seinem iPhone mit einer App namens PocketPal aus.

Meta stellte auch den ersten offiziellen „Lama-Stapel“-Distributionen, die entwickelt wurden, um die Entwicklung und Bereitstellung in verschiedenen Umgebungen zu vereinfachen. Wie bei früheren Versionen stellt Meta die Modelle zum kostenlosen Download mit Lizenzbeschränkungen zur Verfügung. Die neuen Modelle unterstützen lange Kontextfenster von bis zu 128.000 Token.

Googles AlphaChip AI beschleunigt das Chip-Design

Am Donnerstag Google DeepMind angekündigt was ein bedeutender Fortschritt im KI-gesteuerten elektronischen Chipdesign zu sein scheint, AlphaChip. Es begann als Forschungsprojekt im Jahr 2020 und ist nun eine Reinforcement-Learning-Methode zum Entwerfen von Chip-Layouts. Berichten zufolge hat Google in den letzten drei Generationen AlphaChip verwendet, um „übermenschliche Chip-Layouts“ zu erstellen Tensorverarbeitungseinheiten (TPUs), bei denen es sich um GPU-ähnliche Chips handelt, die zur Beschleunigung von KI-Vorgängen entwickelt wurden. Google behauptet, dass AlphaChip hochwertige Chip-Layouts in Stunden erstellen kann, im Vergleich zu wochen- oder monatelangem menschlichem Aufwand. (Berichten zufolge hat Nvidia Ich habe auch KI verwendet um beim Design seiner Chips zu helfen.)

Bemerkenswerterweise hat Google auch eine veröffentlicht vorab trainierter Kontrollpunkt von AlphaChip auf GitHub und teilt die Modellgewichte mit der Öffentlichkeit. Das Unternehmen berichtete, dass der Einfluss von AlphaChip bereits über Google hinausgeht, und zwar bei Chipdesign-Unternehmen wie MediaTek die Technologie für ihre Chips übernehmen und weiterentwickeln. Laut Google hat AlphaChip eine neue Forschungslinie im Bereich KI für das Chip-Design in Gang gesetzt und potenziell jede Phase des Chip-Design-Zyklus von der Computerarchitektur bis zur Fertigung optimiert.

Das war nicht alles, was passiert ist, aber das sind einige wichtige Höhepunkte. Da die KI-Branche derzeit keine Anzeichen einer Verlangsamung zeigt, werden wir sehen, wie es nächste Woche weitergeht.

Leave a Comment

Your email address will not be published. Required fields are marked *