Exponentielles Wachstum bringt 1 Million KI-Modelle auf Hugging Face hervor

Exponentielles Wachstum bringt 1 Million KI-Modelle auf Hugging Face hervor

Am Donnerstag, KI-Hosting-Plattform Hugging Face übertroffen Zum ersten Mal wurden 1 Million KI-Modelle aufgelistet, was einen Meilenstein im schnell wachsenden Bereich des maschinellen Lernens darstellt. Ein KI-Modell ist ein Computerprogramm (häufig unter Verwendung eines neuronalen Netzwerks), das auf Daten trainiert wird, um bestimmte Aufgaben auszuführen oder Vorhersagen zu treffen. Die Plattform, die 2016 als Chatbot-App begann, bevor sie sich 2020 zu einem Open-Source-Hub für KI-Modelle entwickelte, beherbergt heute eine breite Palette von Tools für Entwickler und Forscher.

Der Bereich des maschinellen Lernens stellt eine weitaus größere Welt dar als nur große Sprachmodelle (LLMs), wie sie ChatGPT antreiben. In einem Beitrag auf X berichtet Clément Delangue, CEO von Hugging Face schrieb darüber, wie sein Unternehmen viele hochkarätige KI-Modelle hostet, wie „Llama, Gemma, Phi, Flux, Mistral, Starcoder, Qwen, Stable Diffusion, Grok, Whisper, Olmo, Command, Zephyr, OpenELM, Jamba, Yi“, aber auch „999.984 andere.“

Der Grund dafür liegt laut Delangue in der individuellen Anpassung. „Im Gegensatz zum Trugschluss ‚Ein Modell, das sie alle beherrscht‘“, schrieb er, „sind kleinere, spezialisierte, maßgeschneiderte, optimierte Modelle für Ihren Anwendungsfall, Ihre Domäne, Ihre Sprache, Ihre Hardware und allgemein Ihre Einschränkungen besser. Tatsächlich sind.“ Was nur wenigen Menschen bewusst ist, ist, dass es auf Hugging Face fast genauso viele Modelle gibt, die nur für eine Organisation privat sind – für Unternehmen, die KI privat entwickeln, speziell für ihre Anwendungsfälle.“

Ein von Hugging Face bereitgestelltes Diagramm, das die Anzahl der KI-Modelle zeigt, die im Laufe der Zeit von Monat zu Monat zu Hugging Face hinzugefügt wurden.
Vergrößern / Ein von Hugging Face bereitgestelltes Diagramm, das die Anzahl der KI-Modelle zeigt, die im Laufe der Zeit von Monat zu Monat zu Hugging Face hinzugefügt wurden.

Die Umwandlung von Hugging Face in eine wichtige KI-Plattform folgt dem immer schneller werdenden Tempo der KI-Forschung und -Entwicklung in der gesamten Technologiebranche. In nur wenigen Jahren ist die Zahl der auf der Website gehosteten Models dramatisch gestiegen, ebenso wie das Interesse an diesem Bereich. Auf X: Hugging Face-Produktingenieur Caleb Fahlgren habe eine Tabelle gepostet der jeden Monat auf der Plattform erstellten Modelle (und a Link zu anderen Diagrammen) und sagt: „Die Zahl der Modelle wächst von Monat zu Monat exponentiell und der September ist noch nicht einmal vorbei.“

Die Kraft der Feinabstimmung

Wie von Delangue oben angedeutet, ist die schiere Anzahl der Modelle auf der Plattform auf den kollaborativen Charakter der Plattform und die Praxis der Feinabstimmung vorhandener Modelle für bestimmte Aufgaben zurückzuführen. Feinabstimmung bedeutet, ein vorhandenes Modell zu nehmen und ihm zusätzliches Training zu geben, um seinem neuronalen Netzwerk neue Konzepte hinzuzufügen und die Art und Weise zu ändern, wie es Ergebnisse erzeugt. Entwickler und Forscher aus der ganzen Welt tragen ihre Ergebnisse bei und führen so zu einem großen Ökosystem.

Die Plattform beherbergt beispielsweise viele Variationen der offenen Llama-Modelle von Meta, die verschiedene, fein abgestimmte Versionen der ursprünglichen Basismodelle darstellen, die jeweils für bestimmte Anwendungen optimiert sind.

Das Repository von Hugging Face enthält Modelle für eine Vielzahl von Aufgaben. Durchsuchen Modelle-Seite Zeigt Kategorien wie Bild-zu-Text, visuelle Fragenbeantwortung und Dokumentfragebeantwortung im Abschnitt „Multimodal“ an. In der Kategorie „Computer Vision“ gibt es Unterkategorien unter anderem für Tiefenschätzung, Objekterkennung und Bilderzeugung. Aufgaben zur Verarbeitung natürlicher Sprache wie Textklassifizierung und Beantwortung von Fragen sind ebenso vertreten wie Audio-, Tabellen- und Reinforcement-Learning-Modelle (RL).

Ein Screenshot der Hugging Face-Modellseite, aufgenommen am 26. September 2024.
Vergrößern / Ein Screenshot der Hugging Face-Modellseite, aufgenommen am 26. September 2024.

Umarmendes Gesicht

Bei Sortierung nach „die meisten Downloads„Die Hugging-Face-Modellliste zeigt Trends darüber, welche KI-Modelle die Menschen am nützlichsten finden. An der Spitze liegt mit einem riesigen Vorsprung von 163 Millionen Downloads Audio-Spektrogramm-Transformator vom MIT, das Audioinhalte wie Sprache, Musik und Umgebungsgeräusche klassifiziert. Danach folgen 54,2 Millionen Downloads BERT von Google, einem KI-Sprachmodell, das lernt, Englisch zu verstehen, indem es maskierte Wörter und Satzbeziehungen vorhersagt und so bei verschiedenen Sprachaufgaben helfen kann.

Abgerundet werden die fünf besten KI-Modelle All-MiniLM-L6-v2 (das Sätze und Absätze auf 384-dimensionale dichte Vektordarstellungen abbildet, nützlich für die semantische Suche), Vision-Transformer (das Bilder als Sequenzen von Patches verarbeitet, um eine Bildklassifizierung durchzuführen) und OpenAIs CLIP (das Bilder und Text verbindet und es ermöglicht, visuelle Inhalte mithilfe natürlicher Sprache zu klassifizieren oder zu beschreiben).

Egal um welches Modell oder welche Aufgabe es sich handelt, die Plattform wächst ständig. „Heutzutage wird auf HF alle 10 Sekunden ein neues Repository (Modell, Datensatz oder Raum) erstellt“, schrieb Delangue. „Letztendlich wird es so viele Modelle wie Code-Repositories geben und wir werden dafür da sein!“

Leave a Comment

Your email address will not be published. Required fields are marked *