OpenAI und Anthropic vereinbaren, ihre Modelle mit dem US AI Safety Institute zu teilen

OpenAI und Anthropic vereinbaren, ihre Modelle mit dem US AI Safety Institute zu teilen

OpenAI und Anthropic haben vereinbart KI-Modelle – vor und nach der Veröffentlichung – mit dem US AI Safety Institute zu teilen. Die Agentur, die 2023 durch eine Executive Order von Präsident Biden gegründet wurde, wird den Unternehmen Sicherheitsfeedback geben, um ihre Modelle zu verbessern. OpenAI-CEO Sam Altman deutete die Vereinbarung Anfang des Monats an.

Das US AI Safety Institute erwähnte keine anderen Unternehmen, die sich mit KI befassen. In einer Erklärung gegenüber Engadget teilte ein Google-Sprecher jedoch mit, dass das Unternehmen in Gesprächen mit der Agentur sei und weitere Informationen bereitstellen werde, sobald diese verfügbar seien. Diese Woche begann Google mit der Einführung aktualisierter Chatbot- und Bildgeneratormodelle für Gemini.

„Sicherheit ist für bahnbrechende technologische Innovationen unerlässlich. Mit diesen Vereinbarungen freuen wir uns darauf, unsere technischen Kooperationen mit Anthropic und OpenAI zu beginnen, um die Wissenschaft der KI-Sicherheit voranzutreiben“, schrieb Elizabeth Kelly, Direktorin des US AI Safety Institute, in einer Erklärung. „Diese Vereinbarungen sind nur der Anfang, aber sie sind ein wichtiger Meilenstein bei unserer Arbeit, die Zukunft der KI verantwortungsvoll zu gestalten.“

Das US AI Safety Institute ist Teil des National Institute of Standards and Technology (NIST). Es erstellt und veröffentlicht Richtlinien, Benchmarktests und Best Practices zum Testen und Bewerten potenziell gefährlicher KI-Systeme. „So wie KI das Potenzial hat, tiefgreifendes Gutes zu tun, hat sie auch das Potenzial, tiefgreifenden Schaden anzurichten, von KI-gestützten Cyberangriffen in einem Ausmaß, das alles übersteigt, was wir bisher gesehen haben, bis hin zu KI-formulierten Biowaffen, die das Leben von Millionen gefährden könnten“, sagte Vizepräsidentin Kamala Harris Ende 2023 nach der Gründung der Agentur.

Die erste Vereinbarung dieser Art erfolgt in Form einer (formellen, aber nicht bindenden) Absichtserklärung. Die Agentur erhält vor und nach der Veröffentlichung Zugriff auf die „wichtigsten neuen Modelle“ jedes Unternehmens. Die Agentur beschreibt die Vereinbarungen als kollaborative, risikomindernde Forschung, bei der Fähigkeiten und Sicherheit bewertet werden. Das US AI Safety Institute wird auch mit dem britischen AI Safety Institute zusammenarbeiten.

Dies geschieht, während Bundes- und Landesregulierungsbehörden versuchen, KI-Leitplanken zu etablieren, während die sich rasch weiterentwickelnde Technologie noch im Anfangsstadium ist. Am Mittwoch hat die kalifornische Staatsversammlung genehmigt ein Gesetz zur KI-Sicherheit (SB 10147), das Sicherheitstests für KI-Modelle vorschreibt, deren Entwicklung mehr als 100 Millionen Dollar kostet oder eine bestimmte Rechenleistung erfordert. Das Gesetz verlangt von KI-Unternehmen, Notausschalter zu haben, die die Modelle abschalten können, wenn sie „unhandlich oder unkontrollierbar“ werden.

Anders als die nicht bindende Vereinbarung mit der Bundesregierung hätte der kalifornische Gesetzentwurf eine gewisse Durchsetzungskraft. Er gibt dem Generalstaatsanwalt des Staates die Befugnis, zu klagen, wenn KI-Entwickler sich nicht an die Vorschriften halten, insbesondere bei Ereignissen mit Bedrohungsniveau. Allerdings bedarf es noch einer weiteren Abstimmung im Verfahren – und der Unterschrift von Gouverneur Gavin Newsom, der bis zum 30. September Zeit hat, zu entscheiden, ob er dem Gesetz grünes Licht gibt.

Update, 29. August 2024, 16:53 Uhr ET: Diese Story wurde aktualisiert, um eine Antwort eines Google-Sprechers hinzuzufĂĽgen.

Leave a Comment

Your email address will not be published. Required fields are marked *