Während der Meta Connect-Veranstaltung am Mittwoch kündigte CEO Mark Zuckerberg eine Reihe neuer KI-gestützter Funktionen für die Ray-Ban-Kooperation des Unternehmens an. Das interessanteste davon ist die Ergänzung einer Echtzeitübersetzung über die Lautsprecher der Brille.
Meta erklärt:
Bald werden Ihre Brillen in der Lage sein, Sprache in Echtzeit zu übersetzen. Wenn Sie mit jemandem sprechen, der Spanisch, Französisch oder Italienisch spricht, hören Sie über die offenen Ohrlautsprecher der Brille, was er auf Englisch sagt. Das ist nicht nur für Reisen großartig, sondern soll auch dazu beitragen, Sprachbarrieren abzubauen und Menschen einander näher zu bringen. Wir planen, in Zukunft Unterstützung für weitere Sprachen hinzuzufügen, um diese Funktion noch nützlicher zu machen.
Einen Zeitplan für diese konkrete KI-Ergänzung haben die Unternehmen noch nicht bekannt gegeben, sie könnte jedoch je nach Umsetzung eine überaus nützliche Ergänzung der Livestreaming-Brille sein.
Live-Übersetzung ist für etablierte Hardware-Unternehmen und Startups gleichermaßen eine Art heiliger Gral. Google stellte beispielsweise eine Konzeptbrille mit einem Head-up-Display vor, das in Echtzeit übersetzen kann. Das kam jedoch nie über das Prototypenstadium hinaus.
Meta hat noch nicht bekannt gegeben, welche Sprachen zunächst verfügbar sein werden. Aus der obigen Aussage geht jedoch hervor, dass sie zunächst auf romanische Sprachen wie Englisch, Spanisch, Französisch und Italienisch beschränkt sein werden.