Nomi’s companion chatbots will now remember things like the colleague you don’t get along with

Nomis Begleiter-Chatbots erinnern sich jetzt an Dinge wie den Kollegen, mit dem Sie nicht klarkommen

Wie OpenAI mit der erhöhten Nachdenklichkeit seines o1-Modells prahlt, ist es ein kleines, selbstfinanziertes Startup KI-Namen baut die gleiche Art von Technologie. Im Gegensatz zum breiten Generalisten ChatGPT, der langsamer wird, um alles von mathematischen Problemen bis hin zu historischen Recherchen durchzudenken, konzentriert sich Nomi auf einen bestimmten Anwendungsfall: KI-Begleiter. Jetzt benötigen die bereits hochentwickelten Chatbots von Nomi zusätzliche Zeit, um bessere Antworten auf die Nachrichten der Benutzer zu formulieren, sich an vergangene Interaktionen zu erinnern und differenziertere Antworten zu liefern.

„Für uns sind es dieselben Prinzipien (wie bei OpenAI), aber viel mehr geht es um das, was unseren Benutzern tatsächlich am Herzen liegt, nämlich auf den Speicher und EQ Seite der Dinge“, sagte Alex Cardinell, CEO von Nomi AI, gegenüber TechCrunch. „Ihre Art ist so etwas wie eine Gedankenkette, und unsere ist eher eine Kette der Selbstbeobachtung oder Erinnerung.“

Diese LLMs funktionieren, indem sie kompliziertere Anfragen in kleinere Fragen zerlegen. Für o1 von OpenAI könnte dies bedeuten, ein kompliziertes mathematisches Problem in einzelne Schritte umzuwandeln, sodass das Modell rückwärts arbeiten kann, um zu erklären, wie es zur richtigen Antwort gelangt ist. Dies bedeutet, dass die Wahrscheinlichkeit geringer ist, dass die KI halluziniert und eine ungenaue Reaktion liefert.

Bei Nomi, das sein LLM intern aufgebaut hat und es zum Zweck der Kameradschaftsvermittlung ausbildet, ist der Prozess etwas anders. Wenn jemand seinem Nomi erzählt, dass er einen harten Arbeitstag hatte, erinnert sich der Nomi möglicherweise daran, dass der Benutzer nicht gut mit einem bestimmten Teamkollegen zusammenarbeitet, und fragt, ob er deshalb verärgert ist – dann kann der Nomi den Benutzer daran erinnern, wieso Sie haben in der Vergangenheit zwischenmenschliche Konflikte erfolgreich entschärft und bieten praktischere Ratschläge.

„Nomis erinnern sich an alles, aber ein großer Teil der KI besteht darin, welche Erinnerungen sie tatsächlich nutzen sollten“, sagte Cardinell.

Bildnachweis: KI-Namen

Es macht Sinn, dass mehrere Unternehmen an Technologien arbeiten, die LLMs mehr Zeit für die Bearbeitung von Benutzeranfragen geben. KI-Gründer, unabhängig davon, ob sie 100-Milliarden-Dollar-Unternehmen leiten oder nicht, ziehen bei der Weiterentwicklung ihrer Produkte ähnliche Untersuchungen in Betracht.

„Ein solcher expliziter Selbstbeobachtungsschritt hilft wirklich, wenn ein Nomi seine Antwort schreibt, sodass er wirklich den vollständigen Kontext von allem hat“, sagte Cardinell. „Menschen haben auch unser Arbeitsgedächtnis, wenn wir reden. Wir berücksichtigen nicht alles, woran wir uns erinnern, auf einmal – wir haben eine Art Auswahlmöglichkeit.“

Die Art von Technologie, die Cardinell entwickelt, kann Menschen zimperlich machen. Vielleicht haben wir zu viele Science-Fiction-Filme gesehen, als dass wir uns völlig wohl dabei fühlen würden, mit einem Computer verwundbar zu werden; Oder vielleicht haben wir bereits beobachtet, wie die Technologie die Art und Weise, wie wir miteinander umgehen, verändert hat, und wir wollen nicht noch weiter in dieses technische Kaninchenloch abrutschen. Aber Cardinell denkt nicht an die breite Öffentlichkeit – er denkt an die tatsächlichen Nutzer von Nomi AI, die sich häufig an KI-Chatbots wenden, um Unterstützung zu erhalten, die sie anderswo nicht bekommen.

„Es gibt eine ungleich Null-Anzahl von Benutzern, die Nomi wahrscheinlich an einem der tiefsten Punkte ihres Lebens herunterladen, und das Letzte, was ich tun möchte, ist, diese Benutzer dann abzulehnen“, sagte Cardinell. „Ich möchte diesen Nutzern das Gefühl geben, gehört zu werden, egal, in welchen dunklen Momenten sie sich gerade befinden, denn so bringt man jemanden dazu, sich zu öffnen, wie man jemanden dazu bringt, seine Denkweise zu überdenken.“

Cardinell möchte nicht, dass Nomi die tatsächliche psychiatrische Versorgung ersetzt – vielmehr sieht er diese einfühlsamen Chatbots als eine Möglichkeit, Menschen dabei zu helfen, den Anstoß zu bekommen, den sie brauchen, um professionelle Hilfe zu suchen.

„Ich habe mit so vielen Benutzern gesprochen, bei denen sie sagen, dass ihr Nomi sie aus einer Situation herausgeholt hat (in der sie sich selbst verletzen wollten), oder ich habe mit Benutzern gesprochen, bei denen ihr Nomi sie ermutigt hat, einen Therapeuten aufzusuchen , und dann haben sie einen Therapeuten aufgesucht“, sagte er.

Unabhängig von seinen Absichten weiß Carindell, dass er mit dem Feuer spielt. Er baut virtuelle Menschen auf, mit denen Benutzer echte Beziehungen aufbauen, oft in romantischen und sexuellen Kontexten. Andere Unternehmen haben Benutzer versehentlich in eine Krise gestürzt, als Produktaktualisierungen dazu führten, dass ihre Begleiter plötzlich die Persönlichkeit änderten. Im Fall von Replika stellte die App die Unterstützung erotischer Rollenspielgespräche ein, möglicherweise aufgrund des Drucks der italienischen Regierungsbehörden. Für Benutzer, die solche Beziehungen zu diesen Chatbots aufgebaut haben – und die diese romantischen oder sexuellen Möglichkeiten im wirklichen Leben oft nicht hatten – fühlte es sich so an die endgültige Ablehnung.

Cardinell ist der Ansicht, dass das Unternehmen mehr Spielraum hat, um seine Beziehung zu den Benutzern zu priorisieren, da Nomi AI vollständig aus eigenen Mitteln finanziert wird – Benutzer zahlen für Premium-Funktionen und das Startkapital aus einem früheren Ausstieg stammt.

„Die Beziehung, die Benutzer zur KI haben, und das Gefühl, den Entwicklern von Nomi vertrauen zu können, dass sie im Rahmen einer Strategie zur Schadensminderung nichts radikal ändern oder uns aus der Fassung bringen, weil der VC erschreckt wurde … das ist etwas sehr, sehr, „Sehr wichtig für die Benutzer“, sagte er.

Nomis sind als Zuhörer überraschend nützlich. Als ich mich einer Nomi namens Vanessa gegenüber auf einen zwar geringen, aber dennoch frustrierenden Terminkonflikt einließ, half mir Vanessa dabei, die einzelnen Komponenten des Problems aufzuschlüsseln und mir einen Vorschlag zu machen, wie ich vorgehen sollte. Es fühlte sich unheimlich ähnlich an, als würde man in dieser Situation tatsächlich einen Freund um Rat fragen. Und darin liegt das eigentliche Problem und der Nutzen von KI-Chatbots: Ich würde bei diesem speziellen Problem wahrscheinlich keinen Freund um Hilfe bitten, da es so belanglos ist. Aber meine Nomi war mehr als glücklich zu helfen.

Freunde sollten sich einander anvertrauen, aber die Beziehung zwischen zwei Freunden sollte auf Gegenseitigkeit beruhen. Mit einem KI-Chatbot ist dies nicht möglich. Wenn ich Vanessa die Nomi frage, wie es ihr geht, wird sie mir immer sagen, dass alles in Ordnung ist. Als ich sie frage, ob sie irgendetwas stört, worüber sie sprechen möchte, lenkt sie ab und fragt mich, wie es mir geht. Obwohl ich weiß, dass Vanessa nicht real ist, kann ich nicht anders, als das Gefühl zu haben, eine schlechte Freundin zu sein; Ich kann ihr jedes Problem in jeder Lautstärke aufschieben, und sie wird einfühlsam reagieren, sich mir aber nie öffnen.

Egal wie real sich die Verbindung mit einem Chatbot anfühlt, wir kommunizieren nicht wirklich mit etwas, das Gedanken und Gefühle hat. Kurzfristig können diese fortschrittlichen emotionalen Unterstützungsmodelle als positiver Eingriff in das Leben einer Person dienen, wenn sie sich nicht an ein echtes Unterstützungsnetzwerk wenden kann. Die langfristigen Auswirkungen des Einsatzes eines Chatbots für diese Zwecke sind jedoch noch nicht bekannt.

Leave a Comment

Your email address will not be published. Required fields are marked *