BOSTON – Bei der Möglichkeit, mithilfe künstlicher Intelligenz die Art und Weise zu ändern, wie Gesundheitsdienstleister mit Patienten kommunizieren, geht es nicht nur um Genauigkeit, Transparenz, Fairness und Datenmodellpflege, sondern auch darum, herauszufinden, wie man die Herausforderungen der Personalisierung bewältigt.
Was die Patienten wann wissen möchten, erhöht die Komplexität. Dies stellt die KI-Branche im Gesundheitswesen vor die Herausforderung, sowohl erwartete als auch unerwartete Standpunkte der Patienten zu berücksichtigen, so die Diskussionsteilnehmer des HIMSS AI in Healthcare Forum am Donnerstag.
Künstliche Intelligenz kann die Arzt-Patienten-Interaktion grundlegend verändern, da sie die Möglichkeit zur Kontextualisierung bietet und Klinikern die Notwendigkeit der Dateneingabe erspart, um im Umgang mit Patienten menschlicher zu sein.
“Bis zu einem gewissen Grad können diese beeindruckenden Werkzeuge, die sich viel schneller entwickeln als ein Gesundheitssystem, sogar darĂĽber nachdenken, wie sie eingebettet werden, wirklich positionieren oder eine enorme Chance bieten, diesen Dialog zu personalisieren, was fĂĽr diese Person wichtig ist, und sie zu beraten und zu unterstĂĽtzen, die fĂĽr sie relevanten Entscheidungen zu treffen”, sagte Anne Snowdon, Chief Research Officer bei HIMSS, der Muttergesellschaft von Neuigkeiten aus der Gesundheits-IT.
Während der Nutzen von KI-Technologien ein wichtiger Teil der Diskussion über Vertrauen ist, ist die Abbildung von Transparenz, Auswahl, Autonomie und Entscheidungsfindung für Patienten von entscheidender Bedeutung.
“Aus dieser Perspektive beginnt man, Pflege neu zu definieren und zu denken”, sagte Snowdon, die Moderatorin der Diskussionsrunde. Snowdon hat einen Doktortitel in Krankenpflege.
Verbesserung der Patientenkommunikation
Zu Snowdon gesellten sich Alexandra Wright, Patientenanwältin und Forschungsleiterin bei HIMSS, Dr. Chethan Sarabu, Leiter für klinische Innovation beim Health Tech Hub von Cornell Tech, Mark Polyak, Präsident für Analytik bei IPSOS und Dr. Lukasz Kowalczyk, Arzt bei Peak Gastroenterology Associates, zu einem ausführlicheren Gespräch über die Erwartungen der Patienten an eine KI-gestützte Gesundheitsversorgung.
„Während das Gesundheitswesen noch dabei ist, die Herausforderungen der Halluzinationen durch künstliche Intelligenz zu bewältigen, kann KI Gespräche auf ein höheres Niveau heben und mehr Vertrauen aufbauen“, sagt Sarabu, die auch Vorstandsmitglied von The Light Collective ist, einer gemeinnützigen Organisation, die sich für die Förderung der kollektiven Rechte, Interessen und Stimmen von Patientengemeinschaften in der Gesundheitstechnologie einsetzt.
Sarabu sagte, er habe bei seiner Arbeit mit dem Kollektiv im Rahmen einer Patienteneinblicksrunde gehört, dass eine Patientin, die dachte, sie würde über das Patientenportal mit einer sehr hilfsbereiten Krankenschwester namens Jessica in ihrer Klinik kommunizieren, das Vertrauen verloren habe, als sie nach der Krankenschwester persönlich in der Arztpraxis fragte.
„Sie sagte nur, sie wünschte, sie hätten ihr vorher gesagt, dass es ein Chatbot sei“, sagte er.
„Sie sollten Ihre Patienten nicht auf betrügerische Weise belästigen“, witzelte Kowalczyk, ein praktizierender Gastroenterologe und Berater bei Cliexa, einer digitalen Gesundheitsplattform mit Sitz in Denver.
Wenn ein Patient jedoch weiß, dass es sich bei Gesundheits-Chatbots wie Jessica nicht um echte Menschen handelt, könnten schwierige Umstände für den Patienten durch die Fähigkeit einer KI zur mitfühlenden Kommunikation verbessert werden.
„Mitgefühlsermüdung ist im Gesundheitswesen ein echtes Problem“, sagte Kowalczyk. „Manchmal ist es sehr hart, besonders wenn man einen Tag durchmacht und es braucht ein oder zwei Patienten, um es wirklich schwer zu machen, sich für den nächsten einzusetzen.“
Große Sprachmodelle eigneten sich hervorragend zum Umwandeln und Übersetzen von Informationen sowie zum Beschreiben der Sorgen der Patienten gegenüber den Ärzten, sodass diese „einen Moment zum Durchatmen“ und zum Wiedererlangen von Empathie erhielten, sagte er.
„Ich denke, das sind die Gelegenheiten, bei denen die Patienten das Gefühl haben, dass die KI als ihr Fürsprecher auftritt, und es hilft mir, sie als Menschen besser zu verstehen.“
Die Dynamik der Personalisierung
KI trägt möglicherweise nicht zur Vorstellung des Patienten von der Behandlung bei. In verschiedenen Szenarien, beispielsweise bei prädiktiven Analysen, kann sie Informationen liefern, die der Patient nicht haben möchte.
„Vielleicht möchten manche Patienten mehr Informationen, andere weniger, oder jemand möchte bei einem persönlichen Besuch weniger Informationen, dafür aber mehr Material, das er sich anschließend ansehen kann“, sagte Sarabu.
Aus Sicht eines Arztes ist es „schwierig, alle Informationen, Zusammenhänge und Inhalte für jeden einzelnen Patienten wirklich zu personalisieren.“
Laut Polyak gibt es drei Elemente der Pflege – Zugang zur Pflege, Zugang zu genauen Informationen und Schnelligkeit der Information.
Er stellte fest, dass 16 % einer Gruppe von Patienten, die ChatGPT nutzten, Fragen zu ihren Gesundheitsthemen stellten, um ihre Gesundheitskosten zu senken.
„(Sie) baten ChatGPT, ihnen verschiedene Szenarien vorzulegen, wie unsere Ärzte ihre Behandlung auf der Grundlage dessen, was sie hatten, angehen sollten – um die Kosten zu senken.“
„Das war nicht etwas, was ich wirklich erwartet hatte, aber es ging im Wesentlichen um die Erstellung von Szenarien, die sie ausdrucken und zu den Terminen mitbringen würden.“
Auch das KontrollgefĂĽhl ist bei den Patienten unterschiedlich.
Für Patienten und ihre Familien, die mit einer Gesundheitskrise konfrontiert sind, „ist Information tatsächlich Macht“, sagte Wright.
„Wenn man sich in solchen Situationen befindet, hat man oft das Gefühl, die Kontrolle verloren zu haben“, sagte sie.
„Und wenn Sie Ihren Zustand nicht ganz verstehen oder nicht ganz begreifen, was los ist, kann es wirklich das Gefühl haben, keine Kontrolle darüber zu haben, was mit Ihnen geschieht.“
Wenn der Arzt nicht mehr im Zimmer ist und die Patienten Fragen haben, wenden sie sich fĂĽr Informationen an Suchmaschinen und ChatGPT, sagte sie.
Auch der Kontext spielt eine Rolle bei den Informationen, die Patienten kontrollieren möchten.
„Hätte ich gewollt, dass man mir mein Überlebensrisiko mitteilt, als ich das erste Mal ins Krankenhaus kam? Wahrscheinlich nicht, denn ich glaube nicht, dass es der Situation geholfen hätte“, sagte Wright.
„Aber wenn ich jetzt darüber nachdenke: Wenn mir jemand etwas über mein Risiko sagen würde, sagen wir, einer zukünftigen Krebserkrankung, würde ich dann wissen wollen, ob ich etwas tun kann, um das zu verhindern? Wahrscheinlich.“
Die detaillierte Diskussion stelle den Einsatz von KI im Gesundheitswesen auf den Kopf, so Snowdon: „Wie helfen wir den Menschen, sich selbst dabei zu helfen, diese Entscheidungen zu treffen, sich mit einem Gefühl der Zuversicht zu informieren und herauszufinden, was für sie am wichtigsten ist?“
Andrea Fox ist leitende Redakteurin von Healthcare IT News.
E-Mail: afox@himss.org
Healthcare IT News ist eine Veröffentlichung von HIMSS Media.