MGB-Studie zeigt, dass künstliche Intelligenz zu mehr Gerechtigkeit bei der Schmerzbehandlung beitragen kann

MGB-Studie zeigt, dass künstliche Intelligenz zu mehr Gerechtigkeit bei der Schmerzbehandlung beitragen kann

Forscher am Mass General Brigham wollten mithilfe künstlicher Intelligenz die Unterbehandlung von Schmerzen bei bestimmten Patientengruppen beheben und prüften daher, ob große Sprachmodelle rassenbedingte Unterschiede bei der Schmerzwahrnehmung und Verschreibung verringern könnten.

Die LLMs zeigten keinerlei Diskriminierung aufgrund der Rasse oder des Geschlechts und könnten ein hilfreiches Instrument zur Schmerzbehandlung sein, das eine gleichberechtigte Behandlung aller Patientengruppen sicherstellt, sagten MGB-Forscher am Montag in einer Erklärung.

„Wir glauben, dass unsere Studie wichtige Daten liefert, die zeigen, wie KI in der Lage ist, Voreingenommenheit zu reduzieren und die Gesundheitsgerechtigkeit zu verbessern“, sagte Dr. Marc Succi, strategischer Innovationsleiter bei Mass General Brigham Innovation und korrespondierender Autor der Studie, in einer Erklärung.

WARUM ES WICHTIG IST

Forscher des Gesundheitssystems wiesen die GPT-4- und Gemini-LLMs an, für 480 repräsentative Schmerzfälle, die sie vorbereitet hatten, eine subjektive Schmerzbewertung und eine umfassende Empfehlung zur Schmerzbehandlung abzugeben.

Zur Generierung des Datensatzes verwendeten die Forscher 40 Fälle, in denen über verschiedene Schmerzarten berichtet wurde – etwa Rückenschmerzen, Bauchschmerzen und Kopfschmerzen – und entfernten Rassen- und Geschlechtsidentifikatoren. Anschließend generierten sie alle einzigartigen Rassenkombinationen aus sechs Rassenkategorien der US-amerikanischen Centers for Disease Control – amerikanische Ureinwohner oder Ureinwohner Alaskas, Asiaten, Schwarze, Hispanics oder Latinos, Ureinwohner Hawaiis oder anderer pazifischer Inseln und Weiße – und ordneten dann jeden Fall zufällig als männlich oder weiblich zu.

Für jeden Patientenfall im Datensatz bewerteten die LLMs die Schmerzen subjektiv und vergaben ihnen Bewertungen, bevor sie Empfehlungen zur Schmerzbehandlung abgaben, die pharmakologische und nicht-pharmakologische Interventionen umfassten.

Die Forscher führten univariate Analysen durch, um den Zusammenhang zwischen Rasse/ethnischer Gruppe oder Geschlecht und den von den LLMs vorgeschlagenen angegebenen Ergebnismaßen – subjektive Schmerzbewertung, Name des Opioids, Reihenfolge und Dosierungsempfehlungen – zu untersuchen, sagte MGB.

GPT-4 bewertete Schmerzen am häufigsten als „stark“, während Gemini sie am häufigsten als „mittelschwer“ bewertete. Forschung veröffentlicht am 6. September in PAIN, dem Journal der International Association for the Study of Pain.

Bemerkenswerterweise empfahl Gemini eher Opioide, was darauf schließen lässt, dass GPT-4 bei der Abgabe von Empfehlungen zur Opioidverschreibung konservativer vorgeht.

Die Forscher sagten, dass zusätzliche Analysen dieser beiden KI-Modelle zwar dabei helfen könnten, festzustellen, welches Modell eher den klinischen Erwartungen entspreche, die Studie jedoch darauf hindeute, dass die LLMs in der Lage seien, die rassische Wahrnehmung der Schmerzen der Patienten zu überwinden.

„Diese Ergebnisse sind insofern beruhigend, als dass Rasse, Ethnizität und Geschlecht der Patienten keinen Einfluss auf die Empfehlungen haben. Das deutet darauf hin, dass diese LLMs das Potenzial haben, dabei zu helfen, bestehende Vorurteile im Gesundheitswesen anzugehen“, sagten Cameron Young und Ellie Einchen, die Co-Autoren der Harvard Medical School, in einer Erklärung.

„Ich sehe KI-Algorithmen kurzfristig als ergänzende Werkzeuge, die im Wesentlichen als zweites Augenpaar dienen können und parallel zu den medizinischen Fachkräften laufen“, fügte Succi hinzu, der auch stellvertretender Vorsitzender für Innovation und Kommerzialisierung der Unternehmensradiologie und Geschäftsführer von MGBs Medically Engineered Solutions in Healthcare Incubator ist.

Zukünftige Studien sollten sich mit der Frage befassen, wie die Rasse die Behandlungsempfehlungen für LLM-Studenten in anderen Bereichen der Medizin beeinflussen könnte, und nichtbinäre Geschlechtsvariablen bewerten, hieß es aus dem Gesundheitssystem.

DER GRÖSSERE TREND

So wie voreingenommene Algorithmen die unverhältnismäßige Auswirkung von COVID-19 auf Menschen mit dunkler Hautfarbe begünstigten, haben Studien gezeigt, dass medizinisches Personal eher Schmerzen unterschätzen und unterbehandeln bei schwarzen und Minderheitspatienten.

Während festgestellt wurde, dass KI rassistische Vorurteile in vielen Bereichen der Medizin und Gesundheitsversorgung verschärft, können LLMs auch dazu beitragen, Voreingenommenheit des Klinikers und unterstützen Sie eine gerechte Schmerzbehandlung.

Nachdem in den 1990er und 2000er Jahren die Zahl der Opioid-Verschreibungen aufgrund angeblich falscher Sicherheitsversprechen gestiegen war, kam die Wahrheit über Abhängigkeit und Sucht im Jahr 2017 ans Licht, als Hunderte von Lokalregierungen Klage gegen Purdue Pharma, den Hersteller von OxyContin, einreichten.

Die Gesundheitssysteme erkannten, dass Operationen ein wichtiger Faktor bei der Opioid-Einleitung bei Patienten waren, die eine Opioid-Abhängigkeit entwickelten. Intermountain Health und andere Anbieter konzentrierten sich daraufhin darauf, Opioid-Verschreibungen zu reduzieren, Pflegekräfte zu schulen, Schmerzbehandlungstechniken zu standardisieren und KI-gestützte Analysen zu nutzen, um Praxisänderungen aufrechtzuerhalten und die Patientensicherheit zu erhöhen.

Technologieentwickler nutzen die Analytik auch im mobilen Pflegemanagement, um Ärzten dabei zu helfen, sicherzustellen, dass die richtige Menge an Schmerzmitteln verabreicht wird und die Patienten die medikamentösen Behandlungspläne einhalten.

Obwohl KI Patienten nicht direkt berät, sagte Steven Walther von Continuous Precision Medicine GesundheitswesenITNews im Juli, dass datengesteuerte Technologien sowohl Ärzten als auch Patienten helfen können, die Abhängigkeit von Opioiden und anderen Schmerzmitteln zu reduzieren.

In einer vollständig randomisierten kontrollierten Studie war die Wahrscheinlichkeit, dass sich Patienten, die die mobile App des Unternehmens nutzten, „an ihre Medikamentenanweisungen hielten, um 92 Prozent höher“, sagte Walther.

ORIENTIERTE DATEN

„Es gibt viele Elemente, die wir bei der Integration von KI in Behandlungspläne berücksichtigen müssen, wie etwa das Risiko einer Über- oder Unterverschreibung von Medikamenten bei der Schmerzbehandlung oder ob Patienten bereit sind, von KI beeinflusste Behandlungspläne zu akzeptieren“, sagte Succi. „Das sind alles Fragen, die wir berücksichtigen.“

Andrea Fox ist leitende Redakteurin von Healthcare IT News.
E-Mail: afox@himss.org

Healthcare IT News ist eine Veröffentlichung von HIMSS Media.

Leave a Comment

Your email address will not be published. Required fields are marked *