Kann man anhand der Stimme einer Person erkennen, ob sie Typ-2-Diabetes hat? Neue Forschungsergebnisse deuten darauf hin. Eine aktuelle Studie hat gezeigt, dass eine kurze Sprachaufzeichnung eines Telefons, die mithilfe künstlicher Intelligenz (KI) analysiert wird, ein wirksames Instrument zur Diagnose dieser weit verbreiteten Erkrankung sein kann.
„Wir haben gezeigt, dass Menschen mit Diabetes im Vergleich zu ähnlichen Menschen ohne Diabetes unterschiedliche Stimmmuster haben“, sagt ein Koautor der Studie. Guy Fagherazzi, PhDDirektor der Abteilung für Präzisionsmedizin am Luxembourg Institute of Health in Belgien.
„Wir glauben, dass diese Technologie nie genau genug sein wird, um als Diagnoseinstrument für Typ-2-Diabetes zu dienen und einen Bluttest zu ersetzen“, sagt er. „Andererseits sind wir fest davon überzeugt, dass sie eines Tages eine effiziente Lösung für das Diabetes-Screening und die Identifizierung von Risikopersonen oder potenziell nicht diagnostizierten Fällen sein könnte. Dies könnte die weltweite Diabetes-Belastung erheblich reduzieren, da die Hälfte der Bevölkerung mit Diabetes dies ignoriert.“
Wissenschaftler analysierten Tausende Stimmmerkmale
Für die Untersuchung wurden 607 Erwachsene – die Hälfte davon mit und die andere Hälfte ohne Diabetes – gebeten, eine Sprachaufnahme von sich selbst zu machen, auf der sie einige Sätze direkt von ihrem Smartphone oder Laptop vorlesen.
Die Forscher stellten fest, dass die Teilnehmer mit Diabetes im Allgemeinen älter waren als die ohne die Krankheit und häufiger an Fettleibigkeit litten. Das Durchschnittsalter der Frauen mit Diabetes in der Studie betrug fast 50 Jahre, gegenüber 40 Jahren bei den Nichtdiabetikern, und die Männer mit Diabetes waren im Durchschnitt etwa 48 Jahre alt, gegenüber 42 Jahren bei den Nichtdiabetikern.
Das Studienteam analysierte 25 Sekunden lange Sprachproben mithilfe von zwei hochentwickelten Techniken – eine erfasste bis zu 6.000 detaillierte Stimmmerkmale, und ein zweiter, ausgefeilterer Deep-Learning-Ansatz konzentrierte sich auf einen verfeinerten Satz von etwa 1.000 Schlüsselmerkmalen.
Anhand grundlegender Gesundheitsdaten wie Alter, Geschlecht, Body-Mass-Index und Bluthochdruckstatus konnte der sprachbasierte KI-Algorithmus zwei Drittel der Frauen und sieben von zehn Männern mit Diabetes korrekt identifizieren.
Bei Frauen ab 60 Jahren und bei Menschen mit Bluthochdruck schnitt das KI-Modell sogar noch besser ab.
„Frauen lassen sich bei gesundheitlichen Problemen normalerweise leichter anhand ihrer Stimme unterscheiden. Das haben wir in früheren Studien zu anderen Krankheiten als Diabetes beobachtet“, sagt Dr. Fagherazzi. „Bluthochdruck beeinflusst bekanntermaßen auch die Stimmparameter. Daher können wir davon ausgehen, dass Menschen, die sowohl Diabetes als auch Bluthochdruck haben, eine noch besser unterscheidbare Stimme haben.“
Die Stimme als Quelle zur Krankheitserkennung
„KI und maschinelles Lernen können neue Informationen über den Zusammenhang zwischen Stimmen und Diabetes liefern“, sagt Kevin Peterson, MD, MPHder Vizepräsident für Primärversorgung bei der American Diabetes Association.
Die Studie stellte jedoch fest, dass die Erkennung durch diese KI-Technik zu 93 Prozent mit dem auf einem Fragebogen basierenden Risiko-Score der American Diabetes Association übereinstimmte, was bedeutet, dass die Leistung der Stimmanalyse und eines allgemein anerkannten Screening-Tools gleichwertig ist.
Warum Diabetes die Stimme beeinträchtigen kann
Fagherazzi und seine Kollegen vermuten, dass chronisch hoher Blutzucker, Müdigkeit, saurer Reflux, verringerte Lungenkapazität und Neuropathien (Erkrankungen, die die Nerven beeinträchtigen) einige der Hauptursachen sind, die erklären könnten, warum Menschen mit Diabetes andere Stimmmerkmale haben als Menschen ohne Diabetes.
Susan Spratt, MDProfessor für Medizin mit Spezialgebiet Endokrinologie, Stoffwechsel und Ernährung an der Duke University School of Medicine in Durham, North Carolina, vermutet, dass Diabetes die Stimme auf verschiedene Weise beeinträchtigen kann.
„Zunächst einmal kann Diabetes zu Dehydration führen, die das Stimmbandgewebe sowie das Gewebe in Mund und Zunge beeinträchtigen kann“, sagt Dr. Spratt, die nicht an der neuen Studie beteiligt war. Sie spekuliert, dass Dehydration dazu führen könnte, dass Wörter abgehackter oder „klebriger“ klingen.
Sie fügt hinzu: „Langfristig kann Diabetes die Nerven beeinträchtigen, darunter auch die, die mit dem Gehör verbunden sind. Bei Patienten mit Diabetes ist der Hörverlust stärker ausgeprägt, was sich auch auf die Sprache auswirken kann.“
„Es ist nicht das eine oder andere Stimmmerkmal, das die Unterschiede im Stimmbild von Menschen mit und ohne Diabetes erklären kann – es ist eher eine Kombination kleiner Veränderungen, die zusammengenommen dabei helfen können, zwischen den beiden Gruppen zu unterscheiden“, sagt Fagherazzi.
„Bei manchen Menschen, die seit mehr als zehn bis zwanzig Jahren an Diabetes leiden, kommt es zu Stimmveränderungen, die für das menschliche Ohr wahrnehmbar sind. Insgesamt ist es jedoch vor allem den Fortschritten in der Audiosignalverarbeitung und der künstlichen Intelligenz zu verdanken, dass wir diese subtilen Veränderungen heute erkennen können“, sagt Fagherazzi.
Sprachdiagnostik ist noch nicht für den breiten Einsatz bereit
Laut Dr. Peterson, der nicht an der Studie beteiligt war, ist weitere Forschung nötig, bevor Stimmtests in Arztpraxen allgemein als Hilfsmittel eingesetzt werden können.
„Dies ist eine Studie, die Hypothesen generiert“, sagt er. „Sie zeigt Möglichkeiten auf, die verfolgt werden können. Es ist wichtig, zu bestimmen, welche Auswirkungen eine solche Technologie auf eine ‚echte‘ Bevölkerung hätte, bevor man über die Umsetzung nachdenkt. Dies ist ein neues, interessantes Arbeitsfeld, aber es ist noch zu früh, um zu wissen, ob es einen klinischen Nutzen bringen wird.“