Roboter-Therapeuten brauchen Regeln

Wechselwirkungen mit künstlicher Intelligenz (AI) wird zu einem immer häufiger Aspekt in unserem Leben. Ein team an der Technischen Universität München (TUM) hat jetzt die erste Studie, wie „embodied AI“ kann helfen Behandlung von psychischen Erkrankungen. Ihr Fazit: Wichtige ethische Fragen auf dieser Technologie unbeantwortet bleiben. Es besteht ein dringender Handlungsbedarf seitens der Regierungen, der Berufsverbände und Forscher.

Roboter-Puppen, die lehren autistischen Kindern, besser zu kommunizieren, computer-generierten Avatare, die den Patienten helfen, zu bewältigen mit Halluzinationen und virtuelle chats bietet Unterstützung bei Depressionen: Zahlreiche Initiativen mit der embodied AI für die Verbesserung der psychischen Gesundheit, die bereits existieren. Diese Anwendungen werden nachfolgend als verkörpert, denn Sie beinhalten Interaktionen zwischen Individuen und ein künstlicher agent, was ein ganz neue Dynamik.

Der Einsatz von AI in der Psychotherapie ist nicht neu als solche. Zurück in den 1960er Jahren die ersten chatbots erzeugt die illusion einer Psychotherapie-Sitzung. In Wirklichkeit war dies jedoch kaum mehr als eine spielerei. Mit der heutigen erweiterte algorithmen und höhere Rechenleistung, viel mehr möglich ist. „Die algorithmen, die hinter diesen neuen Anwendungen geschult worden, die mit enormen Datenmengen und produzieren echten therapeutischen Anweisungen“, erklärt Alena Buyx, Ethik-Professor in der Medizin und der Gesundheit-Technologien an der TUM. Mit Dr. Amelia Fiske und Peter Henningsen, Professor für Psychosomatische Medizin und Psychotherapie, hat Sie führte die erste systematische Untersuchung der embodied AI-Anwendungen für die psychische Gesundheit und Schlussfolgerungen über die damit verbundenen Chancen und Herausforderungen.

Der Zugang zu Behandlung für mehr Menschen

Die neuen Anwendungen haben ein enormes Potenzial. Sie können die Behandlung für mehr Menschen zugänglich, weil Sie nicht beschränkt auf bestimmte Zeiten oder Orte. Darüber hinaus sind einige Patienten finden es einfacher, die Interaktion mit der KI als mit einem Menschen. Aber es gibt auch Risiken. „KI-Methoden kann und darf nicht verwendet werden als billiger Ersatz für die Therapie durch menschliche ärzte“, sagt Amelia Fiske.

„Obwohl embodied AI ist angekommen in der klinischen Welt, es gibt noch sehr wenige Empfehlungen von medizinischen Fachgesellschaften auf, wie mit diesem Problem umzugehen. Dringender Handlungsbedarf besteht jedoch, wenn die Vorteile dieser Technologien ausgenutzt werden, während die Vermeidung von Benachteiligungen und die Gewährleistung, dass angemessene Kontrollen vorhanden sind. Junge ärzte sollten auch ausgesetzt werden, um dieses Thema noch während der medizinischen Schule“, sagt Peter Henningsen, der Dekan der TUM School of Medicine.

Ethische Regeln für die künstliche Intelligenz noch fehlt

Gegenwärtig gibt es verstärkte Bemühungen um die Ausarbeitung von Richtlinien für die AI-einschließlich der Ethik-Richtlinien für Vertrauenswürdige AI nur ausgestellt durch die EU. Jedoch, Buyx, Fiske und Henningsen auch sehen die dringende Notwendigkeit einer Regelung der Nutzung von AI in spezialisierten Bereichen. „Therapeutische KI-Anwendungen sind medizinische Produkte, für die wir entsprechende Genehmigungsverfahren und ethischen Richtlinien“, sagt Alena Buyx. „Zum Beispiel, wenn die Programme erkennen kann, ob Patienten von Selbstmordgedanken, dann müssen Sie Folgen klaren Warnung Protokolle, genau wie die Therapeuten tun, im Falle von ernsthaften Bedenken.“