Wird eine KI bald Ihren Psychiater ersetzen?

shutterstock_576208246.jpg

" Hallo Herr. Bitte hinsetzen. Also… wie geht es dir seit dem letzten Mal? Was wäre, wenn dieser harmlose Satz in ein paar Jahren nicht mehr von einem Psychiater aus Fleisch und Blut geäußert würde, sondern von einer KI, einer künstlichen Intelligenz? Mit dem jüngsten Wiederaufleben der Psychiatrie in der öffentlichen Debatte, vor allem wegen der Gesundheitskriseist die Idee wieder aufgetaucht, Systeme zur Überwachung der psychischen Gesundheit vorzuschlagen, die KIs integrieren.

Es ist, seien wir mal ehrlich, alles andere als neu, da finden wir das erste Spur eines der Psychiatrie gewidmeten Chatbots (Dialogprogramm) namens ELIZA aus dem Jahr 1966. In den letzten Jahrzehnten haben Fortschritte in der künstlichen Intelligenz den Aufstieg ermöglicht Chatbots, „Robotertherapeuten“ oder andere Gesundheitserkennungssysteme durch Sprache.

Es existiert heute mehr als zwanzig Roboter-Therapeuten validiert durch wissenschaftliche Studien in der Psychiatrie. Mehrere dieser Arbeiten deuten darauf hin, dass Patienten dies könnten echte therapeutische Beziehungen mit diesen Technologien entwickeln, sogar dass sich einige von ihnen mit einem Chatbot sogar wohler fühlen würden als mit einem menschlichen Psychiater.

Die Ambitionen sind also hoch… Zumal diese digitalen „Profis“ im Gegensatz zu ihren menschlichen Pendants objektive, nachvollziehbare und wertfreie Entscheidungen versprechen – und jederzeit erreichbar sind.

ELIZAs Dialogseite, mit Auszug aus einem Austausch über den Freund des Gesprächspartners der Robotertherapeutin
Die erste Dialogsoftware oder Chatbot ist ELIZA, das 1966 entwickelt wurde, um einen Psychotherapeuten zu simulieren.
DR

Es sollte jedoch beachtet werden, dass der Name „Robotertherapeut“ zwar das Bild eines physischen Roboters hervorruft, die meisten jedoch textbasierte, möglicherweise animierte Videos sind. Zusätzlich zu dieser für die Mehrheit der Patienten wichtigen Abwesenheit von physischer Präsenz verkennen viele die Schwierigkeiten, denen die Menschen gegenüberstehen, mit denen sie sich unterhalten. Wie können Sie dann angemessene Antworten geben, z. B. die Überweisung an einen speziellen Helpdesk?

Diagnose und inneres Modell beim Psychiater

Der Psychiater kann in seinem Interview mit seinem Patienten wichtige Hinweise auf das Vorhandensein von Suizidgedanken oder häuslicher Gewalt wahrnehmen, die aktuelle Chatbots übersehen können.

Warum übertrifft der Psychiater immer noch seine elektronische Version? Wenn dieser Spezialist verkündet „Sie haben eine Aufmerksamkeitsstörung“ oder „Ihre Tochter hat Anorexia nervosa“, hängt der Prozess, der ihn zu diesen Diagnosen geführt hat, von seinem „inneren Modell“ ab: a Reihe von mentalen Prozessen, explizit oder implizit, die es ihm ermöglichen, seine Diagnose zu stellen.

Genauso wie dieEngineering lässt sich von der Natur inspirieren, um Hochleistungssysteme zu entwickeln, kann es relevant sein, zu analysieren, was im Kopf eines Psychiaters vor sich geht (wie er sein internes Modell entwirft und verwendet), wenn er seine Diagnose stellt, um dann die für die Nachahmung zuständige KI besser zu trainieren… Aber Inwiefern ähneln sich ein menschliches „inneres Modell“ und das eines Programms?

Das haben wir uns in unserem gefragt Artikel kürzlich in der Zeitschrift erschienen Grenzen in der Psychiatrie.

Mensch-Maschine-Vergleich

Indem man sich darauf verlässt vorherige Studien zum diagnostischen Denken in der Psychiatriehaben wir einen Vergleich zwischen dem internen Modell des Psychiaters und dem der Krankenschwestern durchgeführt. Die Formulierung einer Diagnose durchläuft drei Hauptphasen:

Informationsbeschaffung und Organisation. Während seines Interviews mit einem Patienten sammelt der Psychiater viele Informationen (aus seiner Krankenakte, seinem Verhalten, was gesagt wird usw.), die er dann nach ihrer Relevanz auswählt. Diese Informationen können dann mit bereits bestehenden Profilen mit ähnlichen Merkmalen verknüpft werden.

KI-Systeme tun dasselbe: Aus den Daten, mit denen sie trainiert wurden, extrahieren sie Merkmale aus ihrem Austausch mit dem Patienten. Funktionen), die sie nach ihrer Wichtigkeit auswählen und organisieren (Merkmalsauswahl). Diese können sie dann in Profilen gruppieren und so eine Diagnose stellen.

Der Bau des Modells. Während ihres Medizinstudiums und dann während ihrer gesamten Karriere (klinische Praxis, Lesen von Fallberichten usw.) stellen Psychiater Diagnosen, deren Ergebnis sie kennen. Dieses kontinuierliche Training verstärkt in ihrem Modell die Assoziationen zwischen den von ihnen getroffenen Entscheidungen und ihren Folgen.

Auch hier werden die KI-Modelle auf die gleiche Weise trainiert: Ob während ihres anfänglichen Trainings oder während ihres Lernens, sie verstärken in ihrem internen Modell ständig die Beziehungen zwischen den aus ihren Datenbanken extrahierten Deskriptoren und dem diagnostischen Ergebnis. Diese Datenbanken können sehr groß sein und sogar mehr Fälle enthalten, als ein Kliniker in seiner Karriere sehen wird.

Verwendung des Modells. Am Ende der beiden vorherigen Phasen ist das interne Modell des Psychiaters bereit, um neue Patienten aufzunehmen. Wie er dies tut, können verschiedene externe Faktoren beeinflussen, wie sein Gehalt oder sein Arbeitspensum – die ihren Gegenwert in den Kosten für die Ausrüstung und den Zeitaufwand für das Training oder den Einsatz einer KI finden.

Wie oben angedeutet, ist es oft verlockend zu glauben, dass der Psychiater in seiner beruflichen Praxis von einer ganzen Reihe subjektiver, schwankender und unsicherer Faktoren beeinflusst wird: der Qualität seiner Ausbildung, seiner emotionalen Verfassung, dem morgendlichen Kaffee usw. Und dass eine KI als "Maschine" all diese menschlichen Launen los wäre ... Das ist ein Fehler! Denn KI beinhaltet auch einen wichtigen Teil der Subjektivität; es ist einfach weniger unmittelbar wahrnehmbar.

[Fast 70 Leser vertrauen dem Newsletter The Conversation, um die wichtigsten Probleme der Welt besser zu verstehen. Abonnieren Sie noch heute]

KI, wirklich neutral und objektiv?

Tatsächlich wurde jede KI von einem menschlichen Ingenieur entworfen. Wenn man also die Denkprozesse des Psychiaters (und damit das Design und die Verwendung ihres internen Modells) und die der KI vergleichen möchte, muss man den Einfluss des Codierers berücksichtigen, der sie erstellt hat. Dieses hat ein eigenes internes Modell, in diesem Fall nicht klinische Daten und Diagnose zu verknüpfen, sondern Art der KI und zu automatisierendes Problem. Und auch dort kommen viele technische Entscheidungen in Betracht, die jedoch auf dem Menschen basieren (welches System, welcher Klassifizierungsalgorithmus usw.)

Das interne Modell dieses Programmierers wird zwangsläufig von den gleichen Faktoren beeinflusst wie das des Psychiaters: seine Erfahrung, die Qualität seiner Ausbildung, sein Gehalt, die Arbeitszeit zum Schreiben seines Codes, sein Morgenkaffee usw. Alle wirken sich auf die Designparameter der KI und damit indirekt auf die Entscheidungsfindung der KI aus, dh auf die Diagnosen, die sie stellen wird.

Die andere Subjektivität, die das interne Modell von KIs beeinflusst, ist diejenige, die mit den Datenbanken verbunden ist, auf denen es trainiert wird. Diese Datenbanken werden in der Tat von einer oder mehreren anderen Personen mit ihren eigenen Subjektivitäten entworfen, gesammelt und kommentiert – Subjektivität, die bei der Wahl der Art der gesammelten Daten, des beteiligten Materials, der gewählten Maßnahme zur Kommentierung der Datenbank usw. eine Rolle spielt.

Während KIs als objektiv dargestellt werden, sie reproduzieren tatsächlich die Vorurteile, die in den Datenbanken vorhanden sind, mit denen sie trainiert wurden.

Synthetisierendes Diagramm, in dem subjektive Faktoren bei der Erstellung einer Diagnose eine Rolle spielen: beim Psychiater, aber auch bei den Programmierern, Ingenieuren usw.
Subjektivität tritt nicht nur beim menschlichen Psychiater auf, sondern auch bei therapeutischen KIs durch die Entscheidungen der Ingenieure, Programmierer usw., die sie entworfen haben.
Vinzenz Martin, Autor zur Verfügung gestellt

Die Grenzen der KI in der Psychiatrie

Aus diesen Vergleichen geht hervor, dass KI nicht frei von subjektiven Faktoren ist und gerade deshalb noch nicht bereit ist, einen „echten“ Psychiater zu ersetzen. Letzterer hat andere relationale und empathische Qualitäten, um die Verwendung seines Modells an die Realität anzupassen, auf die er trifft … womit die KI immer noch zu kämpfen hat.

Der Psychiater ist somit in der Lage, während seines klinischen Gesprächs flexibel Informationen zu sammeln, die ihm den Zugriff auf sehr unterschiedliche zeitliche Informationen ermöglichen: Er kann den Patienten beispielsweise zu einem Wochen zuvor aufgetretenen Symptom befragen oder seinen Austausch in Echtzeit entsprechend weiterentwickeln die erhaltenen Antworten. KIs sind derzeit auf ein vorab festgelegtes und daher starres Schema beschränkt.

Eine weitere starke Einschränkung von KIs ist ihr Mangel an Körperlichkeit, ein Faktor in der Psychiatrie sehr wichtig. In der Tat basiert jede klinische Situation auf einer Begegnung zwischen zwei Menschen – und diese Begegnung beinhaltet Sprache und nonverbale Kommunikation: Gesten, Position von Körpern im Raum, Lesen von Emotionen auf dem Gesicht oder Erkennen nonverbaler sozialer Signale. Mit anderen Worten, die physische Anwesenheit eines Psychiaters stellt einen wichtigen Teil der Beziehung zwischen Patient und Pflegekraft dar, die ihrerseits einen wichtigen Teil der Pflege darstellt.

Jeder Fortschritt von KIs in diesem Bereich ist abhängig von Fortschritten in der Robotik, wo das interne Modell des Psychiaters bereits darin verkörpert ist.

Bedeutet dies, dass wir die Idee eines virtuellen Psychiaters vergessen sollten? Der Vergleich zwischen der Argumentation des Psychiaters und der der KI ist dennoch aus querpädagogischer Sicht interessant. In der Tat wird ein gutes Verständnis der Art und Weise, wie Psychiater argumentieren, es ermöglichen, die Faktoren besser zu berücksichtigen, die bei der Konstruktion und Verwendung von KIs in der klinischen Praxis eine Rolle spielen. Dieser Vergleich verdeutlicht auch, dass der Programmierer seinen Anteil an Subjektivität auch in KI-Algorithmen einbringt… die somit nicht in der Lage sind, die ihnen gemachten Versprechen zu halten.

Nur durch diese Art der Analyse wird sich in Zukunft eine echte interdisziplinäre Praxis entwickeln können, die eine Hybridisierung von KI und Medizin zum Nutzen der größtmöglichen Zahl ermöglicht.

Vinzenz Martin, Doktor der Informatik, Université de Bordeaux et Christoph Gauld, Kinderpsychiater und Schlafmediziner, Universität Paris 1 Panthéon-Sorbonne

Dieser Artikel wurde von neu veröffentlicht Das Gespräch unter Creative Commons Lizenz. Lesen Sie dieOriginalartikel.


Aktuelle Artikel >

Martin Scorsese kündigt den kommenden Jesus-Film an

umrandetes graues Uhrensymbol

Aktuelle Nachrichten >