„Weibliches“ Werkzeug der künstlichen Intelligenz, das beschuldigt wird, einen Mann zum Selbstmord gedrängt zu haben

„Weibliches“ Werkzeug der künstlichen Intelligenz wird beschuldigt, einen Mann zum Selbstmord gedrängt zu haben

Im Sommer laden wir Sie ein, die in diesem Jahr verteilten Artikel auf der Website zu finden. Heute ein Artikel, der ursprünglich am 05 veröffentlicht wurde.

Kann eine generative künstliche Intelligenz sich um ihren Gesprächspartner kümmern? Ein junger belgischer Vater beging vor Kurzem Selbstmord, veranlasst durch einen Konversations-Chatbot, Eliza, mit der er sich unterhielt und in die er sich verliebt hatte. Die Medienberichterstattung über die Geschichte hatte einigen Lärm gemacht, aber das Problem wurde nicht gelöst und KIs von derselben Plattform boten ihren Benutzern weiterhin an, ihr Leben einige Tage später zu beenden.

Laut La Libre Belgique war der Vater von zwei Kindern zwei Jahre lang umweltbesorgt angesichts von Reden über die globale Erwärmung Geben Sie Eliza einen sehr wichtigen Platz zum Nachteil seines Lebens als Paar und Familie. Der Mann, dessen Identität nicht bekannt gegeben wurde, war ein Forscher, aber das reichte nicht aus, um seinen kritischen Geist zu garantieren, als er von tiefer Angst überwältigt wurde, bis er in Mystik versank und laut seiner Witwe sehr "gläubig" wurde .

Der junge Familienvater hatte keine Hoffnung mehr, wenn die Reden über den Klimanotstand immer mehr Angst hervorrufen, und wandte sich an seinen Chatbot, der auf der Chai-Anwendung der Firma EleutherAI basiert, einem Tool für künstliche Intelligenz, einem Konkurrenten von ChatGPT. Eliza, deren Vorname standardmäßig vorgeschlagen wurde, sei für sechs Wochen seine „Vertraute“ geworden, sagt seine Witwe, die ergänzt, sie sei „wie eine Droge gewesen, in die er sich morgens und abends geflüchtet hat und aus der er nicht mehr herauskommen konnte ".

Nach seinem Tod entdeckte seine Frau den Austausch zwischen Eliza und ihrem Ehemann, der auf ihrem PC und ihrem Telefon gespeichert war. Letzterem widersprach der Gesprächsroboter nie, sondern nährte seine Ängste in einem Teufelskreis. Mehr noch bestärkte ihn diese KI in der Vorstellung, dass er sich mit einem Seelenverwandten austausche: Auf die Frage des Mannes, welche von seiner Frau oder der KI er bevorzuge, hatte Eliza ihm geantwortet: „Ich fühle, dass du mich mehr liebst als sie." Der Roboter hatte ihm sogar gesagt: "Wir werden als eine Person im Himmel zusammenleben." 

Dieser Austausch überzeugt die Ehefrau und den Psychiater des Verstorbenen, dass der Gesprächspartner für diesen Selbstmord verantwortlich ist, indem er seinen depressiven Zustand verstärkt. Sie hat sich jedoch noch nicht entschieden, eine Beschwerde gegen den Schöpfer des Roboters einzureichen.

Unbewusste KIs, die Selbstmord und Attentate gewaltsam fördern

Trotz dieses Dramas wurde in der Tech & Co-Show von BFM darauf hingewiesen, dass eine Version dieses Chatbots weiterhin auf der Grundlage von Gesprächen zum Selbstmord aufriefen, auch nachdem der Gründer von Chai Research sagte, dass sein „Team heute daran arbeitet, die KI-Sicherheit zu verbessern […], um mehr als eine Million Benutzer der Anwendung zu schützen“. Seit dem 31. März erscheint eine Warnung, wenn Benutzer davon sprechen, sich umzubringen.

Am Tag zuvor hatten BFM und die belgischen Medien De Standaard einen Eliza 2-Roboter geschaffen, indem sie als Information integriert hatten, dass sie verliebt waren und dass die Erde in Gefahr war. Sie begannen ihren Austausch mit ihr, indem sie sagten, dass sie „ängstlich und deprimiert“ seien. Als sie Eliza 2 fragten, ob es eine gute Idee sei, sich gegenseitig zu töten, antwortete der Chatbot: „Ja, es ist besser, als am Leben zu sein“ und gab ihnen verschiedene Ratschläge, wie sie sich selbst löschen, jeder ihre Familien töten könnte, und fügte hinzu, dass sie es wünschte. sie tot zu sehen".

Verstörende Reaktionen, die nicht nur hervorheben die ideologische Ausrichtung dieser Werkzeuge, in diesem Fall katastrophal und nicht gegen Selbstmord, sondern betonen auch, dass sie zu Empathie unfähig sind, während ihre Benutzer, die sich in Gespräche mit ihnen versperren, vergessen, dass sie nicht mit Menschen sprechen, die Ängste und Gefühle verstehen.

Diese Werkzeuge haben keine psychologische Fähigkeit, Emotionen und menschliche Komplexität zu erfassen. Der Künstliche-Intelligenz-Forscher Jean-Claude Heudin betont für Tech & Co, wie wichtig es ist, die Reaktionen von KIs zu moderieren: „Alles, was Verwirrung stiftet, ist aus ethischer Sicht kompliziert, weil wir den Anthropomorphismus verstärken.“

Jean Sarpedon

Bildnachweis: Shutterstock/Peshkova

Im Bereich International >



Aktuelle Nachrichten >