Ein Mann muss um seine psychische Gesundheit bangen, nachdem er sich medizinischen Rat bei einer Künstlichen Intelligenz geholt hat. Der 60-jährige Amerikaner wollte gesünder leben und fragte ChatGPT, wie er sich ohne Speisesalz ernähren könne. Die Auskunft, die er bekam, hat dazu geführt, dass er sich vergiftete.
Künstliche Intelligenz ist oft nützlich, doch dass man Auskünfte der KI besser mit Vorsicht genießt, zeigt der Fall aus den USA. Der 60-Jährige hatte beschlossen, Salz aus seiner Ernährung zu streichen, und fragte den Chatbot um Rat. Der hat ihm nach eigenen Angaben Natriumbromid als Alternative empfohlen. In der Folge würzte der Mann also mit Bromsalz statt mit Speisesalz. Drei Monate zog er sein Experiment durch.
Vor wenigen Wochen kam der Mann mit Beschwerden in die Notaufnahme eines Krankenhauses. Er vermutete, dass Nachbarn ihn vergiften. Ärzte beschreiben den Fall ausführlich in einer amerikanischen medizinischen Fachzeitschrift. Drei Wochen verbrachte der 60-Jährige in der Klinik, er litt unter Halluzinationen, Paranoia und schweren Angstzuständen. Wie sich herausstellte, waren seine psychotischen Symptome auf das Natriumbromid zurückzuführen.
Das Bromsalz löste eine Vergiftungskrankheit aus
Der Mann war an Bromismus erkrankt, einer Vergiftungserscheinung, die im 19. und frühen 20. Jahrhundert häufiger vorkam, weil damals in vielen rezeptfreien Medikamenten Bromsalz enthalten war. Die Vergiftung zeigt sich durch psychotische, neurologische und dermatologische Symptome. Zum Glück sind sie reversibel. Der Zustand des Mannes besserte sich während der drei Wochen, in denen er in der Klinik behandelt wurde, sodass er entlassen werden konnte.

Was genau der Mann die Künstliche Intelligenz gefragt hatte, lässt sich nicht mehr nachvollziehen. Jede Antwort bei ChatGPT ist individuell. „Wir haben keinen Zugang zu seinem ChatGPT-Verlauf, und wir werden nie mit Sicherheit wissen, welchen Output er erhalten hat“, heißt es von den Ärzten.