In Klinik wegen KI

Mann (60) vergiftet sich, weil er den Rat von ChatGPT befolgte

Weil der sich bei der Künstlichen Intelligenz Ernährungstipps in Sachen Salzersatz holte, lag ein Amerikaner wochenlang im Krankenhaus.

Author - Berliner KURIER
Teilen
Ein 60-jähriger Amerikaner litt unter Halluzinationen, Paranoia und schweren Angstzuständen, nachdem er den Rat von ChatGPT  befolgt hatte. Er war wochenlang in einer Klinik (Symbolfoto).
Ein 60-jähriger Amerikaner litt unter Halluzinationen, Paranoia und schweren Angstzuständen, nachdem er den Rat von ChatGPT befolgt hatte. Er war wochenlang in einer Klinik (Symbolfoto).Imagebroker/imago

Ein Mann muss um seine psychische Gesundheit bangen, nachdem er sich medizinischen Rat bei einer Künstlichen Intelligenz geholt hat. Der 60-jährige Amerikaner wollte gesünder leben und fragte ChatGPT, wie er sich ohne Speisesalz ernähren könne. Die Auskunft, die er bekam, hat dazu geführt, dass er sich vergiftete.

Künstliche Intelligenz ist oft nützlich, doch dass man Auskünfte der KI besser mit Vorsicht genießt, zeigt der Fall aus den USA. Der 60-Jährige hatte beschlossen, Salz aus seiner Ernährung zu streichen, und fragte den Chatbot um Rat. Der hat ihm nach eigenen Angaben Natriumbromid als Alternative empfohlen. In der Folge würzte der Mann also mit Bromsalz statt mit Speisesalz. Drei Monate zog er sein Experiment durch.

Vor wenigen Wochen kam der Mann mit Beschwerden in die Notaufnahme eines Krankenhauses. Er vermutete, dass Nachbarn ihn vergiften. Ärzte beschreiben den Fall ausführlich in einer amerikanischen medizinischen Fachzeitschrift. Drei Wochen verbrachte der 60-Jährige in der Klinik, er litt unter Halluzinationen, Paranoia und schweren Angstzuständen. Wie sich herausstellte, waren seine psychotischen Symptome auf das Natriumbromid zurückzuführen.

Das Bromsalz löste eine Vergiftungskrankheit aus

Der Mann war an Bromismus erkrankt, einer Vergiftungserscheinung, die im 19. und frühen 20. Jahrhundert häufiger vorkam, weil damals in vielen rezeptfreien Medikamenten Bromsalz enthalten war. Die Vergiftung zeigt sich durch psychotische, neurologische und dermatologische Symptome. Zum Glück sind sie reversibel. Der Zustand des Mannes besserte sich während der drei Wochen, in denen er in der Klinik behandelt wurde, sodass er entlassen werden konnte.

Statt mit Speisesalz würzte der Amerikaner drei Monate lang sein Essen mit Bromsalz.
Statt mit Speisesalz würzte der Amerikaner drei Monate lang sein Essen mit Bromsalz.Westend61/Imago

Was genau der Mann die Künstliche Intelligenz gefragt hatte, lässt sich nicht mehr nachvollziehen. Jede Antwort bei ChatGPT ist individuell. „Wir haben keinen Zugang zu seinem ChatGPT-Verlauf, und wir werden nie mit Sicherheit wissen, welchen Output er erhalten hat“, heißt es von den Ärzten.

Jedenfalls hatte der Mann von der KI erfahren, dass er Natriumchlorid durch Natriumbromid ersetzen könne. Das allerdings trifft nicht für medizinische Zwecke oder Speisen zu, sondern nur für andere Zwecke, etwa für Reinigungsmittel. Hatte der Mann eine falsche, gefährliche Auskunft erhalten oder sie nicht richtig gelesen? Das lässt sich nicht mehr klären. Allein aber, dass das giftige Bromsalz offenbar ohne Warnung genannt wurde, ist besorgniserregend.