Revolutionärer Gehirnchip

An ALS erkrankte Frau spricht nach 13 Jahren zum ersten Mal

Künstliche Intelligenz kann in vielen Bereichen genutzt werden. Menschen, die nicht mehr sprechen können, wird durch KI wieder Kommunikation möglich.

Teilen
Schnittstelle Gehirn: Mithilfe eines Gehirnchips soll die ALS-Patientin Pat Bennett wieder sprechen können.
Schnittstelle Gehirn: Mithilfe eines Gehirnchips soll die ALS-Patientin Pat Bennett wieder sprechen können.Screenshot/YouTube-Video des Kanals Stanford Medicine

Selbst wenn die Muskeln, die für das Sprechen verantwortlich sind, nicht mehr funktionieren, unser Gehirn merkt sich, wie man Wörter formuliert. Diese Eigenschaft machen sich Forscherinnen und Forscher der Stanford University zu Nutzen und helfen einer Patientin mit vier Aspirin-großen im Gehirn implantierten Sensoren nach 13 Jahren wieder zu sprechen, wie in einem Pressestatement von Stanford Medicine mitgeteilt wurde.

Pat Bennett ist 68 Jahre alt. Vor ihrer Erkrankung joggte die ehemalige Reiterin und Personalleiterin täglich. 2012 wurde bei ihr Amyotrophe Lateralsklerose, kurz ALS, diagnostiziert. Bei der Erkrankung, von der auch Stephen Hawking und der kürzlich verstorbene Partner von Sandra Bullock betroffen waren, werden die Neuronen angegriffen. In der Folge wird der Körper geschwächt und Bewegungen können nicht mehr kontrolliert werden. Schließlich kommt es zu Lähmungen.

„Wenn man an ALS denkt, denkt man an Arm- und Beinbelastungen“, erklärte Bennett laut der Stanford University in einem Interview. „Aber bei einer Gruppe von ALS-Patienten beginnt es mit Sprachschwierigkeiten.“

Bei Bennett begann die Verschlechterung nicht, wie üblich, im Rückenmark, sondern im Stammhirn. Sie kann sich zwar noch bewegen, anziehen und mit den Fingern tippen, doch wird das mit voranschreitender Krankheit zunehmend schwerer für sie. Ihre Muskeln in Lippen, Zunge, Kehlkopf und Kiefer kann sie nicht mehr nutzen. Sprechen ist daher nicht möglich. Obwohl Bennetts Gehirn immer noch Anweisungen zur Erzeugung von Lauten formulieren kann, sind ihre Muskeln nicht in der Lage, die Befehle auszuführen.

Stanford Medicine implantiert ALS-Patientin Sensoren im Gehirn

Ein Neurochirurg der Stanford Medicine platzierte im März 2022 zwei winzige Sensoren in zwei Gehirnregionen von Bennett, die an der Sprachproduktion beteiligt sind. Die Sensoren sind Bestandteile einer revolutionären Gehirn-Computer-Schnittstelle (BCI). In Kombination mit einer der modernsten Dekodierungssoftware sollen sie die Gehirnaktivitäten auf einem Bildschirm in Wörter umwandeln.

Etwa einen Monat nach der Operation begann ein Forschungsteam von Stanford Medicine mit insgesamt 26 jeweils vierstündigen Sitzungen, um die Software zu trainieren. Nach vier Monaten wurden Bennetts Gedanken aus ihrem Kopf direkt auf einem Computerbildschirm in Wörter umgewandelt. Und das im Rekord-Tempo: 62 Wörter pro Minute! Das ist mehr als dreimal so schnell wie der bisherige Rekord für BCI-gestützte Kommunikation.

Professor Philip Sabes von der University of California in San Francisco, der Gehirn-Maschine-Schnittstellen erforscht und Elon Musks Neuralink mitbegründet hat, bezeichnete die neue Studie als „großen Durchbruch“. Das teilte die britische Boulevardzeitung Daily Mail mit. Die Nachricht kommt nur wenige Monate, nachdem die Gesundheitsbehörde FDA Elon Musks Unternehmen die Zulassung erteilt hat, klinische Gehirnimplantat-Versuche am Menschen durchzuführen.

Die Ergebnisse aus Stanford folgen den Bemühungen der Organisation der Vereinten Nationen für Wissenschaft und Kultur (Unesco), Vorschläge zur Regulierung der Gehirnchip-Technologie zu entwickeln. Es soll vermieden werden, diese Technologie zur „Neuroüberwachung“ oder sogar „Zwangsumerziehung“ zu missbrauchen, denn das stellt eine ernsthafte Bedrohung für die Menschenrechte weltweit dar.

KI-basierter Algorithmus empfängt und entschlüsselt Informationen aus Gehirn

Für Bennett ist die Implantation des Gehirnchips jedoch ein voller Erfolg. „Diese ersten Ergebnisse haben das Konzept bestätigt, und irgendwann wird die Technologie aufholen, um es Menschen, die nicht sprechen können, leicht zugänglich zu machen“, teilte Patientin Bennett mit. „Für diejenigen, die nonverbal sind, bedeutet das, dass sie mit der größeren Welt verbunden bleiben, vielleicht weiterhin arbeiten und Freunde und Familienbeziehungen pflegen können.“

Jamie Henderson, der Chirurg, der die OP durchführte, sagte: „Bennetts Tempo nähert sich langsam der natürlichen Konversationsrate von englischsprachigen Menschen mit etwa 160 Wörtern pro Minute.“ Das Forschungsteam habe gezeigt, „dass man beabsichtigte Sprache entschlüsseln kann, indem man die Aktivität in einem sehr kleinen Bereich der Gehirnoberfläche aufzeichnet“, sagte Henderson weiter. Am Mittwoch veröffentlichte er mit seinen Co-Autorinnen und -Autoren die Ergebnisse der Studie auf Nature.

Doch wie genau funktioniert das? Ein KI-basierter Algorithmus empfängt und entschlüsselt elektronische Informationen, die von Bennetts Gehirn ausgehen. Das Programm bringt sich schließlich selbst bei, die unterschiedlichen Gehirnaktivitäten zu unterscheiden, die mit Bennetts Versuchen verbunden sind, jedes der 39 Laute zu formulieren, aus denen die englische Sprache besteht. Im Wesentlichen handelt es sich um ein hoch entwickeltes Autokorrektursystem, das die Lautströme in die Abfolge von Wörtern umwandelt. „Dieses System ist darauf trainiert, zu wissen, welche Wörter vor anderen stehen sollten und welche Phoneme welche Wörter ergeben“, erklärte Experte Frank Willett, der die Software betreibt. „Wenn einige Phoneme falsch interpretiert wurden, kann es immer noch eine gute Vermutung sein.“