DE: Amyotropher Lateralsklerose (ALS) – Wenn der Computer das Sprechen übernimmt

30. Oktober 2020 | News Deutschland | 0 Kommentare

Miteinander zu sprechen oder sich zumindest über Mimik und Gebärden auszutauschen, ist eine der wichtigsten Fähigkeiten des Menschen. Bei Patienten mit fortgeschrittener Amyotropher Lateralsklerose (ALS) oder bei Patienten nach einem Schlaganfall im Hirnstamm ist jedoch manchmal jede Möglichkeit zur bewussten Regung verlorengegangen – selbst Kopf- oder Augenbewegungen als letzte Ausdrucksmittel stehen nicht mehr zur Verfügung. Um auch diesen völlig von der Kommunikation abgeschnittenen Patienten ein Stück Lebensqualität zurückzugeben, arbeiten Forscher an so genannten Gehirn-Computer-Schnittstellen (engl. Brain-Computer-Interfaces BCI), über die ein sprachlicher Austausch wieder möglich werden soll. Einen Überblick über neueste Entwicklungen auf diesem Gebiet geben Experten auf der Online-Pressekonferenz zur 64. Jahrestagung der Deutschen Gesellschaft für Klinische Neurologie und Funktionelle Bildgebung DGKN.

Der wohl bekannteste ALS-Patient der Welt ist der britische Physiker Stephen Hawking, der 2018 im Alter von 76 Jahren gestorben ist. Bereits 1985 verlor Hawking die Fähigkeit zu sprechen und kommunizierte seitdem über einen Sprachcomputer. Während Hawking seine „Stimme“ bis zuletzt über Muskelbewegungen steuerte – erst über den Daumen, später über einen Wangenmuskel – verfolgen Forscher heute weitergehende Ansätze, die von peripheren Muskelbewegungen ganz unabhängig sind. „Bereits heute können Prothesen oder Sprachsysteme rein über Hirnströme gesteuert werden“, sagt Professor Dr. med. Ulf Ziemann, Ärztlicher Direktor der Abteilung Neurologie und Co-Direktor am Hertie-Institut für klinische Hirnforschung der Universität Tübingen. Möglich ist das entweder über Elektroenzephalografie (EEG) direkt auf der Kopfhaut, oder es werden in einem invasiven Eingriff Elektroden auf die Gehirnoberfläche aufgebracht, um die dortige Aktivität zu messen.

Die auf einer solchen BCI-Schnittstelle basierenden Systeme sind bislang allerdings noch recht grob und ermöglichen nur eine begrenzte Anzahl an Bewegungen. Für Gelähmte können sie dennoch heute schon eine große Hilfe sein. Indem sie deren motorische Gehirnsignale direkt an die Muskeln weiterleiten, ermöglichen sie zumindest einfache Bewegungen wie das Füllen und Zum-Mund-Führen eines Glases. Im Bereich der Sprache müssen die Patienten bislang per Hirnstrom Buchstaben oder Wörter auswählen, die ihnen auf einem Bildschirm präsentiert werden – „ein anstrengendes und zeitraubendes Verfahren, bei dem nicht mehr als zehn Wörter pro Minute generiert werden können“, so Ziemann. Zum Vergleich: Die normale Sprechgeschwindigkeit liegt bei rund 150 Wörtern pro Minute. In diese Größenordnung wollen Mediziner nun mithilfe neuer BCI-Techniken vordringen. Ziemann weist hier besonders auf die Arbeit von Dr. Anumanchipalli von der University of California in San Francisco hin, der auch auf der DGKN-Tagung im Rahmen des Präsidentensymposiums über die Dekodierung von sprachrelevanten Vorgängen im Gehirn sprechen wird.

Anumanchipalli und sein Team verfolgen den naheliegenden Ansatz, die BCI-Elektroden direkt auf dem motorischen Sprachzentrum der Großhirnrinde zu platzieren. „Dort entstehen die Signale, über die die Motorik von Zunge, Lippen und Kehlkopf beim Sprechen aktiviert wird“, erläutert Ziemann. Auf diese Weise werde der synthetische Sprachgenerator intuitiv, quasi wie ein künstlicher Kehlkopf, direkt und ohne Umweg über einen Bildschirm angesteuert. Dass dieses Konzept aufgehen kann, zeigten die kalifornischen Mediziner bei Tests mit Epilepsie-Patienten, denen im Rahmen von Operationsvorbereitungen ohnehin ein dichtes Elektrodennetz direkt über dem motorischen Sprachkortex implantiert worden war. Indem die Probanden hunderte vorgegebener Sätze sprachen, trainierten sie einen Dekoder, dessen Sprachausgabe später auch für Unbeteiligte relativ gut verständlich war. In weiterführenden Versuchen konnte Anumanchipalli zeigen, dass die Dekodierung der Hirnsignale auch dann möglich war, wenn die Probanden die Sätze nicht aussprachen, sondern sie nur lautlos „mimten“ – ein Szenario, das der Situation von sprachunfähigen Patienten deutlich näherkommt. Auch wenn vor einer breiten Anwendung noch weitere intensive Forschungs- und Entwicklungsarbeit notwendig ist, zeigt Ziemann sich optimistisch: „Dies könnte der Weg sein, um Schwerstgelähmten wieder zu einer flüssigen Kommunikation zu verhelfen.“

Autor

  • Markus Golla

    Studiengangsleiter "GuK" IMC FH Krems, Institutsleiter Institut "Pflegewissenschaft", Diplomierter Gesundheits- und Krankenpfleger, Pflegewissenschaft BScN (Umit/Wien), Pflegewissenschaft MScN (Umit/Hall)