Die Hirnmaschinen kommen - wissenschaft.de
Anzeige
Anzeige

Gesundheit+Medizin Technik+Digitales Umwelt+Natur

Die Hirnmaschinen kommen

Was vor Jahren in kleinen Schritten begann, schreitet nun mit Siebenmeilenstiefeln voran: die Verschmelzung von Gehirn und helfenden Maschinen.

Der Schauspieler Peer Augustinski sitzt, die Beine hochgelagert, auf einem höhenverstellbaren Stuhl. Sein Kopf ist verkabelt, und über ihm ragt eine Art überdimensionale Trockenhaube auf – ein High-Tech-Messgerät. „Jetzt legen Sie mir wohl die Daumenschrauben an“, witzelt er. Tatsächlich: Um die Finger seiner linken Hand, die auf einem Kissen ruht, legt ein junger Wissenschaftler Plastikklemmen und schraubt sie fest. Eine Forscherin drückt probeweise auf einen Knopf: Die Finger der bislang reglosen Hand schließen sich – wie ferngesteuert.

Nein, das sind nicht die Dreharbeiten zu einer Science-Fiction-Satire fürs deutsche Fernsehen. Die Szene, beobachtet im Universitätsklinikum Tübingen im Januar 2007, hat einen ernsten Hintergrund. Denn der Schauspieler Peer Augustinski – ältere Jahrgänge kennen ihn aus der erfolgreichen TV-Comedy-Serie „Klimbim“, Kinobesucher als deutsche Stimme von Robin Williams – hatte im November 2005 eine Gehirnblutung. Eine Arterie war in der rechten Hälfte seines Hirns geplatzt, das austretende Blut hatte das Nervengewebe gequetscht und wichtige Faserverbindungen unterbrochen.

Nun ist bei dem 66-Jährigen die Verknüpfung zwischen Planen und Handeln gestört. Er kann sich zwar noch vorstellen, seine linke Hand zu schließen, er kann es noch wollen – aber seine Muskeln gehorchen ihm nicht mehr. Die Nervenleitung ist unterbrochen. Deswegen ist Augustinski für drei Wochen nach Tübingen gekommen, um im Labor von Niels Birbaumer, dem bekannten Psychologen und Neurowissenschaftler, etwas Neues auszuprobieren, was ihm helfen könnte, die Lähmung zu überwinden: Ein Training mit Hilfe des Magnetenzephalographen, des MEG.

Das MEG, das ist der große, heliumgekühlte Tank, der wie eine Trockenhaube seinem Kopf aufsitzt. Mit 275 Sensoren fängt es von der Schädeldecke des Schauspielers die schwachen magnetischen Signale auf, die dessen Gehirn beim Denken produziert.

Anzeige

Mittels einer supraleitenden Schaltung werden sie in elektronische Signale umgewandelt, die im Vorraum der MEG-Kabine über einen Bildschirm flirren. Die Signale von 3 der 275 Sensoren sind dabei von besonderem Interesse: Sie stammen direkt aus der Hirnwindung, mit der Augustinski vor seiner Hirnblutung seine linke Hand aktivierte. Die Befehle, die sein Nervensystem nicht mehr weiterleitet, werden jetzt beim Training in Birbaumers Labor über eine Steuerungselektronik an die „Daumenschrauben“ weitergegeben: Augustinski denkt „Hand bewegen“ und dann „ entspannen“ – und seine lahme Hand schließt sich und öffnet sich wieder. Es ist sein eigenes Hirn, das seine Hand bewegt. Eingeschränkt zwar und mit einer für Augustinski unangenehm langen Verzögerung zwischen Denken und Tun, aber immerhin. Hier ist ein Menschengehirn an eine Maschine angeschlossen, die mit Gedanken gesteuert wird. Und Peer Augustinski, der Schauspieler, ist im realen Leben – und auch nur für ein paar Stunden am Tag – zu einem Cyborg mutiert, einem Maschinenwesen.

Er ist nicht der Einzige. Weltweit sind sie im Kommen, die Cyborgs, die Mensch- Maschine-Schnittstellen, auch „ Brain-Computer-Interfaces“, kurz BCI genannt. Über hundert Arbeitsgruppen, sagt Klaus Robert Müller vom Berliner Fraunhofer-Institut für Rechnerarchitektur und Softwaretechnik (FIRST), sind weltweit dabei, die Gehirne von Versuchstieren oder freiwilligen Versuchspersonen mit Elektronik zu vernetzen. Das Ziel ist, mit Gedanken Apparate zu steuern.

Manchen – wie Robert Müller – geht es dabei vor allem um die Forschung. „Mit neuen Methoden das Gehirn verstehen“, nennt er sein Motiv. Darüber hinaus denken er und andere an Anwendungen wie intelligente Prothesen und Kommunikationsmaschinen für Behinderte, hirngerechte Steuerungssysteme für Autofahrer oder Hirnschreibmaschinen. Und nicht zuletzt an neue Computerspiele, bei denen man nur den Kopf und nicht die Hände benutzt.

Das Feld entwickelt sich rasant, es ist intellektuell stimulierend, und es hat auch schon neue Unternehmen und vermarktbare Produkte hervorgebracht. Zum Beispiel den implantierbaren Hirn-Chip „BrainGate“ der US-Firma Cyberkinetics Incorporation. Er brachte es im Juli 2006 dank eines furchtlosen jungen Mannes sogar zu einer Titelgeschichte des Fachblatts „ nature“. Matthew Nagle, so heißt der 25-jährige querschnittgelähmte Amerikaner, ist derzeit wohl der berühmteste Cyborg auf der Welt. Mehr als neun Monate lang trug er das von John Donoghue von der Brown University entwickelte, 4 mal 4 Millimeter große Implantat, das mit 100 spitzen Elektroden in seine motorische Hirnrinde hineingestochen wurde. Nagle lernte damit einen Cursor zu steuern, öffnete E-Mails, stellte den Fernseher ein und spielte einfache Computerspiele. Auch das Öffnen und Schließen einer Roboterhand gelang ihm mit Gedankenkraft. Dann wurden die Signale schwächer, und der Chip gab seinen Geist auf.

„Man muss sich wundern, dass so eine experimentelle Operation überhaupt genehmigt wurde“, sagt der Tübinger Birbaumer. Denn viel mehr als ein modernes nichtinvasives BCI, bei dem die Schädeldecke ganz bleibt, leiste der BrainGate-Chip nicht. Und die Risiken für den Patienten seien beträchtlich, „vor allem die Infektionsgefahr ist groß“.

Birbaumer muss es wissen, denn er gehört zu den Pionieren auf beiden Feldern. Vor acht Jahren entwickelte er ein BCI als Kommunikationsinstrument für Patienten, die unter fortschreitendem Muskelschwund – Amyotropher Lateralsklerose (ALS) – leiden, an der Krankheit, die auch den berühmten Physiker Stephen Hawking in den Rollstuhl zwingt. Der Apparat soll es ihnen ermöglichen, auch dann noch mit ihren Mitmenschen Gedanken auszutauschen, wenn überhaupt kein Muskel mehr funktioniert, nicht einmal ein Lippenzucken oder ein Augenblinzeln mehr möglich ist.

Birbaumers „Gedankenübersetzungsmaschine“ funktioniert mit Hilfe eines Elektroenzephalogramms (EEG). Dabei werden Elektroden am Kopf aufgeklebt, die langsame elektrische Veränderungen des Gehirns spüren und weiterleiten. Diese „Slow Cortical Potentials“ – kurz SCP – lernen die Patienten willkürlich zu beeinflussen. Sie können damit beispielsweise einen Computercursor steuern, um aus räumlich getrennten Feldern auf einem Bildschirm Buchstaben auszuwählen.

Das Training ist mühsam und dauert viele Wochen, manchmal auch Monate. Die Schreibgeschwindigkeit liegt bei einem Buchstaben pro Minute. Dennoch lernten 32 von Birbaumer und seinen Kollegen geschulte ALS-Patienten mit der Gedankenschreibmaschine umzugehen, während sie noch über eine Restbeweglichkeit verfügten. Als 7 von ihnen später in die komplette Reglosigkeit verfielen – den „Locked-in“-Status – konnten sie sich über die Maschine weiterhin verständlich machen.

Zu seinem großen Bedauern gelang es Birbaumer nicht, auch solchen Patienten das Gedankenschreiben beizubringen, die schon seit längerer Zeit „locked-in“ lebten – künstlich beatmet und ernährt, doch ohne die Möglichkeit, sich mitzuteilen. „ Offensichtlich braucht das Gehirn die kontinuierliche Erfahrung, dass auf eine selbst erzeugte Ursache eine Wirkung folgt. Wenn Sie denken und Ihr Denken hat keinen Effekt, geht die Fähigkeit zum zielgerichteten Denken verloren.“

Andere mentale Fähigkeiten, etwa das Sprachverständnis, sind bei den Patienten oft noch vorhanden, wie man aus anderen Untersuchungen weiß. Der Patient ist wach und bei Bewusstsein. Doch er kann seinen Verwandten nicht einmal signalisieren, was er mitbekommt – ein teuflischer Zustand.

Wohl deshalb hat eine Locked-in-Patientin, eine 46- jährige Frau, die von Birbaumers Team getestet wurde, das Äußerste gewagt. In einer Phase, in der es ihr für kurze Zeit gelang, ja oder nein zu sagen, indem sie den Säuregrad ihres Speichels gezielt veränderte – sie stellte sich dabei den Geschmack von Zitronensaft oder von Milch vor –, stimmte sie der Implantation von Elektroden auf ihrer Gehirnoberfläche zu. Das Verfahren, die Elektrocorticographie (ECog) ist bei Epileptikern üblich, um Anfallsherde aufzuspüren. Die Operation gelang bei der ALS-Patientin komplikationslos, und es ließen sich klare Signale ableiten. Damit gezielt kommunizieren konnte Frau aber nicht.

Niels Birbaumer nimmt solche Rückschläge in Kauf. Er ist nicht nur ein kühner Pionier, sondern auch ein hartnäckiger Forscher. Deshalb hat er sich mit Kollegen in den USA zusammengetan, um Brain-Computer-Interfaces weltweit zu studieren, zu verbessern und eine Standard-Software dafür zu entwickeln. Die gibt es inzwischen: Unter dem Stichwort „BCI 2000″ können Anwender sie von der Website des Informatikers Gerwin Schalk vom Wadsworth Center in Albany, New York (USA) herunterladen – kostenlos.

Gefördert von den National Institutes of Health der USA, hat Birbaumer auch einen Leistungsvergleich aller bisher üblichen technischen Ansätze, Gehirn-Computer-Interfaces zu bauen, vorgenommen. Die sind mittlerweile erstaunlich vielfältig: Allein die Zahl der unterschiedlichen Hirnsignale, die man ableiten und zur Steuerung benutzen kann, liegt schon bei einem knappen Dutzend. Als Signalquelle aus dem Hirn eignen sich unter anderem:

• Aktionspotenziale einzelner Nervenzellen oder kleiner Zellverbände. Sie mit implantierten Elektroden abzuleiten, war nicht nur bei Matthew Nagle erfolgreich. Auch Miguel Nicolelis von der Duke University in North Carolina sorgte vor zwei Jahren für Schlagzeilen, als es einem Rhesusaffen aus seinem Labor gelang, mit Gedankenkraft einen Roboterarm gezielt zu bewegen. Inzwischen beherrschen seine Versuchstiere den Kunstarm so perfekt, dass er zu einer natürlichen Erweiterung ihres Körpers geworden ist. Das heißt, sie können mit drei Armen gleichzeitig agieren – eine Fähigkeit, die man sich auch als Mensch manchmal wünscht.

• Das P300-Signal. Es ist die Antwort des Hirns auf neue, überraschende Reize und zeigt sich im EEG rund 300 Millisekunden nach dem Reiz. Der Amerikaner Emanuel E. Donchin aus Florida hat mit Hilfe dieser Reaktion ein BCI entwickelt, mit dem man schneller schreiben kann als mit den SCP: Die Versuchsperson blickt dabei auf einen Bildschirm, auf dem abwechselnd Buchstabengruppen hell erleuchtet werden. Ist der von ihr gewünschte Buchstabe dabei, registriert das EEG ein klares P300-Signal.

• Der sensorimotorische Rhythmus (SMR). Man kann ihn mit dem Magnetenzephalographen ableiten – wie bei Peer Augustinski – aber auch mit EEG-Elektroden, was in mehreren Labors in den USA, Europa und Asien praktiziert wird. Der SMR, eine Schwingung mit der Frequenz von 10 bis 20 Hertz, ist eigentlich ein Signal für Untätigkeit: Wird beispielsweise über der Hirnregion gemessen, die die Bewegung der rechten Hand kontrolliert, ist das SMR am größten, wenn die Versuchsperson diese Hand ruhen lässt. Stellt sie sich dagegen auch nur vor, die rechte Hand zu bewegen, verschwindet das Signal.

Der Grazer Ingenieur Gert Pfurtscheller experimentiert schon seit den Neunzigerjahren mit Brain-Computer-Interfaces, die auf dem SMR beruhen. Eine seiner Versuchspersonen ist Thomas S., genannt Tom, ein 30-jähriger Geographie-Student, der seit einem Badeunfall 1998 querschnittgelähmt ist. Nur den Kopf kann er bewegen und ein wenig die linke Hand, diese aber ziemlich kraftlos. Erst seit Tom eine High-Tech-Prothese aus Heidelberg bekommen hat, die die Muskeln an seinem linken Arm gezielt stimuliert, kann er bestimmte Bewegungsabläufe wieder ausführen, etwa ein Glas heben und daraus trinken.

Diese Armprothese hat Tom am Labor von Pfurtscheller nun mit dem EEG steuern gelernt, allerdings auf etwas kuriose Weise: Tom stellt sich dabei vor, er bewege beide Beine in einem Schwung nach vorn – eine Bewegung, die er in Wirklichkeit nicht mehr ausführen kann. Damit lässt er sein charakteristisches SMR-Signal verschwinden. „Wir sind froh, dass wir dieses Signal bei Tom entdeckt haben. Es hat genau 17 Hertz, und wir haben es ,Tom Swing‘ getauft“, sagt Pfurtscheller. Es musste eine heftige Bewegung sein, denn bei der Vorstellung von normalen Hand- oder Fußbewegungen war bei dem seit Jahren Gelähmten einfach nichts mehr zu messen – ein ähnlicher Funktionsverlust im Hirn wie bei den ALS-Patienten.

Pfurtscheller ist auch ein Experte für virtuelle Realität (VR). Er hat in Graz Experimente gemacht, bei denen Versuchspersonen sich mittels eines BCI durch eine künstliche Landschaft bewegen, die sie auf einem Bildschirm vor sich sehen. Der Grazer Ingenieur hat gute Kontakte zum Londoner CAVE-Labor (Computer Animated Virtual Environment), das mit animierten virtuellen Welten ganze Räume füllt. Dort kann man, auf einem Laufband gehend, beispielsweise durch eine Straße bummeln, die mit Avataren, virtuellen menschlichen Figuren, bevölkert ist.

Vor Kurzem konnte Tom, der Student, ausprobieren, ob auch er, in seinem Rollstuhl sitzend und mit der EEG-Kappe auf dem Kopf, durch die virtuelle Straße „rollen“ kann. In einem Video auf Pfurtschellers Website kann man sehen, dass es ihm gelungen ist. Tom fuhr die Straße entlang und stoppte, wenn ihm virtuelle Personen entgegenkamen. Allerdings: Eine Frau „überrollte“ er. „ Fehler! Zu nahe am Avatar“, meldete das Programm.

Ähnlich spielerisch wie in Graz geht man in Berlin mit dem Thema Computer-Hirn-Vernetzung um. Das dortige BCI-Team besteht aus dem Mediziner Gabriel Curio von der Charité und den Informatikern Klaus-Robert Müller und Benjamin Blankertz vom FIRST. Sie arbeiten unter anderem an neuartigen Hilfen für Behinderte. „Unser Ziel ist es, ein nicht-invasives BCI mit einem intelligenten Roboterarm zu koppeln“, sagt Müller. Aber sie erforschen auch in Kooperation mit Daimler-Chrysler die Hirnbelastung von Autofahrern, und sie laden Studenten zu spielerischen Experimenten in ihr BCI-Labor.

Mit der EEG-Kappe auf dem Kopf kann man sich dort in Computer-Games üben, in „Tetris“ oder „Brainpong“ – einem hirngesteuerten Ping-Pong-Spiel –, oder man kann die Berliner Hirnschreibmaschine benutzen, bei der ein Cursor im Kreis herumbewegt wird, um Buchstaben auszuwählen. Manche schreiben dabei ganze Sätze, etwa „Das Huhn ist angebrannt“ – wie ein Reporter der FAZ neidvoll beobachtete, der selbst nur ein unfreiwilliges „Hergk“ zustande brachte.

Soll so die Zukunft der Mensch-Maschine-Kommunikation aussehen? „Im Moment ist das EEG-Käppi noch sehr archaisch“, gibt Klaus-Robert Müller zu. „Doch wir sind dabei, etwas Neues zu entwickeln. Wir bauen Elektroden, die ohne das klebrige Gel auskommen, das man bisher auf die Kopfhaut auftragen muss, und bei denen man viel weniger Zeit zum Einmessen braucht. Diese Kappe setzt man künftig einfach auf, trainiert ein bisschen – und es funktioniert.“

Kürzlich habe er selbst einen Prototyp mit trockenen Elektroden auf dem Kopf gehabt und, kurz bevor er in die Vorlesung musste, noch eine Runde „Brainpong“ gespielt. Da sei ihm klar geworden: „Das Gerät hat ein unglaubliches Potenzial. Es ist klein, leicht und erschwinglich. Mit einem solchen Käppi auf dem Kopf kann man einen Computer bedienen und hat trotzdem die Hände frei.“ Ob er selbst den Cursor als eine Erweiterung seines Körpers empfindet, als ein neues Organ? „Das wäre zu viel gesagt“ , antwortet Müller. „Aber ich erlebe ihn schon in gewisser Weise als Teil meiner selbst. Ich bewege ihn, ohne mir Gedanken zu machen.“

Die leichte Bedienbarkeit und die kurzen Trainingszeiten des Berliner BCI sind nicht nur die Folge verbesserter Sensoren. Es steckt vor allem eine Software-Leistung dahinter, die Anwendung neuartiger, lernfähiger Algorithmen. „Support Vector-Maschinen“ heißen sie in der Mathematikersprache, und sie dienen dazu, aus komplexen Datenströmen verlässliche Vorhersagen abzuleiten – also quasi Wünsche von den Hirnströmen abzulesen. „Ich sehe nicht ein, warum der Mensch monatelang trainieren soll, um die Maschine zu bedienen. Die Maschine soll lernen, dem Menschen behilflich zu sein“, so Müllers Credo. Der Forscher hofft, dass das gelfreie EEG-Käppi zusammen mit seinen Algorithmen eines Tages Hirngeschädigten zu neuer Beweglichkeit verhelfen kann, etwa Schlaganfall-Patienten oder Menschen wie Peer Augustinski mit seinen unterbrochenen Fasersträngen im Kopf.

Als Birbaumer dem Schauspieler halb im Scherz, halb im Ernst vorschlägt, man könne doch ein Kabel von seinem Hirn zu seiner Schulter legen, um die Hand wieder zu innervieren – chirurgisch sei das kein Problem, nur müsse man dazu leider seinen Kopf aufbohren –, da wehrt der 66-Jährige heftig ab: „Um Himmels willen, nein. Wer weiß, was dabei mit meinem Hirn passiert! Am Ende spreche ich hinterher Chinesisch!“

Lieber hofft er auf ein medizinisches Wunder: Dass sein Denkorgan sich wieder von selbst regeneriert. Zwei ganz dünne Faserstränge seien da ja noch vorhanden, hätten ihm die Ärzte gesagt. Das könne man mit einer neuartigen Untersuchungsmethode im Kernspintomographen erkennen.

Ob es an diesen zwei dünnen Strängen liegt? An der Übung mit dem Magnetenzephalographen? Oder vielleicht nur an der netten Tübinger Physiotherapeutin, die ihn angefeuert hat, noch mehr körperliche Autonomie zu entwickeln?

Warum auch immer – seit vorgestern kann Peer Augustinski seine linke Hand wieder ein wenig öffnen und schließen. Und während er das stolz erzählt, ja, da sieht man es: Seine Finger zucken ein wenig. Eine total gelähmte Hand sieht anders aus. Kaum zu glauben. Ein kleines Wunder! ■

Judith Rauch hat im Tübinger MEG-Labor selbst versucht, mit Gedankenkraft einen Computer-Cursor zu lenken – beim ersten Durchgang erfolgreich, beim zweiten war sie bereits zu erschöpft. „Das ist verdammt anstrengende Kopfarbeit“, sagt sie.

Ohne Titel

· Immer empfindlicher werden die Sensoren, immer schneller die Algorithmen, die Menschen dabei helfen, Gedanken ohne Muskelkraft in Taten umzusetzen.

· Das Ziel sind bessere Prothesen für Behinderte. Das Nebenprodukt: Computerspiele, die sich allein mit dem Gehirn steuern lassen.

Ohne Titel

Kaum funktioniert die Gedankenübertragung per Elektroenzephalogramm (EEG) im Labor, bringen findige Forscher schon die ersten kommerziellen Produkte auf den Markt: Was auf dem Werbefoto der US-Firma Emotiv Systems (unten) wie ein futuristischer Fahrradhelm aussieht, ist in Wirklichkeit ein Gehirn-Computer-Interface, das laut Aussage der Entwicklerfirma EEG-Wellen aus dem Gehirn abliest. Eingesetzt werden soll der „ Epoc“ getaufte Helm vor allem in der Computerspiele-Industrie: Mithilfe der richtigen Software und nach einigen Trainings- Sitzungen sollen Benutzer künftig Absichten, aber auch Emotionen auf virtuelle Stellvertreter, sogenannte Avatare, übertragen können, beispielsweise im Computer-Spiel „Second Life“. Doch erfahrene Hirnforscher sind skeptisch, ob Epoc leisten wird, was er verspricht. Das Gehirn sei von Mensch zu Mensch zu unterschiedlich aufgebaut, als dass ein Standard für alle funktionieren könnte, geben sie zu bedenken. Klaus-Robert Müller vom Berliner Fraunhofer-Institut für Rechnerarchitektur und Softwaretechnik vermutet sogar, dass das Gerät gar keine Hirnströme misst, sondern Muskelerregungen oder andere Artefakte: „Es gibt keine wissenschaftlichen Studien zu dem Gerät, und es bleibt unklar, was da überhaupt gemessen wird.“

Anzeige

bild der wissenschaft | Aktuelles Heft

Anzeige

Dossiers

Aktueller Buchtipp

Sonderpublikation in Zusammenarbeit  mit der Baden-Württemberg Stiftung
Jetzt ist morgen
Wie Forscher aus dem Südwesten die digitale Zukunft gestalten

Wissenschaftslexikon

He|lo|phyt  〈m. 16; Bot.〉 Sumpfpflanze [<grch. helos ... mehr

Pla|net  〈m. 16〉 nicht selbst leuchtender Himmelskörper, der sich auf ellipt. Bahn um einen Fixstern bewegt; Sy Wandelstern ... mehr

Sca|ra|mouche  〈[–mu] m. 6; Theat.; frz. Form von〉 Skaramuz

» im Lexikon stöbern
Anzeige
Anzeige