„Könnte man mit dem Automaten sprechen, und würde er dabei automatisch erkennen, ob man Hilfe braucht oder es eilig hat, wäre dem Reisenden sehr geholfen“, meint Bernd Kleinjohann vom Heinz-Nixdorf-Institut der Universität Paderborn. Der Computer sollte das Gesicht und die Sprache des Fahrgastes erkennen und darauf wie ein Mensch reagieren, sprich: den Griesgram mit Humor freundlich stimmen, den Gestressten besonders zügig bedienen und dem Ratsuchenden ausführlich erklären, welche Reiserouten es gibt.
„Wir bringen Computer und Roboter dazu, sich auf den ersten Blick so zu verhalten wie ein Mensch. Der Trend geht zu emotionalen Maschinen“, erklärt Kleinjohann. Der gefühlvolle PC soll eine menschenähnliche Kommunikation ermöglichen, bei der er dem Nutzer von den Lippen und aus dem Gesicht lesen und seinen Worten lauschen würde. Man könnte mit dem Computer plaudern wie mit einem Freund. „Das würde die Scheu mancher Menschen vor der Technik verringern und die Bedienfreundlichkeit erhöhen“, glaubt Kleinjohann.
Der Informatiker hat im „C-LAB“, einem Gemeinschaftsunternehmen von Siemens und der Universität Paderborn, einen einfühlsamen Roboters entwickelt. Auf den ersten Blick sieht der kahle Plastikkopf mit unzähligen Kabeln und Sensoren allerdings nicht besonders menschlich aus. Aber wer mit ihm spricht, wird bemerken, dass er ein emotionaler Geselle ist: Wird man am Anfang freundlich begrüßt, reagiert er bald gelangweilt, wenn er nicht bei Laune gehalten wird. Sogar verärgern kann man ihn.
„Die Menschen finden das zunächst merkwürdig, wenn sie bemerken, dass der Kopf Gefühle zu haben scheint“, erzählt Kleinjohann. Erklärt der Forscher, wie der mysteriöse Roboterkopf funktioniert, werden seine Reaktionen nicht mehr als Emotion wahrgenommen, sondern als einprogrammiertes Verhalten. „Es sind nur menschenähnliche Maschinen und keine künstlichen Menschen“, betont der Paderborner Forscher.
Der Kopf erkennt das Gesicht und die Mimik seines Gegenübers, vernimmt dessen Worte und schließt aus der Satzmelodie auf die Verfassung des Sprechers. Lacht dieser, reagiert der Kopf freundlich, ein Gefühl, das irgendwann ebenso wie beim Menschen abebbt. Geschieht nichts Neues, kommt beim Roboter Langeweile auf, denn wie beim Menschen löst auch beim Roboterkopf das Verlangen nach Schlaf, Nahrung oder Abwechselung Emotionen aus. „Wir haben uns an soziobiologischen Erkenntnissen orientiert. Der Kopf wählt seine Gefühle je nach seinen einprogrammierten Bedürfnissen oder als Reaktion auf ein Gegenüber“, fasst Kleinjohann zusammen.
Bisher erkennt der Kopf die Launen des Gesprächspartners mit einer Zuverlässigkeit von etwa sechzig Prozent. Die Forscher wollen das Einfühlungsvermögen künftig noch ausbauen. „Am besten sind bislang Systeme, die Sprache und Mimik gemeinsam auswerten. Im Gesicht sollten sie vor allem auf die Veränderung der Gesichtszüge achten“, erklärt Kleinjohann. Rutschen die Mundwinkel nach unten, ist dies ein Hinweis auf Verstimmung. Sind die Mundwinkel des Gegenübers immer herabgezogen, hat dies nichts zu bedeuten.
Mit ähnlichen Mitteln versuchen Forscher von der Technischen Universität München einen freundlichen Computer zu entwickeln. Eine Kamera über dem Bildschirm registriert das Gesicht des Nutzers und weiß so, ob dieser traurig, fröhlich, verärgert, überrascht, angeekelt oder ängstlich ist. Jede dieser sechs Emotionen ruft charakteristische Gesichtszüge hervor, wie etwa Zornesfalten oder die hochgezogenen Mundwinkel beim Lachen. Ein lachendes Gesicht lässt sich zu 90 Prozent richtig erkennen. Ärger oder Erstaunen sind dagegen schwerer auszumachen. Sie erreichen nur Trefferquoten von 70 Prozent.
Der Bildverarbeiter Matthias Wimmer von der TU München könnte sich vorstellen, diesen PC in Schaufenstern von Reisebüros einzusetzen. Schlendert ein Passant daran vorbei, soll eine Kamera sein Gesicht erfassen und ihm ein Werbeplakat der pazifischen Inseln entgegen drehen. Wirkt der Betrachter interessiert, könnte der Computer im Hintergrund Reiseangebote ins Schaufenster einspielen. Schaut der Bürger gelangweilt, kann der Computer sich diese Mühe sparen. Bei einer verärgerten Miene könnte ein eingeblendetes Schnäppchen seine Stimmung aufhellen. Auf diese Weise würde der Stadtbummel zum emotionalen Erlebnis. Der gefühlvolle Computer könnte natürlich auch den Online-Einkauf versüßen.
Doch was, wenn der Computer einfach nicht versteht, was der Kunde wirklich will? Noch könnten die Systeme an der Komplexität der menschlichen Kommunikation scheitern. Sie erkennen die Gefühle des Menschen längst noch nicht zuverlässig genug, um als alleiniger Ansprechpartner zu dienen. Wimmer glaubt: „Das wird noch mehrere Jahre dauern.“