Frühere Varianten solcher Programme werteten meist ausschließlich einen einzelnen Gesichtsausdruck aus und konnten daher nur die sechs emotionalen Grundzustände Freude, Trauer, Ärger, Angst, Überraschung und Abscheu unterscheiden. Die neue Software registriert zusätzlich die Bewegungen von Augenbrauen, Lippen und Nase sowie Kopfbewegungen wie Neigungen, Nicken und Schütteln und vergleicht sie mit bereits abgespeicherten, einer bestimmten Emotion zugeordneten Bewegungsfolgen. Damit ist es möglich zu erkennen, ob jemand dem gesagten zustimmt oder nicht, sich konzentriert, nachdenkt, verunsichert oder interessiert ist, berichtet das Wissenschaftsmagazin „New Scientist“.
In Laborversuchen lag die Trefferquote der Software zwischen 64 und 90 Prozent ? je nachdem, wie ausgeprägt Mimik und Bewegungen der Testpersonen waren. El Kaliouby plant nun, die ersten Freiwilligen mit dem System auszurüsten, um es in einer alltäglichen Umgebung zu testen. Allerdings gebe es momentan noch technische Probleme, erklärt die Forscherin. So sind herkömmliche Handheld-Computer nicht leistungsfähig genug, um die Software in vollem Umfang laufen zu lassen. Auch müsse noch eine Hochleistungskamera gefunden werden, die so klein ist, dass sie im Alltag nicht stört. Sollte das gelingen, könnte das neue System neben seinem geplanten Einsatz beispielsweise auch Hochschullehrern helfen, die Aufmerksamkeit und das Interesse ihrer Studenten einzuschätzen, so der „New Scientist.“