Bisher erhalten Roboter Bildinformation über ihre Umgebung durch Photosensoren auf einem Mikrochip. Jeder winzige Sensor verwandelt Helligkeit in einzelne elektronische Signale, die zusammengesetzt das ganze Bild ergeben. Typische Chips mit 256 mal 256 Bildpunkten erzeugen riesige Datenmengen pro Sekunde und benötigen dafür große Rechenkapazitäten. Der Bildsensor mit dem Spinnentrick benötigt für ein Bild mit gleicher Schärfe nur 32 mal 32 Bildpunkte, berichten Oliver Landolt, Ania Mitros und Kollegen vom California Institute of Technology. Sie setzten um, was in der Biologie lange bekannt war: In den Augen der tropischen Springspinne vibriert eine lange, dünne Netzhaut und verhilft ihr zum scharfen Sehen.
Das Team kombinierte seinen Sensor-Chip mit einer federnd aufgehängten Linse. Bei Erschütterung vibrierte sie mit rund 300 Hertz in ihrer Ebene, jedoch immer mit gleichem Abstand zum Chip, so dass das Bild immer fokussiert blieb. Effekt der Bewegung: Jeder Photosensor erhält Helligkeitsinformationen nicht nur über einen einzelnen Punkt, sondern über eine kleine Ellipse. Somit deckt er eine größere Fläche ab und „sieht“ auch Helligkeitsverläufe. Ein Signalprozessor, der die Frequenz und Position der Federn kennt, errechnet aus dem Strom der digitalen Signale die Bildinformationen.
„Wenn man das System auf einen kleinen Mars-Rover setzt“, erklärt Roboter-Entwickler Christopher Assad vom NASA Jet Propulsion Laboratory begeistert, „erzeugt dieser Vibrationen allein durch seine Bewegung, und damit kann man die Sensor-Schwingungen bewirken. Ein sehr eleganter Weg, viel Energie zu sparen und intelligente Bildgebung zu betreiben.“