Chips im eigenen Saft - wissenschaft.de
Anzeige
Anzeige

Allgemein

Chips im eigenen Saft

Alle Daten der Welt in einem Reagenzglas: Statt mit Bits und Bytes rechnen Computer in 20 Jahren mit Schnipseln aus DNA-Molekülen. Schon Realität: Lernfähige Chips, die sich selbst verdrahten.

Vorhersagen sind bekanntlich problematisch, vor allem, wenn sie die Zukunft betreffen. Diese Erfahrung mußten auch Wissenschaftler der renommierten Harvard-Universität machen: Vor etwa 50 Jahren weissagten sie, daß sechs Rechenmaschinen den Bedarf der Vereinigten Staaten vollauf decken könnten. Vor Augen hatten die Professoren dabei die ersten Rechner auf elektronischer Basis – tonnenschwere Ungetüme, in deren Eingeweiden Zehntausende von Elektronenröhren brummten.

Selten lag eine Prognose so daneben. Heute stehen in amerikanischen Büros und Haushalten wohl an die 100 Millionen PC – jeder leistungsfähiger als sein Urahn. Ein kleiner Chip trägt heute ein Vielfaches der Schaltelemente, die damals ein ganzes Büro füllten. Selbst die klingende Geburtstagskarte, die im Müll landet, enthält mehr Schaltelemente als die Dinosaurier der Datenverarbeitung.

Der erste Transistor, 1947 im Bell-Forschungslabor in New Jersey erfunden, war noch fingernagelgroß. Anfang der sechziger Jahre schrumpften Transistoren auf die Größe eines Salzkorns. 1958 gab es die ersten Chips, kleine Plättchen aus dem Halbleitermaterial Silizium, auf denen die Transistoren fest in Schaltkreise integriert wurden. 1970 fanden auf einem Chip 50 Transistoren Platz, ein Jahrzehnt später bereits 100000. Heute sind es einige zehn Millionen, und in wenigen Jahren werden es Milliarden sein. Gordon Moore, einer der Gründer der Firma Intel, hatte in den siebziger Jahren daraus ein Gesetz abgeleitet: Alle zwei Jahre, so das Mooresche Gesetz, verdoppelt sich die Zahl der Transistoren auf einem Chip. Mittlerweile liegt die Verdopplungszeit sogar bei 18 Monaten.

Die kleinsten Schaltelemente sind heute einen viertel Mikrometer breit. Siemens-Forschungschef Prof. Claus Weyrich meint, daß sich die herkömmliche Siliziumtechnik noch bis 0,05 Mikrometer verfeinern läßt. Damit wäre die Entwicklung im Nanobereich angelangt, wo man in milliardstel Metern mißt. „Jeder Quadratzentimeter eines Chips enthielte dann zehn Milliarden Schaltelemente“, so Weyrich. „Das entspricht bei den Arbeitsspeichern der 64-Gigabit-Generation.“ Dies könnte um 2010 erreicht sein. Ein PC wäre dann 1000mal leistungsfähiger als heute und könnte auf die Größe einer Scheckkarte schrumpfen. Ein Speicherchip nähme den Inhalt von 15000 Taschenbüchern auf.

Anzeige

Was aber kommt hinter dieser physikalischen Grenze? Keine Sorge, meinte schon der amerikanische Physiker und Nobelpreisträger Richard Feynman 1959 in seinem legendären Vortrag: „Unten ist noch genügend Platz.“ Unten – das ist die atomare Ebene. Hier wandelt sich die Mikroelektronik zur Nanoelektronik. In der Quantenwelt herrschen eigene Gesetze: Zustände lassen sich nicht mehr eindeutig beschreiben, Elektronen können nicht mehr ungehindert fließen. Kann man unter diesen Umständen überhaupt verläßliche Geräte bauen? Vor allem die Japaner sind optimistisch. Dort hält sich jede größere Halbleiter-Firma ein paar Wissenschaftler, die an sogenannten Quantenelementen forschen. In den USA und Europa sind es vor allem Universitätsforscher, die sich mit Quantenpunkten, Quantendrähten und Quantenrechnern beschäftigen. Sie reizt eher die „interessante Physik“. Seit den achtziger Jahren experimentieren mehrere Gruppen mit Einzelelektronen-Transistoren (SET). In herkömmlichen Transistoren marschieren einige 100000 Elektronen, um einen Schalter ein- oder auszuschalten. In einem SET reicht ein einziges Elektron.

Dazu packt man zwischen Emitter- und Kollektor-Elektrode des Transistors eine winzige Insel, auf der nur ein Elektron Platz findet. Diese Insel – ein sogenannter Quantenpunkt – ist von der Umgebung durch eine Potentialschwelle isoliert. Nach klassischen Regeln könnte ein Elektron diese Schwelle nur überwinden, wenn es genügend Energie hat. Anders im quantenmechanischen Wellenbild: Wenn das Elektron auf der anderen Seite der Potentialschwelle einen Platz mit passender Energie findet, kann es die Schwelle durchtunneln. Die Energie des Elektrons auf der Insel läßt sich über die Spannung der Basis-Elektrode regeln. Anfang der neunziger Jahre funktionierten SET nur bei tiefsten Temperaturen, denn sie waren mit Abmessungen im Mikrometerbereich noch zu groß. „Da die Natur gütig ist, verschwindet das Problem bei kleineren Strukturen“, erklärt Japans SET-Experte, Prof. Hiroyuki Sakaki von der Universität Tokio. „Bei etwa zehn Nanometer arbeitet ein SET bei Zimmertemperatur.“

Dieser Nachweis ist inzwischen mehreren Gruppen gelungen. Ihre SET messen zwischen fünf und zehn Nanometer. Ließe sich auf dieser Grundlage ein Speicherchip herstellen, könnte er etwa ein Terabit an Information aufnehmen: rund 50 Millionen Schreibmaschinenseiten – ein fünf Kilometer hoher Papierstapel. Mit heutiger Technologie bräuchte man dafür einen Chip von der Größe einer Tischtennisplatte.

Experten sind optimistisch, daß sie in den kommenden Jahren integrierte Quantenschaltkreise entwickeln können. Eine Massenfertigung setzt aber neue Werkstoffe und Kombinationen herkömmlicher Halbleitertechnik mit alternativen Verfahren voraus. Forscher von Fujitsu in Japan bauen zum Beispiel Quantendrähte und Quantenpunkte aus organischen Molekülen. Auch Siemens verfolgt zusammen mit dem Max-Planck-Institut für Polymerforschung in Mainz diesen „Bottom-up“-Weg: Aus einzelnen Molekülen werden molekulare Strukturen mit interessanten elektronischen Eigenschaften zusammengesetzt.

Vielleicht, so spekulierten jüngst Forscher von Texas Instruments, lassen sich integrierte Schaltkreise auch biologisch herstellen. Vorbild ist die Proteinsynthese: Dabei bauen Enzyme aus einem Vorrat verschiedener Moleküle, die in jeder Zelle vorhanden sind, lange Proteinketten auf. Wird die Kette länger, faltet sie sich in komplizierte Windungen, an denen später biochemische Reaktionen ablaufen. Der Bauplan für diese Kette ist auf dem Erbgut-Molekül DNA gespeichert. Ziel ist es, diesen Prozeß so zu steuern, daß am Ende molekulare Schaltkreise entstehen. Man gibt Moleküle, Enzyme und künstliche DNA-Moleküle, die die Blaupause des gewünschten Schaltkreises tragen, in eine Lösung. Damit ließe sich die aufwendige Reinraumtechnologie durch relativ einfache und billige Kochtöpfe ersetzen.

Noch weiter gehen DNA-Computer, wo es überhaupt keine Schaltkreise mehr gibt: Organische Moleküle – „Wetware“ – ersetzen die Hardware. DNA-Computer rechnen nicht mit Nullen und Einsen, sondern mit dem vierstelligen „Alphabet des Lebens“. Ein DNA-Molekül besteht aus zwei langen, miteinander verflochtenen Ketten, die aus nur vier Molekülvarianten zusammengesetzt sind: den Basen A, C, G und T. Sie wären für den DNA-Rechner das, was 0 und 1 für den Silizium-Computer sind. Ein- und Ausgabe bestünden aus DNA-Strängen, auf denen die Information als Basenfolge – zum Beispiel … TAGGCTAAATCCG … – gespeichert ist, die Rechenschritte wären biochemische Prozesse wie das Zerschneiden, Kopieren oder Zusammenfügen von DNA-Ketten.

1994 zeigte Leonard Adleman, Professor für Computerwissenschaften an der Universität von Südkalifornien in Los Angeles, daß man mit einem Reagenzglas voller DNA eine schwierige mathematische Aufgabe lösen kann: das „Problem des Handlungsreisenden“, bei dem es mittels kombinatorischer Mathematik die günstigste Route zwischen vorgegebenen Städten zu finden gilt. Kritiker meinten anfänglich, daß ein DNA-Computer nur für solche Probleme geeignet wäre. Inzwischen haben aber mehrere Forscher gezeigt, daß ein solches Gerät im Prinzip all das berechnen könnte, was auch ein Standardcomputer kann.

Vorteile des DNA-Computers wären sein geringer Energieverbrauch und seine extrem hohe Speicherdichte: Ein Kubikzentimeter DNA-Suppe könnte bis zu eine Billion Gigabit speichern – ein Vielfaches aller heute auf Festplatten, CD-ROM und Magnetbändern abgelegten digitalen Daten. Zudem arbeiten biochemische Reaktionen hochparallel: Ein einziger biochemischer Prozeß kann gleichzeitig auf viele Milliarden DNA-Stränge einwirken.

Auch wenn der DNA-Computer universell rechnen kann – Adleman bezweifelt, daß er einmal den Standardcomputer ersetzen wird: „Dafür werden seit 50 Jahren Milliarden von Dollar und immense Manpower investiert.“ Aber Spezialanwendungen seien denkbar, etwa die Berechnung komplexer Telefonnetze.

Der fiktive DNA-Computer ist ein Beispiel für einen neuen Trend in der Forschung: Biologische In-telligenz und Evolution dienen als Vorbild. „Wir hätten gerne Computer, die biologischen Systemen ähneln“, erklärt Prof. Melanie Mitchell vom Santa Fé Institute. „Sie sollen flexibler sein, lernen und sich anpassen können.“ Da auch die Programmierung großer Parallelrechner und Netzwerke immer schwieriger werde, sollten sich Programme und Systeme wie biologische Wesen evolutionär entwickeln.

Seit ein paar Jahren wenden einige Wissenschaftler genetische Algorithmen auch auf Hardware an. Ziel ist es, für bestimmte Anwendungen optimale Chips zu entwerfen – ohne Bauanleitung. Ausgangspunkt ist ein sogenannter FPGA (Field Programmable Gate Array), ein Spezialchip, dessen Verschaltung variabel ist. Der Chip enthält Tausende von gleichen Zellen, jede repräsentiert ein Schaltelement. Mittels Software kann der Programmierer diese Schaltelemente „online“ beliebig verknüpfen.

Vor sechs Jahren hatte der australische Computerwissenschaftler Hugo de Garis die Idee, daß ein FPGA die optimale Konfiguration mit Hilfe von genetischen Algorithmen selbst finden könnte. Man gibt Programme vor, die Tausenden verschiedenen Verschaltungen entsprechen. Der Chip probiert sie so lange durch, bis die optimale Konfiguration erreicht ist.

Bislang stecken diese evolutionären Chips noch in den Kinderschuhen. Bemerkenswert ist bei einigen Versuchen, daß die strikte Trennung zwischen Hard- und Software zu verschwimmen scheint: Die optimale Lösung nutzt auch physikalische Eigenschaften des Chips. So überraschte es die Forscher, daß bei der Suche nach der optimalen Lösung die Erwärmung des Chips eine Rolle spielte – warum weiß niemand. „Ich habe nicht die leiseste Ahnung, wie das System funktioniert“, gibt der britische Forscher Adrian Thompson zu.

Vielleicht, so die Vision de Garis‘, können FPGA den neuronalen Netzen zum Durchbruch verhelfen, um die es in letzter Zeit etwas stiller wurde. Man packe den genetischen Algorithmus direkt auf den Chip und verbinde Tausende dieser evolutionsfähigen Schaltkreise zu einem großen parallelen Computer. Das ergäbe eine Lernfähigkeit, die mit dem Gehirn vergleichbar wäre.

Ob DNA-Computer, Quantenrechner oder neuronales Netz – Programmierer werden umdenken müssen. Sie können künftig nicht mehr jedes einzelne Bit im Rechner kontrollieren, manche Vorgänge werden ihnen verborgen bleiben. Sie erhalten ein Ergebnis, wissen aber nicht, wie es zustande kam. Vielleicht werden Programmierer auch zu Pädagogen, wenn sie mit riesigen neuronalen Netzen zu tun haben. Dann ginge es ihnen wie vielen Eltern: Sie geben bei der Erziehung ihrer Kinder viel Input – und heraus kommt etwas völlig anderes, als sie gedacht hatten.

Der Handlungsreisende im DNA-Computer

Leonard Adleman demonstrierte das Prinzip des DNA-Computers am Problem des Handlungsreisenden. Der Vertreter soll 7 Städte nacheinander besuchen. Startpunkt ist die Stadt 0, Ende die Stadt 6. Dabei soll er – bis auf eine Ausnahme – jeden Weg nur einmal zurücklegen.

DNA-Stränge bestehen aus dem Alphabet des Lebens: den vier Basen A, T, G und C. Jeder Strang in Adlemans DNA-Suppe enthielt zehn Basen und entsprach einer der sieben Städte beziehungsweise einem der möglichen Verbindungswege, wobei ein „Wegstrang“ die zwei dazugehörigen „Stadtstränge“ miteinander verkleben konnte.

Im Reagenzglas verbanden sich die Stränge in vielen verschiedenen Kombinationen. Um die Lösung zu finden, entfernte Adleman zunächst alle Stränge, die zu lang oder zu kurz waren, die also mehr oder weniger als 7 Städte enthielten. Dann isolierte er alle Stränge, die mit der Stadt 0 begannen und mit Stadt 6 aufhörten. Nach einigen weiteren Schritten blieben nur noch die DNA-Stränge übrig, die richtig miteinander verbunden waren.

Heinz Horeis

Anzeige

bild der wissenschaft | Aktuelles Heft

Anzeige

Aktueller Buchtipp

Sonderpublikation in Zusammenarbeit  mit der Baden-Württemberg Stiftung
Jetzt ist morgen
Wie Forscher aus dem Südwesten die digitale Zukunft gestalten

Wissenschaftslexikon

Misch|ling  〈m. 1〉 1 〈oft abwertend〉 jmd., dessen Eltern verschiedenen typologischen Bevölkerungsgruppen angehören 2 〈Biol.〉 Bastard ... mehr

Li|te|ra|li|tät  〈f.; –; unz.〉 Fähigkeit zu lesen u. zu schreiben

ze|re|bel|lar  〈Adj.; Anat.〉 zum Zerebellum gehörend, von ihm ausgehend

» im Lexikon stöbern
Anzeige
Anzeige