Anzeige
Anzeige
1 Monat GRATIS testen, danach für nur 9,90€/Monat!

Geschichte|Archäologie Technik|Digitales

Erfolg durch Flops

Drehte man noch Ende des 19. Jahrhunderts an Kurbeln und Wellen, um komplizierte Rechnungen rasch durchführen zu können, so ist es heutzutage die Zahl der Operationen pro Sekunde, der Flops, die für Tempo steht. Wer den Begriff Terabyte schon kennt, wird bald Peta- und Exabyte dazulernen müssen.

Was man heute berechnen kann

Das Wetter ist chaotisch. Wie soll man sich da auf den Wetterbericht verlassen können? Hier eine kleine Turbulenz im Neckartal, dort ein Temperatursturz am Saum der Antarktis, eine Windhose im Mittelwesten Amerikas, oder El Niño spielt mal wieder verrückt – irgendwie hängt alles mit allem zusammen. Meteorologen versuchen das Chaos zu ordnen, so gut es geht. Ihre Rechenmaschine nennt man heutzutage High-Performance- oder Supercomputer. Gefüttert werden die riesigen Rechenanlagen mit komplizierten mathematischen Modellen und Formeln. Die sind inzwischen recht tragfähig. Das Problem: Wenn man sechs Wochen Zeit hätte, sie durchzurechnen und alle relevanten und erhobenen Daten zu verarbeiten, dann könnte man sehr genau sagen, wie das Wetter wird. Nur würde es dann keinen mehr interessieren.

Heutzutage spuckt ein Superrechner etwa alle drei Stunden seine Ergebnisse aus. Alles basiert auf der Gesamtheit der verfügbaren Daten des globalen Messnetzes. Im Idealfall fängt sie ein virtuelles Spinnennetz ein. Es besteht aus Dreiecken mit einer Kantenlänge von rund 60 Kilometern. Nach oben wird der Raum wie bei einer Zwiebelschale in 30 weitere vertikal geschichtete Netze aufgeteilt. In Bodennähe liegen die Schichten dicht an dicht, weiter oben wird der Abstand immer größer.

Alle gemessenen Werte werden in einen der größten europäischen Großrechner geschoben: Er steht beim Deutschen Wetterdienst in Offenbach. Rund zwölf Millionen Euro hat er gekostet, gebaut von IBM, und er kann unglaubliche 2800 Milliarden Rechenoperationen in der Sekunde bewältigen. Gelänge es, 30 000 gängige Home-PCs irgendwie miteinander zu verknüpfen, käme man gerade mal annähernd auf eine vergleichbare Leistungsfähigkeit. Doch auch die Rechenpower einzelner PCs steigt stetig. Das erlaubt zu Hause und im Büro die Ausführung immer anspruchsvollerer Anwendungen wie Multimedia – und zudem eine wachsende Allgegenwart des Rechners etwa in der Fahrzeugsteuerung, Medizin- und Gebäudeleittechnik sowie in der Produktion.

Gerade hier braucht man die volle Kraft der modernen Rechenmaschine: zum Beispiel für Simulationen von Karosserieverformungen bei einem Unfall. Experten schätzen, dass inzwischen rund 80 Prozent der Computerkapazität bei Automobilherstellern für das Durchspielen von Crashs benötigt wird. Ähnlich den Gitternetzen bei der Wettervorhersage werden das Auto oder einzelne Teile wie der Motorraum in kleinzellige Gitter zerlegt. Das hat etliche Vorteile: Man kann das Gitter partitionieren und die numerische Lösung von zuvor festgelegten linearen Gleichungssystemen auf mehrere Rechenmaschinen beziehungsweise Prozessoren verteilen. Schon Mitte der achtziger Jahre tauchte in Deutschland und in den USA der Gedanke des Parallelrechnens auf. Das Institut für Algorithmen und Wissenschaftliches Rechnen (SCAI) der damaligen Gesellschaft für Mathematik und Datenverarbeitung (GMD) in St. Augustin bei Bonn entwickelte in einem Konsortium Suprenum, den „SUPer-REchner für NUMerische Anwendungen“. Dem lag die Erkenntnis zugrunde, dass die Leistung von Superrechnern an Grenzen stößt, wenn nur ein einziger Prozessor eingesetzt wird. Beim Konzept des parallelen Rechnens werden dagegen viele (Hunderte oder Tausende) Prozessoren in einem einzigen System eingesetzt, die gleichzeitig – eben parallel – an der Lösung einer Aufgabe arbeiten. Dieses Konzept ermöglicht die Konstruktion von Superrechnern mit bis dahin nicht vorstellbarer, im Prinzip unbegrenzter Rechengeschwindigkeit.

Anzeige

Diese Vorarbeiten kommen nicht nur Crash-Simulationen zugute. Das SCAI, inzwischen zum Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen avanciert, bietet mittlerweile in Kooperation mit vielen Industriepartnern Software-Lösungen an, die es erlauben, Vorgänge der Strömungsmechanik, in fließenden Stoffen wie Wasser oder Öl, bei der Wärmeverteilung oder zur Optimierung von Schaltkreisen durchzurechnen. Wollen Ölbohrgesellschaften zum Beispiel wissen, wie sich das Öl im Reservoir verteilt, so müssen komplexe Mehrphasenströmungen in porösen Medien – wie der Lagerstätte – numerisch berechnet werden. Bringt man die moderne Rechenmaschine dazu, Gleichungen für die Druck- und Sättigungsverteilungen möglichst exakt und in kurzer Zeit zu rechnen, so ist das von hohem kommerziellen Interesse. Die St. Augustiner Fraunhofer-Forscher konnten im Verbund mit Firmen wie Chevron aus San Ramon in Kalifornien oder GeoQuest aus Abingdon in Großbritannien beweisen, dass man mit ein paar softwaretechnischen Tricks zum ersten Mal in der Lage ist, Reservoire von mehreren Millionen Zellen zu simulieren. Der Rechenzeitgewinn bei derart großen Systemen kann gegenüber früheren Konzepten mehrere Zehnerpotenzen betragen.

Die elektronische Rechenmaschine ist heutzutage nicht nur die einzelne große Kiste, der Supercomputer oder Höchstleistungsrechner, sondern zeigt sich auch als ein Verbund vieler vernetzter Prozessoren, die sich eine Rechenaufgabe teilen oder sie nach zuvor festgelegten Regeln abarbeiten. Im Zeitalter der Vernetzung entstehen so „virtuelle Rechner“, die ad hoc zusammengezogen werden können: Aus dem World Wide Web wird das World Wide Grid. Zentrale Forderung ist dabei, dass der Benutzer die Verschiedenartigkeit und Entfernung der beteiligten Computer nicht bemerkt. Dadurch kann bei einer Anwendung, die entweder viele Server gleichzeitig bedient oder bei Aufgaben, die in Teilbereiche zerlegbar sind, eine nahezu unbegrenzte Performance erreicht werden. Einfache, aber spektakuläre Anwendungen der Grid-Technologie sind das Entschlüsseln von Texten oder die Suche nach Spuren intelligenter Wesen im kosmischen Rauschen.

Eine solche Aufgabe kann man Hunderttausenden von Rechnern weltweit vorlegen, die dann alle parallel an der Lösung arbeiten. Ein einziger Rechner müsste alle möglichen Variationen hintereinander, also sequenziell, durchspielen und wäre damit extrem überfordert. Mit Grids hoffen die Forscher, die Verarbeitungsgeschwindigkeit der Rechner von Terabytes heute auf die Peta- oder gar Exabyte-Ebene zu heben, also jeweils um den Faktor Tausend steigern zu können. Vorsichtshalber haben die Informatiker schon mal festgelegt, wie die nächsten Stufen aussehen: Danach kommen Zetabyte und Yotabyte. Vom Rechnen in Gitternetzen kann auch die Vorhersage chaotischer Vorgänge profitieren: Der Deutsche Wetterdienst hat sich an der Entwicklung von Grid-Technologien beteiligt. Er testet den Zugang zu verschiedensten Rechnerarchitekturen und damit den nahtlosen Übergang zwischen ihnen zum Zweck des verteilten Rechnens.

Es gab bereits in der Vergangenheit mehrere Versuche, die für die Klimavorhersage notwendigen verschiedenen Modelle mittels „ Metacomputing“ in Instituten an verschiedenen Orten zu koppeln. Doch das Zusammenschalten mehrerer Superrechner hat sich in diesen Projekten als zu aufwendig herausgestellt. Die Entwicklung von belastbaren Grid-Infrastrukturen könnte das jetzt ändern. Die Zielmarke für die Supercomputer von heute liegt bei 100 Billionen Operationen pro Sekunde. An der Spitze der Rechner steht der „ Earth Simulator“ im japanischen Yokohama: Er basiert auf dem parallelen Vektorrechner NEC SX6 und erreicht 36 Teraflops. Ein Teraflop bedeutet eine Billion Operationen pro Sekunde. Doch die Top-Position könnte ihm jederzeit streitig gemacht werden. Für Ende 2004 erwarten Experten, dass sich IBM mit modifizierten Typen von Blue Gene/L, entwickelt am amerikanischen Lawrence Livermore National Laboratory, mit 64 000 Prozessoren ganz nach vorne schieben wird. Würde man eine Million Prozessoren zusammenschalten, dann stieße man vor in die Dimension der Petaflops – den Bereich von Billiarden. Das Oak Rich National Laboratory will zusammen mit dem Computerhersteller Cray etwa 2007 einen 250-Teraflop-Höchstleistungsrechner präsentieren.

Womit früher gerechnet wurde

Wenn heutzutage von Rechnen die Rede ist, denkt jeder sofort an den Computer. Doch immer noch arbeiten rund 40 Prozent der Weltbevölkerung mit einem ganz anderen Rechner: dem Abakus. Das Rechnen damit wurde vor rund 5000 Jahren vermutlich im Babylonischen Reich erfunden. Die Chinesen legten ihre Bambuszählstäbchen auf Rechenbretter. Die Römer machten später aus dem Prinzip eines Platzhalters für Zahlen, der sich auf einer Stange hin und herschieben lässt, den ersten „Taschenrechner“: Um 300 v.Chr. hatten sie ihn als Abakus für den mobilen Gebrauch dabei, wenn es etwas zu rechnen gab.

Die Babylonier und Ägypter waren es auch, die die Basis für die heute fast unvorstellbare Leistung der Rechenmaschinen legten. Sie entwickelten die ersten vollständigen Zahlensysteme und kannten außer den natürlichen Zahlen auch die Null. Sie beherrschten bereits die vier Grundrechenarten und konnten zweite und dritte Potenzen bilden sowie quadratische Wurzeln ziehen. Unsere heutigen „arabischen“ Zahlen haben ihren Ursprung eigentlich in Indien. Dort tauchten im 3. Jahrhundert vor Christus erstmals kryptische Zeichen für die Ziffern 1 bis 9 auf, die im Lauf der Zeit zur heutigen Form mutieren. Durch den Welthandel wurden sie ab dem 9. Jahrhundert über Spanien nach Europa gebracht.

Da der Zahlenraum von 1 bis 9 geht und man bei 10 eine Stelle weiter rückt, liegt die Idee von Walzen mit Stiften für bestimmte Zahlen und Umdrehungen pro Stelle nahe. Doch erst Mitte des 19. Jahrhunderts gab es mechanische Rechenmaschinen, die so zuverlässig arbeiteten, dass man sie in kaufmännischen und wissenschaftlichen Bereichen einsetzen konnte. Gottfried Wilhelm von Leibniz, der von 1646 bis 1716 lebte, kam zudem aufgrund philosophischer Betrachtungen über den Gegensatz auf das Prinzip von „Sein und Nicht-Sein“: Für Ersteres setzte er die 1, für Letzteres die 0. Im Zahlensystem bedeutete das, die 0 mit 0 darzustellen und die 1 mit 1. Dann fuhr Leibniz fort mit der 2, dargestellt als 10, der 3 als 11 sowie der 4 als 100, der 5 als 101, der 6 als 110 und der 7 als 111 – und so weiter. Daraus wurde das digitale Prinzip und der Gegensatz von „Strom“ und „ kein Strom“ oder „elektrische Ladung“ und „keine elektrische Ladung“ – die wesentliche theoretische Grundlage nicht nur der Computertechnik, sondern der modernen Nachrichtentechnik überhaupt.

Leibniz stellte 1673 eine Rechenmaschine für die vier Grundrechenarten vor. Ein Verkaufsknüller wurde die „ Vier-Spezies-Maschine“ nicht. Die Herstellung des auf den ersten Blick undurchschaubaren Räder-, Zahnräder- und Stellhebelwerks kostete zu viel Geld, und zuverlässig war sie auch nicht. Sein Zeitgenosse Blaise Pascal heimste ebenfalls keinen Profit ein, wohl aber mächtig Ruhm: Als 19-Jähriger stellte er 1642 seine Maschine vor, die allerdings nur die Addition und Subtraktion beherrschte.

Leibniz, Pascal und auch der Tübinger Professor Wilhelm Schickard waren echte Mathematiker. Sie wollten sich nicht mit dem schnöden Rechnen abgeben, einer Routinearbeit, die sie als unwürdig für den menschlichen Geist erachteten. Schickard übertrug diese Aufgabe 1623 an seine „Rechenuhr“. In ihr wurden die Zahlen mit Schiebern variiert. Pascals Maschine verdeutlicht, wie man sich das Prinzip des Stellenwechsels von 9 auf 10 beziehungsweise von 19 auf 20 und 99 auf 100 zunutze machen kann: Beim Übergang von 9 auf 10 fällt ein angehobener Hebel wieder nach unten zurück, wobei eine Klinke das nächste Stellrad eine Stelle weiter dreht.

Dieses Element des Drehens wird besonders augenscheinlich bei der Brunsviga, einer Rechenmaschine der Braunschweiger Firma Grimme, Natalis & Co, die ab 1892 Odhner-Sprossenradmaschinen herstellte. Ganz wie die alte Kassenklingel war außen am Gehäuse eine Kurbel angebracht, womit der Rechenakt vollzogen wurde. Das Prinzip hatte 1878 der schwedische Ingenieur Willgodt T. Odhner entwickelt und patentieren lassen. Es dauerte also weit über 200 Jahre, bis aus dem Prinzip des Vor- und Zurückdrehens verlässliches Maschinenrechnen wurde. Selbst nachdem die Staffelwalzen-, Sprossenrad- und Addiermaschinen sich zu Massenprodukten entwickelt hatten, tüftelten Erfinder immer neue Rechenmaschinentypen aus. Zu den erfolgreichsten gehörten die 1892 in der Schweiz eingeführte Direktmultiplikations-Rechenmaschine „Millionär“ und die vom deutschen Konstrukteur Christel Hamann eingeführten Proportionalhebel- und Schaltklinkenmaschinen. Die Handkurbel wurde in späteren Maschinen durch einen elektrischen Antrieb ersetzt.

Das Kurbeln, Rattern und Klackern war der akustische Beweis, dass Rechnen bis zum Beginn des 20. Jahrhundert eine lautstarke Angelegenheit war, die nichts gemein hatte mit dem stummen Dienst heutiger elektronischer Rechenknechte. Dieses „Rechengeräusch“ wurde ab Anfang des 19. Jahrhunderts durch das Rauschen der auszulesenden Lochkarten und -streifen begleitet, die bereits beim Webstuhl des Joseph-Marie Jacquard das Webprogramm für Brokatstoffe, bei den Rechenmaschinen aber zunächst nur Speicher für Zahlen waren. 1884 baute der Amerikaner Hermann Hollerith zum ersten Mal eine Zähl- und Sortiermaschine mit elektronischer Abtastung. Damit wertete er 1890 massenhaft und schnell die Daten der amerikanischen Volkszählung aus. 1887 baute er ein Addierwerk hinzu. Und siehe da: Holleriths Firma, 1911 an die Computing-Tabulating-Recording Co. verkauft, wurde 1924 in International Business Machines umbenannt. Diese IBM kennt heute jeder: Sie ist das weltweit größte IT-Unternehmen. Noch in den siebziger Jahren verrichteten in deutschen Hochschulen Rechner ihren Dienst, die ihre Daten mit Lochkarten gefüttert bekamen.

Für die Entwicklung der Rechenmaschine muss man zwei Stränge auseinander halten: Zum einen jenen der Bürorechner mit den vier Grundrechenarten aus den mechanischen Modellen Anfang des 17. Jahrhunderts bis zum heutigen elektronischen „Taschenrechner“, der immer noch in vielen Büros zum Einsatz kommt. Zum anderen einen abzweigenden Strang der programmgesteuerten, universellen Rechenmaschinen, die wir nun als Computer kennen. Obwohl auch sie in ihrem Kern immer noch rechnen – weshalb man sie nach wie vor „ Rechner“ nennt – haben sie doch das eigentliche Rechnen längst auf höhere Stufen gehoben und um zahlreiche Anwendungen erweitert. Zwei Namen sind mit dem „Rechner“ heutiger Prägung untrennbar verbunden: Alan Turing und John von Neumann.

Turing beschrieb 1936 in einer Arbeit zur mathematischen Logik ein Gedankenmodell einer sehr einfachen Maschine, die fast zehn Jahre vor der eigentlichen Erfindung des Universalrechners als „ Turingmaschine“ ein abstraktes mathematisches Modell für eine universelle Rechenmaschine abgab. Von Neumann entwickelte in den dreißiger Jahren die nach ihm benannte „Von-Neumann-Architektur“, an der sich im Prinzip bis heute nichts geändert hat: Verkürzt ausgedrückt, wird mit ihr festgelegt, wie man dem Rechner beibringt, um welche Zahlen es geht, was er mit den Zahlen tun soll und wo er sie hinschreiben beziehungsweise auslesen soll.

In den Jahren nach dem Zweiten Weltkrieg entwickelte von Neumann am Institute for Advanced Study in Princeton (USA), einen elektronischen Rechner für wissenschaftliche Zwecke, der mit Röhren arbeitete. Allerdings wurde mit den „Rechenmaschinen“, die seine Handschrift trugen, nicht etwa das Wetter, sondern das Geschehen in der Atombombe simuliert. Von Neumann setzte seinen Rechner unter anderem ein, um die optimale Höhe für die Detonation einer Atombombe zu berechnen.

Der Siegeszug des Computers begann mit der Erkenntnis, dass Elektronenröhren als Schalter in Rechenanlagen eingesetzt werden können: Sind sie aus, sperren sie den Strom, sind sie an, kann er fließen. Zusammen mit dem Leibnizschen Vorschlag, Zahlen im Binär-Code darzustellen, ließ sich daher jede Zahl als definierte Folge von 0-1-Zuständen – also Ladung-keine-Ladung-Zuständen – darstellen. Tempo kommt dadurch auf, dass man mit solchen Röhren im Bereich von Mikrosekunden zwischen beiden Zuständen hin und her schalten kann. Der erste, 1946 in den USA mit Elektronenröhren gebaute Rechner Eniac hatte über 18 000 solcher Röhren und fraß 150 Kilowatt Strom. Den Job der externen Speicherung von Daten übernahmen ab 1955 Magnetkernspeicher, in denen man für Ladung den Materialzustand „magnetisch“ und für keine Ladung „nicht magnetisch“ setzt. Auf deutscher Seite galt Konrad Zuse als Pionier: 1941 konnte er seine Z3 als funktionsfähig vorführen. Der auf Relaistechnik angelegte Rechner basierte – revolutionär für diese Zeit – ebenfalls auf dem System der binären Zahlendarstellung.

Strom-kein-Strom in einer Von-Neumann-Architektur, das ist bis heute Kern jeder modernen Rechenmaschine. Nach dem Moore’schen Gesetz (bild der wissenschaft 4/2004, „Das Mirakel des Mr. Moore“ ) steigt lediglich das Verarbeitungstempo – allerdings rasant: Der Transistor hat seit 1960 die Elektronenröhre völlig abgelöst. Mit Transistorschaltungen kann man im Nanosekunden-Bereich Nullen und Einsen erzeugen. Diese Schaltungen werden immer komplexer, und auf immer kleinerem Raum werden immer mehr Operationen ermöglicht – eine Entwicklung, die noch nicht abgeschlossen ist, aber aus physikalischen Gründen in absehbarer Zeit an ihre Grenzen stoßen wird.

Quo vadis, Rechenmaschine?

Quantenrechner, Spintronik oder Qubits – sie charakterisieren die Rechenmaschine von morgen. Eines ist klar: Es geht bergab, bis in die Tiefen der Atome. Dabei bietet der Abstieg in die Nanowelt zugleich einen Vor- und einen Nachteil. Und wenn die Forscher Erfolg haben, dann könnte sich auch der Nachteil als gewaltiger Vorteil erweisen. Der Vorteil liegt darin, dass die Rechenmaschinen immer kleiner werden – und sich damit immer mehr Rechenpower auf immer kleinerem Raum zusammenziehen lässt. Der Nachteil des Abstiegs in die Nanowelt ist, dass einige noch in der Mikrowelt geltende physikalische Gesetze im atomaren Bereich außer Kraft sind. Die Gesetze der Quantenphysik greifen, sobald die Abmessungen vergleichbar werden mit der Wellenlänge der Elektronen. Hier findet die Von-Neumann-Architektur ihren Meister: Irgendwann weiß man nicht mehr, ob ein Elektron da ist oder nicht. Dann kann man aber auch kein Bit mehr zuverlässig ablegen, keine Befehle mehr abarbeiten.

Daran, dass aus diesem Ende der Fahnenstange ein neuer Anfang wird, arbeiten Forscher weltweit. Prof. Gernot Güntherodt, Sprecher des NanoClubs der RWTH Aachen, kann sich vorstellen, künftig nicht die Ladung der Elektronen als Informationsträger zu nutzen, sondern deren „Spin“, die Rotation des Elektrons um sich selbst. Der Spin ist schneller und auch leichter zu manipulieren als die Ladung von Elektronen. Grundsätzlich ist der Übergang von herkömmlichen Bits auf Quanten-Bits – kurz: Qubits –, auf der Basis von Spins der Elektronen realisierbar.

Ein Acht-Bit-Register eines klassischen Computers hat immer einen bestimmten Zustand, der eine Zahl zwischen 0 und 255 darstellt. Ein Quantencomputer dagegen produziert zuerst eine Superposition aller 256 Zustände des Registers. Während ein klassisches Bit eines von zwei Zuständen einnimmt, kann das Qubit in beiden gleichzeitig sein. Jede Operation mit den Qubits wirkt auf alle Zustände und beschert dem Benutzer damit einen massiven Parallelrechner. Dadurch erzielt der Quantencomputer eine Geschwindigkeit, die klassische Rechner nicht erreichen können. Dass das grundsätzlich funktioniert, konnte bereits in simplen Aufbauten demonstriert werden. Qubits werden dabei über äußere Magnetfelder und innere, variable Tunnelbarrieren kohärent gesteuert, also langfristig und kontrolliert. Die Wissenschaftler um Dr. Bernd Beschoten und Prof. Gernot Güntherodt von der RWTH Aachen sind überzeugt, dass mit Schalteinheiten einer spinbasierten Elektronik die Taktfrequenzen heutiger PCs von etwa einem Gigahertz um den Faktor 1000 übertroffen werden können. Für die Erzeugung stabiler Spinzustände – und damit fester Datenplätze – nutzen die Aachener Forscher zum Beispiel ultrakurze Laserpulse von nur 100 Femtosekunden.

Fließt Strom durch einen Kupferdraht, dann sind die Spins der Elektronen zufällig orientiert. Mit Ferromagneten kann man jene Spins herausfischen, die nach oben oder umgekehrt nach unten drehen. Man erhält einen spinpolarisierten Strom. Das wiederum bildet die Grundlage für einen denkbaren Spintronik-Feldeffekt-Transistor, mit dem sich die Spinorientierung auf dem Weg durch einen Halbleiter gezielt steuern lässt. Bisher existieren Quantencomputer freilich nur in der Theorie.

Ein anderes spannendes Gebiet sind die photonischen Kristalle. Das sind keine Kristalle aus Photonen, sondern Kristalle für Photonen, ähnlich wie herkömmliche Kristalle für Elektronen. Photonen haben keine Ladung und keine Ruhemasse – sie sind also sehr viel schneller als Elektronen, und sie können beinahe beliebig erzeugt und vernichtet werden. Dahinter steckt wieder das alte Prinzip von Sein und Nicht-Sein, diesmal bezogen auf die Existenz oder Nicht-Existenz von Photonen.

Näher an der Realisierung stehen ferroelektrische Kondensatoren. Sie bestehen aus Oxiden, etwa Bleititanat, die als Miniaturkügelchen auf einem Substrat liegen und eine spontane elektrische Polarisation besitzen, deren Ausrichtungen „auf“ und „ ab“ den Zuständen „0″ und „1″ entsprechen. Diese Ausrichtung bleibt selbst dann erhalten, wenn der Computer ausgeschaltet wird – der Arbeitsspeicher bekommt ein Gedächtnis. Einige der Körner haben eine Größe von weniger als 30 Nanometern. Als untere Elektrode des Kondensators wird das Substrat benutzt, auf dem das Oxid aufgetragen ist, als obere dient die Sonde eines Rasterkraftmikroskops. Es scheint, dass die Nanowelten genügend Fantasie freisetzen, um die Zeit des Niedergangs klassischer Rechnerarchitekturen sinnvoll zu nutzen. ■

Ulrich Schmitz

Ohne Titel

Der Personal Computer ist kein Rechner im herkömmlichen Sinn. Denn Anwendungen wie Internet, E-Mail, Textverarbeitung, die Präsentation von Grafiken oder die Gestaltung von Layouts liegen weit jenseits des eigentlichen Rechnens. Dabei werden bis zur heute üblichen Darstellung von Anwendungen in verschiedenen Fenstern in einem modernen PC verschiedene Ebenen durchlaufen: Die unterste ist und bleibt das Ablegen von elektrischen Ladungen in Form von Bits, und zwar als Achter-Paket – das ergibt dann ein Byte.

Die ersten Computer wurden auch tatsächlich so programmiert, dass man die Nummern von Befehlen und von bestimmten Speicherzellen so, wie es das Programm erforderte, nacheinander in die einzelnen Speicherzellen schrieb. Das war natürlich aufwendig – und so entwickelte man die Programmiersprachen. Diese generieren die Zahlen innerhalb der Speicherzellen, die der Computer letztlich als Programm abarbeitet, aus höheren Strukturen heraus automatisch.

Dann wurden bestimmte sich wiederholende Prozeduren in so genannten Bibliotheken zusammengefasst, um nicht jedes Mal das Rad neu erfinden zu müssen. Wenn der Computer Sprache darstellen soll, muss man ihm zum einen sagen, dass es in dem Programm überhaupt um Sprache geht, und zum anderen, aus welchen Bausteinen sich Sprache zusammensetzt. Dann interpretiert die moderne Rechenmaschine beispielsweise das Drücken der Tastaturtaste mit dem Buchstaben „A“ als Zahl „65″, die man ablegen kann.

Zunächst setzte ein eingebauter Zeichengenerator die 128 Zeichen des American Standard Code for Information Interchange (ASCII) in Zahlen um. Mit der doppelten Zahl von 256 Zeichen, dem erweiterten ASCII, lassen sich ein komplettes internationales Alphabet inklusive vieler Sonderzeichen aus unterschiedlichen Sprachen wie Griechisch, Schwedisch, Französisch oder Deutsch sowie Klammern, Schrägstriche oder Wurzelzeichen abbilden.

Die Bibliotheken wurden wiederum in übergeordneten Bibliotheken gebündelt. Schicht für Schicht entsteht auch die grafische Darstellung, etwa nach der Regel: Drückt der Nutzer den Buchstaben A, so malt der PC 20 einzelne schwarze und 50 einzelne weiße Punkte auf den Bildschirm. Der Grafik-Bildschirm entwickelt sich auf der Basis von Pixeln. Das „picture element“, der Bildpunkt, wird ebenfalls im Arbeitsspeicher eines Rechners abgelegt. Verwendet man ein Byte, also acht Bit pro Pixel, so ist die Darstellung von 256 Farben möglich. In einem modernen Computer arbeiten sehr viele dieser Programmebenen über- beziehungsweise untereinander. „Ganz unten“ bleibt der klassische PC immer eine Rechenmaschine mit dem Maschinencode – jene Abfolge von Zahlen, mit denen er auch tatsächlich rechnen kann.

Das Herz eines jeden Computers ist die „Central Processing Unit“, kurz CPU oder Prozessor. Die nächste wichtige Größe ist der Arbeitsspeicher, das „Random Access Memory“ (RAM). Bietet er Platz für viele Daten auf einmal, dann ist zum Beispiel ein Bild, das der PC lädt, quasi sofort abrufbar. Heutige Rechner haben Direktzugriffsspeicher mit einer Kapazität von 512 Megabyte bis 4 Gigabyte. Für 2008 rechnen Experten mit RAM, die bis zu 12 Gigabyte an Daten fassen können. Der Rechner dürfte zudem 1,5 Terabyte Festplattenkapazität besitzen. Bis 2011 soll das Speichervolumen der Festplatte auf bis zu 6 Terabyte wachsen, die Prozessoren würden dann mit 150 Gigahertz Taktfrequenz arbeiten.

Ohne Titel

ASCII (American Standard Code for Information Interchange): ordnet jedem Buchstaben oder Sonderzeichen einen numerischen Wert zu, der im Speicher abgelegt werden kann.

Bits und Bytes: Bits werden als „Elektrische Ladung vorhanden oder nicht vorhanden“ abgelegt. Zu Achterpaketen gepackt ergeben acht Bit ein Byte.

CPU (Central Processing Unit): das Herzstück eines jeden Computers, auch Prozessor genannt. Die CPU verarbeitet Daten, erledigt Berechnungen und führt Programme aus. Mehrere CPUs zusammengeschaltet ergeben einen Parallelrechner.

Exabyte: 1000 Petabyte

Flops (Floating Point Operations per Second): Die Zahl der Fließkomma-Operationen je Sekunde bestimmt die Rechengeschwindigkeit eines Systems.

Gigabyte: 1000 Megabyte

Grid (englisch für „Gitter“): Anordnung, unter Umständen sogar weltweit verteilter höchst unterschiedlicher Rechner-Ressourcen. Ähnlich dem Parallelrechner-Prinzip bekommt jede Maschine eine Teilaufgabe eines Problems zugewiesen.

High Performance Computer oder Computing: Höchstleistungsrechner, andere Bezeichnung für Supercomputer.

Nanotechnologie/Nanowelten: Bei einem Millionstel Millimeter beginnt die Welt der Atome. Unterhalb von fünf Nanometern wird es schwierig, die Existenz elektrischer Ladung zu erkennen.

ParallelRechner: Mehrere Prozessoren oder Computer sind darin zu einem Verbund zusammengeschaltet, in dem eine gemeinsame, in Teile zerlegte Aufgabe gerechnet wird.

Petabyte: 1000 Terabyte

Pixel (Picture Element): Bildpunkt, der sich als numerischer Wert im Rechner ablegen lässt. Mit einem Byte pro Pixel kann man 256 Farben erzeugen.

Quantenrechner: soll demnächst die quantenphysikalischen Eigenschaften in atomar kleinen Welten berücksichtigen und damit über das Prinzip „Elektrische Ladung vorhanden oder nicht vorhanden“ hinaus zum Beispiel auch die Drehung von Elektronen nutzen. Er arbeitet potenziell sehr viel schneller als heutige Computer.

Qubits (Kürzel für Quantenbits): kleinste Informationseinheit in einem Quantenrechner, die zum Beispiel auf einer bestimmte Stellung der Elektronen-Spins beruht.

RAM (Random Access Memory): Damit bezeichnet man den Arbeitsspeicher eines Rechners. In ihn werden die jeweils benötigten Programme und Daten geladen – im Gegensatz etwa zur Speicherplatte, auf der Daten dauerhaft abgelegt werden.

Spintronik: Konzept, das den Spin von Elektronen für die Konstruktion eines Quantencomputers nutzt: Die Elektronen drehen entweder im oder entgegen dem Uhrzeigersinn. Die Drehung kann man magnetisch quasi „einfrieren“ und erhält so definierte Speicher- zustände.

Terabyte: 1000 Gigabyte

Vier-Spezies-Maschine: Rechenmaschine, die alle vier Grundrechenarten – Addieren, Subtrahieren, Multiplizieren und Dividieren – beherrscht.

Anzeige

Wissensbücher 2022

Anzeige

Videoportal zur deutschen Forschung

Aktueller Buchtipp

Sonderpublikation in Zusammenarbeit  mit der Baden-Württemberg Stiftung
Jetzt ist morgen
Wie Forscher aus dem Südwesten die digitale Zukunft gestalten

Wissenschaftslexikon

Epi|kri|se  〈f. 19; Med.〉 Abschluss der Krankengeschichte mit dem endgültigen Urteil über Diagnose, Verlauf u. Behandlungsergebnis [zu grch. epikrinein … mehr

Cem|ba|list  〈[tm–] m. 16; Mus.〉 Cembalospieler

Rü|ben|flie|ge  〈f. 19; Zool.〉 hellgraue bis olivgrüne Blumenfliege, deren Larven in Rübenblättern minieren: Pegomya hyoscyami

» im Lexikon stöbern
Anzeige
Anzeige
[class^="wpforms-"]
[class^="wpforms-"]
[class^="wpforms-"]
[class^="wpforms-"]
[class^="wpforms-"]
[class^="wpforms-"]