Anzeige
1 Monat GRATIS testen, danach für nur 9,90€/Monat!
Startseite »

DAS RECHNER-GESCHWADER

Astronomie|Physik Technik|Digitales

DAS RECHNER-GESCHWADER
Teilchenforscher sind Meister im Erfinden besonders nützlicher Computertechnologien. Nach dem World Wide Web haben sie nun das World Wide Grid kreiert, über das man Rechen- leistung nach Bedarf beziehen kann.

1989 hatte Tim Berners-Lee vom europäischen Kernforschungszentrum CERN in Genf eine zündende Idee: Um die vielen Veröffentlichungen seiner Forscherkollegen in aller Welt zu verknüpfen, erfand er die Hypertext Markup Language, kurz HTML – und damit die „Links“, mit denen sich heute jedes Kind durchs Internet klicken kann.

Gut zehn Jahre nach der Kreation des World Wide Web bereiten die Teilchenforscher am CERN die nächste Revolution vor: das World Wide Grid – einen weltumspannenden virtuellen Supercomputer, der im nächsten Jahrzehnt nahezu unerschöpfliche Rechenpower in jedes Unternehmen und in jedes Heim bringen soll. „ Grid-Computing wird die Welt verändern“, schwärmt Ian Foster, Informatik-Professor an der University of Chicago, der 1999 zusammen mit seinem Kollegen Carl Kesselman die grundlegenden Konzepte dafür entwarf.

Ursprünglich wurde das Grid-Konzept aus einer Notlage heraus geboren: Der Large Hadron Collider (LHC), der 2007 am CERN in Betrieb gehen soll, wird so viele Daten erzeugen, dass selbst das größte Rechenzentrum der Welt sie nicht bewältigen kann. Auf der 27 Kilometer langen Kreisbahn prallen Bündel von Protonen mit nahezu Lichtgeschwindigkeit 40 Millionen Mal pro Sekunde aufeinander und erzeugen Schauer aus vielen Hundert neuen Partikeln, die es zu analysieren gilt. In jedem der vier an den Beschleuniger angeschlossenen Detektoren entsteht ein gewaltiger Datenstrom, wie wenn alle sechs Milliarden Menschen auf der Erde jeweils 20 Telefongespräche gleichzeitig führen würden. Obwohl dieser Strom noch bei der Entstehung durch Auslesen nutzloser Ereignisse und Komprimieren auf weniger als ein Millionstel geschrumpft wird, häuft sich im Laufe eines Jahres pro Detektor eine Datenmenge von einem Petabyte (1015 Bytes) an. Würde man diese Daten auf CDs brennen und die Scheiben übereinander stapeln, ergäbe sich ein Turm von etwa 1,5 Kilometer Höhe.

Um der gewaltigen Datenflut Herr zu werden, sind die Forscher am CERN gezwungen, die Informationsmengen auf viele Schultern zu verteilen – ein Fall für das Grid-Computing. Über Hochgeschwindigkeits-Glasfaserleitungen gelangen die Daten zu zehn weltweit verteilten Rechenzentren – eines davon am Forschungszentrum Karlsruhe (FZK) –, wo sie gespeichert werden und von wo sie rund 8000 Physiker in aller Welt abrufen können, die sich am Auswerten der LHC-Experimente beteiligen.

Anzeige

Das Grid besitzt vor allem drei neue Eigenschaften: • Es bietet Rechenleistung nach Bedarf. PC-Besitzer kennen das: Selbst der neueste Rechner ist immer ein bisschen zu langsam, weil die immer komplexere Software viel Rechenleistung frisst. Künftig stecken Rechenleistung und Speicherkapazität aber nicht mehr im PC, sondern werden gegen Gebühr aus einem Anschluss in der Wand geliefert – wie bei einem Wasserhahn oder einer Steckdose. Daher auch der Name: Grid bedeutet so viel wie Versorgungsnetz. So wie das CERN die Rechenleistung für seine Teilchendetektoren aus aller Welt bezieht, so werden sich Internet-Surfer in Zukunft nicht mehr darum kümmern müssen, ob der Platz auf der Festplatte noch für die 100 digitalen Urlaubsfotos reicht – die virtuelle Festplatte wird irgendwo im Grid verborgen und unendlich groß sein. In Kalifornien soll jeder Haushalt bis 2010 einen Anschluss mit einem Gigabit pro Sekunde erhalten – das ist tausendmal schneller als DSL. Damit lassen sich einfachste PCs ohne große eigene Rechenleistung betreiben.

• Das Grid liefert automatisch die richtigen Informationen. Wer heute mit dem Internet arbeitet, muss die genaue Web-Adresse kennen oder hoffen, dass eine Suchmaschine die passende Adresse findet. Im Grid wird es keine Rolle mehr spielen, wo die Informationen lagern. Dementsprechend wird es auch keine kryptischen Adressen à la www.bild-der-wissenschaft.de mehr geben. Die intelligente Software findet zu jeder Anfrage die richtige Antwort, wobei die Inhalte nicht wie bei heutigen Webseiten statisch sind, sondern sich laufend ändern – und zwar automatisch, ohne Eingreifen der Anbieter ihrer Inhalte.

Ein Beispiel: „Ich möchte in den Osterferien zwei Wochen Ski fahren“, könnte eine Eingabe lauten. Das Grid würde klären, wann in dem Bundesland, in dem der Fragende lebt, Osterferien sind, würde Wetterprognosen analysieren, um ein schneesicheres Gebiet zu finden – und schließlich die komplette Reisebuchung übernehmen. Alle diese Informationen sind an verschiedenen Orten im Web verteilt. Heute muss man sie selbst finden, im Grid werden sie automatisch verknüpft. Hans Falk Hoffmann, im CERN-Direktorium für wissenschaftliches Rechnen zuständig, hält sogar E-Mail-Adressen und das „@“ für ein Auslaufmodell. „In zehn Jahren gibt es den Klammeraffen nicht mehr“, prophezeit er. Am Ende, so Hoffmanns Vision, wird Wissen vielleicht sogar automatisch erzeugt.

• Das Grid überwacht sich selbst. Computernetze verwenden heute nur 0,1 Prozent ihrer Kapazität für die eigene Organisation. „In Zukunft werden es 10 Prozent sein“, glaubt Werner Ederer, Programmleiter für Grid-Computing bei IBM in Böblingen – wie in unserem Gehirn, das Reserven besitzt, um sich selbst zu heilen. Auch das Grid wäre dann in der Lage, Leistungsengpässe zu überbrücken, Ausfälle zu reparieren und Hackerangriffe abzuwehren. „Das ideale Grid organisiert sich autonom und ist für den Benutzer unsichtbar“, schwärmt Dr. Marcel Kunze, der sich beim FZK mit Grid-Computing befasst.

In vielen Ländern wird Grid-Computing mittlerweile als zentrale Forschungsaufgabe begriffen. Großbritannien investierte allein in fünf Jahren 375 Millionen Euro, in den USA sind es sagenhafte 500 Millionen Dollar pro Jahr für die Etablierung einer „Cyber-Infrastruktur“. Im sechsten Rahmenprogramm der EU sind 350 Millionen Euro für Grid-Projekte reserviert. Auch Deutschland kämpft um den Anschluss, mit jährlichen Mitteln im zweistelligen Millionen-Euro-Bereich. Neben den Investitionen am FZK, das ein Zehntel des Datenbergs vom CERN übernehmen wird, gibt es etliche Grid-Initiativen, darunter das Fraunhofer-Research-Grid oder das abgeschlossene Projekt Unicore, das Wissenschaftlern einen leichten Zugang zu Grid-Ressourcen ermöglichen soll. Was bisher fehlte, ist ein schlüssiges Gesamtkonzept und das nötige Geld.

„Das muss sich ändern“, fordert Prof. Alexander Reinefeld vom Zuse-Institut Berlin, einer der Gründer des Global Grid Forums, das weltweite Grid-Standards erarbeitet. Sein Argument: Grid-Computing macht Forschung nicht nur schneller, sondern eröffnet völlig neue Horizonte in der Wissenschaft. Um die „ E-Science“ – das Forschen mit Grids – voranzubringen, initiierte Reinefeld mit Kollegen die D-Grid-Initiative, die sämtliche Grid-Aktivitäten in Deutschland bündeln soll. Wie viel Geld es dafür vom Bund geben soll, ist noch offen. Gemunkelt wird von mindestens 10 bis 20 Millionen Euro pro Jahr für das „E-Science“ -Programm, mit dem Entwicklung und Anwendung des Grid-Computing in verschiedenen Disziplinen, zum Beispiel in der Klimaforschung oder Bioinformatik, gefördert werden sollen. Vom Bundeskanzler kommt Rückendeckung. Auf einer Präsentation am 5. Februar in Böblingen, wo IBM seine kommerzielle Grid-Strategie vorstellte, staunte Gerhard Schröder: „Toll. Warum sagt mir keiner, dass es das gibt?“

Weite Teile der Industrie teilen des Kanzlers Begeisterung fürs Grid-Computing noch nicht, obwohl IBM mit Vehemenz diesen Markt zu fördern versucht. „Grid-Computing senkt die Fixkosten, weil man keine komplette Infrastruktur kaufen muss, die dann die meiste Zeit brach liegt“, wirbt Herbert Kircher, Entwicklungschef in Böblingen, für die Computerpower aus der Steckdose. Gelungenes Beispiel sei Butterfly.net, ein Internet-Portal für Online-Computerspiele. Loggen sich mehr als 4000 Spieler gleichzeitig ein, schaltet die US-Firma weitere Kapazitäten aus einem IBM-Rechenzentrum zu. Der japanische Elektronikkonzern Sony hat angekündigt, dass die nächste Generation der Playstation-Spielkonsolen Grid-Technologie von IBM nutzen wird, um das Rechentempo zu steigern und die Spielesoftware mit anderen Playstation-Besitzern zu teilen.

Viele Firmen fürchten indessen, dass ihre Daten außer Haus in falsche Hände geraten könnten, denn unter Umständen laufen sie mit denen der Konkurrenz über denselben Computer. Große Unternehmen bauen deshalb ihre eigenen Grids auf – wie der Schweizer Pharmakonzern Novartis, der unter anderem die rechenintensiven Wechselwirkungen von dreidimensionalen Einweißstrukturen simuliert. Im Lauf des Jahres sollen bis zu 30 000 Rechner von Basel über Wien bis Cambridge (USA) vernetzt werden. Mit 50 Teraflops (50 Billionen Rechenoperationen pro Sekunde) wäre der virtuelle Supercomputer der zweitstärkste der Welt. Jim Barrington, Chief Information Officer bei Novartis, schätzt die Einsparung auf rund zwei Millionen Euro, „weil wir brachliegende Ressourcen nutzen“.

Dr. Franz-Josef Pfreundt vom Fraunhofer-Institut für Techno- und Wirtschaftsmathematik in Kaiserslautern möchte Grid-Computing auch kleinen und mittelständischen Unternehmen nahe bringen, die sich keinen eigenen Rechnerpark leisten können. Pfreundt ist Projektleiter des Fraunhofer-Resource-Grid, in dem mehrere Fraunhofer-Institute ihre PCs koppeln und ihre Rechendienste anbieten. Erste Nutznießer sind Hersteller von Gussteilen. Sie können im Grid unter anderem das Programm Magmasoft benutzen, das potenzielle Bruchstellen der Bauteile sichtbar macht. Die Firmen stellen ihre Anfrage mit der gewünschten Software in einem Internetportal zusammen, die Aufteilung der Rechenarbeit auf die Computer erledigt das Grid automatisch. „Die Betriebe sparen eigene Rechner und teure Software-Lizenzen“, schwärmt Pfreundt.

Hewlett-Packard hat sich bereits Gedanken gemacht, wie die Kunden die Rechenleistung aus der Steckdose bezahlen können. Abgerechnet wird nach „Computon“ – einer Maßeinheit für Computerleistung, analog zur Kilowattstunde beim Strom. ■

Bernd Müller besuchte vor 12 Jahren die Erfinder des WWW am CERN. Das Grid wird eine ähnliche Revolution einleiten, ist der ehemalige bdw-Redakteur überzeugt.

Ohne Titel

Das CERN-Grid setzt auf eine vernetzte Schichtenstruktur (englisch: „tier“). Im Zentrum sitzt das Tier-0-Zentrum, das CERN, wo die Daten erzeugt und in großen Mikroprozessorfarmen vorsortiert und komprimiert werden. Diese Daten gelangen an zehn Tier-1-Zentren, wo sie für die Teilchenphysiker, die auf die Tier-2-Zentren zugreifen, zwischengespeichert werden.

Eines der Tier-1-Zentren, das Grid-Computing-Center Karlsruhe (GRIDKA), wird derzeit am Forschungszentrum Karlsruhe (FZK) aufgebaut. Hier werden vor allem Daten gespeichert, die für deutsche Forscher wichtig sind. So interessieren sich die Physiker von der Gesellschaft für Schwerionenforschung GSI in Darmstadt insbesondere für den LHC-Detektor ALICE, der Kollisionen schwerer Ionen beobachtet. Aber auch Physiker aus Warschau und Dubna (Russland) greifen auf GRIDKA zu. Insgesamt, so die Pläne, werden es eines Tages weltweit bis zu 8000 Forscher aus 400 Instituten sein.

Zwischen CERN und GRIDKA schleust eine Glasfaserleitung bis zu ein Gigabit pro Sekunde durch. Pro Jahr lassen sich so ungefähr vier Petabyte (Billiarden Byte) übermitteln. Etwa 30 Prozent der Informationen werden auf schnellen Festplatten gespeichert, die in riesigen Schränken untergebracht sind. Derzeit ist Platz für 80 Terabyte (Billionen Byte). 70 Prozent der Daten werden auf Bändern archiviert, die Roboter in die Laufwerke schieben. Bis 2007 werden am FZK etwa 5000 handelsübliche Prozessoren arbeiten – mit einem Megawatt Leistung. Dafür muss nicht einmal das Neueste vom Neuen in den Rechnern stecken, betont FZK-Wissenschaftler Dr. Marcel Kunze: „Aus Kostengründen kaufen wir nicht die aktuellsten Prozessoren, sondern nehmen immer das, was günstig auf dem Markt ist.“

Ohne Titel

· Ein Netz von zahlreichen miteinander verbundenen Computern ist nötig, um die immense Datenflut aus künftigen Teilchenphysik-Experimenten bewältigen zu können.

· Auch Unternehmen und Privatpersonen können per Grid-Computing Rechenpower und Speicherplatz „aus der Steckdose“ beziehen.

· Das Grid spürt zudem selbstständig die richtigen Informationen im Internet auf – die mühsame Suche über kryptische Web-Adressen wird damit überflüssig.

Anzeige

Wissenschaftsjournalist Tim Schröder im Gespräch mit Forscherinnen und Forschern zu Fragen, die uns bewegen:

  • Wie kann die Wissenschaft helfen, die Herausforderungen unserer Zeit zu meistern?
  • Was werden die nächsten großen Innovationen?
  • Was gibt es auf der Erde und im Universum noch zu entdecken?

Hören Sie hier die aktuelle Episode:

Aktueller Buchtipp

Sonderpublikation in Zusammenarbeit  mit der Baden-Württemberg Stiftung
Jetzt ist morgen
Wie Forscher aus dem Südwesten die digitale Zukunft gestalten

Wissenschaftslexikon

♦ her|un|terla|den  〈V. t. 173; hat; IT〉 ein Programm od. eine Datei ~ von einem anderen Computer, einem Server im Internet od. einem fremden Speicher auf den eigenen Computer übertragen, kopieren; Sy downloaden; … mehr

Mixed Me|dia  〈[mikst midı] Pl.〉 Verwendung verschiedener Medien, bes. im Rahmen künstlerischer Installationen od. bei Happenings, mit dem Ziel des gattungssprengenden Gesamtkunstwerks; Sy Multimediashow ( … mehr

Geo|top  〈n. 11; Geol.〉 Naturdenkmal, meist in Form einer Landschaft, die weitestgehend naturbelassen u. von erdgeschichtlicher Bedeutung ist, z. B. Höhlen, Schluchten, Felsformationen, Fundstätten von Fossilien od. Mineralien ● ein schützenswertes ~; der ehemalige Steinbruch wurde als ~ unter Naturschutz gestellt [<grch. ge … mehr

» im Lexikon stöbern
Anzeige
Anzeige
Anzeige