Anzeige
1 Monat GRATIS testen, danach für nur 9,90€/Monat!
Startseite »

Krieg der Rechenmonster

Technik|Digitales

Krieg der Rechenmonster
Supercomputer rechnen immer schneller – und die Hersteller in Japan und den USA werden immer erfindungsreicher, wie sie mit geschönten Leistungsdaten europäische Forscher blenden können.

Wer als Kind Autoquartett gespielt hat, weiß: Dabei ging es nicht darum, Vierersets zu sammeln und abzulegen, wie es eigentlich den Spielregeln entsprochen hätte, sondern so mit PS und Kubikzentimetern zu protzen, dass der Gegner seine unterlegene Karte abliefern musste – so lange, bis er keine Spielkarten mehr hatte. Wer den Mercedes Pullmann besaß, hatte buchstäblich gute Karten, denn dessen 8 Zylinder und der 6,3 Liter Hubraum stachen alle Opels und VWs locker aus.

Auch aus Supercomputern ließe sich ein prima Quartett machen. Die riesigen Kisten sehen zwar alle ziemlich gleich aus, aber beim Rechentempo gibt es klare Vergleichsmaßstäbe. Der Supertrumpf – sozusagen der Pullmann unter den Superrechnern – wäre derzeit Blue Gene: 64 dunkelblaue Schränke vom US-Konzern IBM, in denen im Endausbau 131 072 Mikroprozessoren werkeln und atemberaubend schnell Zahlen addieren und multiplizieren werden. Im Juni schaffte der noch nicht fertig gestellte Bolide der amerikanischen Kernwaffenschmiede Lawrence Livermore National Laboratory in Kalifornien unvorstellbare 135 Billionen Fließkommaoperationen (Flops) pro Sekunde. Im Endausbau werden es 350 Billionen Flops pro Sekunde sein. Diese 350 Teraflops entsprechen der Leistung von über 100 000 PCs. Wollte man die Berechnungen, die Blue Gene in einer Sekunde schafft, mit einem Taschenrechner ausführen, bräuchte man elf Millionen Jahre, wenn man pro Sekunde eine Operation eintippen würde.

Beim Auto sagen PS-Zahlen allein nicht viel darüber aus, wie schnell man von A nach B kommt. Ein Porsche ist nicht automatisch schneller, nur weil Tempo 300 auf dem Tacho steht – vor allem nicht im Stau. Ist der Computer mit den meisten Flops wirklich top, oder ist er vielmehr ein Flop? So weit will die Nippon Electric Company, kurz NEC, nicht gehen, denn das verbietet die japanische Zurückhaltung. Der Elektronikkonzern war bis letzten Herbst noch Weltrekordhalter mit seinem Earth Simulator, der in einer riesigen Halle bei Tokio untergebracht ist und mit knapp 36 Teraflops Erdbeben und Klimaveränderungen berechnet. Dennoch zweifeln die Japaner an den Leistungsdaten, die aus den USA vermeldet werden: Wahrscheinlich sei Blue Gene gar nicht schneller, heißt es bei NEC.

Das sieht auch Michael Resch so. Der Informatik-Professor von der Universität Stuttgart ist Direktor des Bundeshöchstleistungsrechenzentrums, das organisatorisch vom Rechenzentrum der Stuttgarter Uni unabhängig ist und Rechenkapazität an Wissenschaftler und Industrie in ganz Deutschland vermietet. Resch ist seit kurzem stolzer Besitzer eines Supercomputers, der mit 12,6 Teraflops zu den schnellsten in Europa gehört. Der Rechner besteht aus 72 Schränken mit insgesamt 576 Prozessoren des Typs SX-8, die bei NEC, zwei Autostunden von Tokio entfernt, in kleinen Stückzahlen von je 15 Einheiten im Monat weitgehend in Handarbeit zusammengeschraubt und gelötet werden.

Anzeige

Dass Reschs Rechenzentrum sich für NEC und nicht für einen der amerikanischen Konkurrenten IBM oder Hewlett-Packard entschieden hat, die mit ihren deutschen Hauptverwaltungen nur ein paar Kilometer entfernt residieren, hat gute Gründe. Da wäre zum Beispiel die echte Rechenleistung, die der Nutzer mit seiner Anwendung erzielt. Sie liegt stets niedriger als die theoretische Spitzenleistung in Giga- oder Teraflops, die von den Herstellern angegeben wird. Während die Stuttgarter NEC-Maschine je nach Software ein gutes Drittel ihrer Spitzenleistung als echte Leistung bei der Simulation von Autocrashs oder Kraftwerksturbinen abliefert, kommen die meisten anderen Rechner auf Werte von unter zehn Prozent.

Das hat mit der Bauweise der Computer zu tun. NEC setzt auf wenige hoch gezüchtete so genannte Vektorprozessoren, die im Stuttgarter Exemplar auf einen riesigen gemeinsamen Hauptspeicher von zehn Terabyte zugreifen. Amerikanische Hersteller wie IBM oder Hewlett-Packard bauen dagegen viele billige Standardprozessoren ein, wie sie auch in PCs zu finden sind. Eine solche Architektur nennt man PC-Cluster. Die Prozessoren in Blue Gene arbeiten mit einer gemächlichen Taktfrequenz von 700 Megahertz – in den neuesten PCs schlägt das Herz etwa fünfmal so schnell. Immer zwei Prozessoren teilen sich einen Hauptspeicher von 512 Megabyte – auch da bekommt man heute bei Mediamarkt & Co mehr geboten.

Das US-Konzept senkt einerseits die Kosten, erhöht aber andererseits den Kommunikationsaufwand der Prozessoren untereinander. Resch nennt ein einleuchtendes Beispiel: „Ein Haus besteht aus 10 000 Ziegelsteinen. Ein Maurer setzt einen Stein pro Sekunde. Wie lange brauchen 10 000 Maurer, um das Haus zu bauen?“ Klar, dass das Haus nicht in einer Sekunde entsteht, weil die Maurer nicht alle Steine gleichzeitig in einer Sekunde setzen können und vermutlich gar nicht genügend Ziegelsteine auf der Baustelle wären.

Daher trügt die Hoffnung, dass 100 Mikroprozessoren eine Rechenaufgabe 100-mal so schnell lösen wie ein einzelner Prozessor. Aufwendige Probleme wie Klimasimulationen werden zwar in kleine Häppchen zerlegt, doch jede Teilberechnung ist auf Ergebnisse anderer Berechnungen angewiesen. Diese Daten müssen im Speicher abgelegt und von dort wieder abgeholt werden, was bei großen Clustern aus PC-Prozessoren viel Zeit kostet. Es gibt sozusagen viele Maurer, aber denen fehlen die Steine. IBM versucht, den Flaschenhals zu weiten und spendiert Blue Gene mehrere interne Netze, über die die Prozessoren miteinander kommunizieren. Ein Netz übernimmt die Koordination der anderen und lotst die Daten auf dem schnellsten Weg von einem Prozessor dorthin, wo sie für den nächsten Rechenschritt gebraucht werden.

Ob das hilft? Michael Resch ist skeptisch. „Ab 1000 Prozessoren nimmt die Leistung eines Systems ab, weil es sich vor allem selbst verwaltet“, hat Reschs Team bei Tests an PC-Clustern festgestellt, die mit Simulationen für Strömungs- oder Verbrennungsvorgänge oder der Entstehung von Sternen betraut wurden. Vektorprozessoren sind hier im Vorteil: Sie können pro Flop etwa dreimal so viele Daten verarbeiten, also quasi mehrere Maurer gleichzeitig beschäftigen. Von den 22 Gigaflops, die ein einzelner SX-8-Prozessor als Spitzenleistung schafft, „sieht“ der Anwender nur etwa 10 Gigaflops, haben die Stuttgarter Informatiker gemessen. Ein moderner Pentium-Prozessor aus dem PC liefert von den theoretischen 3 Gigaflops aber nur 0,4 Gigaflops als reale Leistung.

Michael Resch hat noch andere Gründe, warum er sich für einen Vektorrechner und nicht für ein PC-Cluster entschieden hat: Einer sind die Gesamtkosten. In sie geht nicht nur der Anschaffungspreis ein – der bei PC-Clustern wegen der billigen Standardkomponenten um 50 Prozent niedriger liegt als bei Vektorcomputern –, sondern auch die Unterhaltskosten spielen eine Rolle. Bei PC-Clustern sind die Wartungskosten etwas höher, allein der größere Strom- und Kühlbedarf schlägt mit 25 Prozent der Gesamtkosten zu Buche. Allerdings: Auch der neue Vektorrechner in Stuttgart frisst mit einem Megawatt Leistung ordentlich Strom. Er steht daher auf einem löchrigen Zwischenboden von 900 Quadratmeter Fläche, durch den aus dem Erdgeschoss Massen an Kühlluft nach oben gepustet werden. Die aufwendige Kühlung soll verhindern, dass der Supercomputer heiß läuft – „ein Problem, das sich bei künftigen Rechnergenerationen noch verschärfen dürfte“, fürchtet Resch.

Das hat auch IBM erkannt – und seine Blue-Gene-Architektur von vornherein auf Diät gesetzt. So konsumiert der Weltrekordhalter trotz der riesigen Zahl von Prozessoren weniger als ein Drittel der Strommenge, die der auf dem Papier langsamere Earth-Simulator der Konkurrenz aus Japan verschlingt. Der US-Konzern erreicht das durch die niedrige Taktfrequenz von 700 Megahertz. Vor allem bei der Stellfläche hat IBM ein kleines Wunder vollbracht: Vier Prozessoren, je zwei in einem Gehäuse, passen samt Speicher auf die Fläche einer Kinokarte. 2048 Prozessoren stecken in einem Gehäuse von der Größe eines Kühlschranks. NEC packt in die etwa gleich großen Schränke der neuen SX-8-Produktlinie nur acht Prozessoren. Jeder wird mit 2000 Megahertz getaktet, ist so groß wie eine Streichholzschachtel und hat an der Unterseite 8000 Anschlüsse, die meisten, um Strom in die 80 Millionen Transistoren zu pumpen. Ein Schrank wiegt eine Tonne.

Von astronomischen Rechenleistungen und Dumpingpreisen, wie sie heute im europäischen Supercomputermarkt üblich sind, lassen sich Profis wie Michael Resch nicht mehr blenden. 46,8 Millionen Euro kosten der neue Rechner in Stuttgart und der eigens dafür auf dem Campus errichtete Gebäudewürfel aus Glas. „Für das Geld hätte ich auch 70 Teraflops kaufen können“, sagt der gebürtige Österreicher. Bekannt ist, dass die Hersteller sich einen Teil des Geldes über die Wartungskosten zurückholen – ein bis zwei Mitarbeiter des Herstellers sind immer beim Kunden und müssen bezahlt werden. Mitunter kommt es auch vor, dass die Hersteller richtig bluten müssen, wenn der Rechner die zugesagten Anforderungen nicht erfüllt. Denn im Vertrag wird immer eine Mindestrechenleistung vereinbart, die der Hersteller erbringen muss – und der kann sich leicht verschätzen, weil häufig Hardware angeboten wird, die es zum Zeitpunkt der Ausschreibung noch gar nicht gibt. Reicht die Leistung nicht, muss der Hersteller auf eigene Kosten weitere Prozessoren installieren oder auf Geld verzichten. Manchmal schenkt die Firma zusätzliche Hardware und bekommt dafür einen Teil des Extra-Verdienstes, wenn auch die Industrie den Rechner nutzt. Das funktioniert meistens, verrät Resch, bei einem früheren Rechner habe sich der Hersteller aber auch einmal verkalkuliert.

Das Rennen um die Marktführerschaft beim Verkauf von Supercomputern hat sich mittlerweile fast zu einem Handelskrieg ausgeweitet, wobei die Schlacht vor allem in Europa tobt. Denn der europäische Markt ist der einzige, der für die beiden führenden Supercomputer-Nationen noch offen ist. Für amerikanische Wissenschaftler ist es derzeit unmöglich, einen japanischen Superrechner zu kaufen, obwohl viele gerne einen hätten, wie man hinter vorgehaltener Hand hört. Abtrünnigen, die einen Supercomputer aus japanischer Produktion kaufen wollen, wird von der US-Regierung mit dem Entzug der Forschungsgelder gedroht. Auf der anderen Seite bleiben auch die NECs und Hitachis im Land der aufgehenden Sonne unter sich, weil Unternehmen und Regierung nicht im Traum daran denken, einen Rechner von IBM, Cray oder Silicon Graphics zu kaufen. Dabei ist der weltweite jährliche Umsatz mit Supercomputern mit sieben Milliarden Dollar vergleichsweise gering und wegen des Aufwands wenig lukrativ. Trotzdem ist der Markt hart umkämpft. „Supercomputer sind ein wichtiger Image- und Technologieträger“, begründet Jörg Stadler, der bei NEC in Europa fürs Supercomputer-Marketing zuständig ist.

Viel Unheil hat die berühmte Top-500-Liste angerichtet, in der die 500 schnellsten Computer der Welt aufgeführt sind. Neben Spitzenreiter Blue Gene stehen rund 60 Prozent der dort verzeichneten Rechner in den USA – die meisten entweder bei der National Security Agency, wo sie Codes knacken sowie den Telefon- und E-Mail-Verkehr abhören, oder in einer der Waffenschmieden, wo die USA Atombombentests simulieren. Problematisch an der Top-500-Liste ist, dass sie von Wissenschaftlern und Politikern für ihre Zwecke benutzt wird. Wissenschaftler, die ohne Top-500-Rechner forschen müssen, verweisen gern auf Wettbewerbsnachteile, um Politikern Geld für eine schnellere Maschine aus den Rippen zu leiern. Und wenn der neue Rechner dann in Betrieb genommen wird, prahlen die Politiker mit ihrem Weitblick.

Das sieht mittlerweile auch Jack Dongarra so. Der Professor von der University of Tennessee in Knoxville hat die „ Linpack-Benchmark“ erfunden, mit der die Top-500-Liste erstellt wird. Ihre Software lässt den Computer ein lineares Gleichungssystem lösen und misst die Geschwindigkeit. Allerdings gibt Linpack nicht vor, wie groß das Gleichungssystem sein soll. Bei kleinen Systemen ist der Einfluss des Speicherzugriffs höher – ein Vorteil für Vektorcomputer. Bei großen Systemen sehen PC-Cluster besser aus, da die reine Prozessorleistung mehr ins Gewicht fällt. Jeder Hersteller wählt die Parameter deshalb so, dass seine Maschine besonders gut dasteht. Im Grunde misst Linpack nur die addierte Rechenleistung der einzelnen Prozessoren – ein klarer Vorteil für die PC-Cluster der amerikanischen Supercomputer-Hersteller.

Doch jetzt nimmt sich Dongarra seine Landsleute zur Brust: „ Linpack ist eine Zahl, die über die wahre Leistung nichts aussagt“ , betont er. Mit einem neuen so genannten High-Performance-Challenge (HPC)-Benchmark hat Dongarra einen ganzen Strauß von Geschwindigkeitstests entwickelt, die alle Aspekte der Rechenleistung abdecken sollen. Sie messen zum ersten Mal, wie schnell Daten zwischen Prozessor und Speicher hin und her flitzen, was, wenn es zu langsam geschieht, bei PC-Clustern mit vielen Tausend Prozessoren zur Bremse werden kann.

Der Nachteil der HPC-Benchmark: Am Ende steht keine simple Zahl, die sich in eine Liste einsortieren (oder auf Spielkarten drucken) lässt, sondern eine Matrix verschiedener Parameter, die nur Fachleute interpretieren können. Das ist für Anwender in Rechenzentren in Ordnung, weil sie so besser einschätzen können, was ihnen ihre Maschine an echter Power liefert. Doch die Hersteller haben gemischte Gefühle. Während sich die Japaner die Hände reiben, halten sich die Amerikaner bedeckt. Ein Blue-Gene-Entwickler meint lapidar: „Für solche Benchmark-Tests haben wir keine Zeit.“ Bei der Frage, warum es zwar von den NEC-Rechnern HPC-Benchmark-Werte gebe, nicht aber von IBMs Blue Gene, grinst Jack Dongarra: „Vielleicht sind die IBM-Werte nicht so gut wie erhofft.“ ■

Bernd Müller, ehemaliger bdw-Redakteur, tippt seine Texte auf einem Laptop mit bescheidenen 1,5 Gigaflops.

Bernd Müller

COMMUNITY Internet

Aktuelle Top-500-Liste der Supercomputer:

www.top500.org

Homepage des Höchstleistungsrechenzentrums der Universität Stuttgart: www.hlrs.de

Ohne Titel

in deutschland gibt es drei so genannte Bundeshöchstleistungsrechenzentren: neben dem HLRS Stuttgart, das den Betrieb seiner Rechner an ein Joint Venture des HLRS mit den Unternehmen T-Systems und Porsche ausgelagert hat, noch das John-von-Neumann-Institut in Jülich und das Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften in München. Sie bieten ihre Dienste nicht nur den eigenen Forschern an, sondern stehen allen Interessenten bundesweit offen. Die drei Zentren sind frei in der Wahl, welche Rechner sie anschaffen. Allerdings stimmen sie ab, in welchen Schritten die Leistungssprünge erfolgen. Derzeit hat sich ein zweijähriger Rhythmus eingespielt. Nach dem neuen Vektorcomputer in Stuttgart in diesem Jahr wird auch München einen neuen Rechner anschaffen, der 2006 in Betrieb gehen und 2007 eine Spitzenleistung von 70 Teraflops erreichen soll. Danach werden die Jülicher Kollegen die Rüstungsspirale weiter drehen. Sie liegen derzeit mit den 8,9 Teraflops ihres IBM-Rechners hinter den Stuttgarter Kollegen auf Rang zwei in Deutschland.

Ohne Titel

• Der schnellste Rechner Deutschlands steht in Stuttgart. Er schafft 12,6 Teraflops.

• 350 Teraflops wird bald der weltweit beste Supercomputer zustande bringen.

• Beim Wettstreit um die ersten Plätze der Supercomputer-Rangliste geht es um die bessere Technik: Vektorrechner oder PC-Cluster?

Anzeige

Wissenschaftsjournalist Tim Schröder im Gespräch mit Forscherinnen und Forschern zu Fragen, die uns bewegen:

  • Wie kann die Wissenschaft helfen, die Herausforderungen unserer Zeit zu meistern?
  • Was werden die nächsten großen Innovationen?
  • Was gibt es auf der Erde und im Universum noch zu entdecken?

Hören Sie hier die aktuelle Episode:

Aktueller Buchtipp

Sonderpublikation in Zusammenarbeit  mit der Baden-Württemberg Stiftung
Jetzt ist morgen
Wie Forscher aus dem Südwesten die digitale Zukunft gestalten

Wissenschaftslexikon

♦ As|tro|graf  〈m. 16〉 fotografisches System für die Beobachtung des Sternhimmels mit mehreren Linsen u. großem Öffnungswinkel; oV Astrograph … mehr

Folk|mu|sic  〈[fkmju:zık] f.; –; unz.; Mus.〉 (besonders in Großbritannien u. den USA gepflegter) Musikstil, der Melodien u. Texte traditioneller volkstümlicher Musik mit Elementen der modernen Popmusik verbindet [<engl. folk … mehr

Ad|ap|ti|on  〈f. 20〉 = Adaptation

» im Lexikon stöbern
Anzeige
Anzeige
Anzeige