Anzeige
1 Monat GRATIS testen, danach für nur 9,90€/Monat!
Startseite »

Alle für einen, einer für alle

Allgemein

Alle für einen, einer für alle
Dem Internet droht Verstopfung durch zu viel Datenverkehr. Ein Netz, das Dateien direkt zwischen den Rechnern einzelner Nutzer leitet, soll Staus vermeiden. Viele Tauschbörsen nutzen diese Technologie schon heute sehr erfolgreich.

Wie heute die Daten wandern

Manche Dinge erscheinen erst auf den zweiten Blick verwandt. So weisen ein Heimnetzwerk, eine Musik-Tauschbörse im Internet und die Suche nach Außerirdischen zunächst kaum Gemeinsamkeiten auf. Und doch steckt eine ähnliche Technologie dahinter: Computer werden miteinander vernetzt und tauschen direkt Daten oder Nachrichten aus. Das können zwei PCs zu Hause sein, Arbeitsplatzrechner in einem kleinem Unternehmen, es können aber auch Hunderte oder Tausende Computer sein, die über die ganze Welt verteilt sind. Gemeinsam ist allen: Sie kommunizieren gleichberechtigt miteinander, als so genannte Peers (Ebenbürtige), ohne dass ein zentraler Rechner, der „Server“, den Datenverkehr in diesem Netz koordiniert oder Daten zentral verwaltet.

In einem Peer-To-Peer-Netz (P2P) laden Nutzer Daten von den Computern anderer Nutzer herunter und stellen gleichzeitig Daten auf dem eigenen Computer zum Herunterladen bereit. Ein solches dezentrales Netz ist einfach einzurichten. Ein Nutzer installiert ein Programm auf seinem Computer und gibt einzelne Verzeichnisse auf seiner Festplatte frei. Schon können die anderen Nutzer im P2P-Netz auf seine Festplatte schauen und Daten von dort herunterladen – und er kann umgekehrt Daten von den Computern der anderen holen.

Für den Austausch von Dateien über das Internet ist P2P ideal. Unterstützt durch die immer größere Verbreitung von schnellen Internet-Zugängen, etwa per ISDN oder DSL, boomen seit einigen Jahren P2P-Tauschbörsen: Internet-Seiten, auf denen man Musikstücke, Videofilme oder Software mit anderen Nutzern tauschen oder – teils kostenlos, teils gegen eine Gebühr – herunterladen kann. Auch verbesserte Kompressionsverfahren für Video- und Musikdateien, zum Beispiel die von Forschern des Erlanger Fraunhofer-Instituts für Integrierte Schaltungen entwickelten Verfahren MP3 und AAC, tragen dazu bei. Zwischen fünf und sechs Millionen Nutzer tummeln sich in jeder Woche bei KaZaA, der gegenwärtig größten Online-Tauschbörse für Musikstücke, Software und Filme. Verschiedenen Studien zufolge wurden im Jahr 2002 über fünf Milliarden Songs über Börsen wie KaZaA, Grokster, iMesh, Morpheus und eDonkey heruntergeladen. Dazu kamen fünf Millionen Computerspiele und rund 150 Millionen Spielfilme. Vier Milliarden US-Dollar, klagt die Musikindustrie, verliere sie auf diese Weise weltweit pro Jahr, weil ihr Einnahmen aus dem Verkauf von CDs fehlen.

Der Austausch von Dateien über das Internet ist nicht nur für Musikpiraten eine attraktive Anwendung. Auch seriöse Unternehmen entdecken zunehmend die dezentrale Netzwerktechnologie. Dateien werden nicht mehr auf einem zentralen Server abgelegt, sondern auf den Peers der Mitarbeiter im Netz. In den Vereinigten Staaten tauschen beispielsweise Organisationen im Gesundheitswesen Patientendaten über ein P2P-Netz namens „CareScience Care Data Exchange“ aus. Auch das Deutsche Forschungsnetz (DFN) testet im Gigabit-Wissenschaftsnetz (G-WiN) den Austausch von wissenschaftlichen Dokumenten per Peer-to-Peer-Technologie.

Anzeige

Neben den Tauschbörsen sind Online-Telegramm-Dienste („Instant Messaging Service“) wie ICQ (gesprochen: „I seek you“, ich suche dich), Microsofts MSN Messenger oder der AOL Instant Messenger (AIM) verbreitete P2P-Anwendungen. Über diese Dienste werden Nachrichten direkt vom Computer des Absenders an den des Empfängers verschickt. Die meisten dieser Programme verfügen zudem über eine „Buddylist“, in die man die Kennung von Freunden oder Mitarbeitern einträgt. Sind diese Teilnehmer online, bekommt der Nutzer das in seiner Liste angezeigt.

Per P2P lassen sich nicht nur Daten tauschen oder Nachrichten verschicken, sondern auch Ressourcen – wie die Rechenkapazität – gemeinsam nutzen. So können aufwendige Rechenoperationen auf mehrere Computer aufgeteilt werden, die gemeinsam die Rechenleistung eines Supercomputers erreichen. Auf diese Weise soll etwa das am IBM-Entwicklungszentrum in Böblingen ins Leben gerufene ZetaGrid die Riemann’sche Hypothese über die Verteilung von Primzahlen verifizieren helfen. An dem mathematischen Beweis beteiligen sich inzwischen über 8000 Computer.

Doch P2P-Systeme haben auch Tücken: Daten werden nicht von einem Server heruntergeladen, der rund um die Uhr erreichbar ist und ständig unter Aufsicht steht, sondern von der Festplatte eines angeschlossenen Nutzers. Er muss also online sein, damit die Daten zur Verfügung stehen. Gerade in nicht-organisierten Systemen wie den Tauschbörsen variiert deshalb das Angebot der zur Verfügung stehenden Inhalte. Für Anwendungen, die ständig erreichbar sein müssen, sind solche Systeme somit kaum geeignet.

Auch die Sicherheit ist ein Problem: Virenprogrammierer haben inzwischen die Dateitauschbörsen als Umschlagplatz für ihre bösartigen Programme entdeckt. So verbreitete sich der Wurm Novarg/Mydoom Anfang des Jahres nicht nur über E-Mail, sondern auch über die Dateitauschbörse KaZaA. Kein Einzelfall, wie Bruce Hughes, Leiter der Virenforschungsabteilung beim amerikanischen Computer-Sicherheitsunternehmen Trusecure, feststellte. Nach seinen Erkenntnissen ist fast jedes zweites Programm, das über KaZaA heruntergeladen wird, virenverseucht. Die Nutzer der Tauschbörsen müssen also sehr auf den Schutz ihres Rechners und der Daten bedacht sein.

Wie früher getauscht wurde

Schon vor 30 Jahren, als mehrere Universitäten in den USA über das ARPAnet – einen Vorläufer des Internets – vernetzt wurden, kommunizierten die angeschlossenen Computer gleichbereichtigt miteinander. Konnte ein Computer das Netz erreichen, war er selbst auch für jeden anderen Rechner im Netz erreichbar. Allerdings waren an das Netz, das später in „Internet“ umbenannt wurde, nur wenige Computer angeschlossen. Es wurde hauptsächlich von Wissenschaftlern zur Kommunikation untereinander genutzt. Anfang der neunziger Jahre, mit der Entwicklung des World Wide Web, wurde das Internet zum Massenmedium. Die Zahl der Nutzer, die ein ganz anderes Nutzungsverhalten an den Tag legten, wuchs rapide: Sie wollten hauptsächlich Web-Inhalte abrufen, und das möglichst rund um die Uhr, stellten ihrerseits aber kaum Inhalte bereit. Für eine solche asymmetrische Nutzung sind Client/Server-Systeme gut geeignet. Ein Anbieter richtet einen Server ein und sorgt dafür, dass seine Informationen und Dienste für die Nutzer, die „Clients“, verfügbar sind.

Die Renaissance von Peer-to-Peer kam im Jahr 2000 mit der Datenaustausch-Software Napster. Ursprünglich war das Programm nur für den Datenaustausch im lokalen Netz der Bostoner Northeastern University konzipiert. Doch im Herbst 1999 stellte der 18-jährige Shawn Fanning mit der finanziellen Hilfe seines Onkels Napster im Internet zur Verfügung. Ein Jahr später hatten 37 Millionen Nutzer weltweit auf ihren Computern das Programm installiert. Sie tauschten pro Monat rund 150 Millionen Musikstücke – sehr zum Leidwesen der Unterhaltungsindustrie, die durch die Tauschbörsen ihre Gewinne schwinden sah.

Wie künftig die Netze genutzt werden

Schon heute stoßen die herkömmlichen Client/Server-Systeme an ihre technischen Grenzen. Sollte das Internet ähnlich rasant weiterwachsen wie bisher – und alle Prognosen sagen das voraus –, werden Client/Server-Systeme dem Ansturm der Web-Nutzer bald nicht mehr gewachsen sein. Der Server wird zum Flaschenhals, an dem es bei zu großem Datenverkehr zu Staus kommen wird.

Dezentrale P2P-Systeme hingegen können den Datenverkehr besser bewältigen, da Bandbreite, Speicherplatz und Rechenkapazität verteilt genutzt werden. Selbst die Zuverlässigkeit solcher Systeme ist kein Problem, betont der Tübinger Peer-to-Peer-Spezialist Klaus Wehrle. Untersuchungen von Wissenschaftlern der University of California in Berkeley haben gezeigt, dass es ausreicht, mehrere Kopien eines Dokuments auf verschiedenen Rechnern in einem P2P-Netz zu verteilen, um eine vergleichbare Zuverlässigkeit zu erzielen, die ein serverbasiertes System bietet.

Wie ein solches verteiltes System einmal aussehen könnte, zeigen vernetzte digitale Videorekorder, die sich beispielsweise in großen Hotels oder Ferienzentren, aber auch in Unternehmen einsetzen lassen. Entwickelt wurde das Videosystem am Cooperative Computing & Communication Laboratory, kurz C-Lab, einem gemeinsamen Forschungs- und Entwicklungslabor der Universität Paderborn und von Siemens Business Services (SBS).

Beim Abspielen von digitalen Videos über ein Netz, dem so genannten Streaming, werden sehr große Datenmengen transportiert. Dazu muss die Kapazität des Netzes und der Streaming-Server entsprechend großzügig ausgelegt sein. Anderenfalls kann es in Spitzenzeiten – etwa nach dem Abendessen, wenn viele Hotelgäste sich zur abendlichen Entspannung und Unterhaltung einen Film anschauen wollen – zu Engpässen kommen.

Als Alternative haben die Paderborner Forscher und Ingenieure ein verteiltes System entwickelt, in dem die Filme auf Peers im Netz, beispielsweise auf Set-Top-Boxen für das digitale Fernsehen auf den Hotelzimmern, bereitgestellt werden. Um die Netzlast möglichst gering zu halten, ist es wichtig, die Wege der Filme kurz zu halten – denn je näher das Video am abrufenden Peer gespeichert ist, desto weniger wird das Netz in Anspruch genommen. Dazu müssen von aktuellen, oft abgerufenen Filmen mehrere Kopien im Netz verfügbar sein. Dafür sorgt das System selbst: Es verteilt von sich aus mehr Kopien der beliebteren Streifen und reduziert die Zahl der weniger häufig abgerufenen. Es sorgt aber auch dafür, dass letztere nicht komplett verschwinden.

Ein solches verteiltes System könnte schon bald Realität werden: Der C-Lab-Partner SBS prüft derzeit die Möglichkeiten eines Einsatzes in den Hausnetzen von verschiedenen Unternehmen und Hotels. ■

Werner Pluta

Ohne Titel

Die meisten Internet-Dienste heutzutage sind Client/Server-Dienste: Ein Server stellt Informationen bereit, von dem der Nutzer mit einem Client, beispielsweise einem Webbrowser wie Netscape oder Internet Explorer, Daten abruft. Dabei handelt es sich um ein asymmetrisches System: Denn der Client kann zwar Daten von einem Server herunter-, aber nicht auf den Server hochladen.

Peer-To-Peer-Netze (P2P) hingegen sind symmetrische Systeme. Jeder angeschlossene Rechner kann also gleichzeitig Daten bereitstellen und herunterladen. Die Adressierung in einem P2P-Netz erfolgt nicht, wie bei einem Webserver, über eine ortsabhängige IP-Adresse (Internet-Protokoll-Adresse), sondern ist inhaltsbasiert. Für jede Datei, die ein Peer bereitstellt, wird ein digitaler Fingerabdruck erzeugt: Er ist die „Adresse“, unter der man die Datei im Netz findet.

Eine verteilte Indexstruktur erlaubt das Auffinden anderer Peers im Netz und der Dateien. Jeder Index eines Peers enthält neben Fingerabdrücken auch Infos über nahe liegende Peers, das heißt darüber, wie eine Suchanfrage von einem Nutzer zum nächsten und übernächsten bis dahin kommt, wo die gesuchte Datei bereit liegt.

Ein anderes Modell, ein Hybridsystem zwischen P2P und Client/Server, gruppiert das Netz um einen Superpeer. Auf ihm liegen die Adressen der im Netz vorhandenen Dateien. Eine Suchanfrage wird von dem Superknoten bearbeitet, und die Datei von einem der Peers heruntergeladen. Die meisten der Internet-Tauschbörsen sind Hybridsysteme.

Ohne Titel

Eines der ältesten und bekanntesten Distributed Computing-Projekte ist SETI@Home, die Suche nach außerirdischem Leben („Search for Extra-Terrestrial Intelligence“). Permanent zeichnet das Arecibo- Radioteleskop in Puerto Rico Unmengen von Daten aus dem Weltall auf. Nur ein sehr leistungsstarker und sehr teurer Supercomputer könnte diese Daten in überschaubarer Zeit auswerten.

Doch Astronomie und vor allem der Gedanke, im Weltall nicht alleine zu sein, fasziniert viele Menschen, und sie wollen sich gerne bei der Suche nach außerirdischen Intelligenzen beteiligen. Das nutzen die SETI-Forscher von der University of California in Berkeley: Sie rufen Computernutzer dazu auf, ihre Rechner über das Internet für die Auswertung der Radiodaten aus dem Universum zu einem virtuellen Supercomputer zu vernetzen. Die Resonanz ist überwältigend: Fast fünf Millionen Menschen – darunter auch bdw-Astronomie-Redakteur Rüdiger Vaas – haben sich bislang an der Suche nach Außerirdischen beteiligt. Sie stellten dem Projekt bereits eine Rechenzeit von insgesamt über anderthalb Millionen Jahren zur Verfügung.

SETI@Home nutzt lediglich die Leerlaufzeit eines Computers. Die Teilnehmer laden vom Server Daten herunter, die das Radioteleskop aufgezeichnet hat. Nutzen sie ihren eingeschalteten Rechner nicht, springt statt des Bildschirmschoners die Software an, die die SETI-Daten nach Anzeichen außerirdischer Intelligenz durchforstet. Ist ein Datensatz bearbeitet, wird er gegen einen neuen ausgetauscht. Inzwischen sind so bereits 150 Regionen im All lokalisiert worden, die Ausgangspunkt außerirdischer Signale sein könnten.

Ohne Titel

Es sollte eigentlich nur eine Anwendung werden, mit der einige Studenten Dateien an der Universität tauschen konnten. Doch es war 1999, der Höhepunkt der New Economy. Jeder wollte im Internet Geld verdienen – warum also nicht auch Shawn Fanning? Mit Hilfe seines Onkels verschaffte er sich Risikokapital und brachte seine Software „Napster“ ins Internet. Zwar zog Napster schnell den Unmut der Musikindustrie auf sich, die gegen die Tauschbörse klagte. Doch es gelang Fanning, für einen zweistelligen Millionen-Dollar-Betrag eine strategische Allianz mit dem deutschen Medienkonzern Bertelsmann zu schließen. Thomas Middelhoff, damals Bertelsmann-Chef, wollte aus der Tauschbörse ein kostenpflichtiges Angebot machen.

Zwar meldete Napster nach einer Urheberrechtsklage 2002 Insolvenz an, doch es entstanden weitere Tauschbörsen wie Morpheus, Gnutella oder eDonkey. Die nach der Zahl der Zugriffe führende Plattform ist KaZaA. Nach Angaben des KaZaA-Herstellers Sharman Networks ist diese Filesharing-Software die „meist heruntergeladene Software aller Zeiten“. Danach soll KaZaA 230 Millionen mal von der Website Download.com geladen worden sein. Dank verbesserter Komprimierungsverfahren, Breitband-Internetzugängen und P2P-basierter File-Sharing-Börsen tauschten die Nutzer Dateien zigmillionenfach.

Doch schon bald zog die Plattenindustrie alle Register, um die Downloads aus dem Internet zu unterbinden – mit Gerichtsbeschlüssen, Gesetzes-Initiativen zur Änderung des Urheberrechts, aber auch mit technischen Maßnahmen, etwa einem in den veröffentlichten Musikstücken und Videos integrierten Kopierschutz. Dieser soll verhindern, dass eine CD mit einem Computer kopiert wird. Häufig bewirkt der Kopierschutz aber auch, dass die CD noch nicht einmal auf einem Computer abgespielt werden kann.

Andere Maßnahmen der Plattenfirmen richten sich direkt gegen die Tauschbörsen. Defekte Dateien sollen den Nutzern den Spaß an der heruntergeladenen Musik verderben. Manche Musiker greifen kurzerhand zur Selbsthilfe: Sie versehen ihre neue Scheiben mit der schriftlichen Aufforderung, die CD zu kaufen, nicht zu kopieren. Vielleicht die einzige erfolgversprechende Methode im Kampf gegen den Tausch im Internet ist die Strategie der Universal Music Group: Der Musikriese senkte Ende 2003 in den USA die Preise für seine CDs um 30 Prozent.

Ohne Titel

fast jeder zweite haushalt in der Europäischen Union besaß Ende 2002 einen Internet-Anschluss. Auffällig dabei: In den nordeuropäischen Ländern ist der Anteil derer, die online sind, deutlich höher als im Süden. Deutschland liegt im Mittelfeld der noch 15 EU-Staaten.

Ohne Titel

der spitzenreiter in der Hitliste der häufigsten Anwendungen des Internets ist das Versenden von E-Mails. Ebenfalls begehrt bei den Web-Nutzern sind Nachrichtendienste und Reise-Dienstleistungen. Fürs Online-Banking fehlt vielen noch das Vertrauen in die Sicherheit.

Anzeige

Wissenschaftsjournalist Tim Schröder im Gespräch mit Forscherinnen und Forschern zu Fragen, die uns bewegen:

  • Wie kann die Wissenschaft helfen, die Herausforderungen unserer Zeit zu meistern?
  • Was werden die nächsten großen Innovationen?
  • Was gibt es auf der Erde und im Universum noch zu entdecken?

Hören Sie hier die aktuelle Episode:

Aktueller Buchtipp

Sonderpublikation in Zusammenarbeit  mit der Baden-Württemberg Stiftung
Jetzt ist morgen
Wie Forscher aus dem Südwesten die digitale Zukunft gestalten

Wissenschaftslexikon

Wert|stoff  〈m. 1〉 Abfall, der sich zur Wiederverwertung eignet ● ~e aus dem Hausmüll aussortieren

Film|kas|set|te  〈f. 19〉 lichtgeschützter Behälter für den Film mit Schlitz zum Abspulen

Stutz|flü|gel  〈m. 5; Mus.〉 kleiner Flügel [→ stutzen2 mehr

» im Lexikon stöbern
Anzeige
Anzeige
Anzeige