Siegerstraßen, Schleichpfade und Sackgassen - wissenschaft.de
Anzeige
Anzeige

Astronomie+Physik Technik+Digitales

Siegerstraßen, Schleichpfade und Sackgassen

Fünf einstmals gefeierte Entdeckungen von Physikern – und was daraus geworden ist: bild der wissenschaft hat sich auf die Spurensuche gemacht.

Einst preiswürdig, heute preiswert: die Phasenkontrast-Methode

Das Nobelpreis-Komitee hat im Lauf der Jahrzehnte schon etliche Entscheidungen getroffen, die umstritten waren. Doch eines kann man seinen Mitgliedern sicher nicht vorwerfen: dass sie zu sehr nach dem praktischen Nutzen einer wissenschaftlichen Erkenntnis schielen würden. Meist ging es bei den prämierten Arbeiten um sehr grundlegende wissenschaftliche Erkenntnisse. Dennoch gab es manche Jahre, in denen die Juroren von ihrer üblichen Linie abwichen – und durch Auszeichnen einer anwendungsnahen Entdeckung Zeichen setzten.

Das Jahr 1953 gehörte zu diesen seltenen Jahren. Da ehrte das Komitee Frits Zernicke „besonders für seine Erfindung des Phasenkontrast-Mikroskops“. Der Niederländer hatte Anfang der Dreißigerjahre erkannt, auf welche Weise man eine Schwierigkeit herkömmlicher Lichtmikroskope überwinden kann. Mit ihnen sind transparente Objekte – beispielsweise Zellen oder Bakterien – ohne Anfärbung nicht zu erkennen. Zernicke entwickelte eine spezielle Technik, mit der Objekte – mittels einer Ringblende und eines so genannten Phasenrings im Objektiv – unter dem Mikroskop so beleuchtet werden können, dass sie auch ohne Anfärben vor einem grauen Hintergrund sichtbar sind. Er ging mit seinem Konzept zum Unternehmen Carl Zeiss, das 1941 eine entsprechende Phasenkontrast-Ausrüstung für Mikroskope auf den Markt brachte. Der Zweite Weltkrieg war dafür verantwortlich, dass es trotzdem noch zwölf Jahre dauerte, bis Carl Zeiss Phasenkontrast-Mikroskope in nennenswerter Zahl produzierte.

Diese Apparate finden sich heute in vielen Labors und Arztpraxen: „Aktuell sind rund ein Drittel aller Lichtmikroskope, die wir ausliefern, vom Phasenkontrast-Typ“, sagt Gudrun Vogel, Pressesprecherin für den Produktbereich Mikroskopie bei Carl Zeiss in Jena. Die Phasenkontrast-Geräte sind dabei höchstens 25 Prozent teurer als ihre herkömmlichen Hellfeld-Pendants.

Anzeige

In der Zeitschleife: Supraleiter

Nur selten verläuft der Weg von der Erkenntnis zur wirtschaftlich bedeutsamen Innovation so glatt – daran ändern auch Nobelpreis-Würden nichts. Ein Beispiel: 1987 brach das Komitee mit einer anderen Gewohnheit – sehr lange zu warten, bevor eine wissenschaftliche Entdeckung mit dem Preis honoriert wird – und ließ nur knapp zwei Jahre zwischen bahnbrechender Forschungsarbeit und ihrer Ehrung vergehen. Der Schweizer Physikprofessor Alex Müller und sein deutscher Mitarbeiter Georg Bednorz vom IBM Forschungslabor in Rüschlikon bei Zürich hatten eine neue Klasse von Oxidkeramiken entdeckt, in der elektrischer Strom bei Temperaturen von minus 238 Grad Celsius widerstandslos und damit fast verlustfrei fließt.

Mit diesen so genannten Hochtemperatur-Supraleitern hatten sie in den Forschungslabors einen wissenschaftlichen Goldrausch ausgelöst. Gemeinsam träumten Experten und Laien von effizienteren Stromgeneratoren, leistungsfähigeren Computerchips, wirtschaftlichen Magnetschwebezügen – und vor allem von widerstandsloser Stromleitung bei Raumtemperatur. „Auch ich war damals überzeugt, dass einige dieser Träume innerhalb von einem oder zwei Jahrzehnten realisierbar sind“, gesteht Bednorz. Und er räumt ein, über kritische Stimmen enttäuscht gewesen zu sein, die von überzogenen Erwartungen sprachen.

Die Situation heute – fast genau 20 Jahre später – erinnert an den Film „Und ewig grüßt das Murmeltier“. Darin beginnt für Hauptdarsteller Bill Murray derselbe Tag immer wieder von vorne: Er hängt in einer Zeitschleife fest. „Der nächste Durchbruch wären selbstverständlich Supraleiter bei deutlich höheren Temperaturen, wenn möglich bei Raumtemperatur“, zitierten vor Kurzem die „VDI-Nachrichten“ Paul Chu, den Präsidenten der Hongkong University. Das hätte Chu auch schon 1987 sagen können. Damals hatte er die Tür für die praktische Nutzung der Supraleitfähigkeit weit aufgestoßen: Er fand Variationen der in Zürich entdeckten Keramiken, bei denen die relativ einfache und billige Kühlung mit – minus 196 Grad Celsius kaltem – Flüssigstickstoff ausreichte, um sie supraleitend zu machen. Doch in der Zeit danach ging es kaum voran: Seit 13 Jahren verharrt die Rekordmarke für die höchste Temperatur, bei der eine bestimmte Keramik supraleitende Eigenschaften zeigt, bei minus 135 Grad Celsius.

Eine aktuelle Marktprognose des Firmenkonsortiums Conectus geht davon aus, dass 2010 mit klassischen Niedertemperatur-Supraleitern weltweit rund 5,6 Milliarden Euro umgesetzt werden. Den künftigen Markt für Hochtemperatur-Supraleiter schätzt die Organisation, der Firmen wie Siemens, Alstom und Merck angehören, mit 0,6 Milliarden weit kleiner ein. 1993 wurde der Weltmarkt schon mal weit optimistischer taxiert: auf acht bis zwölf Milliarden US-Dollar, bezogen fast ausschließlich auf Hochtemperatur-Supraleiter – und auf das Jahr 2000.

„Diese Prognosen waren stark von der Haltung der Amerikaner beeinflusst, die neue Technologien immer euphorisch begrüßen und meist die für deren Weg in den Markt erforderliche Zeit unterschätzen“, sagt Carsten Bührer, Geschäftsführer von Trithor. Die Firma in Rheinbach bei Bonn stellt bei Hochtemperatur supraleitende Drähte, Bauteile und Systeme für die Energie- und Magnettechnik her. Bührer: „Optimistische Prognosen waren auch nötig, damit genug Geld für die weitere Entwicklung der Technologie bereitgestellt wurde.“

Dass bisher keine Supraleiter bei Temperaturen über minus 135 Grad gefunden wurden, hält Georg Bednorz für nicht entscheidend: „ Supraleiter bei Raumtemperatur müssten vermutlich ebenfalls erst lange weiter entwickelt werden, bis sie im Alltag einsetzbar sind.“ Trithor-Geschäftsführer Bührer weist darauf hin, dass die Kältetechnik große Fortschritte gemacht habe und sich die heute bekannten Hochtemperatur-Supraleiter daher für die meisten Anwendungen eignen würden.

Gescheitert scheinen die Supraleiter bisher lediglich als Materialien für Computerchips, die trotz hoher Stromaufnahme keine störende Wärme entwickeln und dadurch extrem schnell schalten können. Denn die Computerindustrie hat das Problem trickreich auf andere Weise gelöst und die Chips effizient gekühlt – etwa durch den Einsatz besonders gut wärmeleitender Materialien. „Aus wirtschaftlichen Gründen bevorzugt die Halbleiterindustrie Veränderungen in kleinen Schritten und lehnt die radikale Umstellung der Produktion ab, welche die Einführung supraleitender Materialien mit sich bringen würde“, erklärt Bednorz, der nach wie vor bei IBM tätig ist, inzwischen aber über Keramiken für nichtflüchtige Computerspeicher forscht.

Nach Ansicht des Nobelpreisträgers werden die Hochtemperatur-Supraleiter künftig vor allem als Drähte und Kabel Geld bringen. Die sind kommerziell erhältlich, haben sich zur Stromversorgung in einer Reihe von Testtrassen bereits bewährt und werden inzwischen, vor allem in den USA, vereinzelt für den Dauerbetrieb installiert. „Auf lange Sicht wird die Energieversorgung über supraleitende Kabel und durch supraleitende Komponenten für das Strommanagement unweigerlich kommen“, ist Bednorz überzeugt. Carsten Bührer dagegen ist zumindest für die nahe Zukunft und den deutschen Markt skeptisch: „Das Versorgungsnetz in Deutschland ist gut ausgebaut. Da hält sich die Bereitschaft zu größeren Neuinvestitionen in Grenzen.“

Bührer und seine Firma setzen daher vor allem auf Hochtemperatur supraleitende Generatoren und Motoren, etwa für Windkrafträder und Schiffe. Aber auch hier hängt die künftige Bedeutung der Supraleiter letztlich weniger von technologischen Fortschritten ab – sondern davon, ob sie in die Strategien der Industriekonzerne passen und ob die Produkte dann vom Markt akzeptiert werden. Klar ist: Auch wenn es mit den Hochtemperatur-Supraleitern langsamer vorangeht als erhofft: Ein Flop sind sie nicht. Und schließlich vergingen vom ersten Transistor bis zum Siegeszug des PCs auch fast 40 Jahre.

Jung und heiß: Sonolumineszenz

Eine andere Entdeckung hatte noch weniger Zeit als die Hochtemperatur-Supraleiter, um im Alltag der Menschen anzukommen: 1990 beobachtete Felipe Gaitan, Doktorand an der Mississippi-Universität, dass eine Luftblase in einem wassergefüllten Gefäß ein weiß-blaues Leuchten aussandte, als er sie mit Ultraschall bestrahlte. „Sprache wird zu Licht. Sonolumineszenz – ein bislang wenig beachtetes Phänomen eröffnet weit reichende Möglichkeiten“, titelte der Berliner „Tagesspiegel“ vier Jahre später. Im Artikel dazu spekulierte die Zeitung, dass Sonolumineszenz in der Nachrichtentechnik bedeutsam werden könnte, weil sich mit ihrer Hilfe vielleicht Schall ohne Umwege über elektronische Schaltkreise ins Glasfasernetz einspeisen ließe.

„Viel zu aufwendig und ineffizient, außerdem lassen sich die Blasen nicht miniaturisieren“, urteilt Werner Lauterborn, Professor für Physik an der Universität Göttingen. „Tatsächlich gibt es bis heute keine einzige Anwendung der Sonolumineszenz, die sich zunutze macht, dass dabei Licht ausgesandt wird“, sagt Detlef Lohse. „Doch das spektakuläre Leuchten hat die Aufmerksamkeit auf ein Phänomen gelenkt, dessen Erforschung praktisch wichtig ist“, betont der Physiker von der niederländischen Universität Twente.

So berichtete bild der wissenschaft schon 1997 über die Idee, den Kontrast von Blutgefäßen in Ultraschallbildern zu erhöhen, indem man dem Patienten kleine und daher ungefährliche Bläschen injiziert. „Derzeit investiert Philips massiv in diese Technologie, und in unserer Arbeitsgruppe ist es finanziell gesehen das größte Forschungsgebiet“, sagt Lohse. Auch Océ, ein japanischer Konzern für professionelle Dokumentensysteme, hat bei der Entwicklung einer kommenden Generation von piezoakustischen Tintenstrahldruckern auf die Kenntnisse der niederländischen Wissenschaftler zurückgegriffen. Ihr Know-how, erworben beim Erforschen der Sonolumineszenz, half, die störende Bläschenbildung in der Tinte zu unterdrücken.

Nicht nur Unternehmen kontaktieren Lohse, auch Journalisten rufen ihn häufig an. Sie wollen wissen, was von der so genannten Bläschen-Kernfusion zu halten ist. 2002 hatte Rusi Taleyarkhan vom US-amerikanischen Oak Ridge National Laboratory erstmals berichtet, dass durch Sonolumineszenz in einer bestimmten Flüssigkeit – deuteriertem Aceton – Atomkerne verschmelzen. Lohse bezweifelt die spektakulären Ergebnisse der US-Forscher: „Das ist ein leidiges Thema, an dem in den USA immer noch gearbeitet wird. In Europa hingegen steckt keine seriöse Forschungsagentur Geld in solche Forschungen.“ Der Göttinger Physiker Lauterborn hat wie Lohse mit Computermodellen überprüft, ob die bekannten physikalischen Prozesse der Kernfusion in den Bläschen ablaufen können. Das Ergebnis: „Die Berechnungen zeigen, dass die chemischen Reaktionen in den Bläschen viel Energie auffressen. Die nötigen Temperaturen für die Fusion werden deshalb nicht erreicht.“

Auch wenn es für die Fusion nicht langt: Mehrere Tausend Grad heiß wird es schon in den Bläschen. Lohse hatte sie deshalb 1997 als „Mikrolabors für Hochtemperatur-Chemie“ bezeichnet, der US-Physiker Ken Suslick sprach gar von „mikroskopischen Hochöfen“ . Doch der Nachweis, dass sie sich tatsächlich zur gezielten Herstellung chemischer Stoffe eignen, steht bis heute aus.

Dornröschenschlaf: Brennstoffzellen-Auto

Dass die Zeit von einer Entdeckung bis zu ihrer technischen Anwendung Jahrzehnte dauern kann, zeigt sich extrem bei der Brennstoffzelle. Sir William Grove – ein gelernter Jurist – entdeckte ihr Prinzip schon 1839 und entwickelte anschließend eine funktionsfähige Brennstoffzellen-Batterie. 120 Jahre später – 1959 – präsentierte die US-amerikanische Allis-Chalmer Manufacturing Corporation das erste Brennstoffzellen-Fahrzeug: einen Traktor. Doch erst vor etwa 20 Jahren ging die Autoindustrie ernsthaft daran, die energiesparende und umweltschonende Technologie aus ihrem Dornröschenschlaf zu wecken. So schnell wie es die Branche erwartet hatte, kam sie aber nicht voran. bdw-Redakteur Thorwald Ewe berichtete 1998 unter dem Titel „Die rollende Revolution“ über das Ziel von Daimler-Benz, General Motors und Ford, ab 2004 erste Modelle von Brennstoffzellen-Autos in Serie zu fertigen. Daraus ist nichts geworden: Heute rechnen die Hersteller frühestens 2012 mit deren Markteinführung.

„Unsere damaligen Ankündigungen erfolgten in bestem Glauben und mit allem verfügbaren Wissen. Wir haben aber einige Hürden schlicht unterschätzt“, sagt Christian Mohrdieck, Leiter der Brennstoffzellen-Antriebsentwicklung bei Daimler-Chrysler. Kniffliger als erwartet war es beispielsweise, den Antrieb für einen Einsatz bei Minustemperaturen fit zu machen. Auch wenn dieses Problem inzwischen weitgehend gelöst ist, bereiten andere technologische Schwierigkeiten den Entwicklern weiterhin Kopfzerbrechen: Gemessen an den hohen Anforderungen der Automobilindustrie ist der Brennstoffzellen-Antrieb noch nicht ausreichend zuverlässig und langlebig.

Dazu kommt, dass Brennstoffzellen-Autos immer noch viel zu teuer sind: „Über den Daumen gepeilt, belaufen sich die reinen Herstellungskosten für einen Mittelklassewagen mit Brennstoffzellen-Antrieb derzeit auf eine Million Euro“, sagt Bernd Emonts, Experte vom Forschungszentrum Jülich. Für Daimler-Chrysler-Entwicklungschef Mohrdieck hängen die zu hohen Kosten auch damit zusammen, dass die Brennstoffzelle einen weiten Weg von der chemischen und elektrotechnischen Grundlagenforschung zu den Fertigungsprozessen in der Autoindustrie zurückzulegen hat. Deshalb setzt er verstärkt auf Kooperationen mit Zulieferfirmen, die das Automobilgeschäft kennen.

Dass die Industrie den Zeithorizont für die Serienfertigung nun auf 2012 bis 2015 verschoben hat und kein Autokonzern mit anderen Ankündigungen aus der Reihe tanzt, ist auf eine weitere Hürde zurückzuführen: Nur wenn der „Sprit“ für den Brennstoffzellen-Antrieb – Wasserstoff oder Methanol – in großen Mengen produziert und über ein dichtes Tankstellennetz verteilt wird, können die neuen Autos ein Massenerfolg werden. Die Markteinführung der Brennstoffzellen-Autos kann daher nur im Schulterschluss mit der Kraftstoffindustrie und staatlichen Institutionen erfolgen. Ein vorpreschender Autokonzern hätte einen schweren Stand.

Allein Daimler-Chrysler hat bis heute rund eine Milliarde Euro in die Brennstoffzellen-Technologie investiert. Angesichts der vielen Hindernisse ist es geradezu erstaunlich, dass sich noch kein Autohersteller aus der Brennstoffzellen-Entwicklung zurückgezogen hat. Der Grund: „Die strengen gesetzlichen Auflagen, insbesondere in Kalifornien, hinsichtlich Energieverbrauch und Schadstoffausstoß werden künftig mit dem herkömmlichen Verbrennungsmotor nicht mehr zu erfüllen sein“, sagt Emonts.

Gealterter Medienstar: die Chaostheorie

Verglichen mit den Ergebnissen vieler anderer Forschungsrichtungen hatten es solche aus der Brennstoffzellen- oder Supraleiterentwicklung immer leicht, in die Medien zu gelangen – dank der möglichen Bedeutung für den menschlichen Alltag. Und doch sind diese Themen nur graue Mäuse – verglichen mit dem Schmetterlingseffekt. Auf ihn war der amerikanische Meteorologe Edward Lorenz 1961 gestoßen, als er ein primitives Computermodell zur Wettervorhersage entwickelte. Eine Rundungsabweichung von einem hundertstel Prozent bei der Eingabe von Messdaten hatte zu stark voneinander abweichenden Vorhersagen geführt. Lorenz brachte das auf eine eingängige Theorie: Der Flügelschlag eines Schmetterlings in Brasilien, also eine winzige Störung in der Atmosphäre, soll danach einen Wirbelsturm in Texas entfachen können. Dass kleine Veränderungen in den Anfangsbedingungen große Auswirkungen haben können, ist eines der Kennzeichen von Naturprozessen, für die sich später der Begriff „ chaotisch“ durchsetzte.

Mit dem Chaos eng zusammen hängen Fraktale: Zerfranste geometrische Figuren wie das Apfelmännchen, deren Form sich in immer kleinerem Maßstab wiederholt, wenn man näher an sie herangeht. Anfang der Neunzigerjahre gab es viele, die davon überzeugt waren, dass die Erkenntnisse der Chaosforschung die Welt revolutionieren. Nicht nur Naturwissenschaftler, sondern auch Künstler, Philosophen und Medien entdeckten die Chaostheorie und sahen in ihr unter anderem den Triumph des Willkürlichen über das Vorherbestimmte und Planbare.

Heute ist es in der Öffentlichkeit still geworden um die Chaostheorie. Zu Unrecht, wie Eckehard Schöll findet, Professor für Theoretische Physik an der Technischen Universität Berlin: „ Derzeit wird auf diesem Gebiet nicht weniger geforscht als früher, sondern mehr.“ 1990 hatten sich erstmals Wissenschaftler in einer Fachpublikation mit der Kontrolle von Chaos beschäftigt, 1995 war die Zahl der jährlichen Veröffentlichungen dazu auf über 200 angewachsen. Zuletzt erschienen jährlich knapp 400 wissenschaftliche Artikel über dieses Forschungsthema.

„Es gibt eine Reihe von spektakulären Anwendungen mit teilweise großer Bedeutung, die allerdings nicht alle unter dem Stichwort ,Chaos‘ verkauft wurden“, sagt Schöll. Dazu zählt eine relativ sanfte Methode, um das Hirn von Parkinson-Patienten zu stimulieren. Ein solchermaßen verbesserter Hirnschrittmacher, entwickelt von Wissenschaftlern des Forschungszentrums Jülich, wird derzeit klinisch erprobt. Methoden aus der Chaosforschung flossen auch in Computermodelle ein, mit denen Forscher des Göttinger Max-Planck-Instituts für Dynamik und Selbstorganisation erfolgreich die Ausbreitung der SARS-Epidemie über das Flugnetz simulierten oder anhand der Bewegungen von Geldscheinen die Ausbreitung der Vogelgrippe vorhersagen. Die Modelle könnten bei der Planung von Schutzmaßnahmen vor künftigen Epidemien helfen. „ Zunehmend wird auch erkannt, dass die nichtlineare Dynamik – Chaos ist davon ein Spezialfall – eine wesentliche Rolle in der Nanotechnologie spielt“, sagt Schöll.

Sein Göttinger Physikerkollege Lauterborn, der an Verfahren der Chaoskontrolle für die Entwicklung von lichtstärkeren Lasern mitarbeitet, ist überzeugt: „Die Bedeutung der Chaosforschung besteht vor allem darin, dass es mit ihr gelungen ist, tiefer in das Wesen der Natur einzudringen.“ Doch den großen Durchbruch zu technischen Anwendungen hat es bisher nicht gegeben. ■

Frank Frick ist promovierter Chemiker und lebt in Bornheim bei Bonn. Der freie Wissenschaftsjournalist ist regelmäßiger Autor von bild der wissenschaft.

COMMUNITY INTERNET

Arbeitskreis sozio-ökonomischer Systeme der DPG:

www.dpg-physik.de/dpg/organisation/fachlich/aksoe/

Website des Labors für Komplexe Systeme am Institut für Theoretische Physik der Universität Bremen (Stefan Bornholdt):

www.itp.uni-bremen.de/complex/

Homepage von Dirk Helbing am Institut für Wirtschaft und Verkehr der Technischen Universität Dresden:

www.helbing.org

Website des Fachgebiets Verkehrssystemplanung und Verkehrstelematik am Institut für Land- und Seeverkehr der TU Berlin (Kai Nagel):

www.vsp.tu-berlin.de/

Lehrstuhl „Physik von Transport und Verkehr“ an der Universität Duisburg-Essen (Michael Schreckenberg):

www.traffic.uni-duisburg.de

Lesen

Viermal die rote Karte: Sicherheit in Stadien

test, 2/2006, S. 78

Dirk Helbing

Die wundervolle Welt aktiver Vielteilchensysteme

Physikalische Blätter, 1/2001, S. 27

Dirk Helbing und Kai Nagel

Verkehrsdynamik und urbane Systeme

Physik Journal, 5/2003, S. 35

Matthias Otto

Mut zum Risiko: Physik auf dem Börsenparkett

Physik Journal, 5/2003, S. 43

Thomas Brenner

Physik für Betrieb und Konjunktur

Physik Journal, 5/2003, S. 51

Frank Schweitzer

Meinungsbildung, Kommunikation und Kooperation aus physikalischer Perspektive

Physik Journal, 5/2003, S. 57

Ohne Titel

• Die Phasenkontrast-Methode wurde beim Mikroskopieren schnell zum Renner.

• Hochtemperatur-Supraleiter finden nur langsam Anwendungen.

• Die Sonolumineszenz wird anders genutzt als vorhergesagt.

• Technische Detailprobleme lassen Brennstoffzellen-Autos erst viel später auf die Straßen rollen als erwartet.

• Von der Chaostheorie sind nach wie vor viele Wissenschaftler fasziniert. Doch technische Anwendungen sind bislang rar.

Ohne Titel

Zahl der Fachpublikationen zur Kontrolle des Chaos

Jahr Veröffentlichungen

1990 4

1991 41

1992 97

1993 130

1994 169

1995 229

1996 228

1997 312

1998 322

1999 300

2000 287

2001 309

2002 320

2003 328

2004 382

Seit der erste beitrag über die Kontrolle des Chaos im Fachmagazin Physical Review Letters im Jahr 1990 erschien, arbeiten Wissenschaftler weltweit mit ungebrochenem Eifer an diesem Thema. Das spiegelt sich in der Zahl der jährlichen Fachpublikationen wider: In den Neunzigerjahren stieg sie rasch an und ist seitdem auf hohem Niveau. Im Jahr 2004 sind 382 Artikel in diversen Fachzeitschriften erschienen. Insgesamt beläuft sich die Zahl der Publikationen über Möglichkeiten zur Kontrolle des Chaos bislang auf über 3500.

Anzeige

bild der wissenschaft | Aktuelles Heft

Anzeige

Aktueller Buchtipp

Sonderpublikation in Zusammenarbeit  mit der Baden-Württemberg Stiftung
Jetzt ist morgen
Wie Forscher aus dem Südwesten die digitale Zukunft gestalten

Wissenschaftslexikon

Pun|ker  〈[pn–] m. 3〉 1 Angehöriger einer von London ausgehenden Protestbewegung Jugendlicher gegen die Gesellschaft, die durch auffälliges Aussehen (z. B. sehr grell gefärbte Haare, zerrissene Kleidung, Metallketten als Schmuck) u. rüdes Benehmen provozieren wollen; Sy Punk ( ... mehr

zy|to|zid  〈Adj.; Med.〉 zelltötend [<nlat. cytus ... mehr

Venn|dia|gramm  auch:  Venn–Dia|gramm  〈[vn–] n. 11; IT〉 Diagramm, das Mengen u. ihre Überschneidungen bildlich darstellt ... mehr

» im Lexikon stöbern
Anzeige
Anzeige