Die meisten in Computersimulationen eingesetzten Zufallsgeneratoren erzeugen nicht wirklich zufällige Abfolgen von Nullen und Einsen. Vielmehr folgen Nullen statistisch gesehen häufiger aufeinander ab als Einsen, so dass der Zufallsgenerator mit einem Vorurteil behaftet ist. Dies hat große Konsequenzen für Computersimulationen, die oftmals kritisch von der Genauigkeit der Zufallsreihen abhängen.
In ihrer auf dem
Los Alamos Preprint Server veröffentlichten Studie haben Stephan Mertens vom Abdus Salam Internationalem Zentrum für Theoretische Physik in Triest und seine Kollegen aus Magdeburg mathematische Ursachen für das Versagen von Zufallsgeneratoren untersucht. Die meisten derartigen Algorithmen erzeugen nicht wirklich zufällige Abfolgen von Nullen und Einsen ? nach einer gewissen Länge wiederholt sich die Reihe.
Für kritische Anwendungen wie etwa Verschlüsselungsprogramme oder Computersimulationen werden daher Zufallsreihen abgebrochen, bevor sie sich wiederholen. Doch selbst dann ist die Reihe nicht wirklich zufällig. Mertens und sein Team zeigen in ihrer Studie, dass Nullen oftmals in Haufen auftreten und so die Zufallsreihe zerstören.
Ein Algorithmus, der eine „zufällige“ Abfolge von Nullen, Einsen sowie Zweien erzeugte, wäre daher Mertens zu Folge viel besser. Die Nullen könnten dann aus der Reihe gestrichen werden, und die Abfolge der Einsen und Zweien wäre dann wirklich zufällig. Derartige Algorithmen sind allerdings zeitaufwändig, so dass sie bis jetzt nicht in größerem Maßstab eingesetzt werden.
Stefan Maier