Editorial: Aufbruch ins Reich der Petaflops
Im Halbjahres-Takt schießt die Leistung von Computern in die Höhe – scheinbar grenzenlos. Schon beim Kauf ist die Kiste technisch veraltet. Wo mag das alles enden? Im Ernst: Wen macht es glücklicher, wenn die Schreibtischboliden Excel-Dateien im Gigahertz-Taumel exekutieren?
Beim wissenschaftlichen Rechnen ist eine wichtige Maßeinheit der "Flop". In der Welt der Computer steht ein Flop nicht notwendigerweise für einen Reinfall, sondern für einen elementaren Rechenschritt. Die ersten Elektronenrechner der 1940er Jahre schafften mal eben einige Flop pro Sekunde, abgekürzt Flops. Heutige Supercomputer werden bereits nach ihren Teraflops taxiert, ihre Leistung also in Billionen Flops gemessen.
Der derzeitige Weltrekordhalter heißt "Earth Simulator" und füllt in Japan eine ganze Turnhalle. Mit einem Rechentempo von 35 Teraflops untersuchen die Forscher vor allem Klima und Erdbeben, über eine Million Mal schneller als ein moderner Büro-PC. Grenzen haben die Erbauer vorläufig nicht zu spüren bekommen. Nach dem viel beschworenen Moore’schen Gesetz wird sich, so erwarten Experten, die Rechenkraft weiter alle zweieinhalb Jahre verdoppeln. Die erste Maschine, die dann in jeder Sekunde eine Million Milliarden Rechenschritte abwickelt – der Petaflops-Computer –, sollte demnach bis zum Jahr 2009 in Betrieb gehen.
Auf dem Weg dorthin und darüber hinaus wird die Rechnertechnik physikalisches Neuland betreten: Die Technologie der Spintronik, die den Spin der Elektronen manipuliert und heute schon in Leseköpfen von Festplatten genutzt wird, ist vielleicht der entscheidende Schritt auf dem Weg zum Quantencomputer (Seite 28). Auch das Rechnen in ultraschnellen Netzwerken ("Gridcomputing") ist im Aufbau. Aber was machen wir mit all der Rechenpower? Wer braucht all die Tera-, Peta- oder Exaflops?
In der Wissenschaft: Numeriker bleiben unersättlich, so bekundeten sie kürzlich auf einer Tagung zum Höchstleistungsrechnen in Stuttgart. Ob Blutgefäße, Herzmuskel oder Biomechanik, ob turbulente Verbrennung, Grundwasserströmung, Alterung von Atombomben oder die Entwicklung des Universums: All diese Objekte oder Prozesse werden auch Petacomputer nicht zur Zufriedenheit simulieren.
Im Alltag: Vermutlich werden wir in einem Jahrzehnt vor Zig-Giga- oder Teraflop-PCs mit dem tausendfachen Speicherplatz heutiger Geräte sitzen. Solche Rechner mit 120-Terabyte-Festplatten eröffnen stolze Möglichkeiten: 120 Millionen Bücher fänden darauf Platz, alternativ 40 Millionen Lieder oder 30000 Filme. Das pausenlose Abspielen so vieler Filme würde fast sieben Jahre dauern – und erst das Lesen all der Bücher …
Und wie kämen all die Daten in den Rechner? Entweder über 180000 CD-Roms oder über Leitungen, die für solche Datengebirge zwanzig Jahre störungsfreien Betrieb benötigen würden. Von der Wünschbarkeit solcher Dinge einmal abgesehen: Wer könnte für sie bezahlen? Und wie ließen sich solche Datenmengen überhaupt verwalten?
Wie es scheint, wachsen hier PCs heran auf der Suche nach einem Bedarf. Einen solchen Fall erleben wir gerade im Mobilfunk: UMTS-Handys kommen nun auch in die Läden – mal sehen, ob sie einer braucht.
Aus: Spektrum der Wissenschaft 8 / 2002, Seite 5
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben