Direkt zum Inhalt

Hypercomputer Teil I: Auf dem Weg zum Billiarden-Rechner

Große wissenschaftliche Probleme erfordern Computer mit der tausendfachen Leistung der schnellsten heutigen Maschinen. In einer speziellen Initiative versuchen Wissenschaftler verschiedenster Richtungen diese Schwelle zu erreichen.


Die Supercomputer von heute sind zu langsam für die Wissenschaft von morgen, und das trotz der rasanten technischen Entwicklung. Wesentliche Fortschritte in Klimaforschung, Medizin, Biowissenschaften, Kernfusionstechnik, Militärtechnik, Nanotechnologie und Wirtschaft warten auf Zahlenfresser, die tausendmal so schnell sind wie die besten heutigen Rechner.

Bei jedem der großen Probleme, die zur Lösung anstehen, geht es darum, das Verhalten eines ungeheuer komplexen Systems so getreu wie möglich nachzubilden, und das über lange Zeiten hinweg. Heutige Supercomputer, die höchs-tens ein paar Billionen elementare Rechenakte pro Sekunde (einige 1012 flops oder Teraflops, siehe Glossar) ausführen können, sind damit überfordert. So würde das größte derzeit existierende System hundert Jahre benötigen, um nur die blitzschnelle natürliche Faltung eines Proteins nachzuvollziehen – einen Vorgang, um dessen Verständnis schon lange heftig gerungen wird. Analysen dieser Art erfordern "Hypercomputer", Geräte, die mindestens im Petaflops-Bereich arbeiten, das heißt mehr als einer Billiarde (1015) arithmetischen Operationen pro Sekunde erledigen können.

Heutige Maschinen sind nicht nur zu langsam, sondern auch zu teuer. Die Computer "ASCI Blue" (Accelerated Strategic Computing Initiative), die für die mittlerweile verbotenen Kernwaffentests Ersatz schaffen sollen, leisten drei Teraflops und kosten pro Stück ungefähr 120 Millionen Dollar. Das ist ein Preis-Leistungsverhältnis von vierzig Dollar pro theoretisch erreichbarem Megaflops (Millionen flops); damit verglichen ist ein PC der Spitzenklasse um mehr als das Zehnfache günstiger. Dazu kommen die laufenden Kosten: Allein die Stromrechnung kann ohne weiteres über eine Million Dollar pro Jahr ausmachen, die Gebäudemiete für die sperrigen Kästen (Bild unten) ist erheblich, und die hoch spezialisierten Programmierer sind auch nicht billig.

Umso schlimmer ist es, dass die Geräte ihre teuer bezahlten Rechenfähigkeiten nur zu einem geringen Teil nutzen. Es ist durchaus üblich, dass von den zahlreichen Prozessoren eines Supercomputers im zeitlichen Mittel nur jeder vierte arbeitet; bei gewissen Anwendungen sinkt der Wirkungsgrad gar bis auf ein Prozent der Spitzenleistung ab.

Eine neue Klasse von Computern eröffnet die Aussicht auf die hundertfache Leistung gegenwärtiger Supersysteme bei gleichem Preis, Strom- und Platzbedarf. Weitere Verbesserungen könnten die Geräte für den Bereich jenseits der Petaflops tauglich machen – mehr als das Tausendfache der heutigen Spitzenleistung. Für dieses Ziel haben sich Angehörige vieler Institutionen und Fachrichtungen zusammengetan und das Konzept eines Com-puters namens HTMT (hybrid technology multithreaded system) entwickelt, das eine Reihe moderner Techniken für Prozessoren, Speicher und Kommunikation zusammenführt, ihre Stärken bündelt und ihre Schwächen kompensiert. Die Grundlagen von HTMT wurden mit finanzieller Unterstützung der Nasa, des Geheimdienstes National Security Agency, der Forschungsförderungsanstalt National Science Foundation und der Forschungsagentur des amerikanischen Verteidigungsministeriums (Defense Advanced Research Projects Agency, DARPA) erarbeitet; die endgültige Realisierung wartet noch auf weitere staatliche Mittel.

Herkömmliche Schnellrechner

Bisher hat die Supercomputerindustrie wesentliche Fortschritte erzielt, indem sie die einzelnen Komponenten ihrer Rechner ebenso wie deren Zusammensetzung (die "Architektur") auf die Lösung spezieller Probleme ausrichtete. Im Gegensatz zum explosiven Wachstum anderer Computermärkte mussten daher die extrem hohen Entwicklungskosten von einem relativ kleinen Kundenkreis getragen werden. Durch die daraus resultierenden exorbitanten Preise hielt sich die Kaufbereitschaft industrieller wie staatlicher Abnehmer in engen Grenzen, was wiederum die Entwicklungsanstrengungen der Hersteller dämpfte – eine klassische ökonomische Abwärtsspirale.

Immerhin wurden verschiedene Entwicklungslinien verfolgt, insbesondere der Vektorcomputer, in dem zahlreiche kleine Recheneinheiten im Gleichtakt dieselbe elementare Operation mit verschiedenen Daten durchführen, und der Parallelrechner, in dem viele Prozessoren weit gehend unabhängig voneinander größere Stücke der Gesamtarbeit erledigen (siehe Spektrum der Wissen-schaft, Dossier "Rechnerarchitekturen"). Gleichwohl blieben die Kosten hoch und der Wirkungsgrad gering.

In den letzten zwei bis drei Jahren wurden hochgradig parallele Universalcomputer mit mehr als einem Teraflops theoretischer Maximalleistung entwi-ckelt. Bei der Anwendung auf konkrete Probleme wird davon jedoch häufig nur ein geringer Teil genutzt. Etliche Fachleute sehen wenig Chancen, den Wirkungsgrad zu erhöhen, und ziehen da-raus die einzig sinnvolle Konsequenz, die Komponenten billiger zu machen: An die Stelle der teuren Spezialprozessoren verbindet man billige Standard-Computer zu einem Netz (einem commodity cluster). Das zahlt sich aus, trotz des erhöhten Programmieraufwands und obgleich die Kommunikation über das Netz weitaus schwerfälliger abläuft als im Inneren eines Parallelrechners.

In einer anderen Entwicklungslinie arbeitet man seit Mitte der neunziger Jahre mit einer ganzen Palette von Konzepten an petaflops-fähigen Systemen. Alle diese Ansätze sind so weit gediehen, dass sie bei ausreichender Finanzierung noch innerhalb dieses Jahrzehnts realisiert werden können. HTMT ist einer von ihnen, der sich durch besonders breite Anwendbarkeit auszeichnet. Das Konzept vereint ein breites Spektrum neuester Techniken in einem einzigen flexiblen und optimierten System: superschnelle Prozessoren, Datentransfer mit hohem Durchsatz, Speichermedien mit höchster Dichte und weitere, kurz vor der Einsatzreife stehende Techniken in einer dynamischen und flexiblen Architektur.

Unabhängig vom gewählten Ansatz wird jede Entwicklung eines Trans-Petaflops-Computers an drei Kriterien gemessen werden:

- theoretische Maximalleistung (peak performance): Bei beschränktem Preis, Stromverbrauch und Volumen müssen hinreichend viele hinreichend leistungsfähige Prozessoren, Speicher und Kommunikationsleitungen so zusammengeschaltet werden, dass die geforderte Leis-tung im Prinzip erreichbar ist;

- Wirkungsgrad: Ein möglichst großer Teil dieser theoretischen Leistung muss der Lösung des Problems auch zugute kommen. Dazu sind die üblichen leistungsmindernden Effekte zurückzudrängen: Anforderungen an Daten aus dem Speicher stehen Schlange, Kommunikationsleitungen sind zu häufig besetzt, Prozessoren sind wegen schlechter Organisation untätig, der Koordinationsaufwand nimmt zu viel Leistung in Anspruch.

- Nutzbarkeit (usability): ein etwas willkürliches Kriterium, das wünschenswerte Eigenschaften wie universelle Verwendbarkeit, leichte Programmierbarkeit und hohe Verfügbarkeit umfasst.

Supraleitende Prozessoren

In den letzten zehn Jahren war CMOS (complementary metal oxide semiconductors) die dominante Technik für Logikschaltkreise. CMOS-Prozessoren bieten hohe Rechenleistung bei geringem Stromverbrauch; der viel beschriebene exponentielle Anstieg der Packungsdichte für Bauteile basiert auf dieser Halbleitertechnik. Aber die schnellsten der Welt sind sie nicht. Dieser Titel gebührt einer Technik, die auf vollkommen anderen physikalischen Prinzipien beruht: Supraleiter.

Wie zu Beginn des 20. Jahrhunderts entdeckt wurde, leiten manche Materialien bei extrem niedrigen Temperaturen den elektrischen Strom ohne Widerstand. Im Prinzip kann ein Strom in einer Schleife aus supraleitendem Draht auf ewig fließen. Wichtiger ist jedoch, dass in solchen Bauteilen quantenmechanische Effekte makroskopischer Größenordnung auftreten. In den frühen sechziger Jahren wurde ein nichtlinearer, auf dem Prinzip der Supraleitung beruhender Schalter entwickelt, der so genannte Josephson-Kontakt (Josephson junction), der extrem schnell von einem Schaltzustand in den anderen übergehen kann.

Auf diesem Prinzip basiert der supraleitende Logikprozessor von HTMT. Seine Elemente sind winzige Drahtschleifen, die so genannten Squids, die im Prinzip aus zwei gekoppelten Josephson-Kontakten bestehen. Ein Squid speichert Information in Form diskreter Stromstärkeniveaus. Die Nullen und Einsen der digitalen Informationsverarbeitung werden also in diesen "schnellen Stromquanten-Gattern" (rapid single flux quantum gates, RSFQ-gates) durch diskrete Ströme statt, wie üblich, durch diskrete Spannungen repräsentiert. Werden diese Elemente auf 4 Kelvin abgekühlt, können sie mit Taktfrequenzen von über 770 Gigahertz arbeiten: schneller als jeder je gebaute Schaltkreis und rund hundertmal so schnell wie die konventionelle CMOS-Logik.

Ein Prozessor in der rasch heranreifenden RSFQ-Technik wird eine Leistung von rund 100 bis 200 Gigaflops erbringen, im Gegensatz zu einigen wenigen Gigaflops bei CMOS-Prozessoren. Eine Rechenarbeit ist also in derselben Zeit mit weitaus weniger Prozessoren zu erledigen, was den Aufwand für die Parallelisierung – die Zerlegung der Arbeit in Teilaufgaben und das Zusammenspiel der Prozessoren – drastisch reduziert. Darüber hinaus erlaubt die Technik eine weitere Miniaturisierung, einerseits weil die elementaren Bauteile sehr klein sind, andererseits weil wegen der diskreten Natur der magnetischen Flussquanten das Übersprechen – Störsignale von einer Datenleitung zur benachbarten – weniger problematisch ist. Kleine Größe wiederum bringt Ersparnisse beim Strom- und Platzbedarf ebenso wie beim Anschaffungspreis.

Aus diesen superschnellen Prozessoren versucht HTMT dann das Beste he-rauszuholen, das heißt, sie möglichst mit nichts anderem als Rechnen zu beschäftigen, und das möglichst die ganze Zeit. In herkömmlichen Anlagen wie den genannten Commodity Clusters zerlegt man die Arbeit in relativ große Teilstücke und weist jedes Teilstück einem entsprechend großen "Rechenknoten" (Einzel- oder Parallelrechner) zu. Oftmals muss ein Knoten auf Ergebnisse von einem anderen warten, und wenn nicht ein menschlicher Operator die Teilaufgaben sehr sorgfältig zuweist, sind stets einige Knoten untätig. Spezielle Software, welche die Aufgaben des Operators übernimmt, kann ihrerseits Prozessorleistung in erheblichem Umfang in Anspruch nehmen.

HTMT löst das Problem, indem es das Zusammenspiel zwischen Prozessor und Speicher auf den Kopf stellt. In konventionellen Parallelrechnern bestimmen die Prozessoren, was die "dummen" Speichereinheiten zu tun haben; im Gegensatz dazu ist das Speichersystem von HTMT "intelligent" und regiert die Prozessoren.

Warten auf Daten aus dem Speicher – dieses "Latenzproblem" ist es, das die Prozessoren beim Rechnen am meisten aufhält. Bis eine Information aus dem Arbeitsspeicher eintrifft, können 200 Nanosekunden vergehen. In dieser Zeit könnte ein supraleitender RSFQ-Chip 100000 Rechenoperationen ausführen. HTMT bietet für dieses Problem zunächst zwei Lösungen an:

- vielfädiges Rechnen (multithreading, vergleiche Spektrum der Wissenschaft 5/2000, S. 26): Anstatt untätig auf Daten zu warten, wendet sich der Prozessor einer anderen Aufgabe zu, für welche die Daten bereits vorliegen. Das erfordert, dass es diese andere Aufgabe gibt und der Prozessor rasch von einer zur anderen wechseln kann. Die verschiedenen Aufgaben (Befehlsfolgen) heißen "Fäden" (threads); durch spezielle Techniken wird in HTMT erreicht, dass der Prozessor in einem einzigen Taktzyklus den einen Faden ablegen und den anderen aufgreifen kann, um daran weiterzuspinnen.

- Prozessor im Speicher (processor in memory, PIM). Seit ein paar Jahren ist es möglich, CMOS-Logikschaltkreise und dynamischen Speicher (dynamic random access memory, DRAM) auf demselben Siliziumchip zu integrieren. Diese billigen Geräte übernehmen den Datentransport zwischen den verschiedenen Speichern und entlasten damit die supraleitenden Prozessoren, die sich stattdessen aufs Rechnen konzentrieren können. Diese Hilfsaufgaben umfassen so weit gehende Tätigkeiten wie Daten von weit verstreuten Stellen zusammenzuholen oder Ergebnisse an die richtigen Stellen zu verstreuen (data gather und data scatter).

Diese beiden Konzepte sind zwar innovativ, aber für sich noch nicht geeignet, die große Latenzlücke zu überbrücken. Eine revolutionäre Neuerung muss hinzukommen: die percolation technique ("Blubbertechnik"). Ein HTMT-Rechner wird gewissermaßen aus fünf Schichten bestehen. In der obersten Schicht sitzen die Prozessoren, darunter vier Schichten von Speichern, jede Schicht in einer anderen Technik ausgeführt. Je weiter oben ein Speicher sitzt, desto schneller ist der Zugriff, desto geringer allerdings auch seine Kapazität. Alle benötigten Daten sitzen im Prinzip in der untersten, geräumigsten Speicherschicht und müssen wie Blasen in einer Flüssigkeit zum Prozessor nach oben steigen.

Daten blubbern zum Prozessor

Diesen Aufstieg regeln die PIMs, die in jedem Speicher stecken. Und zwar warten sie gar nicht erst darauf, dass ein Prozessor Daten anfordert. Vielmehr machen sie aus vielen kleinen Blasen wenige große: Sie fügen auf dem Weg nach oben selbsttätig alle Daten, die für einen Rechenvorgang benötigt werden, samt den Rechenbefehlen selbst und Informationen über den Stand der Bearbeitung zusammen. Die Gesamtheit dieser Informationen (ein context) landet dann gebündelt beim Prozessor, der sie nur noch abzuarbeiten braucht, ohne sich mit Datenbeschaffung aufzuhalten. Die Ergebnisse der Arbeit werden von den PIMs in der Speicherhierarchie abwärts und schließlich dorthin geschafft, wo sie benötigt werden.

Es bleibt das dritte große Kriterium für Transpetaflops-Computer zu erfüllen: die Nutzbarkeit. Das System muss zur Lösung eines breiten Spektrums von Aufgaben geeignet, leicht programmierbar und möglichst ohne Ausfälle permanent verfügbar sein. HTMT versucht diese Forderungen auf verschiedenen Wegen zu erfüllen.

Einer dieser Wege ist der gemeinsam genutzte Speicher (shared memory). Üblicherweise hat jeder Prozessor einen eigenen Speicher, auf den er ohne Umstände zugreifen kann, während er Daten aus fremden Speichern nur auf Anforderung erhält; diese Anforderung muss explizit als Befehl in dem Programm enthalten sein, das der Prozessor ausführt. Bei gemeinsam genutztem Speicher dagegen kann jeder Prozessor jederzeit den gesamten Speicher "überblicken". Eine Datenübertragung aus einem fernen Speicher muss zwar nach wie vor stattfinden, aber wenn ihr Zeitpunkt nicht mehr durch expliziten Befehl festgelegt ist, kann das System diese Arbeit umorganisieren, zum Beispiel mit Hilfe der Perkolationstechnik, und dadurch Latenzverluste vermeiden. Die dadurch gewonnene Flexibilität macht den Rechner zudem geeignet für eine größere Problemklasse.

Schließlich kommt das Konzept des gemeinsam genutzten Speichers der Denkweise der Anwender sehr entgegen. Einer Maschine zu sagen, was sie tun soll, ist schon schwer genug; es hilft dem Programmierer, wenn er ihr nicht auch noch erklären muss, wann und wo sie ihre Daten abholen soll. Zudem kann die Maschine diese Hilfsaufgaben in der Regel intern geschickter organisieren als der Programmierer mit einer expliziten Vorschrift.

Die Ausfallsicherheit wird dadurch erhöht, dass die Maschine durch die Verwendung leistungsstärkerer Komponenten Gleiches mit weniger Bauteilen leisten kann als eine herkömmliche.

Holographische Speicher

Eine weitere Innovation besteht aus Speichern in holographischer Technik. Diese Alternative zum üblichen Halbleiter-Direktzugriffs-Speicher wird in akademischen und industriellen Forschungslabors untersucht und verspricht überlegene Speicherdichte, geringen Stromverbrauch und geringe Kosten (Spektrum der Wissenschaft 1/1996, S. 50).

In einem holographischen Speicher sind große Datenmengen in einem lichtempfindlichen Material abgespeichert. Zwei verschiedene Techniken werden derzeit untersucht. In photorefraktiven Speichern wird in einem Material wie etwa Lithiumniobat ein Interferenzmuster aus einem datentragenden Laserstrahl und einem Referenzstrahl erzeugt (Bild oben). Dieses Muster enthält eine große Menge von Daten, die in einem Rechteck angeordnet sind. Über den elektro-optischen Effekt werden lokal elektrische Felder induziert, die ihrerseits ein Hologramm erzeugen. In ein und demselben Speichermedium sind viele verschiedene derartige Hologramme unabhängig voneinander ablegbar, indem man entweder den Einfallswinkel oder die Wellenlänge des Laserstrahls variiert.

Die zweite Technik heißt Spektrallochmethode. Auf Lichteinfall reagiert das Material nichtlinear durch Änderung seines Absorptionsspektrums. An jedem Punkt können durch Wahl verschiedener Wellenlängen viele Bits unabhängig voneinander abgespeichert werden.

Die photorefraktiven Methoden sind zur Zeit wesentlich weiter entwickelt. Auf lange Sicht hinaus könnten jedoch Spektrallochmethoden die höchsten Speicherdichten erzielen. Gegenwärtig haben holographische Speicher Zugriffszeiten im Millisekundenbereich: Bis das erste Bit aus einer großen Datenmenge eintrifft, dauert es ungefähr so lange wie bei einem herkömmlichen Sekundärspeicher, etwa einer Festplatte oder einer CD. Von neuen Techniken mit abstimmbaren Lasern oder Systemen von leicht versetzt zueinander angeordneten Laserdioden erwartet man jedoch schon bald Zugriffszeiten um die zehn Mikrosekunden. Damit wären sie zwar immer noch um zwei Größenordnungen langsamer als Halbleiterspeicher, aber ihre Bandbreite – die Anzahl der übertragenen Bits pro Sekunde nach der Anfangswartezeit – wird vergleichbar derjenigen der Halbleiter sein und somit hundertmal so hoch wie bei einer Festplatte. Innerhalb der nächsten zehn Jahre erwartet man Speicher von der Größe eines Zuckerwürfels mit Kapazitäten von zehn Gigabit und mehr.

Optische Kommunikation

Die extrem schnellen supraleitenden Prozessoren und die Hochkapazitäts-Hologrammspeicher werden nicht mit Metallkabeln, sondern mit optischen Datenleitungen verbunden sein (Spektrum der Wissenschaft, Spezial "Schlüsseltechnologien", S. 18). Ein Metalldraht kann zwar ohne weiteres Hunderte von Megabits pro Sekunde transportieren, und mit speziellen Techniken auch ein Gigabit (109 Bits). Um den Kommunikationsbedarf von Petaflops-Systemen zu befriedigen, wären jedoch einige zehn Millionen Drähte erforderlich! Dagegen kann ein modulierter Laser zehn Gigabit und mehr pro Sekunde durch eine konventionelle Glasfaser schicken.

Darüber hinaus kann man Signale verschiedener Wellenlängen (Farben) ohne gegenseitige Störung durch dieselbe Glasfaser übertragen. Für HTMT ist ein modernes optisches Übertragungssystem namens Wave Division Multiplex (Wellenteilungs-Multiplexer, WDM) vorgesehen, das pro Kanal mindestens den hundertfachen Datendurchsatz der besten Metalldrahtsysteme bieten soll. Die Anzahl der Wellenlängen, die zugleich in einem Kanal transportiert werden können, ist in den letzten Jahren auf hundert angestiegen und wird aller Wahrscheinlichkeit nach noch weiter anwachsen. Die Schalter, Sender und Empfänger, welche diese Datenströme zusammenfügen und nach ihrer Reise durch die Glasfaser wieder entkoppeln, werden schon bald fünfzig Millionen Schaltvorgänge pro Sekunde bewältigen; fortgeschrittene Versionen, an denen zurzeit noch experimentiert wird, lassen die zwanzigfache Schaltrate erwarten. Diese Kapazität würde ausreichen, um den enormen Datenfluss in einem Peta-flops-Netzwerk zu bewältigen.

Diese Hypercomputer der nächsten Generation werden die Lösung globaler Probleme wie Treibhauseffekt, Epidemiologie und saubere Energieversorgung entscheidend voranbringen. Das Beratungskommittee für Informationstechnik des US-Präsidenten hat 1999 finanzielle Unterstützung für diese Art von Projekten nachdrücklich befürwortet. Die Realisierung eines Systems wie HTMT bedarf lediglich noch der Finanzierung.

Dieser Artikel ist Teil 1 einer zweiteiligen Serie über die Supercomputer der nächsten Generation. Teil 2, "Der selbst gebastelte Supercomputer", erscheint im Märzheft.

Literaturhinweise


Challenges of Future High-End Computing. Von David H. Bailey in: High Performance Computer Systems and Applications. Hrsg. von Jonathan Schaeffer. Kluwer, 1998. Im Web unter www.nersc.gov/~dhbailey/dhbpapers/future.pdf

Mix of Technologies Spurs Future Supercomputer. Von Jarrett Cohen in: NASA HPCC Insights, Nr. 6, Juli 1998. Im Web unter www.hq.nasa.gov/hpcc/insights/vol6/supercom.htm

In Pursuit of a Quadrillion Operations per Second. Von Thomas Sterling in: NASA HPCC Insights, Nr. 5, April 1998. Im Web unter www.hq.nasa.gov/hpcc/insights/vol5/petaflop.htm


Haupteinsatzgebiete für Hypercomputer


Viele Probleme von großer gesellschaftlicher und politischer Bedeutung warten auf Lösungen, die nur mit Höchstleistungs-Computern zu finden sind. Eine Rechengeschwindigkeit von mehr als 1015 Operationen pro Sekunde (trans-petaflops) ist gefragt.

Klimamodellierung:

Vielleicht das kritischste Problem der Menscheit ist die kurz- wie langfristige Wetter- und Klimavorhersage. Ein Transpetaflops-Computer könnte riesige Mengen von Satellitendaten zu einer detaillierten Wetterkarte zusammenfassen und auf dieser Basis die chaotischen Bewegungen in unserer Atmosphäre – und damit das Wetter – mit bisher ungeahnter Präzision vorausberechnen.

Kontrollierte Kernfusion:

Sie wäre die Lösung für alle Energieprobleme der Welt ebenso wie ein Antriebsmittel für interstellare Raumfahrzeuge – wenn man sie beherrschen würde. Das jedoch gelingt seit Jahrzehnten nicht, wegen der Komplexität der thermischen, elektromagnetischen und nuklearen Reaktionen innerhalb eines Fusionsreaktors. Transpetaflops-Computer würden das Geschehen mit ausreichender Präzision simulieren und damit die Konstruktion von Reaktoren voranbringen.

Medizin und Biowissenschaften:

Die Pharmaforschung könnte in die Lage kommen, Medikamente so schnell zu entwickeln, wie die Krankheitserreger mutieren, und damit vielleicht sogar dem extrem schnell veränderlichen Aids-Virus beikommen. Das jedoch erfordert Analysen auf molekularer Ebene, wie etwa die der Faltung gewisser Proteine.

Militärtechnik:

Nach dem Kernwaffenteststopp könnten Transpetaflops-Computer das Verhalten der Waffen des strategischen Kernwaffenarsenals simulieren, um sie einsatzbereit zu halten. Militärisch von entscheidender Bedeutung ist auch die schnelle Entschlüsselung immer komplexer werdender Geheimcodes.

Wirtschaft und Finanzwesen:

Die Auswertung enormer Mengen von wirtschaftlichen Daten und Statistiken wird eine bessere Simulation wirtschaftlicher Systeme gestatten.

Nanotechnik:

Mit dem Schrumpfen der elektronischen Bauteile auf atomare Größenordnungen werden quantenmechanische Effekte wirksam, sodass Chipdesigner nicht mehr mit gemittelten physikalischen Größen arbeiten können.

Spitzentechnologien:

Superschnelle Computer werden zur Simulation des Verhaltens neuer Materialien auf der mikroskopischen Größenskala benötigt werden. Bei der Entwicklung neuer Flugzeuge und anderer komplexer technischer Systeme wird man ebenfalls aus diesen detaillierten Modellen Nutzen ziehen.

Astronomie:

Um unsere Galaxis mit ihren 100 Milliarden Sternen richtig zu modellieren, ist das komplexe Verhalten der interstellaren Materie und insbesondere der in ihr enthaltenen schwereren Moleküle zu analysieren (Spektrum der Wissenschaft 9/1999, S. 49).


GLOSSAR


Prozessor ("Verarbeiter"): Komponente eines Computers, die eine Folge von Befehlen (ein "Programm") ausführt, und damit das Herzstück eines Computers. Kleinere Computer bis hin zu Workstations enthalten nur einen Prozessor (auf einem Mikrochip), Parallelrechner bis zu einigen zehntausend.

flops (floating point operations per second): Gleitkommaoperationen (Additionen oder Multiplikationen mit Kommaverschiebung) pro Sekunde, die Maßeinheit für die Rechengeschwindigkeit eines Computers. Üblich sind die Maßeinheiten Mega-(106), Giga-(109), Tera-(1012) und neuerdings Peta-(1015)flops.

Josephson-Kontakt: zwei Supraleiter, die durch eine sehr dünne Isolierschicht getrennt sind. Ein Josephson-Kontakt kann binnen Picosekunden (10-12 Sekunden) vom normal- in den supraleitenden Zustand und zurück übergehen und ist deshalb als superschnelles Schaltelement geeignet.

Squid (superconducting quantum interference device): ein durch zwei Josephson-Kontakte unterbrochener Leiterring (Spektrum der Wissenschaft 10/1994, S. 58). In einem Squid können nur ganzzahlige Vielfache einer gewissen Grundstromstärke fließen, die "Stromquanten" (flux quanta).

Aus: Spektrum der Wissenschaft 1 / 2002, Seite 78
© Spektrum der Wissenschaft Verlagsgesellschaft mbH

Kennen Sie schon …

Spektrum - Die Woche – Quantencomputer – Von wegen überlegen!

Spektrum Kompakt – Künstliche Intelligenz - Wie Maschinen lernen lernen

Es ist schon lange keine Sciencefiction mehr: Maschinen lernen, teils komplett auf sich selbst gestellt, Dinge oder Prozesse, die bislang nur Menschen beherrschten. Doch wie funktioniert das? Was steckt hinter Begriffen wie maschinelles Lernen, deep learning und neuronale Netze?

Spektrum - Die Woche – Kommt es dieses Jahr zur Mückenplage?

In dieser Ausgabe widmen wir uns Hawaii, Mücken und dem Quantencomputer.

  • Infos

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.