Grid Computing in Deutschland
Eine nationale Anstrengung für eine neue Technologie bringt einen Wettbewerbsvorteil - auch wenn die Technologie ihrer Natur nach weltumspannend ist.
Als sich im Juni 1999 mehr als hundert amerikanische Wissenschaftler im Ames-Forschungszentrum der Nasa zum ersten Grid Forum, dem Vorläufer des heutigen Global Grid Forum, trafen, hatte man auch in Deutschland bereits an Computerprogrammen gebastelt, die einen einfachen Zugriff auf ferne Rechner und Daten ermöglichen sollten. Die Systeme hießen damals noch Meta-Computer oder Hyper-Computer, hatten aber schon dieselben Grundkonzepte wie das heutige Grid Computing.
Eine wichtige Starthilfe boten die "Gigabit-Testbeds": Seit 1998 wird das Datennetz DFN (Deutsches Forschungsnetz), das alle deutschen Universitäten und Forschungseinrichtungen verbindet, allmählich durch Glasfaser-Datenleitungen mit Übertragungsraten von mehreren Gigabit (Milliarden Bit) pro Sekunde ergänzt. Erst diese Verbindungen machten es möglich, rechenzeitaufwendige Computerprogramme gleichzeitig auf mehreren Supercomputern zum Beispiel in Berlin, Garching und München auszuführen und damit Probleme zu bearbeiten, die einen einzelnen Hochleistungsrechner überfordert hätten. Natürlich mussten dazu Anwendungsprogramme und Systemsoftware an die verteilten Umgebungen angepasst werden – eine Investition, die sich heute auszahlt.
Als eines der ersten größeren Grid-Projekte wurde Mitte der neunziger Jahre der Forschungsverbund NRW-Metacomputer aus der Taufe gehoben. Gefördert vom nordrhein-westfälischen Wissenschaftsministerium, sollte er die Computer des Bundeslandes über eine Verbindungssoftware gemeinsam nutzbar machen. Nur wenig später folgten die Verbundprojekte Unicore und UnicorePlus des Bundesministeriums für Bildung und Forschung (BMBF), in denen unter Federführung des Forschungszentrums Jülich zwischen 1997 und 2002 eine benutzerfreundliche Grid-Software entwickelt wurde. Ähnlich wie die amerikanische Software Globus bietet sie einen transparenten und sicheren Zugriff auf entfernte Computersysteme. Mit Hilfe von Unicore lassen sich für fachspezifische Benutzergruppen rasch Zugänge zum Grid erstellen, die dann jedes Mitglied der Gruppe auch ohne detaillierte Grid- oder Supercomputer-Kenntnisse nutzen kann. Unicore wird heute in den wichtigen deutschen Supercomputerzentren und in einigen anderen europäischen Zentren eingesetzt.
Auf europäischer Ebene wird die Entwicklung von Grid-Systemen besonders intensiv gefördert. Das fünfte Rahmenprogramm der Europäischen Union umfasst 24 Grid-Projekte mit einem Fördervolumen von etwa 58 Millionen Euro; deutsche Universitäten, Forschungseinrichtungen und die Industrie sind massiv daran beteiligt. Im gerade angelaufenen sechsten Rahmenprogramm stehen sogar 350 Millionen Euro für Grid-Projekte zur Verfügung.
Im Vergleich dazu nehmen sich die vom BMBF vorgesehenen Finanzmittel des aktuellen Förderprogramms IT 2006 eher bescheiden aus. Hoffnung macht jedoch die Tatsache, dass die Regierungsparteien in ihrer Koalitionsvereinbarung vom Oktober 2002 ausdrücklich die Bedeutung der Vernetzung von Computersystemen würdigen: "Wir werden die Vernetzung von Hochschulen, außeruniversitären Forschungseinrichtungen und Unternehmen verstärken und ihre Einbeziehung in den Aufbau von EU-weiten Exzellenzzentren unterstützen."
Auch die Industrie interessiert sich zunehmend für das Grid Computing; schließlich lassen sich damit Kosten sparen und vorhandene Computer effizienter nutzen. Während große Firmen wie IBM, Hewlett Packard und Sun Microsystems auf Hochtouren das Potenzial dieser Technik für die industrielle Praxis ausloten und gemeinsam mit Universitäten und Forschungseinrichtungen erste Erfahrungen sammeln, haben mittelständische Unternehmen wie die Pallas GmbH bereits erste Grid-Softwarepakete in ihre Produktpalette aufgenommen. Einige Fraunhofer-Institute präsentierten der Industrie auf der diesjährigen CeBIT in Hannover eine Grid-Infrastruktur, die freie Kapazitäten gewöhnlicher PCs für Berechnungen nutzbar macht.
Billiarden von Bytes pro Jahr
Als Ressourcen-Zentrum für die Hoch-energiephysik wurde im Herbst 2002 das Grid Computing Centre Karlsruhe (GridKa) eingeweiht. Hauptaufgabe ist die Bereitstellung von Rechenleistung und Speicherkapazität für die deutschen Physiker, die an der Analyse der Cern-Experimente beteiligt sind. Man erwartet ein Datenvolumen von mehreren Petabyte pro Jahr (ein Petabyte sind 1015 Byte, was dem Inhalt von 1,7 Millionen CDs entspricht). Die erforderliche Software wird derzeit im EU-Forschungsprojekt DataGrid entwickelt; aus Deutschland sind die Universität Heidelberg und das Zuse-Institut Berlin (ZIB) beteiligt.
Interessant ist es, zu dem neuen Werkzeug auch neuartige Anwendungen zu entwickeln, die es effektiv nutzen können. Am Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut) in Potsdam haben Forscher ein Programm namens Cactus geschrieben, das die Kollision zweier Schwarzer Löcher im Weltraum simuliert (Bild links) und mit dem Grid umzugehen weiß. Cactus überwacht die Leistung der Computer, auf denen es gerade läuft. Sind diese zu schwach, hält das Programm im Grid Ausschau nach leistungsfähigeren Computern und verlagert sich dann selbständig dorthin, ohne dass der Nutzer dies bemerkt. Für die Fortentwicklung dieses Programms wurde den Potsdamer Wissenschaftlern 2002 der Gordon-Bell-Preis verliehen.
Auch am ZIB, das im Hochleistungsrechnerverbund Nord (HLRN) leistungsfähige Supercomputer betreibt, wird in verschiedenen Industrie- und EU-Projekten an der nächsten Generation von Grid-Systemen gearbeitet. Neben der allgemeinen Qualitätsverbesserung geht es besonders um die selektive Bildübertragung über große Entfernungen bei geringer Bandbreite und den effizienten Umgang mit riesigen Datenmengen. Forscher des ZIB zählten zu den Initiatoren des europäischen EGrid Forum, das 2001 mit dem amerikanischen Grid Forum zum heutigen Global Grid Forum (GGF) vereinigt wurde.
Der problemlose Zugriff auf Computer- und Daten-Ressourcen, wie ihn das Grid Computing bereitstellt, bildet den Nährboden für eine effektive, international konkurrenzfähige Forschung und liegt daher, bei aller Internationalität der Wissenschaft, auch im nationalen Interesse. Aus diesem Grunde haben die Wissenschaftler in Deutschland die Initiative zur Gründung eines nationalen D-Grid ergriffen, das die deutschen Grid-Aktivitäten bündeln und sich international an der strategischen Weiterentwicklung des Grid Computing beteiligen soll. Dies geht allerdings nicht ohne die Hilfe nationaler Förderer. Die Regierungen in England, Italien und den Niederlanden sind bereits mit gutem Beispiel vorangegangen und haben zwei- oder sogar dreistellige Millionenbeträge zum Aufbau nationaler Grids bereitgestellt. Die bahnbrechende Erfindung des WWW am Cern vor zehn Jahren hat gezeigt, dass es in Europa nicht an schlauen Köpfen mangelt, sondern an der mutigen und konsequenten Förderung, Umsetzung und Weiterentwicklung ihrer Ideen!
Aus: Spektrum der Wissenschaft 7 / 2003, Seite 72
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben