Internet-Computer: Der Weltcomputer
PCs aller Länder, vereinigt euch! Schon in wenigen Jahren könnte diese Vision Realität werden - zum Wohle der Benutzer und auf völlig kapitalistische Weise.
Wenn Anke von der Arbeit heimkommt und sich an ihren PC setzt, um ihre E-Mail zu lesen, ist dieser schon den ganzen Tag fleißig zugange. Im Auftrag einer Biotechnologie-Firma gleicht er eine DNA-Sequenz mit einer großen Menge von Proteinen aus einer Datenbank ab. Über seinen DSL-Telefonanschluss lädt er die Daten eines Radioteleskops zur späteren Analyse herunter. Seine Festplatte enthält außer Ankes eigenem Material verschlüsselte Teilstücke von tausenden anderen Dateien. Von Zeit zu Zeit wird eines dieser Fragmente gelesen und übertragen – es ist Teil eines Filmes, den sich gerade jemand in Helsinki ansieht. Sowie Anke jedoch ihre Maus bewegt, werden alle diese hektischen Aktivitäten unterbrochen, und der Computer und seine Netzwerkverbindungen stehen ausschließlich zu ihren Diensten.
Diese gemeinschaftliche Nutzung von Produktionsmitteln spielt sich nicht nur auf ihrem PC ab. Der tragbare Computer in ihrer Aktentasche ist zwar abgeschaltet, seine Festplatte jedoch dient als Teil eines weit verstreuten Lagers für Sicherheitskopien; Dateien irgendwelcher anderen Nutzer sind dort für den Notfall hinterlegt. Entsprechend liegen Kopien von Ankes wichtigsten Dateien auf Dutzenden von Festplatten in aller Welt.
Später sieht sich Anke auf ihrem ans Internet angeschlossenen digitalen Fernseher gegen Gebühr einen Spielfilm an. Die Bilddaten dafür werden während der Laufzeit aus Hunderten kleiner Teildateien zusammengesetzt, die auf Computern wie dem ihrigen lagern.
Ankes Computer arbeiten in ihrer freien Zeit für andere Nutzer – aber keineswegs umsonst. Mit jeder Minute Rechenzeit tröpfeln ein paar Cent Mieteinnahmen auf ihr virtuelles Bankkonto. Das Geld stammt von der BiotechnologieFirma, dem Spielfilmverleih und dem Datensicherungsdienst. Statt sich ganze Hallen voller Server zuzulegen, mieten die Unternehmen Speicherplatz und Rechenzeit – nicht nur von Ankes Computer, sondern auch von Millionen anderen. Alle Beteiligten ziehen Nutzen aus diesem Geschäft: Die Unternehmen sparen das Geld für Hardware, wodurch es sich etwa der Spielfilmverleih leisten kann, wenig gefragte Kulturfilme anzubieten. Anke ihrerseits verdient sich etwas Geld hinzu, von ihren Dateien werden Sicherheitskopien angefertigt, und sie kann einen ausgefallenen Film genießen. Und für all das braucht es nichts weiter als ein Stück Software, das die Rechen- und Speicherkapazitäten von Millionen von Computern koordiniert: ein internetweites Betriebssystem (internet-spanning operating system, ISOS).
Noch ist Ankes Geschichte eine Fiktion, und ein ISOS gibt es bisher nicht – aber Vorläufer. Entwickler haben bereits zahlreiche Anwendungsprogramme geschrieben, die das riesige Potenzial unterbeschäftigter Computer im Internet nutzen sollen. Es geht um den Austausch von Rechenzeit und Speicherplatz unter Gleichrangigen (peer to peer). Auf diese Weise werden Probleme gelöst, deren Bewältigung mit eigens hierfür eingesetzten Computern zu mühsam, zu teuer oder überhaupt unmöglich wäre. Die Systeme von heute sind aber nur der erste Schritt. Weitere, sehr nützliche Anwendungen kommen einem sofort in den Sinn: ein Archiv, das zuverlässig hundert Jahre lang arbeitet, oder eine Suchmaschine für das semantische Web von morgen (Spektrum der Wissenschaft 8/2001, S. 42).
Leider ist die Entwicklung von Programmen, die überall im Internet laufen sollen, immer noch ungeheuer aufwendig. Jedes einzelne Programm ist von Grund auf neu zu konzipieren, und eine Menge Energie geht in technische Einzelheiten, die nur wenig mit dem eigentlichen Zweck des Programmes zu tun haben, wie etwa die Führung einer Nut-zerdatenbank. Sollen internetweite Anwendungen alltäglich werden, dann müssen diese Infrastrukturfragen ein für alle Mal geregelt werden.
Wie kann das funktionieren? Nehmen wir uns Betriebssysteme wie Unix und MS-Windows zum Vorbild. Ein Betriebssystem stellt einem Programm einen genormten virtuellen Arbeitsplatz zur Verfügung. Das Programm darf so tun, als hätte es den exklusiven Zugriff auf alle Systemkomponenten. Damit nimmt das Betriebssystem dem Programm – beziehungsweise dem Programmierer – die Sorge um die unangenehmen Kleinigkeiten ab: Speicher- und Festplattenorganisation, Kommunikationsprotokolle, die Auseinandersetzung mit konkurrierenden Anforderungen und die Ansteuerung von Peripheriegeräten. Zur Entwicklung von Programmen, die über die Grenzen eines Computers hi-naus auf dem ganzen Netz laufen, würde ein internetweites Betriebssystem eine ähnlich genormte Umgebung schaffen.
Ein ISOS besteht aus einem Stück Software (einem "ISOS-Agenten"), das auf jedem lokalen Computer (zum Beispiel Ankes) läuft, und einem zentralen Koordinationssystem auf einem oder mehreren Serverkomplexen. Es soll nicht mehr sein als eine dünne Grenzschicht zwischen dem einzelnen Computer und der großen weiten Welt, welche die Signale des einen Bereichs in Anweisungen übersetzt, die der andere versteht, und beide Bereiche voreinander schützt. Im Einzelnen soll dieser so genannte Mikrokern nur sehr elementare Aufgaben übernehmen wie die Zuweisung von Rechenzeit und Speicherplatz für bestimmte Aufgaben, die Kommunikation zwischen den einzelnen Computern und die Leistungsabrechnung; dies alles nach Methoden, die der Ökonomie entlehnt sind. Dagegen würden nutzernahe Aufgaben von Dienstprogrammen erledigt, die sich des Betriebssystems bedienen, aber nicht Teil von ihm sind. Anke würde zum Beispiel ihre Dateien nicht direkt mit dem ISOS im Internet speichern, sondern dazu ein Sicherungsprogramm verwenden, das seinerseits ISOS-Funktionen aufruft.
Ein ISOS könnte hauptsächlich zwei Typen von Anwendungen unterstützen. Der erste besteht aus verteilter Datenverarbeitung, zum Beispiel für physikalische Simulationen, die Analyse von Radiosignalen, genetische Analysen, Computergrafik und die Modellierung von Finanzmärkten. Der zweite umfasst netzweite Online-Dienstleistungen wie Dateispeichersysteme, Datenbanken, die Bereitstellung von Websites, Online-Videos und ähnliche Angebote sowie fortgeschrittene Suchmaschinen fürs Web.
Was mein ist, ist auch dein
Heutzutage ist eine Einzelperson oder Organisation, die einen Computer nutzt, in der Regel auch dessen Besitzer. Mit einem ISOS dagegen würde es zunehmend üblich, alle im Internet vorhandenen Ressourcen zu nutzen. Diese – Computer, die Daten verarbeiten oder speichern können, sowie die Netze, in denen die Daten übertragen werden – wären weiterhin Privateigentum, würden aber für alle gleichermaßen arbeiten. Die so genannten Hosts (wörtlich: Gastgeber) wären Computer aller Art: Laptops, PCs und große Server, sowie am Netzwerk angeschlossene Speichersysteme und vielleicht sogar die brieftaschengroßen Notebook-Computer.
Heute schon sind am Internet mehr als 150 Millionen Hosts angeschlossen, und ihre Zahl wächst exponentiell. Folglich könnte ein ISOS einen virtuellen Computer anbieten, der die 150-millionenfache Leistung eines Einzelgeräts bietet. Selbst wenn sich viele Nutzer diesen virtuellen Computer teilen müssen und man den zusätzlichen Verwaltungsaufwand in Betracht zieht, bleibt ein Computer, der größer, schneller und billiger ist als jedes Gerät, das sich ein Nutzer allein leisten könnte. Ständige Verbesserungen der Hardware lassen die Kapazität und Geschwindigkeit dieses Supercomputers sogar noch schneller wachsen als die Zahl der angeschlossenen Hosts. Darüber hinaus ist er wartungsfrei: Wenn ein Computer ausfällt, wird ihn sein Besitzer früher oder später reparieren lassen oder ersetzen; währenddessen läuft die große Maschine unbeeindruckt weiter.
Nehmen wir zum Beispiel Ankes Spielfilm. Seine Daten werden aus etwa 200 Fragmenten zusammengesetzt, deren gastgebende Computer gut und gerne über je eine antiquierte 56-Kilobit-Modemverbindung ans Netz angeschlossen sein können. Das ist zwar viel zu langsam, um ein Video in hoher Qualität zu zeigen; gemeinsam aber erreichen die 200 Computer eine Rate von 10 Megabit pro Sekunde: schneller noch als ein Kabelmodem.
Die in einem nichtlokalen System gespeicherten Daten sind – unter ge-wissen Sicherheitsvorkehrungen – von überall her abrufbar und können selbst Unfälle überstehen, die weite Teile des Netzwerkes außer Betrieb setzen. Auch gegen böswillige Angriffe ist das System robust: Ein Virus oder ein Hacker müsste schon in 10000 Computer einbrechen, bevor erste Ausfälle auftreten.
Ein internetweites Betriebssystem kann für manche Zwecke die Grenzen des Möglichen, was Rechenzeit und Speicherplatz angeht, weiter hinaustreiben, für andere die Kosten senken und für dritte vielleicht gar nichts tun – es kann kein Allheilmittel sein. Außerdem sind zunächst etliche Hürden zu überwinden.
Einige dieser Schwierigkeiten liegen in der Natur der Ressourcen. Die Menge der zugänglichen Computer ist äußerst heterogen: Es finden sich die verschiedensten Prozessortypen, Betriebssysteme, Speicherkapazitäten und Übertragungsgeschwindigkeiten. Manche Hosts stecken hinter einer "Firewall" oder einem ähnlichen Sicherheits-Softwaresystem, das dem ungehinderten Zugriff von außen entgegensteht. Viele sind nur zeitweilig aktiv: Schreibtischcomputer werden nachts abgeschaltet, Laptops und über Modem angeschlossene Systeme sind meist nicht online. Ständig und unvorhersehbar kommen neue Hosts hinzu, andere verschwinden.
Das ISOS darf die Betreiber der Hosts nicht – oder nur minimal – bei ihrer eigentlichen Arbeit stören und muss gewisse Vorschriften der Eigentümer beachten, wie eine Beschränkung der Nutzung auf die Nachtzeit oder auf bestimmte Arten von Programmen. Es kann sich jedoch nicht darauf verlassen, dass sein eigenes vorbildliches Verhalten mit gleicher Münze heimgezahlt wird. Nichts hindert den Eigentümer daran, nachzusehen und vielleicht auch zu beeinflussen, was auf seinem Computer geschieht. Unter 150 Millionen Nutzern gibt es mit Sicherheit mehr als einen böswilligen oder auch nur neugierigen, der versucht, das System zu stören, zu überlisten oder sein Verhalten zu manipulieren. Ein ISOS muss so gebaut sein, dass es derartige Attacken schadlos übersteht.
Wer bekommt was?
Zwei der Hauptaufgaben eines ISOS sind die Zuweisung ("Allokation") von Ressourcen und die Findung eines angemessenen Preises für deren Nutzung. Ein der Ökonomie entlehntes Vermietungsmodell schlägt beide Fliegen mit einer Klappe. Den Anfang machten 1980 Wissenschaftler am Forschungszentrum Palo Alto von Xerox (Parc) mit einem Allokationsverfahren für Com-puterressourcen. Mojo Nation, ein Datentauschsystem im Stile der bekannt gewordenen Musiktauschbörse Napster, bietet Bezahlung in einer virtuellen Währung ("Mojo") für die Nutzung von Computerressourcen. Auf der anderen Seite müssen die Nutzer selbst Mojos ans System zahlen, wenn sie seine Dienste in Anspruch nehmen. Solche Preissysteme schaffen einen Anreiz für den Nutzer, seine Ressourcen zur Verfügung zu stellen, und führen – zumindest in der Theorie – zu einer optimalen Auslastung der Ressourcen.
Selbst bei 150 Millionen bereitstehenden Hosts wird das ISOS mit "knapper" Ware handeln, denn es gibt immer Kunden, die Ressourcen in unbegrenzter Menge anfordern und im Prinzip auch nutzen können. Das ISOS hat zu entscheiden, welcher Kunde welchen Computer und welchen Speicherplatz nutzen darf; dabei muss es die für den Kunden preisgünstigste Lösung finden und zugleich fair sein, das heißt nicht einen Kunden auf Kosten anderer bevorzugen. Diese Forderungen genau zu definieren und Verfahren zu ihrer Erfüllung zu entwickeln, und sei es nur näherungsweise, ist gegenwärtig Gegenstand der Forschung.
So sind Maßeinheiten für handelbare Waren zu bestimmen und auf deren Basis Preise, differenziert nach der Qualität der Ware. Eine solche Maßeinheit wäre etwa ein Megabyte Speicherplatzmiete für einen Tag, und der Preis hängt unter anderem davon ab, ob der gastgebende Computer ständig oder nur sporadisch verfügbar ist und wie schnell Daten aus diesem Speicher abrufbar sind. Das System muss darüber hinaus die Zahlungsweise (Vorkasse oder Kreditkarte) und das Verfahren der Preisfindung (durch Auktionen oder durch Makler) festlegen.
Innerhalb dieses Schemas muss das ISOS genau und zuverlässig über die Nutzung von Ressourcen Buch führen. Dazu gibt es eine interne Bank mit Konten für Anbieter und Verbraucher, über welche die Leistungen abgerechnet werden. Die Teilnehmer können die interne ISOS-Währung in echtes Geld umtauschen und umgekehrt. Außerdem muss das ISOS Garantiezusagen zur Verfügbarkeit von Ressourcen abgeben und einhalten: Anke fände es äußerst ärgerlich, wenn ihr Spielfilm in der Mitte plötzlich abbräche. Ein Anbieter kann die Nutzung seines Systems über den Preis sehr präzise steuern: Wenn er seine Rechenzeit zwischen 9 und 17 Uhr extrem teuer macht, hat er seinen PC tagsüber mit einiger Sicherheit für sich.
Wenn Geld im Spiel ist, reizt dies natürlich zu Betrug, und die Teilnehmer eines ISOS haben im Prinzip viele Möglichkeiten dazu. Anbieter von Ressourcen könnten etwa durch Manipulierung oder Täuschung des Agentenprogrammes Leistungen abrechnen, die sie nie erbracht haben. Forscher erproben statistische Verfahren zur Auffindung von fehlerhaften oder betrügerischen Hostcomputern.
Wenn ein Host einen Auftrag erhält, in einer Serie von Radioteleskop-Daten nach statistisch auffälligen Merkmalen zu suchen, könnte er nach angemessener Zeit die Auskunft "es gibt keine" zurückmelden und dafür kassieren, obgleich er in der Zwischenzeit etwas ganz anderes getan hat. Gegen diese Art von Betrug hilft es, Zwischenergebnisse anzufordern, die der Host nur herausbekommt, wenn er die gesamte Rechnung wirklich ausführt, und die der Auftraggeber ohne große Mühe überprüfen kann. Gegen Betrug bei der Datenspeicherung oder sonstigen Dienstleistungen sind andere Verfahren erforderlich.
Auf die Dauer werden sich die Endverbraucherkosten für die Nutzung von ISOS-Ressourcen auf einen Bruchteil der Kosten einspielen, die durch ihren privaten Besitz entstünden. Im Idealfall wird dieser Bruchteil hoch genug sein, um die Computerbesitzer zur Teilnahme zu motivieren, und zugleich niedrig genug, um die internetweite Computernutzung attraktiv zu machen. Für den typischen PC-Nutzer könnte die Sache auf eine Art Tauschgeschäft hi-nauslaufen: Dafür, dass er seinen ansonsten unausgelasteten Prozessor und Festplattenplatz zur Verfügung stellt, bekommt er kostenlos Sicherheitskopien seiner Dateien im Netz oder Platz auf einem Server für seine Website.
Unserer Meinung nach sollte ein ISOS auf zwei Prinzipien beruhen: Das Betriebssystem, ein so genannter Mikrokern (microkernel), soll nur das Allernötigste enthalten, und der Betrieb soll durch zentrale Server gesteuert werden. Das Konzept eines minimalen Betriebssystems, das durch separate, leicht korrigier- und austauschbare Hilfsprogramme ergänzt wird, wurde vor allem von akademi-schen Projekten verfolgt und hat auch kommerzielle Produkte wie Windows NT beeinflusst. Die meisten bekannten Betriebssysteme sind jedoch keine Mi-krokerne.
Ein bisschen Zentralisierung
Die Kern-Bestandteile eines ISOS sind die Allokation von Ressourcen, Prozessplanung (die Verwaltung von Warteschlangen für einzelne Aufträge, sowohl übers Netz als auch auf individuellen Hosts), Buchführung über die Nutzung von Ressourcen und elementare Verfahren für die Abarbeitung von Nutzerprogrammen. Dabei sollte das ISOS verfügbare Funktionen des lokalen Hostbetriebssystems nutzen, statt sie selbst zu enthalten.
Strittiger ist unser Konzept der Zentralisierung. Eine öffentlich-rechtliche Organisation oder ein Dachverband bedeutender Ressourcenanbieter und -verbraucher müsste ein Netz von zentralen Servern betreiben. (Mehrere konkurrierende ISOS-Netze sind denkbar, machen die Sache jedoch nicht einfacher.) Damit würden Machtstrukturen aufgebaut, die der egalitären Philosophie zuwiderlaufen. Aber zentrale Server sind unerlässlich, um Abrechnungsdaten und ähnlich wichtige Informationen über die einzelnen Hosts (deren "Personalakte") zuverlässig und unmanipulierbar geheim zu halten.
Gegen eine zentralisierte Struktur wird regelmäßig eingewandt, dass sie mit zunehmender Anzahl der Hosts immer schwerfälliger werde und der Ausfall des einen zentralen Servers das ganze System lahm legen würde. Diese Befürchtungen sind jedoch unbegründet. Immerhin hat der einzige Server von Napster 60 Millionen Kunden bedient. Zudem können die wichtigen Informationen über sämtliche Hosts ohne weiteres auf einer angemessenen Zahl von Servern gespeichert sein, die sich regelmäßig über den neuesten Stand der Informationen verständigen und bei Ausfällen füreinander einspringen. Drittens funktionieren die meisten Dienste eines ISOS selbst dann noch eine Weile, wenn gar kein Server erreichbar ist. Nur die Abrechnung und die Verfolgung von Betrügern kommen dann vielleicht etwas verspätet.
In der Personalakte eines Hostcomputers stehen
– dessen individuelle Eigenschaften wie Betriebssystem, Prozessortyp und Rechengeschwindigkeit, gesamter und verfügbarer Festplattenspeicherplatz, Größe des Arbeitsspeichers sowie statistische Daten darüber, wann und mit welcher Datenrate er eingeschaltet und erreichbar ist;
– die Regeln, die der Eigentümer für die Nutzung des Hosts festgelegt hat;
– die Ressourcen, die in diesem Moment von einem auswärtigen Programm genutzt werden, sowie die Warteschlange der noch zu erledigenden Aufträge.
Wer seinen Computer dem Netzwerk anbieten möchte, benachrichtigt den Serverkomplex, zum Beispiel über eine Website. Von dort lädt er das ISOS-Agentenprogramm herunter, installiert es, trägt die Daten seines Computers in dessen Personalakte ein und so weiter. Der so installierte lokale ISOS-Agent empfängt hin und wieder vom Serverkomplex eine Liste von Aufgaben und lässt sie abarbeiten, soweit Ressourcen zur Verfügung stehen.
Wer Ressourcen mieten möchte, sendet eine Bestellung an den Serverkomplex, zusammen mit den Programmen, die auf anderen Hosts laufen sollen. Dabei kann er vom ISOS eine Liste von Hosts anfordern, die für die von ihm zu vergebenden Arbeiten geeignet und preisgünstig sind. Wenn der Mieter etwa ein Dienst für Sicherheitskopien ist, würde er mit Hosts auskommen, die wie Ankes Laptop nur zeitweilig am Netz angeschlossen und deswegen billiger sind als allzeit bereite Geräte. Anhand dieser Liste nimmt das Agentenprogramm des Bestellers mit den Agenten der Hosts direkt Kontakt auf; wenn zu viele Hosts nicht mehr verfügbar sind, holt es sich eine frische Liste vom Server. Während die Dienste der "Lieferanten", das heißt der Hosts, welche die Sicherheitskopien beherbergen, über das ISOS bestellt, erbracht und abgerechnet werden, ist die Beziehung des Sicherungsdienstes zu seinen Kunden, das heißt zu den Computerbesitzern, die ihre Daten gesichert haben wollen, vom ISOS völlig unabhängig. Dem steht nicht entgegen, dass in diesem Beispiel die Kunden und die Lieferanten im Wesentlichen dieselben Computer sind.
Im Prinzip lässt sich auf den Grundfunktionen eines ISOS – Ressourcenallokation, Warteschlangenverwaltung und Kommunikation – ein weites Spektrum von Anwendungsprogrammen aufbauen. Diese werden jedoch eine Reihe wichtiger Komponenten gemeinsam haben. Es wäre hilfreich, wenn diese in einer Softwarebibliothek zum Einbau in spezielle Programme zur Verfügung stünden, insbesondere:
Standortunabhängiges Routing: Ein ISOS-basiertes Programm schickt typischerweise Kopien seiner selbst zusammen mit jeweils verschiedenen Eingabedaten, an denen die Berechnungen zu vollführen sind, an Millionen von Hosts und muss hinterher wieder mit ihnen Kontakt aufnehmen, um die Ergebnisse einzusammeln. Um dies zu vereinfachen, merkt sich das Programm nicht direkt, wohin es einen Klon geschickt hat, sondern gibt ihm eine Nummer, den global unique identifier (GUID). Die Information, wo das zu einer Nummer gehörige Objekt steckt, steht woanders. Das übergeordnete Programm kann also ein Objekt anfordern, ohne dessen Adresse zu kennen. Dazu müsste zum Beispiel auf einem speziellen Computer ein Adressverzeichnis (eine GUID-Datenbank) liegen, aber der wäre mit den Anfragen von Millionen von Hosts überfordert. Stattdessen verteilt die ISOS-Softwarebibliothek diese Datenbank auf mehrere Hosts. Das Projekt OceanStore für permanente Datenspeicherung, an dem gegenwärtig an der Universität von Kalifornien in Berkeley geforscht wird, ist ein Beispiel eines solchen nichtlokalen Systems.
Robuste Datenspeicherung: Vom ISOS gespeicherte Daten müssen eine Reihe denkbarer Katastrophen überstehen. Zu diesem Zweck sorgen spezialisierte Hilfsprogramme für die Verschlüsselung, Rekonstruktion und Reparatur von Dateien. Für größte Haltbarkeit werden Daten mit einem "m-aus-n"-Code verschlüsselt. Das Prinzip ist ähnlich dem eines Hologramms, bei dem ein kleines Stück ausreicht, um das gesamte Bild wiederherzustellen. Der Codiervorgang zerlegt die Information in n Fragmente(und legt sie auf n verschiedenen Hosts ab), von denen m ausreichen, um die gesamte Information zu rekonstruieren. Typischerweise macht das System aus einem Dokument 64 Fragmente, die es auf ebenso viele Hosts verteilt; aber bereits mit 16 dieser Fragmente ist das Dokument wiederherstellbar. Es gibt auch ein Reparaturprogramm, das ein einzelnes verlorenes Fragment aus den anderen wiederherstellt, ohne das komplette Dokument erzeugen zu müssen. Richtig installiert kann ein solches System Daten für Hunderte von Jahren zuverlässig speichern.
Sichere Updates: Ein weiteres Problem besteht darin, gespeicherte Daten zuverlässig auf den neuesten Stand zu bringen. Eigentlich müssten alle existierenden Fragmente eines Dokuments aufgefrischt werden; einige von ihnen sind aber mög-licherweise vorübergehend unzugänglich. Wer auf die neueste Version eines Dokuments zugreifen will, muss sicher sein, dass ihm weder ein veraltetes noch ein verfälschtes Fragment untergeschoben wird. Vielleicht sind auch manche der Server, auf denen die Adressen (GUIDs) der Fragmente lagern, ausge-fallen oder manipuliert. Gegen solche Probleme hilft ein so genanntes byzan-tinisches Abstimmungsprotokoll, eine verfeinerte Form der Mehrheitsentscheidung: Indem die beteiligten GUID-Server einander nach einem festgelegten Protokoll gewisse Nachrichten zusenden, kommen sie selbst dann zu einem korrekten Ergebnis, wenn ein Drittel von ihnen konspiriert, um den Prozess zu manipulieren.
Andere Werkzeuge: Darunter fallen vor allem Verfahren zur Konversion zwischen den Datenformaten verschiedener Hosts und zum Abgleich gemeinsamer Datenbestände.
Ein ISOS leidet unter einem vertrauten Dilemma, das der Einführung neuer Technologien regelmäßig im Wege steht. Ohne großen Nutzerkreis werden nur wenige ISOS-Anwendungsprogramme geschrieben werden, aber solange nur wenige Programme zur Verfügung stehen, bleibt der Nutzerkreis klein. Erreicht man aber die kritische Masse, indem man etwa genügend viele Entwickler und Nutzer von den Annehmlichkeiten eines solchen Systems überzeugt, wird es sich schnell ausbreiten.
Gemessen an dem immensen Reichtum an Ressourcen, die das Internet bietet, ist es noch immer weitgehend ungenutzt. Die rasend schnell gewachsene Popularität des World Wide Web hat da-ran nichts geändert – sie hat nur den verfügbaren Reichtum gewaltig vermehrt. Mit einem internetweiten Betriebssystem können Programmierer Anwendungen für diesen Weltcomputer entwickeln, ohne sich um die Hardware zu kümmern. Wer weiß, was dabei herauskommen wird? Anke und ihre Computer werden Dinge tun, die wir uns noch nicht einmal vorstellen können.
Literaturhinweise
Peer-to-Peer: Harnessing the Power of Disruptive Technologies. Von Andy Dram (Hg.). O’Reilly & Associates, 2001.
The Grid: Blueprint for a New Computing Infrastructure. Von Ian Foster und Carl Kesselman (Hg.). Morgan Kaufmann, 1998.
The Ecology of Computation. Von B. A. Huberman. North-Holland, 1988.
Verteilte Nutzung von Computern: große Projekte in kleinen Portionen
Rechnen
GIMPS (Great Internet Mersenne Prime Search) www.mersenne.org/
Sucht nach großen Primzahlen (Spektrum der Wissenschaft 2/2002, S. 111). Etwa 130000 Mitglieder sind eingetragen, und fünf neue Primzahlen wurden gefunden, darunter die größte bekannte Primzahl mit 4 Millionen Ziffern.
distributed.netwww.distributed.net/
Entzifferte eine Reihe von verschlüsselten Nachrichten, in-dem es systematisch alle möglichen Schlüssel ausprobierte. Im gegenwärtigen Projekt werden mehr als 100 Milliarden Schlüssel pro Sekunde getestet. Darüber hinaus wird nach Golomb-Linealen gesucht, speziellen Zahlenmengen, die für effiziente Codierung und Kommunikation nützlich sind.
SETI@home (Suche nach außerirdischer Intelligenz) http://setiathome.berkeley.edu/
Analysiert Messwerte eines Radioteleskops und sucht nach Signalen, die von einer außerirdischen Intelligenz stammen könnten (Spektrum der Wissenschaft 1/2002, S. 109). Bislang haben 3,4 Millionen Nutzer mehr als 800000 Jahre Prozessorzeit dieser Aufgabe gewidmet.
folding@homehttp://folding.stanford.edu/
Dieses Projekt unter der Leitung des Chemikers Vijay Pande von der Universität Stanford simuliert die Faltung von Proteinmolekülen, etwa die des Beta-Amyloids, das in der Alzheimer-Krankheit eine entscheidende Rolle spielt. Der gegenwärtige Rekord steht bei 38 Mikrosekunden simulierter Faltzeit und übertrifft damit weit den vorherigen Rekord einer Mikrosekunde, der mehrere Monate Rechenzeit auf einem Cray-Supercomputer in Anspruch nahm.
Krebsforschungsprojekt von Intel und United Deviceshttp://members.ud.com/projects/cancer/
Sucht nach einem Krebsheilmittel, indem es 3,5 Milliarden Moleküle daraufhin testet, wie gut sie eines der acht Proteine binden, die Krebsgeschwüre zum Wachstum benötigen.
Speichern
Napster
Ermöglichte Nutzern den Austausch digitaler Musikdateien. Eine zentrale Datenbank speicherte die Adressen aller Dateien, die Daten selbst wurden jedoch direkt vom Besitzer zum Empfänger übertragen. Nach einer Gemeinschaftsklage von Musikautoren und -verlagen musste Napster den Betrieb zunächst einstellen. Nach einem inzwischen geschlossenen Übereinkommen sollen Lizenzrechte an Napster übertragen und die Künstler bezahlt werden, aber der neue kostenpflichtige Service war Ende April 2002 noch nicht in Betrieb.
Gnutellawww.gnutella.com/
Ein privates, sicheres Datenspeicherungs- und -übertragungssystem. Es gibt keinen zentralen Server. Stattdessen wird die Anforderung nach einer Datei wie ein Gerücht von Computer zu Computer verbreitet, bis sich einer meldet, der das Gewünschte hat.
Freenethttp://freenetproject.org/
Ähnlich wie Gnutella, jedoch mit besserem Verfahren für das Auffinden von Dateien. Anforderer und Gastgeber von Dateien bleiben anonym. Der Besitzer eines Hosts weiß im Allgemeinen nicht, welche Dateien in seinem Speicher liegen, und kann deswegen auch nicht für sie verantwortlich gemacht werden.
Mojo Nationwww.mojonation.net/
Ebenfalls ein Gnutella-ähnliches Projekt, in dem Dateien in kleine Fragmente zerlegt und auf verschiedenen Computern gespeichert werden, um die effektive Übertragungsrate beim Wiedereinsammeln zu erhöhen. Ein virtuelles Honorarsystem regt Nutzer dazu an, Ressourcen zur Verfügung zu stellen. Zurzeit (April 2002) nicht aktiv.
Fasttrack P2P Stackwww.fasttrack.nu/
Ein Peer-to-Peer-System, in dem leistungsstärkere Computer bei Bedarf zu zentralen Adress-Servern werden. Diese Software liegt den Dateiaustauschsystemen Grokster, MusicCity ("Morpheus") und KaZaA zugrunde.
Ein Überblick über zahlreiche Peer-to-Peer-Systeme findet sich unter www.at-web.de/p2p/.
Aus: Spektrum der Wissenschaft 6 / 2002, Seite 80
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben