Wissenschaftstrends: Publizieren mit Lichtgeschwindigkeit
Forscher beginnen, ihre Ergebnisse – von den ersten Ideen bis zum Endresultat – in Datennetzen zu verbreiten. Sogar Experimente können sie live am Computer miterleben. Der Charakter von Verlagen und Bibliotheken dürfte sich damit radikal ändern.
Das Gerät steht wie ein Stück Gerümpel unter einem Tisch in der Ecke des Arbeitszimmers von Paul H. Ginsparg im US-Nationallaboratorium von Los Alamos (New Mexico), umgeben von Stapeln wissenschaftlicher Arbeiten, einem Squashschläger, alten Zeitschriften und ein paar leeren Coladosen (Bild 1). Auf den ersten Blick sieht es aus wie ein überzähliger Arbeitsplatzcomputer, wie er tausendfach in Ingenieurbüros zu finden ist. Aber diese Maschine verändert in aller Stille radikal einen wesentlichen Teil des Wissenschaftsbetriebs. Zehntausende von Forschern widmen ihr täglich ihre Aufmerksamkeit.
Auf der Workstation vom Typ Hewlett Packard 9000 läuft das Ergebnis des Projekts, an dem der bärtige, 38jährige Physiker während der letzten drei Jahre in seiner Freizeit gearbeitet hat. Ginsparg, dessen Liebe eigentlich der String-Theorie und der zweidimensionalen Gravitation gehört, hat Programme geschrieben, mit denen andere Wissenschaftler preprints – noch unbegutachtete Vorversionen ihrer Veröffentlichungen – über das Internet an seine Maschine senden und damit allgemein zugänglich machen können.
Der Computer mit der Internet-Adresse "xxx.lanl.gov" ist damit zu einer Art Nachrichtenagentur geworden, in erster Linie für Forscher aus der theoretischen Hochenergiephysik, aber auch aus einem Dutzend anderer Spezialgebiete vornehmlich der Physik und der Mathematik. Täglich verbreitet die Maschine die Zusammenfassungen (abstracts) neu eingetroffener Arbeiten an ungefähr 20000 elektronische Adressen in mehr als 60 Ländern. Daraufhin fordern die Leser zu Tausenden Kopien der kompletten Artikel über das Netz an. "Das hat die Art des Informationsaustauschs auf diesem Gebiet vollkommen verändert", sagt Steven B. Giddings, Physiker an der Universität von Kalifornien in Santa Barbara. "Ich schaue in eine herkömmliche Zeitschrift nur noch für Artikel, die älter sind als die Physik-Datenbanken von Los Alamos."
Das Gerät in Ginspargs Büroecke ist nur eines der Zeichen für einen grundlegenden Wandel in der Kommunikation unter Wissenschaftlern und Ingenieuren. Das Internet, das aus ungefähr 40000 miteinander verbundenen Computernetzen besteht, ist zur größten Wandtafel der Welt geworden.
Von der kalten Kernfusion bis zum Beweis der Fermatschen Vermutung – für die Verbreitung von Sensationsnachrichten, Gerüchten und mehr oder weniger wissenschaftlichem Klatsch ist das Internet das Medium der Wahl. Aber eben nicht nur dafür: In der Zukunft könnte es die Basis des wissenschaftlich-technischen Publizerens bilden.
Wenn es Ginsparg gelingt, die Fülle der preprints der üblichen Begutachtung durch Fachkollegen (peer review) zuzuleiten – eines seiner nächsten Freizeitprojekte –, könnte die klassische wissenschaftliche Zeitschrift sehr schnell veralten; ihre Verlage würden in ihrer Existenz bedroht, wenn sie nicht schnell genug reagieren.
In dieser Zukunft ist wissenschaftliche Kommunikation nicht so sehr Dokumentation des Vollendeten als vielmehr eine Art Direktübertragung aller Gedanken zu einem Problem. Das traditionelle bürokratische Publikationsverfahren würde sich erübrigen – und damit das Ärgernis, daß ein Artikel erst Monate oder gar Jahre nach der Niederschrift erscheint, wenn seine Autoren sich längst einem neuen Gebiet zugewandt haben. "Papier ist notwendig und wichtig, aber auch hoffnungslos langsam und unflexibel", sagt der Kognitionspsychologe Stevan Har-nad, der selbst eine elektronische Zeitschrift herausgibt. "Wissenschaftliche Arbeit könnte sich zu viel größeren Höhen aufschwingen, wenn die Reaktion auf sie schneller käme, näher an der Geschwindigkeit des Denkens selbst."
In diesem Szenario wäre die Gesamtheit des Materials zu einem Thema zusammenhängend über Software verfügbar, wenngleich möglicherweise physisch über Computer auf der ganzen Welt verstreut: von E-mail-Meldungen erster Ergebnisse über die eigentlichen, begutachteten Artikel bis hin zu eventuell folgenden Kommentaren.
Wissenschaftliche Zusammenarbeit würde ihren Charakter verändern. Ein Kollege von der anderen Seite der Erde könnte sich durch seine Beiträge so intensiv an einem Forschungsprojekt beteiligen, als säße er nebenan und gehörte zum Team. Alle Beobachter aus einem Fachgebiet könnten sogar ein Experiment in dem Moment miterleben, wenn es stattfindet – und auf der Stelle ihre spontanen Ideen beisteuern.
Die Krise der klassischen Zeitschrift
Das Wachstum des Internet als Verbreitungsmedium für Forschungsergebnisse kommt wie gerufen in einer Situation, die einige Beobachter als Krise des hergebrachten wissenschaftlichen Publikationssystems bezeichnen. In dem Maße, wie die Disziplinen wachsen und sich immer weiter verästeln, will jedes neue Fachgebiet seine Zeitschrift haben, und die Bibliotheken haben – so ihre Etats überhaupt für mehr und mehr Abonnements ausreichen – alle Mühe, dieser Informationsflut Herr zu werden.
Die Menge an wissenschaftlicher Information verdoppelt sich etwa alle zwölf Jahre; die Jahresproduktion allein eines großen Wissenschaftszweigs würde, auf einen Haufen geschichtet, hohe Monumente bei weitem überragen (Bild 2 links). In einem weitverbreiteten elektronischen Artikel über den Tod der klassischen wissenschaftlichen Zeitschrift schätzt Andrew M. Odlyzko, Mathematiker bei den Bell-Laboratorien in Murray Hill (New Jersey), daß von der runden Million an Arbeiten, die jemals in der Mathematik veröffentlicht wurden, nahezu die Hälfte jünger ist als zehn Jahre.
Die Produktionskosten für die Zeitschriften, die all diese Arbeiten enthalten, sind von einem winzigen Abonnentenkreis – im wesentlichen den Universitätsbibliotheken – zu tragen. Auflagen von manchmal nur wenigen hundert Stück machen das einzelne Exemplar extrem teuer. Und das Verfahren ist mittlerweile quälend langwierig.
Beides behindert die akademische Kommunikation erheblich. Die durchschnittlichen Abonnementspreise haben sich zwischen 1985 und 1993 mehr als verdoppelt, was sowohl die Inflationsrate als auch die Zuwächse der Bibliotheksetats weit übertrifft (Bild 2 rechts). Ein Jahrgang mancher Zeitschriften kostet bereits so viel wie ein Mittelklassewagen. Protesten der Benutzer zum Trotz haben die Bibliotheken zahlreiche Zeitschriften abbestellt. Der Mikrobiologe Joshua Lederberg von der Rockefeller-Universität in New York (Nobelpreis 1958), seit langem Befürworter des elektronischen wissenschaftlichen Publizierens, beschrieb den Trend ironisch: "Schon bald wird nur noch eine Einrichtung eine Publikation erwerben, und alle anderen werden sie sich über Fernleihe beschaffen. Das ist absurd. Es gibt nur noch ein einziges Exemplar, aber das zu einem Abonnementspreis von einer Million Dollar."
Inzwischen bietet sich die elektronische Alternative. Ein Forscher kann sein Werk in den Computer eintippen (lassen) und Anweisungen für den automatischen Textsatz hinzufügen. Aus diesen Artikeln kann sein Institut eine Art Hauszeitschrift machen und diese unter Umgehung traditioneller Verlage über seinen Internet-Anschluß verbreiten. Das "Directory of Electronic Journals, Newsletters and Academic Discussion Lists", herausgegeben von der amerikanischen Vereinigung wissenschaftlicher Bibliotheken (Association of Research Libraries, ARL), führte 1994 bereits 440 Titel auf; im Jahre 1991, als das Verzeichnis erstmals erschien, waren es erst 110. Die Zahl derartiger Zeitschriften mit Peer Review hat sich zwischen 1992 und Mitte 1994 auf etwa 100 vervierfacht. Ann Okerson von der ARL stellt fest, daß "die Wissenschaftler die Herausforderung bewältigen, qualitativ hochwertige Fachinformationen einem breiten Publikum praktisch kostenfrei zur Verfügung zu stellen".
Die meisten dieser Publikationen (typischer Titel: "Postmodern Culture") haben geisteswissenschaftliche Themen. Aber die Naturwissenschaftler und Ingenieure holen auf. Die Mathematiker Neil J. Calkin vom Georgia Institute of Technology in Atlanta und Herbert S. Wilf von der Universität von Pennsylvania in Philadelphia entschlossen sich, Verleger der neuen Art zu werden, nachdem sie Odlyzkos Artikel gelesen hatten. Ihr "Electronic Journal of Combinatorics", das mit Peer Review arbeitet und seit April 1994 im Datennetz präsent ist, erhielt begeisterte Unterstützung von prominenten Fachkollegen. Calkin schätzt, daß das Projekt außer der Zeit, die er auch als Herausgeber einer gedruckten Zeitschrift hätte aufwenden müssen, nur etwa 25 Megabytes Plattenspeicherplatz (zu einem Preis von weniger als 50 Dollar) erfordert.
Sehr hilfreich ist die wachsende Zahl frei verfügbarer Programme (public domain software), die das Erstellen und Übermitteln komplizierter Gleichungen, chemischer Modelle und anderer Graphiken vereinfachen. Solche Programme entstehen oft aus einem konkreten Bedürfnis; die erfolgreichen verbreiten sich in Windeseile über das Netz.
Henry Rzepa, theoretischer Chemiker am Londoner Imperial College, hatte stets Schwierigkeiten, sich die Ergebnisse der Arbeiten, die er zu begutachten hatte, bildlich vorzustellen. Zusammen mit Benjamin J. Whitaker von der Universität Leeds und Peter Murray-Rust vom Pharmaziekonzern Glaxo erarbeitete er deshalb eine systematische Beschreibung für Bilder von Molekülen, mit der sie so einfach wie normale e-mail zu übertragen sind.
Inzwischen ist das Projekt zu einem Normenvorschlag namens Multipurpose Internet Mail Extensions (MIME, Mehrzweckzubehör für elektronische Post) gediehen. Darin wird ein einheitliches Format zum Übertragen chemischer und anderer Daten festgelegt, zum Beispiel der räumlichen Koordinaten eines Moleküls oder der Ergebnisse einer Spektralanalyse. Ist die Norm erst etabliert, kann man darauf basierend weltweit verwendbare Programmpakete zur Darstellung, Manipulation oder Kommentierung eines Moleküls schreiben. Dann, so Rzepa, "können Chemiker und Biologen anstatt bloßer Worte sozusagen richtige Moleküle austauschen".
Boulevardpresse und exklusiver Club: elektronisch
Noch droht jedoch dem Internet die Abqualifizierung als größter Groschenheftstand der Weltgeschichte. Kaum eines der elektronischen, der sogenannten E-Journale hat bis jetzt so viel Prestige, daß eine Veröffentlichung darin karrierefördernd wirken würde. Sogar Calkin gibt unumwunden zu, daß er dafür auch in Zukunft in renommierten gedruckten Zeitschriften veröffentlichen muß.
Zum ungeschriebenen Gesetz des Internet gehört die Regel "Alles ist erlaubt". Das ist dem Renommee der E-Journale nicht gerade förderlich. Das Usenet, eine riesige Sammlung von weltweit zugänglichen elektronischen Schwarzen Brettern, ist das – zuweilen abschreckende – Beispiel dafür, was zusammenkommt, wenn kein Redakteur oder Gutachter die Spreu vom Weizen trennt. Die Diskussionsthemen dort reichen von Experimenten am Menschen durch Außerirdische, die mit UFOs gelandet sind, bis zu sehr ernstzunehmenden Fortschritten in der Robotertechnologie oder Gentherapie. Einige Akademiker befürchten, daß es unter der schieren Menge an Literatur immer schwerer sei, die wenigen Perlen im allgemeinen Mist zu finden, und die Qualität allgemein sinken werde.
Die Einführung einer strengen Qualitätskontrolle könnte das ändern. Deren wohl lautstärkster Verfechter ist der gebürtige Ungar Stevan Harnad, Kognitionspsychologe an der Universität Southampton (England) sowie Gründer und 15 Jahre lang Herausgeber der (Papier-)Zeitschrift "Behavioral & Brain Science" ("Verhaltens- und Hirnforschung"; die Abkürzung BBS bezeichnet sinnigerweise auch die Schwarzen Bretter, bulletin board systems, des Internet).
Ein bei "BBS" eingereichtes Manuskript wird zunächst von ungefähr fünf Fachleuten aus mindestens drei verschiedenen Disziplinen wie Verhaltensforschung, Informatik, Linguistik, Philosophie oder Robotik begutachtet. Bei einem positiven Votum wird der Text weiteren 100 Fachkollegen zur Stellungnahme zugesandt; deren Kommentare – in Einzelfällen bis zu 30 – werden mit dem Beitrag selbst abgedruckt.
Die Intensität des Gedankenaustauschs kommt der in den Bulletin Boards des Internet schon recht nahe – mit einem wesentlichen Unterschied: Harnad ist kein Populist. Im Gegensatz zu den Eiferern, die das Netzwerk als Mittel zum Abbau jeglicher Hierarchien sehen, ist er der Überzeugung, daß die besten Denker eines Gebietes Zugang zueinander haben sollten, ohne vom Lärm der Menge außerhalb des Elfenbeinturms gestört zu werden.
Sein elitärer Standpunkt hinderte ihn nicht, ausgerechnet in einem Bulletin Board über Künstliche Intelligenz im Usenet ein interessantes Forschungsfeld zu entdecken. Die hektische Aktivität an dieser "globalen Pinwand für wenig geistreiche Einfälle" brachte ihn auf neue Gedanken darüber, warum das Gehirn nicht wie ein Computer funktioniere. Daraus wurde immerhin eine Veröffentlichung in der Zeitschrift "Physica D". "Als ich erkannte, daß ich zu diesem Ergebnis durch Kräftemessen mit geistigen Zwergen gekommen war", sagt Harnad, "fragte ich mich, was herauskäme, wenn ich statt dessen mit richtigen Gelehrten spräche."
Vor fünf Jahren setzte er diese Idee in die Tat um. Sein E-Journal "Psycoloquy" gleicht im Themenspektrum und im redaktionellen Verfahren dem "BBS"; nur sind die Artikel etwas kürzer. Das Journal ist kostenlos; ein jährlicher Zuschuß der American Psychological Association in Höhe von 15000 Dollar deckt die Kosten für einen Teilzeitredakteur und einen Sekretär zum Verwalten der Adressenliste. Das Journal wird an Computer in aller Welt verschickt und ist sogar im Usenet verfügbar – selbst Harnad hat nichts gegen (schweigende) Zuschauer auf den billigen Plätzen.
Letzten Sommer unterbreitete er seinen elektronischen Korrespondenzpartnern den "subversiven Vorschlag", Forscher und ihre Institutionen sollten das gegenwärtige Publikationssystem durch das Veröffentlichen von preprints im Netz unterlaufen. Damit, so hofft er, werde der Massenschwenk zu den elektronischen Medien, die in der Hochenergiephysik schon stattgefunden hat, auf die ganze akademische Welt übergreifen.
Ungefähr zur gleichen Zeit trafen sich Harnad, Lederberg und andere mit einem hochrangigen Vertreter der UNESCO zu einer breiten Diskussion über die elektronische Verteilung biomedizinischer Daten in Entwicklungsländern. Es werde genügen, einige wenige Institutionen zur Teilnahme an einem solchen Projekt zu bewegen, meint Lederberg: "Das wird wohl die Kugel ins Rollen bringen."
Reaktionen
Kommerzielle wissenschaftliche Verlage spüren bereits den Druck hin zu einer Beteiligung am elektronischen Markt. Viele sind jedoch noch auf der Suche nach einem einigermaßen glatten Übergang. Wenn der überhaupt gelingt, könnte das gleichzeitige Verbreiten derselben Texte über Papier und elektronische Medien kurzfristig die Abonnentenzahlen sogar erhöhen.
Wegen der Abbildungen, Graphen und Gleichungen sind wissenschaftliche Veröffentlichungen freilich schwieriger zu handhaben als solche, die nur aus Text bestehen. Mehr als ein Jahrzehnt nach der ersten Markterprobung elektronischer Zeitungen sind viele wissenschaftliche Verlage nicht über Entwürfe für den Übergang zu dem neuen Medium hinausgekommen. Copyright-Probleme und Fragen der Verrechnung bei – auch teilweiser – Nutzung einer Publikation durch Dritte sind zu klären.
Die großen Berufsverbände sind da schon weiter. Die Amerikanische Physikalische Gesellschaft plant, ihre "Physical Review Letters" parallel zur Druckversion auf elektronischem Wege zu verbreiten. Und schon gibt das neue Medium Raum für neue Ideen (Bild 4).
Reed Elsevier, ein britisch-niederländisches Verlagsunternehmen mit einem Umsatz von 4,3 Milliarden Dollar, tat kürzlich einen großen Schritt in Richtung elektronische Veröffentlichung, indem es die juristische Datenbank "Lexis" und den Nachrichtenservice "Nexis" kaufte. Dennoch steht das Projekt, alle 1100 wissenschaftlichen und technischen Zeitschriften der Firma on-line zur Verfügung zu stellen, erst am Anfang. Gegenwärtig liefert sie im Rahmen eines Experiments die Bilddateien ihrer 43 Zeitschriften für Materialwissenschaft an neun Universitäten. Nächstes Jahr will sie den Markt mit allen Zeitschriften in elektronischer Form testen; aber es ist noch unklar, wann diese Publikationen im Datennetz nicht nur ausdruckbar, sondern als bearbeitbarer Text zugänglich gemacht werden. Dann wären das Kopieren einzelner Teile und die Suche nach Stichwörtern im Text ohne weiteres möglich.
Im Januar letzten Jahres stellte Elsevier Science, die Abteilung des Verlages für wissenschaftliche Zeitschriften, sein erstes elektronisches Journal vor – ein indirekter Tribut an das Werk von Ginsparg. "Nuclear Physics Electronic" (NPE) enthält elektronisch verfügbar die bereits positiv begutachteten Arbeiten, die für den Druck in "Nuclear Physics" anstehen, einer herkömmlichen Zeitschriftengruppe, deren Abonnement 12000 Dollar pro Jahr kostet.
Elsevier trug sich mit diesem Gedanken schon seit zehn Jahren, weil bereits damals die Hochenergiephysiker Vorabdrucke ihrer Arbeiten mittels e-mail zu verbreiten begannen. Die Fachwissenschaftler jedoch bekundeten kein Interesse an solchen verlegerischen Aktivitäten – zumindest nicht, bis Ginspargs Datenbank Kundschaft gewann. "Offensichtlich war nun der Markt bereit; Ginsparg machte das überdeutlich", sagt Karen Hunter, Vizepräsidentin bei Elsevier.
Viele der Arbeiten, die im "NPE" erscheinen, sind schon lange zuvor beim Computer von Los Alamos erhältlich – in nahezu identischer Form, aber eben ohne das Gütesiegel der Gutachter. Außerdem ist der Themenumfang von Ginspargs Datenbank wesentlich breiter.
Bis jetzt beansprucht Elsevier keine Exklusivität. Die Physiker wären sicherlich befremdet, wenn ein Artikel aus der Datenbank in Los Alamos entfernt werden müßte, sobald er – durch Copyright geschützt – in "NPE" erscheint. Andererseits dürfte auch Ginsparg auf die Unterstützung etablierter Verlage angewiesen sein – er wird kaum die Peer Review der Artikel in seiner Datenbank nebenberuflich organisieren können. Mitte Oktober diskutierte er Möglichkeiten zur Lösung des Gutachterproblems mit Vertretern der Amerikanischen Physikalischen Gesellschaft.
Unabhängig von Ginspargs Erfolg oder Mißerfolg verspricht das elektronische Publizieren enorme Kostenvorteile (siehe den folgenden Beitrag). Zudem könnte die Begutachtung schneller als auf dem Postwege, mit mehr Gutachtern und deswegen mit einem höheren Maß an Objektivität vonstatten gehen.
Die Rolle der Bibliotheken würde sich ebenfalls ändern - schon dadurch, daß eigene Räume oder Gebäude dafür sich erübrigen: Für einen Computer ist Platz in jedem Büro oder Labor.
Die neue Kunst der Datenbeschaffung
Der Bibliothekar allerdings wird bleiben und mit ihm die klassische Aufgabe, Ordnung in das Chaos des wissenschaftlichen Erkenntnisausstoßes zu bringen; aber sein Berufsbild wird sich ändern. Immerhin sind es bislang in der Regel Informatiker und nicht klassische Bibliothekare, die dem Benutzer die Mittel an die Hand geben, sich im Internet zurechtzufinden.
Daniel E. Atkins, Dekan der Fakultät für Informations- und Bibliotheksstudien an der Universität von Michigan in Ann Arbor, möchte diesen Trend umkehren. Er hat den größten Teil seiner bisherigen Karriere damit zugebracht, als Ingenieur Hochleistungsrechner zum Rechnen zu benutzen. Seit er 1992 seinen derzeitigen Posten antrat, ist es seine Aufgabe, die Arbeit eines Bibliothekars neu zu definieren. Er stellt sich eine Art Informationsfachmann vor, der die Fähigkeiten eines Informatikers, eines Wirtschaftswissenschaftlers und sogar ein wenig die eines Bibliothekars alter Schule in sich vereinigt.
Eine seiner Aufgaben werde darin bestehen, das Labyrinth der Informationsquellen im Internet durchschaubar zu machen. "Man kann 24 Stunden am Tag nur mit Herumstöbern im angebotenen Material verschwenden", bemerkt Atkins (siehe auch den folgenden Beitrag).
Im September 1994 wurde die Universität als eine von sechs Institutionen für die Initiative "Digitale Bibliotheken" ausgewählt, die von der amerikanischen Forschungsgemeinschaft (National Science Foundation, NSF) und zwei anderen staatlichen Agenturen finanziert wird. Sie soll die Fördermittel speziell für die Entwicklung von Verfahren verwenden, mit denen Studenten und Dozenten die Informationsflut in den Geo- und Weltraumwissenschaften zielorientiert erschließen können. Die übrigen Zuschüsse gehen an die öffentliche Bibliothek der Stadt New York, mehrere höhere Schulen und etliche Unternehmen, darunter Elsevier und IBM.
Atkins und seine Mitarbeiter wollen sogenannte Software-Agenten verwenden, jene vielgepriesenen, aber bisher kaum eingesetzten Programme aus der Forschung über künstliche Intelligenz, die einigermaßen selbständig Information beschaffen und einige andere Dienstleistungen automatisch erledigen können (Bild 5). Das wäre der Ersatz für jenen – selten gewordenen – Bibliothekar, der einem auf eine Frage hin ohne Umschweife das Buch oder den Artikel vorlegt, in dem die Antwort steht.
Ein weiteres Ziel ist es, Informationsbeschaffung und ferne Forschungsmittel, die ebenfalls über das Internet verfügbar sind, zu verbinden. Atkins ist auch Chef eines zweiten NSF-geförderten Projekts, des Upper Atmospheric Research Collaboratory (UARC). Dabei verschafft das elektronische Netzwerk Forschern in aller Welt zeitgleichen Zugang zu Untersuchungen und Experimenten zur Erforschung der oberen Atmosphäre an weit voneinander enfernten Orten.
Weitere solcher Kollaboratoriumsprojekte werden in anderen Disziplinen verfolgt; Beispiele sind das Human-Genom-Projekt der Molekularbiologen und die seit zehn Jahren andauernden Bemühungen von Ozeanographen und Meteorologen, El Niño – die anomale Erwärmung der Meeresoberfläche im äquatornahen Pazifik, die mit großräumigen Veränderungen im atmpsphärischen Zirkulationsmuster einhergeht – zu charakterisieren.
Zwei Jahre lang hat das UARC Wissenschaftlern in verschiedenen Institutionen und Firmen-Forschungabteilungen (darunter SRI International, Lockheed, das Dänische Meteorologische Institut sowie die Universitäten von Alaska in Fairbanks, Maryland in Adelphi und Michigan) rund um die Uhr sowohl Kommunikation untereinander als auch die Daten der Meßstation an der Südwestküste Grönlands zur Beobachtung des Sonnenwindes vermittelt, der die Atmosphäre auf komplexe Weise beeinflußt. In einem ebenfalls geförderten Fortsetzungsprojekt wollen Atkins und seine Kollegen das UARC erweitern, um die ungeheure Menge von Meßwerten, laufend eingehenden Kommentaren und späteren Anmerkungen zu verwalten und allen Beteiligten zugänglich zu machen. Noch sechs Monate später, so der Vorsatz, soll es möglich sein, den Ablauf eines Experiments – alle Daten und Kommentare übersichtlich aufbereitet – originalgetreu und multimedial wieder abzuspielen.
In der Wissenschaft verwischt das elektronische Netzwerk bereits die Grenzen zwischen Experimentatoren, Autoren, Gutachtern, Verlegern und Bibliothekaren. Die Arbeit von Paul Ginsparg und Daniel Atkins deutet darauf hin, daß Bedarf für völlig neue institutionelle Rahmenbedingungen besteht – sowohl für den Urheber als auch für die Vermittler einer Publikation.
Aus: Spektrum der Wissenschaft 3 / 1995, Seite 34
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben