Die Zukunft des Transistors
In den 45 Jahren seit seiner Entdeckung ist dieses elektronische Bauelement um mehr als acht Größenordnungen geschrumpft. Die Miniaturisierung könnte durchaus zügig weitergehen und erst im atomaren Bereich an eine absolute Grenze stoßen.
Diesen Artikel schreibe ich auf einem Computer, der etwa zehn Millionen Transistoren enthält. Doch die enorme Menge aufwendig hergestellter Bauteile kostet weniger als Festplatte, Tastatur, Bildschirm und Computergehäuse. Hingegen wären zehn Millionen Heftklammern etwa genauso teuer wie der ganze Rechner. Transistoren sind so billig geworden, weil man in den letzten vier Jahrzehnten immer mehr davon auf einer einzigen Siliciumscheibe unterzubringen vermocht hat; dadurch verteilen sich die Kosten jedes Herstellungsschritts auf eine wachsende Anzahl von Einheiten (Bild 1).
Wie lange kann das so weitergehen? Immer wieder haben Wissenschaftler und Industriefachleute behauptet, die Miniaturisierung müsse demnächst an eine physikalische Grenze stoßen – und jedes Mal wurden sie widerlegt. Die Menge der Schaltelemente pro Chip-Fläche ist in den 45 Jahren seit Erfindung des Transistors um acht Größenordnungen gewachsen, und ein Ende ist nicht abzusehen (siehe Kasten auf Seite 59).
Wo die Grenzen letztlich liegen, vermag ich nicht zu sagen. Allerdings habe ich gewisse Vorstellungen über die künftige Entwicklung der Festkörper-Elektronik und die nötigen Forschungen.
Mit weiter fortschreitender Miniaturisierung dürften tatsächlich neue physikalische Hindernisse bedeutsam werden. So wird es immer schwieriger, zwischen den winzigen Bauelementen elektrische Verbindungen herzustellen. Auch wird die Bewegung der Elektronen in immer kleineren Schaltkreisen durch immer stärkere elektrische Felder gestört. Vielleicht wird der Transistor bald nur noch knapp 100 Nanometer (millionstel Millimeter) groß sein; dann kann schon das Verhalten einzelner Atome einen wesentlichen Effekt verursachen. Je dichter die Transistoren auf einem Chip gepackt sind, desto größer wird zudem die insgesamt erzeugte Abwärme. Moderne Chips geben etwa zehnmal so viel davon ab wie eine Kochplatte vergleichbarer Größe; allerdings ließe sich mit den heutigen Kühltechniken problemlos auch noch einmal das Zehnfache bewältigen. Und wenn die Schaltelemente kleiner werden als die Wellenlänge der zur Herstellung verwendbaren Strahlung, sind die gängigen Produktionsverfahren unbrauchbar.
Am Leistungsträger der modernen Datenverarbeitung, dem Feldeffekt-Transistor, lassen sich absehbare Probleme und mögliche Lösungen besonders gut studieren. Digitale Computer verarbeiten Anweisungen, die binär (als Folgen von Null und Eins) codiert sind. Darum wird jeder einzelne Feldeffekt-Transistor wie ein Relais betrieben, das nur in die beiden Zustände Ein und Aus geschaltet werden kann (siehe „Relais“ von Joseph Eichmeier, Spektrum der Wissenschaft, April 1991, Seite 52). Jedes Schaltelement verkörpert daher eine binäre Informationseinheit, ein Bit.
Im Rechner steuern Eingangssignale die Transistoren und schaffen dadurch Verbindungen, die bestimmte Signale in den Ausgangsleitungen erzeugen. Die Leitungen übertragen die Signale zu anderen Schaltern, deren neue Outputs wiederum eine Stufe weiter wandern. Die Verbindungen im Computer und der Zusammenhang zwischen Input- und Output-Signal verkörpern eine logische Anweisung. Eine Folge solcher Anweisungen definiert ein Wort in einem Text oder einen Zahlenwert in einer Tabelle.
Der Feldeffekt-Transistor enthält einen Kanal, der mit drei Elektroden wechselwirkt: Die Quelle (source) speist Elektronen in den Kanal ein, über die Senke (drain) fließt der gesteuerte Strom ab, und das Gatter (gate) beeinflußt die Leitfähigkeit des Kanals (Bild 2). Jede Komponente ist unterschiedlich mit Fremdatomen dotiert, um die elektrischen Eigenschaften des Siliciums gezielt zu verändern.
Wird an das Gatter eine positive Spannung gelegt, zieht sie Elektronen zur Grenzschicht zwischen Halbleiter und Gatter-Isolator. Sie stellen eine leitende Verbindung zwischen Quelle und Senke her, so daß Strom fließen kann: Der Transistor ist eingeschaltet. Dies gilt, solange das Gatter positiv geladen bleibt. Leitet man das eingehende Signal zum Gatter, so entscheidet es demnach darüber, ob zwischen Quelle und Senke eine Verbindung herrscht. Wenn dies der Fall ist, wird der Transistor-Ausgang mit dem Erdungspotential (einer der beiden digitalen Spannungen) verbunden. Herrscht hingegen keine Verbindung, hängt der Output über den Widerstand mit der positiven Spannungsversorgung (der zweiten digitalen Spannung) zusammen.
Komplikationen
In Schaltkreisen dürfen die Transistoren einander nicht beeinflussen. Die heute bekannten Konzepte von Isolierungen, Impedanzen und sonstigen elektrischen Eigenschaften von Halbleitern und ihren Verbindungen werden vermutlich auch noch für die nächste Transistor-Generation ausreichen. Erst wenn die Abstände zwischen den leitfähigen Regionen auf weniger als ungefähr 10 Nanometer schrumpfen, drohen Komplikationen durch Quantenphänomene – vor allem durch den Tunneleffekt bei Elektronen. Im Labor nähert man sich schon der äußersten Grenze von rund 3 Nanometern; bei kommerziellen Geräten wird es bis dahin vielleicht noch zehn Jahre dauern.
Ein weiteres Problem ist die mit der Miniaturisierung zunehmende elektrische Feldstärke. Dabei entsteht ein prinzipieller Konflikt: Einerseits werden die Felder unweigerlich stärker, wenn die Leitungswege für die Elektronen schrumpfen; andererseits kann man, um dem zu begegnen, die Spannungen nicht beliebig senken – sie müssen zumindest hoch genug sein, die thermische Energie der Elektronen zu überwinden. In Silicium beträgt sie bei normalen Betriebstemperaturen 0,026 Elektronenvolt; will man einen Halbleiter so schalten, daß er keine Elektronen durchläßt, muß man darum seine elektrische Barriere um ein Mehrfaches dieses Betrags erhöhen.
Das Abwärme-Problem läßt sich zwar mildern, indem man den Chip kühlt; doch das ist teuer und löst vor allem das Problem der elektrischen Felder keineswegs. Die Signale müssen nämlich jedenfalls die für einen Halbleiter-Übergang charakteristische Mindestspannung haben. Bei Silicium liegt diese Barriere je nach Dotierungsgrad zwischen 0,5 und 1 Volt. Selbst diese kleine Spannung erzeugt auf sehr kurze Distanz ein extrem starkes elektrisches Feld. Es vermag Elektronen so sehr zu beschleunigen, daß sie Elektron-Loch-Paare hervorrufen, die dann ihrerseits beschleunigt werden. Eine solche Kettenreaktion kann eine Spannungslawine auslösen und den Schaltkreis zerstören, wenn die Feldstärken rund 500000 Volt pro Zentimeter übersteigen. In heutigen Chips treten aber schon Werte von 400000 Volt pro Zentimeter auf.
Gegen die Auswirkungen der starken elektrischen Felder bedient man sich zahlreicher Tricks. Beispielsweise sind Feldeffekt-Transistoren entwickelt worden, in denen das elektrische Feld sich an eine Stelle verschieben läßt, wo es am wenigsten stört. Doch all diese Verfahren haben ihren Preis: Konstruktion und Herstellung werden komplizierter, Zuverlässigkeit und Haltbarkeit nehmen ab.
Die Miniaturisierung erhöht auch, wie gesagt, die pro Quadratzentimeter abgegebene Wärme. Das hat rein geometrische Ursachen: Die elektrischen Leitungsbahnen und die entsprechenden Energieverluste schrumpfen nur in einer, die Fläche der Chips hingegen in zwei Dimensionen. Deshalb sinkt die pro Schaltelement erzeugte Abwärme langsamer als die Anzahl der Elemente pro Quadratzentimeter.
Schon heutige Geräte geben bis zu 30 Watt pro Quadratzentimeter ab; dies entspricht der Abstrahlung eines auf 1200 Grad Celsius erwärmten Materials. Selbstverständlich dürfen die Chips nicht so heiß werden, und darum entfernen Kühlsysteme die Abwärme sofort. Die Kapazitäten heutiger Kühlverfahren sind noch lange nicht ausgeschöpft; mit ihnen läßt sich viel mehr Energie abtransportieren als zur Zeit erforderlich.
Herstellungsprobleme
Zusätzlich setzen produktionstechnische Zwänge der Leistung elektronischer Bauelemente praktische Grenzen. Bei kostengünstiger Herstellung treten vermehrt kleine Unterschiede zwischen den Elementen auf – ob diese nun von derselben Siliciumscheibe (dem sogenannten Wafer) oder verschiedenen Wafers stammen. Diese Abweichungen sind die unvermeidliche Folge des komplizierten Produktionsvorgangs.
Aus dem Halbleitermaterial wird erst nach vielen Einzelschritten ein Transistor. Zunächst bringt man auf die Siliciumkristall-Oberfläche eine Art feine Schablone – die Maske – auf, die nur ganz bestimmte Gebiete freiläßt, und behandelt sie dann auf vielfältige Art weiter: durch chemische Diffusion, Bestrahlung, Dotierung, Sputtern (sprich: Spattern; konzentrierten Beschuß mit Ionen) oder Beschichtung mit Metall. Dabei erzeugt man entweder direkt die gewünschten Strukturen oder errichtet nur vorläufige Hilfskonstruktionen für die nächsten Arbeitsgänge. Gleichzeitig werden andere Bauelemente der Chip-Architektur – Widerstände, Kondensatoren und Leiterbahnen – aufgebracht.
Störende Abweichungen schleichen sich bei jedem Arbeitsschritt ein. So läßt sich die Strahlungsquelle nicht überall gleich exakt auf eine große Siliciumscheibe fokussieren. Da die Temperatur des Wafers während der Bearbeitung oft örtlich etwas schwankt, laufen chemische Reaktionen unterschiedlich schnell ab; und die Gase in der Reaktionskammer vermischen sich nicht an jedem Punkt gemäß den Vorgaben. Aus all diesen Gründen sind die Eigenschaften der Endprodukte nicht identisch, und oft ist sogar Ausschuß dabei. Die Häufigkeit solch irreparabler Fehler setzt der Miniaturisierbarkeit eine praktische Grenze.
Zudem sind optische Belichtungsverfahren prinzipiell mit einer gewissen Unschärfe verbunden. Bei photolithographischen Verfahren wird das Licht gebeugt, wenn es die Löcher in der Maske passiert. Diesem Effekt begegnet man durch Einsatz kürzerer Wellenlängen.
Als die Photolithographie Anfang der siebziger Jahre erfunden wurde, arbeitete man mit normalem weißem Licht. Später ging man zu monochromatischem Laserlicht immer kürzerer Wellenlängen über, bis man Mitte der achtziger Jahre bei Ultraviolett angekommen war. Heute gebraucht man für die modernsten käuflichen Chips tief ultraviolette Strahlung – entsprechende Laser sind jedoch schwierig zu konstruieren. Die nächste Chip-Generation wird vermutlich Röntgenstrahlen erfordern.
Auch hier gilt, daß die für eine neue Generation nötige Ausrüstung wesentlich aufwendiger ist. Zudem verteuern andere technische Erfordernisse die Herstellung. So muß die mechanische Justierung der Siliciumscheiben noch exakter werden. Nur in extrem sauberen Reinsträumen ist gewährleistet, daß Staubkörnchen nicht eine oder mehrere der winzigen Schaltkreisstrukturen zunichte machen. Und schließlich muß die Qualitätskontrolle verfeinert werden, da trotz allem die Anzahl möglicher Defekte pro Chip zunimmt.
Auf den ersten Blick scheint die Miniaturisierung eines elektronischen Bauteils nur dessen Länge und Breite zu betreffen; tatsächlich ist auch die Tiefe wichtig. So versenkt man bisweilen Kondensatoren hochkant in den Chip, um an der Oberfläche Platz zu sparen.
Doch die dritte Dimension läßt sich nicht unbeschränkt nutzen: Beim Chip-Design darf ein bestimmtes Verhältnis zwischen Tiefe und Oberfläche nicht überschritten werden. Das Bauteil ähnelt einem (zuweilen sogar vielstöckigen) Sandwich. Bei allzu vielen Schichten besteht die Gefahr, daß der Ätzvorgang eine Detailstruktur unterhöhlt, bevor sie fertig ist. Darum muß man die Dicke der aufgetragenen Schichten und die Eindringtiefe der Fremdatome in das Substrat besonders genau überwachen. Gegenwärtig beherrscht man bis zu zwanzig Maskierungsschritte, die jeweils eine Veränderung bewirken.
Die mathematischen Formeln zur Berechnung üblicher Schaltelemente sind für die winzigen Transistoren, die jetzt in den Labors entstehen, nicht geeignet. Bei diesen Größenordnungen treten exotische Phänomene auf, die sich mit rein analytischen Verfahren nicht exakt behandeln lassen; die Konstrukteure sind gezwungen, die Elektronen im Gerät mit Computermodellen zu simulieren.
Der Rechner verfolgt den Weg eines einzelnen Elektrons, indem er dessen Ort für viele dicht aufeinanderfolgende Zeitpunkte ermittelt. Die Wahrscheinlichkeit eines bestimmten Vorgangs wird aufgrund physikalischer Gesetze und experimentellen Wissens berechnet. Der Computer benutzt dabei eine gespeicherte Wahrscheinlichkeitstabelle und einen Zufallszahlen-Generator. Angenommen, ein Elektron wird in einem elektrischen Feld beschleunigt und unterwegs mit einer gewissen Wahrscheinlichkeit – ausgedrückt als freie Weglänge – durch Kollision mit einem Fremdatom abgelenkt. Tausende derart simulierter Elektronenbahnen ergeben dann insgesamt ein Bild vom Verhalten des Schaltelements.
Betrachten wir nur die scheinbar triviale Frage, wie die Bewegung eines Elektrons im elektrischen Feld darzustellen sei. Ist die freie Weglänge groß, wird das Elektron schnell auf einen Wert beschleunigt, bei dem es durch Kollisionen genau so viel Energie verliert, wie es aus dem Feld aufnimmt; es bewegt sich also meist mit konstanter Geschwindigkeit und läßt sich mit einer einfachen linearen Gleichung beschreiben. Doch bei immer kürzeren Weglängen bleibt dem Elektron keine Zeit, diese stabile Geschwindigkeit zu erreichen. Die Gleichungen müssen deshalb berücksichtigen, daß die Elektronen fortwährend beschleunigt werden.
Wenn solche Probleme schon beim Modellieren eines wohlbekannten Phänomens auftreten, was hat man erst beim Vordringen in die komplizierte Physik der Ultramikrowelt zu erwarten? Die Simulationen können nicht besser sein als die physikalischen Modelle, die extrem kurzfristige Ereignisse auf kleinstem Raum beschreiben sollen. Also sind Experimente nötig, mit denen sich Vorgänge im Bereich von Femtosekunden (billiardstel Sekunden) untersuchen lassen.
Auch das vorhandene Wissen der Festkörperphysik reicht nicht, denn immer komplexere Chips erfordern mehr Herstellungsschritte, und jeder kann den nächsten beeinflussen. Impft man beispielsweise einen Kristall mit Dotieratomen, so verändern sie durch Anziehung oder Abstoßung die Bewegung anderer Fremdatome. Über solche Wechselwirkungen weiß man ziemlich wenig; hier sind weitere Untersuchungen nötig. Ein weiteres Problem: Die chemischen Reaktionen, die auf der Oberfläche eines Siliciumkristalls stattfinden, brauchen einen Nachschub von Siliciumatomen und erzeugen eine Art Strömung im Festkörpergitter; die Frage ist, ob dabei auch andere Materialkomponenten mitgeschwemmt werden. Mit solchen Komplikationen mußte man sich bei früheren Chip-Generationen nicht abgeben, denn dort fallen ultramikroskopische Effekte nicht ins Gewicht.
Rivalen des Transistors
In gewisser Weise hat just der Erfolg des Transistors den Spekulationen über Alternativen Auftrieb gegeben. In den fünfziger Jahren regte sein Siegeszug einen rapiden Fortschritt der Festkörperphysik an; dabei entdeckte man viele neue Phänomene, die wiederum zahlreiche Ideen für elektronische Bauelemente inspirierten. Mehrere dieser Forschungslinien lieferten zwar bemerkenswerte technische Erkenntnisse; doch nichts davon vermochte auch nur eine Nische in der Datenverarbeitung zu besetzen.
Einige Fachleute meinen, der Transistor verdanke seine Vorherrschaft nur einem Startvorteil: Weil er sich als erstes Miniaturbauelement bewährte, hätte sich die Forschung auf die Halbleitertechnologie konzentriert und ihr eine nicht mehr einholbare Überlegenheit verschafft. Doch wie ich glaube, hat der Transistor ganz spezielle Vorzüge, die ihm durchaus auch in kommenden Jahren seine Dominanz erhalten dürften.
Ich selbst war in wechselnden Nebenrollen an einigen Versuchen beteiligt, alternative Schaltelemente zu entwickeln, und fragte mich angesichts wiederholter Fehlschläge, was ihnen fehlte. Gewiß muß man für ein neuartiges Gerät zunächst neue Herstellungsmethoden entwickeln; doch auch wenn dies gelang, war es schwierig, Mittel und Wege zu finden, daß eine große Anzahl von Komponenten zusammenarbeitete.
Worauf beruhte der Überraschungserfolg des Transistors? Ein auffallender Unterschied zu seinen Konkurrenten ist – wie bei seiner Vorgängerin, der Vakuumröhre – der hohe Verstärkungsfaktor: Er kann bei den in Schaltkreisen üblicherweise verarbeiteten Signalen eine kleine Eingangsschwankung in eine große Änderung des Ausgangssignals verwandeln; dadurch bleiben die Signale auch beim Durchgang durch zahlreiche Schaltelemente erhalten.
Manche Rivalen des Transistors wären vielleicht ebenso leicht zu miniaturisieren, aber ihre Verstärkung ist viel geringer. Zum Beispiel führen bistabile Geräte logische Funktionen aus, indem sie zwischen zwei stabilen, durch einen instabilen Übergang getrennten Zuständen wechseln; solche Übergänge hat man durch Schaltkreise realisiert, in denen die Stromstärke in einem gewissen Bereich mit steigender Spannung abnimmt (Bild 3). Bei jeder kleinen Störung – etwa indem man zusätzlichen Strom durch das Gerät schickt – kippt das Element von einem stabilen Zustand in den anderen. Da also bereits dieses kleine Eingangssignal große Strom- und Spannungsänderungen am Ausgang bewirkt, kann man in gewissem Sinn von einem Verstärkungseffekt sprechen.
Doch weil dieser Effekt nur in einem schmalen Toleranzbereich wirkt, ist er in viel geringerem Maße nutzbar als die Verstärkung eines Transistors. Bistabile Schalter funktionieren zwar im Labor verführerisch gut, denn dort kann man den Schaltkreis genau auf den Übergangsbereich abstimmen; aber in einer größeren Konfiguration solcher Elemente ist das nicht mehr möglich, und weil nie alle Schaltkreise zuverlässig arbeiten, eignen sie sich nicht für komplexe Geräte. Darum kamen Bausteine mit negativem Widerstand für die praktische Datenverarbeitung nicht in Betracht.
Mit demselben Problem haben die Ingenieure bei nichtlinearen optischen Geräten zu kämpfen, bei denen Intensitätsschwankungen von Lichtstrahlen an die Stelle elektrischer Ströme und Spannungen treten. Auch hier muß man das System exakt darauf abstimmen, daß ein kleines Eingangssignal ein empfindliches Gleichgewicht stört. (Manchmal spricht man fälschlicherweise von optischen Transistoren, obwohl sie ganz anders funktionieren.)
Bei diesen optischen Schaltern taucht ein noch ernsteres Problem auf: Im Gegensatz zu Strom tritt Licht kaum mit Licht in Wechselwirkung, doch logische Funktionen sind ohne die Interaktion von Signalen unmöglich. Darum müssen die optischen Signale erst in einem Halbleiter in elektrische Spannungsschwankungen umgewandelt werden; diese verändern nun die optischen Eigenschaften eines anderen Materials, wodurch wiederum ein Lichtstrahl moduliert wird.
Quantenmechanische Schalter
Ein hypothetischer Schalter – manchmal Quanteninterferenz-Gerät genannt – beruht auf der Interferenz von Quantenwellen. Im klassischen Fall entsteht Interferenz, wenn man Licht – also eine Welle elektromagnetischer Strahlung – in zwei Komponenten aufspaltet und nicht auf völlig gleiche Weise wieder zusammenführt. Zunächst sind die Teilstrahlen in Phase, das heißt, Wellenberge und -täler schwingen gleichsinnig. Wenn aber die beiden Komponenten vor ihrer Vereinigung verschieden lange Wege zurücklegen, ändert sich ihre Phasenbeziehung, und bei der Überlagerung löschen die Berge und Täler einander teilweise oder gänzlich aus beziehungsweise verstärken sich. Dadurch entsteht ein Muster aus hellen und dunklen Streifen, deren Abstand ein Maß für die Phasenverschiebung im System ist.
Der Quantenmechanik zufolge haben auch Elektronen Wellencharakter und können interferieren. Legen die beiden Komponenten gleiche Entfernungen mit gleicher Geschwindigkeit zurück, so entsteht bei ihrer Überlagerung wieder die ursprüngliche Welle; doch bei unterschiedlicher Geschwindigkeit tritt Interferenz ein. Die Geschwindigkeit einer solchen Welle läßt sich verändern, indem man unterwegs ein winziges elektrisches Feld anlegt. Bei entsprechend gewählter Feldstärke löschen die beiden Teilwellen einander aus – das heißt, durch das Gerät kann kein Strom fließen.
Auf den ersten Blick entspricht dies genau dem Prinzip des Feldeffekt-Transistors, nur daß dort das elektrische Feld einen durch einen Halbleiter fließenden Strom steuert. Doch ein Interferenzschalter funktioniert nur unter exakt definierten Bedingungen: Ist die angelegte Spannung ein wenig zu hoch oder zu niedrig, fließt bereits ein Strom. Seiner Empfindlichkeit wegen stellt der Interferenzschalter den ursprünglich binären Charakter eines verrauschten Eingangssignals nicht wieder her, sondern verrauscht es noch mehr. Deshalb lösen sich Daten auf dem Weg von einem solchen Gerät zum anderen rasch in Nichts auf.
Mangels echter Konkurrenten gehört die Zukunft der digitalen Elektronik nach wie vor dem Transistor (Bild 4). Mit jedem Vorstoß zu kleineren Abmessungen oder anderen Materialien beginnt freilich die Suche nach optimalen Lösungen von vorn.
Zuletzt geschah dies bei der Einführung neuer Halbleiter wie Galliumarsenid und ähnlicher Verbindungen (Spektrum der Wissenschaft, April 1990, Seite 46). Durch Kombination mehrerer solcher Materialien kann man heterogene Sperrschichten herstellen, in denen Kristallgitter mit unterschiedlichen Bandlücken zusammentreffen. Dabei passen die Gitter sich entweder durch elastische Verformung einander an, oder an der Grenzschicht entstehen atomare Fehlstellen; sowohl Dehnungen als auch Defekte können aber die elektrischen Eigenschaften beeinträchtigen.
Derartige Materialkombinationen sind zwar physikalisch schwer durchschaubar, doch möglicherweise helfen sie bei der weiteren Miniaturisierung. Zum Beispiel verlangsamen die Dotierungsatome, die an den Halbleiter Elektronen abgeben, zugleich deren Bewegung. Um dieses Abbremsen zu verringern, fügt man abwechselnd Schichten von zwei Halbleitern mit unterschiedlicher Elektronenenergie zusammen und bringt nur in den Halbleiter mit der höheren Energie Dotierungsatome ein. Die von ihnen abgegebenen Elektronen wandern sofort in die Schichten niedrigerer Energie, wo sie sich ungestört bewegen können.
Aber was haben wir von einer Technik, mit der man eine Million Transistoren auf einem Sandkorn unterbringen oder einen Supercomputer bauen kann, der sich in die Tasche stecken läßt? Das hängt davon ab, wie billig und allgemein verfügbar die Ware Information auf dem künftigen Daten-Markt sein wird. Es gilt erst seit kurzem als selbstverständlich, daß man mit einem Personal Computer und einem Modem jederzeit Tausende von Zeitungen nach einem beliebigen Stichwort – von Kiwi bis Quantenphysik – durchsuchen kann. Vielleicht wird man bald mit einem tragbaren Gerät ebenso selbstverständlich zu allen vorhandenen Büchern Zugang haben, das morgige Wetter berechnen, Geschäftsstrategien bewerten und zwischendurch einen Schachweltmeister matt setzen.
Aus: Spektrum der Wissenschaft 8 / 1993, Seite 56
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
Schreiben Sie uns!
Beitrag schreiben