Vor vierzig Jahren schrieb Gordon Moore sein berühmtes Gesetz auf: Die Leistung der Computerchips wächst exponentiell, prophezeite der Intel-Mitbegründer. Noch hat er Recht.
Krise hin oder her, brav trotten wir alle zwei bis drei Jahre zum Händler und kaufen uns einen neuen PC, ein neues Handy, eine neue Digitalkamera. Und bekommen tatsächlich mehr fürs gleiche Geld: ein Gerät, das doppelt so viel leistet wie der Vorgänger – oder, in selteneren Fällen, ein gleichwertiges Gerät zum halben Preis. Während ein zehn Jahre altes Auto bei guter Pflege noch brav seinen Dienst tut, ist ein zehn Jahre alter Computer reif fürs Museum.
Mitschuld an dieser Entwicklung trägt ein Text über die Zukunft von elektronischen Schaltkreisen, der am 19. April 1965 in der Zeitschrift Electronics erschien. Darin beschrieb Gordon Moore, Mitbegründer des Chipherstellers Intel, ein Gesetz, das nunmehr seit 40 Jahren gilt: Die Zahl der Schaltelemente in einem integrierten Schaltkreis verdoppelt sich von Jahr zu Jahr. Er spekulierte: Was, wenn diese Entwicklung in den nächsten zehn Jahren so weitergeht?
Moores Prognose beruhte auf einer dünnen Datenbasis. Noch sieben Jahre zuvor existierten Transistoren nur als Einzelbauteile, und bei Erscheinen des Artikels enthielt der beste integrierte Schaltkreis (das waren die kleinen schwarzen Lego-Steine mit silbernen Beinchen, die ein wenig an Hundertfüßer erinnerten) 64 davon. Moore verdoppelte diese Zahl zehnmal und kam auf eine fantastische Menge von mehr als 64.000 Transistoren, die im Jahr 1975 auf einen Chip passen würden. Seine kühne Vision sollte nahe an der Wahrheit liegen. Tatsächlich wurde die Marke erst ein paar Jahre später erreicht. Heute enthält ein Titanium-Chip von Intel 1,7 Milliarden Schaltelemente, und rechnerisch kommen auf jede Ameise dieser Welt 100 Transistoren.
Später modifizierte Moore sein Gesetz. Die Zeitspanne, in der sich die Transistorenzahl pro Quadratzentimeter verdoppelt, beträgt tatsächlich etwa 18 Monate bis zwei Jahre. Ansonsten hat sich die Kurve der tatsächlichen Entwicklung erstaunlich genau an die Prognose gehalten. Längst ist Moores Gesetz zu einer sich selbst erfüllenden Prophezeiung geworden: Die IT-Firmen wissen heute, was für Chips sie in zwei oder vier Jahren verbauen werden, und können ihre Produkte entsprechend planen, ohne sich allzu viel um die technischen Details zu kümmern. Der schwarze Peter liegt bei den Chipherstellern, die dann auf Gedeih und Verderb die Leistung ihrer Schaltkreise verbessern müssen.
Natürlich stellten schon viele die Frage, ob die Tage dieser Regel gezählt sind. Schließlich steckt kein Naturgesetz dahinter, sondern harte Entwicklungsarbeit. Oft sah es so aus, als sei das Ende in Sicht. Die Technik, mit der Chips gebrannt werden, ist seit Jahrzehnten dieselbe. Auf ein Silizium-Substrat werden mit lithografischen Methoden, also durch eine Belichtung, Strukturen aufgebracht. Eine Weile schien die Wellenlänge des Lichts ein limitierender Faktor. Die kürzesten Wellen, die man heute verwendet, haben eine Länge von knapp 200 Nanometern. Trotzdem gelingt es den Technikern, Leiterbahnen von weniger als 100 Nanometer Breite zu schaffen. „Die Physiker haben immer wieder Grenzen vorhergesagt, aber die Ingenieure haben sich nicht darum gekümmert“, sagt Holger Vogt vom Fraunhofer-Institut für Mikroelektronische Schaltungen und Systeme (IMS) in Duisburg nicht ohne Stolz. Sollten sie mit sichtbarem oder ultraviolettem Licht an eine Grenze stoßen, könnten die Ingenieure Röntgenstrahlen verwenden. Doch die harte Röntgenstrahlung ist mit herkömmlichen Linsen nicht zu bändigen, die Optiken dafür sind eine technische Herausforderung. Deshalb hält man so lange wie möglich an der Lithografie fest.
Mit jedem Erfolg der Chipentwickler rückt eine andere Grenze näher. Irgendwann um das Jahr 2020 wird ein Transistor nur noch aus wenigen Molekülen bestehen – oder gar aus einem einzigen. Arbeitet ein solches Schaltelement noch vorhersagbar, oder machen Quanteneffekte das Rechnen unmöglich? Kann man solche Schalter noch auf einen Siliziumchip packen, oder sind ganz neue Architekturen gefordert? „Es wird so schnell kein Ende der Siliziumära geben“, sagt Herbert Reichl vom Fraunhofer-Institut für Zuverlässigkeit und Mikrointegration (IZM) in Berlin. Auch wenn die einzelnen Elemente immer exotischer würden – sie müssen miteinander verdrahtet werden, und da ist keine Alternative zum Silizium in Sicht. „Die Mikroelektronikindustrie ist eine extrem innovative, aber auch äußerst konservative Branche“, bestätigt Holger Vogt. Es reicht nicht aus, die Machbarkeit einer neuen Technik zu demonstrieren – es geht um die Massenproduktion. Eine Art Nebeneffekt des Mooreschen Gesetzes ist nämlich der sich alle vier Jahre verdoppelnde Preis der Chipfabriken. Die Cafeteria in einer neuen Fabrik, scherzte der Intel-Chef Craig Bennett einmal, koste so viel wie die gesamte Fabrik der vorhergehenden Generation.
Kein seriöser Ingenieur möchte da Prognosen abgeben, wie der Chip der Post-Silizium-Ära aussieht. Zwar können Nanotechniker heute schon molekulare Drähte aus winzigen Kohlenstoffröhrchen formen. Forscher im IBM-Labor in Rüschlikon bei Zürich haben nicht nur einzelne Atome manipuliert, sondern gezielt Elektronen zu einem Atom hinzugefügt und wieder abgezogen. Interessante Entwicklungen – aber es bleiben einzelne Heldentaten aus dem Labor. Wie man Billionen von diesen Strukturen zu einem Schaltkreis zusammenfügen könnte, davon hat noch niemand einen Schimmer. Delaying forever – so beschreibt Gordon Moore die gegenwärtige Aufgabe der Chip-Entwickler: die Technik verbessern, um das unweigerliche Ende weiter nach hinten zu verschieben. Längst werden die Chips ja nicht mehr nur durch die Zahl ihrer Bauelemente besser, sondern durch geschicktere Verdrahtung oder sparsameren Stromverbrauch, der kleinere Strukturen möglich macht.
Ist eine Welt vorstellbar, in der Moores Gesetz nicht mehr gilt? In der Computer eine maximale Leistungsfähigkeit erreicht haben? Dann gäbe es für die Wissenschaft prinzipielle Grenzen in der Vorhersagbarkeit des Wetters oder der Modellierung des globalen Klimas. Verbesserungen wären nur noch durch schlauere Rechenverfahren möglich. Entwicklungen in der Künstlichen Intelligenz stießen ebenso an eine Grenze wie die virtuellen Welten, die Computer simulieren. Und ein zehn Jahre alter PC wäre vielleicht wirklich nur unwesentlich schlechter als ein neuer.
Trost finden die Chipentwickler bei Ray Kurzweil. Der amerikanische Erfinder und Visionär hat die Zeitskala des Mooreschen Gesetzes in die Vergangenheit verlängert, bis zum Jahr 1900. Dazu hat er nicht Transistoren gezählt, sondern aufgelistet, wie viele Rechenoperationen pro Sekunde man jeweils für 1.000 Dollar kaufen konnte. Das erstaunliche Ergebnis: Zwar hat es seit 1900 fünf Technikgenerationen gegeben – elektromechanische Rechner, Relais, Röhren, einzelne Transistoren und integrierte Schaltkreise –, aber die Rechenleistung ist über 100 Jahre nicht nur exponentiell gewachsen (also Verdoppelung in einem jeweils konstanten Zeitraum), sondern noch schneller. Jede einzelne Technik, so Kurzweil, stößt nach heftigem exponentiellen Wachstum irgendwann an eine Grenze, die Kurve droht abzuflachen – aber potz Blitz! ist die nächste Technik da, die für ein ungebremstes Weiterwachsen sorgt. „Paradigmenwechsel“ nennt er das. „Jedes Mal, wenn einem Paradigma die Luft ausgeht, kommt ein anderes in Gang“. Für Kurzweil fast schon ein Naturgesetz. Im Jahr 2049 wird man für 1.000 Dollar eine Rechenkapazität kaufen können, die der Gehirnleistung aller lebenden Menschen zusammengenommen entspricht.
So weit will Moore selbst nicht in die Zukunft sehen. „Das Mooresche Gesetz wird noch mindestens so lange leben wie Moore“, schätzt der heute 76-Jährige. Und wer sonst kann schon behaupten, die technische Entwicklung für den Rest seiner Lebensspanne vorhergesagt zu haben? Aber auch Moore kann irren. Damals sagte er auch das Wachstum der Wafer voraus, jener Siliziumscheiben, aus denen die Chips gemacht sind. Derzeit haben sie einen Durchmesser von 30 Zentimetern – hätte Moore Recht behalten, wären es heute 1,40 Meter.