Mathematische Notbeatmung für das Mooresche Gesetz

Noch gibt es Möglichkeiten von der Immersions- bis hin zur Quantenlithographie, um die optische Lithographie zu verbessern, die Grenzen für das Mooresche Gesetz liegen woanders

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Die Anzahl der Transistoren in einem herkömmlichen Chip verdoppelt sich alle 18 Monate: So lautet einer der üblichen Varianten des sogenannten Mooreschen Gesetzes. Seit 1965, als Gordon Moore einen solchen exponentiellen Anstieg postulierte, ist häufig das Ende dieser Tendenz vorhergesagt worden, insbesondere wegen der Beschränkungen der eingesetzten optischen Instrumente. Mathematische Verfahren haben aber der optischen Lithographie neues Leben eingehaucht, so dass heute bereits Halbleiterstrukturen mit 22 Nanometer "half-pitch" projiziert und hergestellt werden können.

Gordon Moore, Mitbegründer der Firma Intel, hat 1965 eigentlich die zukünftige jährliche Verdopplung der Anzahl der Komponenten in Elektronikbausteinen vorhergesagt.1 Dabei bezog er sich auf Widerstände, Kondensatoren und Transistoren. Er verglich verschiedene Technologien in dem Moment ihrer "Reife", d.h. bei der Durchsetzung von minimalen Herstellungskosten.2 So war die Vorhersage Moores punktuell etwas anderes als das, was heute "Mooresches Gesetz" genannt wird, aber die Stoßrichtung bleibt dieselbe.

Moore selbst korrigierte sein Gesetz später auf eine erwartete Verdopplung der Komponentenanzahl alle 24 Monate.3 Alternative Berechnungen fixierten schließlich die Verdopplungsperiode der Transistorenanzahl auf 18 Monate.4

Daher gibt es eigentlich nicht ein "Mooresches Gesetz", sondern eine ganze "Familie", je nachdem welches Zeitintervall, welche Komponenten und welche Art von Chips betrachtet werden (Speicherchips, Mikroprozessoren, usw.). Allen gemeinsam ist die Idee des exponentiellen Wachstums der Anzahl der Elektronikbausteine pro Chip.

Abb. 1: Die extrapolierte Wachstumskurve der Anzahl der Elektronikkomponenten pro Chip in Moores Artikel von 1965. Moore hat ursprünglich eine jährliche Verdopplung vorhergesagt. Bild: Originalpaper von Moore

Obwohl mehr und mehr Transistoren in elektronischen Bausteinen auf verschiedene Weisen untergebracht werden könnten (z.B. durch die Herstellung von dreidimensionalen Strukturen5), bleibt die Breite der kleinsten Strukturen, die auf einem Chip mit lithographischen Verfahren "gemeißelt" werden können, die wichtigste Kennzahl der Integrationsdichte.

Chips werden mit fotochemischen Verfahren Schicht für Schicht, wie ein Sandwich, aufgebaut. Die gewünschten planaren Strukturen werden aus Masken mit Licht auf die Trägeroberfläche projiziert. Mit Hilfe von Chemikalien werden daraus die gewünschten Konturen der Verbindungslinien oder der Komponenten geätzt. Das Ganze erinnert an die alte Fotografie, d.h. das gewünschte Layout wird mit Linsen auf einem Substrat abgebildet und danach mit Chemikalien "entwickelt". Solche Projektion-Entwicklungs-Schritte werden mehrmals wiederholt - für verschiedene Layout-Masken, bis ein Speicherchip oder ein Mikroprozessor fertig ist. Das Verfahren wird optische Lithographie genannt.

Das Problem dieses Vorgehens ist jedoch, dass die Wellenlänge des für die Projektionen verwendeten Lichts bereits ein Mehrfaches der minimalen Strukturbreite in Speicherchips darstellt. Strukturen von nur 22 Nanometer Breite werden aus Licht mit 193 Nanometer Wellenlänge erzielt. Das ist so, als ob wir ein Bild mit Linien, die achtmal so dünn wie die Breite des verwendeten Meißels sind, eingravieren würden. Der Meißel besteht hier jedoch aus Licht, dessen Interferenzeigenschaften für diese Aufgabe auf wunderbare Weise eingesetzt werden können.

Bevor die Masken projiziert werden, wird im Computer das angestrebte Ergebnis simuliert und verifiziert. Das heißt: Ohne aufwendige numerische Verfahren geht heute bei der Chipproduktion nichts mehr. Bevor eine Lithographiemaske generiert werden kann, müssen in ihrem Design und ihrer Optimierung Tausende von CPU Stunden eingehen. Das Ganze wird mittlerweile "Computer-Lithographie" genannt.

Licht ist eine Welle

Das optische Abbildungsproblem ergibt sich aus der Wellennatur des Lichtes. Licht besteht aus Teilchen (die Photonen), die sich aber auch wie Wellen verhalten. Noch zu Zeiten Newtons wurde über die Natur des Lichtes heftig gestritten. Für Newton z.B. bestand das Licht aus Korpuskeln, die so klein sind, dass sie miteinander nicht in Berührung kommen, die aber ansonsten sich wie andere Körper verhalten. Newton dachte, dass diese Partikel eine kleine Masse und sogar eine bestimmte Form hätten.

Durch die Arbeit des niederländischen Wissenschaftlers Christiaan Huygens errang die Wellentheorie des Lichtes schließlich den Vorrang. Diese lieferte überzeugende Erklärungen für Phänomene wie die Reflektion, die Brechung und die Beugung des Lichtes um Kanten. In seinem "Traité de la lumière" von 1690 formulierte Huygens das Prinzip, das seinen Namen trägt, wonach jeder Punkt entlang einen Wellenfront als Ausgangspunkt für eine sphärische Welle dient. Die Interferenz der vielen Punktquellen an der Wellenfront erzeugt den weiteren Verlauf der Wellenfront. Abb. 2 zeigt links das Prinzip (aus Huygens Werk) und rechts die Anwendung auf die Beugung durch eine Öffnung.

Licht ist eine elektromagnetische Schwingung mit der Eigenschaft, dass Wellen sich aufaddieren können. Jede Welle hat aber eine "Phase", schwingt hoch und runter (man denke einfach an eine Sinuswelle). Zwei Wellen, die eine halbe Wellenlänge verschoben sind können sich dann gegenseitig löschen. Dies ist die sogenannte destruktive Interferenz. Wenn die Wellen die gleiche Phase haben, können beide konstruktiv interferieren.

In dem Beispiel in Abb.2 (rechts) erreicht eine flache Wellenfront eine Öffnung. Nur die Punkte innerhalb der Öffnung (gelb dargestellt) erzeugen sphärische Sekundarwellen (grau dargestellt), die sich so aufaddieren, dass die neue Wellenfront (in grün) gebeugt erscheint. Je kleiner die Öffnung relativ zur Wellenlänge des Lichtes, desto größer die Beugung derselben. Kleine Details in einer Projektionsmaske erscheinen dann verzerrt auf einer Projektionsoberfläche.

Um dies zu vermeiden, verwendet man Linsen, die das gebeugte Licht auffangen und durch Lichtbrechung zurecht"biegen". Dafür ist es aber notwendig, alle gebeugten Lichtstrahlen aufzufangen. Je größer die Lichtstreuung, desto größer die notwendige Linse (und desto näher muss die Linse zu der Öffnung kommen). Bei endlichen Linsen mit einem vorgegeben Fokus gibt es unvermeidliche Verluste. D.h. sehr kleine Details in der Projektionsmaske verwischen und das Ergebnis ist ein unscharfes Bild.

Der Vollständigkeit halber sollte man erwähnen, dass 1905 Albert Einstein durch die Erklärung des fotoelektrischen Effekts der Nachweis gelang, dass Licht aus Teilchen besteht. Das hätte Isaac Newton sicherlich interessiert.

Die optische Abbildungsgrenze und der "Moore gap"

Verbindungsstrukturen von heutigen Mikroprozessoren ähneln komplexen Stadtkarten mit Millionen von Komponenten und "Straßen". Bei der Projektion auf die Oberfläche des Chips möchte man alle Details so klein wie möglich abbilden können. Um mehr Transistoren unterbringen zu können, werden die Strukturelemente immer kleiner. Es stellt sich natürlich die Frage, ob die Optik des Lithographiegeräts überhaupt in der Lage ist, so kleine Elemente scharf abzubilden.

Dabei handelt es sich um das inverse Problem zu einem Mikroskop: Bei diesem will man kleinste Details sehen können; bei der Lithographie sollen solche winzigen Details projiziert werden. In beiden Fällen benötigt man perfekt abgestimmte Linsensysteme und eine saubere Konstruktion. Abb. 3 zeigt ein Beispiel der für die Lithographie verwendeten Linsensysteme. Man braucht so perfekte Linsen wie möglich und so fein abgestimmt, dass Projektionsfehler durch eine Kette von Projektionen ausgeglichen werden. Solche Linsensysteme sind extrem teuer und auffallend wuchtig.

Abb. 3: Linsen für die Lithographie. Links wird die Maske durchbeleuchtet, rechts wird die Projektion auf den Siliziumträger geworfen. Das Linsensystem wird senkrecht eingebaut.

Man weiß seit dem Beginn der theoretischen Optik, dass optische Systeme nicht beliebig kleine Strukturen abbilden können. Will man Details in der Größenordnung der Wellenlänge des verwendeten Lichtes projizieren, hat man mit Interferenzeffekten zu kämpfen. In der Vergangenheit konnte man auf immer kleinere Wellenlängen zurückgreifen.

So ist man von der Lithographie mit Quecksilberdampflampen-Licht mit etwa 436 nm Wellenlänge, auf 365 nm (i-Linie von Quecksilber), dann weiter auf 248 nm (KrF Laser) bis zur heutigen 193 nm Wellenlänge (Argon-Fluor) übergegangen. Heute werden zudem kohärente Lichtquellen verwendet, d.h. Laser, womit eine bestimmte Kontrolle der erzeugten Projektionsmuster erreicht werden kann.

Der nächste Schritt in der Lithographie wäre der Sprung auf Extremes Ultraviolett (EUV) mit 13.5 nm Wellenlänge oder gar Röntgenstrahlen mit noch kleineren Wellenlängen. Das Problem dabei ist, dass EUV-Licht in der Luft und in der Optik stark absorbiert wird, so dass die ganze Lithographie im Vakuum stattfinden müsste und spezielle Spiegelsysteme notwendig wären. EUV-Lithographie ist deswegen außerordentlich teuer im Vergleich zur herkömmlichen Lithographie. Dasselbe gilt für die Röntgen-Lithographie, für die noch keine geeigneten (bzw. preiswerten) Fokussierungssysteme gefunden worden sind.

Abb. 4 ist sehr interessant, weil sie die seit einigen Jahren entstandene Abweichung des Mooreschen Gesetzes mit Entwicklungen in der Lithographie sehr gut darstellt. Es wird für die Jahre 1980 bis 2005 gezeigt, wie die Wachstumsrate des Mooreschen Gesetz verläuft. Da der vertikale Maßstab logarithmisch ist, entspricht das Gesetz von Moore einer geraden Steigungslinie (rot). Die entsprechenden Wachstumsraten bei Lithographie werden in blau dargestellt.

Auch wenn die Lithographie immer kleinere Strukturen abbilden kann, wächst die mögliche "Information" (d.h. die Anzahl der darstellbaren Strukturen) von alleine nicht so schnell wie das Gesetz von Moore verlangt.6 Abhilfe kann man durch bestimmte Tricks oder Prozessverbesserungen erhalten, aber die Wachstumskluft besteht immer noch. Es ist deswegen die Aufgabe der Mathematik, diese Kluft gezielt zu überwinden.

Abb. 4: "Moore gap": Das Mooresche Gesetz zeigt eine Wachstumsrate (rote Linie), die die Verbesserung in der Abbildungsdichte der Lithographie (blau) übertrifft. Die Differenz kann nur durch Prozessverbesserungen überbrückt werden.

Bei Projektionssystemen sind deswegen zwei Faktoren relevant: die Größe der kleinsten Details, die das System abbilden kann, und die Tiefenschärfe des Projektionssystems, da alles planar projiziert wird. In der Optik kann man die so genannte Abbildungsgrenze für Projektionssysteme berechnen. Diese wird von der Rayleigh-Gleichung gegeben: d=k λ/NA

Dabei ist λ die Wellenlänge des verwendeten Lichtes, NA die sogenannte optische Öffnung und k eine Konstante, die den Produktionsprozess zusammenfasst. Im Fall der Lithographie bedeutet d die Breite der kleinsten Strukturen die noch vom System abgebildet werden können. Will man d verkleinern, kann man k verkleinern, NA vergrößern oder die Wellenlänge niedriger wählen.

Aus ökonomischen Gründen hat sich eine weitere Verkleinerung der Wellenlänge als noch zu kostspielig erwiesen, so dass sogar der angestrebte Wechsel zum Laser mit 157 nm Wellenlänge nicht stattfinden konnte. Es bleiben die Größen NA und k. Beide kommen bei der Modernen Lithographie langsam an ihre Grenzen.

Immersionslithographie

Licht kann mit Linsen fokussiert werden. Verluste der fokussierten Maskenfrequenzen treten jedoch an der Schnittstelle Glas-Luft auf. Da Luft einen niedrigeren Brechungsindex als Glas besitzt, wird ein Teil des Lichts intern in das Linsensystem zurückreflektiert, ähnlich wie eine Reflektion an der Wasseroberfläche (siehe Abb. 5, links). Das Beste wäre, wenn die Linse fast direkt in Kontakt mit dem Wafer, auf den die Halbleiterchips produziert werden, kommen würde. Dies ist aber nicht machbar, da jeder Kontakt die Halbleiterstrukturen zerstören könnte.

Man kann jedoch das Nächstbessere machen, nämlich die Lithographie in einem Wassermedium stattfinden lassen.7 D.h. zwischen Wafer und Optik wird eine Wasserschicht eingeschoben (Abb. 5, rechts). Das Wasser verhindert unnötige interne Lichtreflektionen. Reines Wasser hat einen Refraktionsindex von 1.44 für Licht von 193 nm Wellenlänge, während Glas einen Refraktionsindex zwischen etwa 1,5 und 1,6 (je nach Glassorte) besitzt. Luft hat nur einen Refraktionsindex von 1,0.

Bei der Immersion besteht weiterhin eine Schnittstelle Glas-Wasser, die aber nicht so reflektierend wie die Schnittstelle Glas-Luft ist, vor allem für die hohen räumlichen Frequenzen, die gerade wichtig für die Feinablösung der Halbleiterstrukturen sind. Diese Vorteile der Immersionslithographie haben teilweise den Übergang auf Licht mit 157 nm Wellenlänge verhindert, da bei dieser Frequenz Wasser nicht transparent ist.

Abb. 5: Rechts wird Immersionslithographie verwendet, links eine Luftspalte. Unerwünschte Reflektionen, d.h. Lichtverluste, treten an der Glas-Luft-Schnittstelle auf.

Man kann sich vorstellen, dass Wasser zwischen Linsen und Halbleiter anzubringen, zu vielfältigen Produktionsproblemen führt. Die notwendige Technologie wurde aber relativ schnell eingeführt. Zwischen 2002 und 2003 wurden alle technischen Hürden überwunden und die ersten Immersionslithographie-Anlagen geliefert. Wasser ist auch nicht das letzte Wort: Es wird weiterhin nach bessere Flüssigkeiten gesucht.8

Immersionslithographie vergrößert die optische numerische Apertur NA. Diese ist direkt proportional zum Refraktionsindex des Mediums zwischen Linse und Halbleiter. Die numerische Öffnung ist auch direkt proportional zum Sinus des maximalen Projektionswinkels (das wäre der Winkel zwischen der Senkrechten und den äußersten Strahlen rechts in Abb. 5). Da der Eintrittswinkel des Lichtes maximal 90 Grad betragen kann (und Sinus von 90 Grad Eins ist), kann man nur noch wenig durch die weitere Verbesserung der numerischen Öffnung gewinnen. Dieser Parameter ist weitgehend ausgereizt.

Computerlithographie

Bleibt nur die Konstante k in der Rayleigh-Gleichung. Hier muss der Computer Abhilfe schaffen. Es ist eigenartig, dass das Mooresche Gesetz zu den heutigen Hochleistungsrechnern auf dem Schreibtisch führte, dass aber heute dieses Gesetz von eben diesen Rechnern abhängig ist. Es ist ein System der positiven Rückkopplung, bei dem mehr Rechenleistung zu leistungsstärkeren Chips führt und umgekehrt.

Die Idee der Computerlithographie kann verständlich erläutert werden: Da das Licht sich an der Projektionsmaske beugt, müsste die Projektionsmaske so umgestaltet werden, dass das projizierte Licht trotzdem die richtige Form erzeugt. Anders gesagt: Die Maske wird transformiert, um der Beugung des Lichtes entgegenzuwirken. Man berechnet im Computer im Voraus, welches "morphing" notwendig ist, um die richtigen Strukturen auf dem Chip trotz der Interferenzeffekte und der optischen Verluste zu erhalten.

Ein Beispiel dieser Idee ist die sogenannte Optical Proximity Correction (OPC), das darin besteht "Serifen" an den Enden von Verbindungsstrukturen anzubringen. Abb. 6 zeigt ein Beispiel dafür. Erwünscht ist die Projektion eines rechteckigen Winkels (wie ein invertiertes L, in blau). Die tatsächlich benutzte Maskenform wird in grün dargestellt. Das Ergebnis der Lithographie wäre der rote Umriss. Wie man sieht, ist das Resultat nicht perfekt, kommt aber ziemlich nah an die gewünschte Form.

Die Strukturen am Ende der Linien nennt man Serifen in der Fotolithographie. Durch ihre Präsenz wird das Licht so gebeugt, dass ihre Interferenz zum gewünschten Resultat führt. Auch wenn gewisse Regeln und Heuristiken aufgestellt werden können, denen ein Chipdesigner dann einfach folgt, kann ein wirklich gutes Ergebnis nur durch eine Vorsimulation der Projektion erreicht werden.

Abb. 6: Ein Beispiel für Optical Proximity Correction. Die grüne Maske erzeugt nach der Belichtung die rote Struktur (Bild: LithoGuy, Public Domain).

Phasenmasken und Doppel-Abbildung

Man kann die Phase des projizierten Lichtes viel direkter manipulieren. Dafür wird die Projektionsmaske nicht einfach mit überall demselben durchsichtigen Material hergestellt. Stattdessen kann man, wie in Abb. 7 zu sehen, eine kleine Stufe einbauen.

An der einen Seite der Stufe hat das durchgehende Licht beim Austritt eine bestimmte Phase, auf der anderen Seite der Stufe eine andere. Die Stufe wirkt wie eine kleine Abdeckung. Hätten wir nur eine dunkle Spalte, würden wir die Lichtintensität erhalten, die unten links abgebildet ist. Man sieht, dass die Spalte fast nicht zur Geltung kommt und der Halbleiterträger fast überall gleichmäßig beleuchtet wird.

Mit der Phasendifferenz - und zwar so, dass destruktive Interferenz gerade an der Stufenkante eintritt - erhält man die Intensitätsmuster in Abb. 7 (rechts unten). An der Stufe entsteht ein scharfer Schatten, der für die Bildung von dünnen Leitbahnen genutzt werden kann (in dem Beispiel gibt es zwei Stufen und deswegen zwei dünne Bahnen).9

Abb. 7: Phasen-Verschiebungsmaske (oben, links). Ohne Phasenverschiebung würde eine dunkle Spalte das Beleuchtungsmuster unten links produzieren. Durch Phasenverschiebung an einer Stufe wird das Beleuchtungsmuster unten rechts erzeugt. Man beachte die scharfe dunkle Spitze in der Mitte.

Jetzt ist aber das Designproblem für die Maske viel schwieriger geworden. Phasenverschiebung durch Einbettung von Kanten in den Masken gehört heute zum Stand der Technik in der Lithographie. Wenn aber jeder Bereich in der Maske eine andere Phase besitzt, muss man ein geometrisch-kombinatorisches Problem lösen, um die notwendigen Stufen auf der Maske zu haben, aber mit nur zwei Höhenunterschieden. Man muss deswegen das Layout des Chips sehr sorgfältig planen, insbesondere wenn Leiterbahnen parallel zu einander verlaufen sollen. Die Leiterbahnen selbst kann man sehr dünn gestalten, aber ihr Abstand kann nicht unter eine optische Grenze fallen.

Um mehr Leiterbahnen im Chip einbringen zu können, kann man mehrmals ablichten. Würde man parallele Bahnen durchnummerieren, belichtet man zuerst die geraden Bahnen, dann die ungeraden. Die Anzahl der Fotolithographie-Schritte verdoppelt sich, aber enger stehenden Strukturen können so hergestellt werden. Dies nennt man in der Fotolithographie "zweifache Abbildung" (double patterning)10.

Double patterning ist ein elegantes, jedoch komplexes Verfahren. Bevor man die gewünschten Strukturen in dem Siliziumwafer erhält, muss man Hilfsstrukturen für die Hälfte der zuerst abgebildeten Komponenten belichten, dann den Rest der Strukturen und dann alles gleichzeitig ätzen. Verschiedene Verfahren sind dafür entwickelt worden (mit den Acronymen LELE und LFLE für Lithography-Etch und Lithography-Freeze sowie ihre Kombinationen).

Strukturiertes Licht und Quantenlithographie

Ein weiterer Trick im Ärmel der Fotolithographie-Experten besteht darin, die Fotomaske nicht direkt, sondern mit strukturiertem Licht zu beleuchten. Am einfachsten ist es, eine Spalte nicht senkrecht, sondern leicht geneigt zu belichten. Eine Spalte sieht dann für die flache Wellenfront wie zwei sukzessive Kanten aus: Zuerst trifft das Licht auf die eine Seite der Spalte, danach auf die gegenüberliegende Kante (und nicht auf beide Kanten gleichzeitig, wie in Abb. 2). Das Ergebnis ist ein anderes Beugungsmuster, wobei mehr von den hohen räumlichen Frequenzen der Spalte von der Optik eingefangen werden können.

Aus dieser einfachen und eigentlich sehr alten Überlegung ist ein ganzes Handwerk entstanden. Bevor das Licht auf die Maske trifft, wird es vorher durch eine Blende so vorbereitet, dass maximal viele hohe räumliche Frequenzen durch die Optik verarbeitet werden können. Abb. 8 zeigt ein Beispiel für solche "Pupillen", wodurch das projizierte Licht schief zu der Maske einfällt.

Abb. 8: Blenden für die Lichtquelle bei der modernen Lithographie

Quantenlithographie ist aber ein neues Verfahren, mit dem niedrigere Wellenlängen ohne Änderung der Optik hergestellt werden können. Die Idee ist, mehrere Photonen in einem Laser zu "verschränken", d.h. so vorzubereiten, dass sie sich wie ein einziges quantenmechanisches System verhalten. Da damit virtuelle Teilchen mit der doppelten oder dreifachen Energie erzeugt werden können, fällt die gemeinsame Wellenlänge des virtuellen Teilchens umgekehrt proportional aus. Das ist so, als ob man Licht mit der Hälfte oder einem Drittel der Wellenlänge benutzen würde, wobei die Optik immer noch durchsichtig für die ursprüngliche Wellenlänge wäre. Quantenoptik verlangt aber noch sehr niedrige Temperaturen und sehr genaue Apparaturen, da verschränkte Teilchen sehr anfällig gegenüber thermischem Rauschen sind. An dieser Stelle bleibt immer noch viel zu tun.

Die Grenzen der Lithographie

Wie diese Übersicht der modernen fotolithographischen Verfahren zeigt, können die Physiker und Ingenieure immer einen Umweg finden, wenn ein anscheinend unüberwindbares Problem eingetreten ist. Moderne Lithographie wird heute mit vielen Adjektiven beschrieben: Wir haben eine Phasen-Verschiebung-Doppel-Abbildung-Immersionslithographie, die mit RET (Resolution Enhanced Technology) wie OPC und indirekter Beleuchtung arbeitet. Der ganze Prozess muss zuvor im Computer simuliert und optimiert werden.11

Fotolithographie hat auch die Eigenschaft, dass durch die Wahl des fotochemischen Materials mehr oder weniger Photonen für die Entwicklung einer Schicht notwendig sind. Man kann sehr leicht einen optischen Kontrast durch längere Belichtungszeiten kompensieren, so dass immer dünnere Strukturen herstellbar wären. Einige Physiker sind mittlerweile der Meinung, dass es für die optische Fotolithographie eigentlich keine prinzipiellen Schranken gibt.12

Die Grenzen für das Mooresche Gesetz könnten aus einer anderen Ecke kommen. Einerseits ist die Wärmeproduktion von Chips bereits bedenklich, wie Moore selbst 1965 prognostiziert hat. Aber wenn man andererseits bereits Strukturen von 22 nm Breite herstellt, bedeutet dies, dass nur noch etwa 220 Atome im Spiel sind. Würde man auf immer kleinere Strukturen zurückgreifen, könnte man vielleicht plötzlich auf Quanteneffekte treffen, wodurch die Komponenten unkontrollierbar nichtlinear würden. Die physikalischen Grenzen scheinen aber ziemlich tief zu liegen, da sogar Nanoleiterbahnen mit nur vier Atomen immer noch dem Ohmschen Gesetz folgen.13

Die Grenze des Möglichen scheint deswegen vorläufig eher ökonomischer Natur zu sein. EUV-Lithographie kann wegen der enormen Kosten noch nicht eingesetzt werden. Lithographie-Anlagen werden immer komplexer und teurer. Neue Halbleiter-Fabriken sind ultrakomplexe Gebäude, wo Hunderte bzw. Tausende von roboterisierten Produktionsschritten fein abgestimmt werden müssen.14.

Deswegen suchen die Physiker bereits für die Zeit, ab der eine weitere projektive und planare Bauweise nicht mehr möglich sein wird, nach Alternativen für die Lithographie. Das Mooresche Gesetz wird wahrscheinlich weiter gelten, aber die Herstellungsmethoden für Halbleiterchips könnten radikal anders werden.