Allez au contenu, Allez à la navigation



Sur l'évolution du secteur des semi-conducteurs et ses liens avec les micro et nanotechnologies

 

CHAPITRE II

LA COURSE VERS L'INFINIMENT PETIT : DES DÉFIS TECHNOLOGIQUES AUX ESPÉRANCES SOCIOÉCONOMIQUES

Le cycle vertueux de la microélectronique, continu depuis quarante ans, peut-il se poursuivre au même rythme ?

En tout cas, chacun y contribue.

Le stade industriel de la réduction géométrique organisée des composants approche dès maintenant l'échelle nanométrique11(*). La barrière symbolique des 100 nm sera franchie en fabrication dès 2003.

En amont, les laboratoires et les centres de développement technologique affichent des résultats qui donnent le vertige : réalisation d'un transistor de 15 nm de section12(*) (l'équivalent, sur une puce, d'un cheveu sur un terrain de football), transistors à deux barrières, transistors à électron unique, silicium luminescent pour les applications optoélectroniques, travaux sur les nanotubes de carbone de 20 nm de section, etc.

Mais avant d'examiner les défis scientifiques et technologiques auxquels le secteur de la microélectronique sera confronté dans les quinze prochaines années, il est nécessaire de lever un préalable : la poursuite de la course à la puissance miniaturisée s'impose-t-elle toujours ?

En d'autres termes, la croissance du coût des outils de production que suppose la fabrication de semi-conducteurs de plus en plus petits, de plus en plus puissants et de plus en plus complexes se justifie-t-elle économiquement ?

Certains estiment que non. Et font valoir que l'extrapolation de la loi de Moore n'a plus de signification économique, qu'il s'agisse du stockage ou du traitement de l'information.

S'agissant du stockage de l'information, vers 2010, pour une taille de transistor de 50 nm (130 nm actuellement) on pourra conserver sur une seule puce l'ensemble des collections de la Bibliothèque nationale. Dès lors, la logique économique consistant à construire des usines à 6 milliards d'euros l'unité, sans préjudice des coûts de recherche-développement connexes, pour aboutir à un résultat aussi surdimensionné, ne paraît effectivement pas évidente. Quel sera le marché, quels seront les usages pour de tels produits ?

Mais les interrogations les plus pertinentes portent surtout sur les produits grand public pour lesquels le problème est de savoir si les coûts de croissance de la miniaturisation, qui ont jusqu'ici été compensés - et au-delà - par l'ouverture des nouveaux débouchés, se justifient toujours.

Car il n'est pas certain que les utilisateurs d'ordinateurs, qui ne mobilisent en général que très partiellement les potentialités de ceux-ci, aient besoin d'une puissance de traitement de l'information de l'ordre de celle que pourrait offrir la poursuite de la vérification de la loi de Moore. La question des usages et de leur appropriation future est, sur ce point, essentielle pour un secteur économique qui est contraint d'engager à l'aveugle des instruments de plus en plus lourds.

Non sans pertinence, des industriels du secteur font également valoir qu'il ne paraît plus utile de porter la puissance des microprocesseurs jusqu'à des vitesses d'horloge de 10 GHz ou 100 GHz (c'est-à-dire jusqu'à des capacités de traitement de 10 milliards à 100 milliards d'opérations par seconde, soit de 5 à 50 fois plus que les microprocesseurs actuels, ce qui est envisageable pour 2010), alors même qu'à 2 GHz, les possibilités d'utilisation des ordinateurs sont de toute façon restreintes par les performances des disques durs, la médiocrité des mémoires vives, et, surtout, par les lenteurs et les imperfections des connexions externes.

Dans le même ordre d'idées, d'autres insistent sur le fait que le secteur des biens électroniques de demain reposera sur des usages nomades (téléphones portables de troisième génération, ordinateurs, assistants personnels ou produits dérivés du croisement de l'informatique et des télécommunications). Pour ces produits, la consommation, l'autonomie des batteries et les services offerts seront probablement plus décisifs que la poursuite de la course à la vitesse de traitement de l'information.

· Certains de ces arguments sont pertinents. Pourtant, d'autres raisons militent en faveur d'une poursuite de la course à la puissance et à la miniaturisation.

Car cette course à la puissance répond à de multiples applications, qu'il s'agisse du développement des interfaces homme-machine, des capacités de traitement nécessaires au dialogue machine-machine (en particulier pour une meilleure utilisation de l'Internet).

Ainsi, les recherches menées actuellement sur ce que l'on appelle le « réseau sémantique » visent à faire accomplir par les machines ce que l'homme fait actuellement. Par exemple, si un internaute s'inscrit à un congrès, la machine lui réservera automatiquement avion, hôtel et voiture, mettra à jour son agenda, et ..... débitera sa carte de crédit.

Par ailleurs, toutes les applications sur le traitement du son et de l'image (domicile, professionnel, transport) sont très gourmandes en puissance de calcul.

De plus, il convient de rappeler que la vérification de l'axiome de Moore a créé en aval de nouveaux produits, sans que les promoteurs de ce mouvement les aient préconçus comme les ordinateurs personnels ou les téléphones portables. Le développement actuel des micro et nanotechnologies laisse présager que les objets de notre vie quotidienne à l'horizon 2010-2015 exigeront de plus en plus de microprocesseurs, de plus en plus miniaturisés.

La tendance à la miniaturisation constatée depuis quarante ans est appelée à se poursuivre. Cette hypothèse est la plus vraisemblable. Car on ne perçoit aujourd'hui aucun élément permettant d'envisager une rupture de la croissance des performances de la microélectronique. Mais il est aussi évident que les conditions de cette progression deviennent de plus en plus complexes.

A. LES PERSPECTIVES SCIENTIFIQUES DES QUINZE PROCHAINES ANNÉES : VERTIGE ET RÉALITÉ

A l'occasion d'une célèbre conférence tenue en 1959 (cf. avant-propos), Feynman avait prophétisé que les recherches et les développements technologiques des années à venir pouvaient s'appliquer à l'infiniment petit en déclarant « en bas il y a de la place ».

C'est ce que prouvent aujourd'hui les chercheurs.

Mais entre les expériences de laboratoire et la production industrielle sous contrainte marchande, il y a une marge.

En effet, à partir d'un certain stade de réduction géométrique (en deçà de 50 nm de taille de section des transistors), on se heurte à la barrière quantique (cf. infra) dont les implications de physique fondamentale sont, certes, identifiées, mais pas contrôlées.

Cette barrière est actuellement approchée de deux façons :

- par la « descente » (top-down) de la microélectronique vers la nanoélectronique,

- et par la « remontée » (bottom-up) des nanosciences et des nanotechnologies.

La question qui peut légitimement se poser à un horizon d'une dizaine d'années est de savoir s'il y aura rupture ou continuité technologique - ce qui signifierait alors qu'il convient de se préparer dès maintenant à cette rupture en recherche de base, et dans peu de temps en développement technologique -.

En d'autres termes, il convient de discerner si les réponses apportées par la microélectronique aux défis technologiques de la miniaturisation permettront à la filière silicium d'exister d'ici à quinze ans ou si celle-ci devra s'effacer devant les progrès des nanosciences et des nanotechnologies.

1. Obstacles et solutions de la microélectronique classique

a) Les principales difficultés à résoudre

Depuis le début des années quatre-vingt-dix, la SEMATECH, un consortium basé à Austin, qui regroupe les principaux fabricants de semi-conducteurs, publie une « road map ». Cette sorte de carte routière des défis technologiques de la filière comprend plusieurs volumes et est actualisée tous les deux ans. Dans le passé ses objectifs ont toujours été atteints.

Dans sa version actuelle, ce document répertorie jusqu'en 2011 les principales difficultés à surmonter pour réduire en taille des transistors de 130 nm actuellement à 35 nanomètres.

Ceci, année après année pour les difficultés à résoudre à l'horizon 2005, puis de 3 ans en 3 ans à compter de 2005 (2008-2011).

Un résumé de ce document permet d'évaluer les principales contraintes scientifiques et technologiques du secteur :

Ce document est intéressant à un double titre.

D'une part, il annonce assez clairement qu'il existe un « mur de briques rouges » - c'est-à-dire des impossibilités technologiques - entre 2003 et 2005 dès que l'on passe en dessous d'une taille de transistors de 100 nm.

D'autre part, il met en évidence que les problèmes technologiques du secteur ne se résument pas à la réduction géométrique de la taille de gravure des supports de silicium, mais concernent aussi l'épaisseur de la couche d'isolant, les interconnexions, et en particulier le nombre de couches d'interconnexions, leur résistivité (c'est-à-dire l'inverse de leur degré de conduction électrique) et les tensions d'alimentation qui sont appelées à diminuer ainsi que l'ampérage (qui correspondrait ici à des lampes d'appartement de 20.000 Watts de puissance).

Il est possible d'illustrer plus précisément ces difficultés :

La taille des puces 

Le tableau ci-après donne, pour chaque dimension des transistors, les dimensions et le nombre d'atomes en jeu :

TAILLE DES PUCES

 

1997

2001

2004

2008

Dimension de la section de transistor

250 nm

130 nm

90 nm

50 nm

Epaisseur de l'isolant au sommet de la couche de silicium

Nombre de molécules d'oxyde de silicium

4-5 nm

13-15

2-3 nm

6-9

1,5-2 nm

5-6

< 1 nm

3

Taille de la zone de conduction du courant

Nombre d'atomes de silicium

50-100 nm

200-400

30-60 nm

120-250

20-40 nm

100-160

10-20 nm

40-80

Au stade de réduction envisagé pour 2008, et compte tenu de la distance interatomique de silicium, la couche d'isolant en matériau actuel (SiO2) ne contient plus que de 3 à 4 molécules.

Outre les problèmes de production que cela suppose, ce nombre d'atomes est insuffisant pour régler de façon sûre la conduction du courant.

Car à ce niveau d'épaisseur de la couche d'isolant, les électrons, par le biais d'un effet dit de tunnel, peuvent « s'évader » du circuit, ce qui est de nature à altérer gravement sa fiabilité.

Enfin, la moindre impureté atomique suffit à perturber complètement les caractéristiques de l'isolant.

Les interconnexions 

La diminution de la taille des interconnexions est nécessaire. Car si elle n'était pas réduite parallèlement à celle des transistors, on assisterait à une perte de puissance préoccupante. Comme le souligne J-P Collin dans un remarquable article (Futuribles n° 278), dans un microprocesseur contenant, en 2010, 10 milliards de transistors et ayant une vitesse d'horloge de 100 Ghz, les distances sont paradoxalement très longues. Sur une puce d'un cm de côté la lumière ne parcourt qu'un mm par cycle d'horloge et il faudrait 20 cycles d'horloge pour qu'un bloc situé sur un côté de la puce pose une question au bloc opposé et reçoive la réponse. D'où une perte de rapidité, et donc de puissance de traitement.

Or, la réduction de la dimension des transistors accroît leur vitesse de traitement. Mais parallèlement, à cause d'un phénomène appelé « effet de peau », la courbe d'efficacité des interconnexions est inverse : plus leur taille se réduit, plus leur vitesse et leur fiabilité de transmission diminue.

L'un des défis des prochaines années sera d'assurer que la miniaturisation des interconnexions ne contrarie pas les effets attendus de celle des transistors.

Ce problème se complique également du fait de la croissance de la complexité des systèmes, et donc du nombre de couches d'interconnexions.

L'évacuation de la chaleur 

Ce problème est tout aussi important que celui des interconnexions. Sur une puce de la génération de 2010 contenant 10 milliards de transistors commutant plusieurs milliards de fois par seconde, la chaleur qui s'exprime en W/cm² pourrait alors être assez forte pour volatiliser le silicium, si les microsystèmes de ventilation associés ne progressent pas, ou si la technologie n'évolue pas.

La conception assistée par ordinateur 

La CAO, dont les insuffisances ont été évoquées en première partie, a elle aussi sa « road map », résumée dans le tableau ci-après :

Ce diagramme décrit pour chaque année à venir les concepts supplémentaires à maîtriser.

Il montre qu'à partir de 2006-2007 les logiciels de conception assistée vont devoir formaliser des phénomènes physiques nouveaux dont toutes les implications ne sont pas identifiées, comme les variations thermiques locales, les effets de barrière de source ou les effets quantiques.

Dès lors, il va de soi que l'utilisation des microprocesseurs dans des systèmes actuels plus diversifiés - au sein desquels l'intégration des matériels et des logiciels sera essentielle - posera de façon accrue le problème de la validité des tests mathématiques utilisés dans les vérifications des modèles conceptuels de microprocesseurs.

Et, dès maintenant, se pose la question de la pertinence des modèles mathématiques de base utilisés dans cette programmation.

La programmation actuelle repose sur des modèles mathématiques dérivés des travaux d'un mathématicien anglais des années 30, Alan Thuring. Celui-ci a formalisé le modèle de la machine à programme préenregistré (qui contient à la fois des données et des algorithmes - un peu comme si on stockait en même temps un livre de recettes de cuisine et les ingrédients de préparation).

Or, ce modèle a des limites ; si on le compare au cerveau humain, le microprocesseur est plus rapide (commutation neuronale à 0,3x10-3/s et informatique à 10-9/s), mais le cerveau humain est plus performant dans beaucoup de domaines :

- en permanence, un neurone est connecté à 10 000 neurones (à comparer à 5 à 6 transistors pour un transistor),

- à un instant donné, l'ordinateur met en oeuvre habituellement quelques centaines de transistors, alors que le cerveau mobilise des millions de neurones.

En d'autres termes, le modèle mathématique de la machine à programme préenregistré ne sait pas mettre en oeuvre des structures hyperconnectées et fonctionnant de façon hyperparallèle.

Son remplacement est un autre défi du secteur.

Le développement de systèmes complexes et la nécessité des interdisciplinarités 

L'électronique peut se résumer à une image assez simple : celle d'un tuyau d'eau dont un robinet règle l'écoulement (en l'espèce, un courant d'électron avec des tensions de commande).

Classiquement, cette discipline se couplait avec l'informatique dont le langage permet de faire correspondre des fonctions à des flux d'électrons.

Mais sans être étrangers l'un à l'autre, ces deux mondes étaient plus juxtaposés qu'étroitement associés.

Or, l'effort de miniaturisation des semi-conducteurs a abouti à des objets de plus en plus complexes et introduit de nouveaux défis.

En premier lieu, la complexité accrue des objets, l'apparition des SOC (systems on chips - systèmes sur puces), pose la question des combinaisons entre l'électronique et l'informatique à l'échelon même des matériels dont les architectures deviennent de plus en plus complexes.

Les schémas ci-après donnent une illustration de cette problématique. Ils exposent de façon détaillée, puis simplifiée, l'architecture d'une puce de 2 cm² à utiliser dans un téléphone portable de troisième génération :

Ce dernier schéma fait apparaître assez clairement que ce microprocesseur est conçu comme la résultante d'une juxtaposition de fonctions, comme le fait un enfant qui construit une maison avec des cubes de bois, alors qu'il devrait l'être en fonction d'une synergie d'ensemble assise, a priori, sur l'optimisation et la combinatoire des sous-systèmes qui le composent.

L'un des défis technologiques à venir est d'optimiser ce type de microprocesseur pour utiliser à plein ses ressources. Cela suppose que l'on se consacre à la conception d'architecture de systèmes se reconfigurant dynamiquement.

L'introduction des langages de plus en plus sophistiqués dans les matériels - ce qu'on appelle le middle ware - et l'apparition d'une nouvelle discipline - l'infotronique, née du croisement de l'informatique et de l'électronique - ne sont peut-être pas les défis les plus spectaculaires des années à venir, mais sont probablement parmi les plus importants.

b) Les réponses envisageables 

Pour illustrer de façon simple les défis technologiques auxquels sera confronté le secteur des microprocesseurs, disons qu'il s'agit, dans les dix prochaines années :

- d'augmenter le nombre de transistors sur un microprocesseur, de 100 millions actuellement à 10 milliards, soit un facteur 100,

- d'en accroître la vitesse d'horloge de 2 GHz à 100 GHz, soit un facteur 50,

- d'effectuer cette avancée progressivement et dans le cadre de la filière silicium,

- d'améliorer l'efficacité des dispositifs grâce à des gains d'architecture.

Encore doit-on ajouter que ces progrès technologiques doivent être mis en oeuvre sous contrainte de marché.

C'est pourquoi on s'efforcera de distinguer entre les réponses technologiques visant plus spécifiquement à poursuivre la miniaturisation des composants et à augmenter leur puissance et les réponses plus directement économiques.

Les réponses technologiques 

La visite de plusieurs dizaines de laboratoires, de centres de recherche et d'universités technologiques dégage l'impression d'un darwinisme technologique. Tout est essayé : une multitude de solutions sont recherchées et des axes technologiques développés pour repousser graduellement les barrières physiques actuelles.

On évoquera quelques-unes de ces pistes de recherche, sans prétendre à l'exhaustivité, tout en relevant que la plupart des techniques citées ci-après sont compatibles avec les technologies et les équipements de la filière silicium :

- La recherche directe d'augmentation de puissance 

Cette augmentation résulte naturellement de l'accroissement du nombre des transistors à surface égale. Mais elle peut aussi découler d'autres voies.

Par exemple, les techniques dites de « silicium étiré », qui consistent à améliorer l'alignement des atomes, et donc à augmenter la vitesse de circulation des électrons pour un gain de puissance d'environ 35 %.

Autre illustration, les recherches sur les transistors à double ou triple barrière permettent de doubler (ou plus) le flux de courant électrique circulant dans les microprocesseurs, et donc leur puissance.

- Le contournement des obstacles à la miniaturisation 

* La limitation de l'effet tunnel13(*) :

Des travaux actuellement menés sur les métaux des couches d'oxyde visent à limiter le développement des effets de tunnel qui se manifesteront au fur et à mesure que l'épaisseur de cette couche diminuera.

* La lithographie :

On réussit actuellement à diviser par trois l'épaisseur du trait de gravure par rapport à la longueur d'onde de l'émission : de 1 à 193 nm d'émission d'ultraviolets on peut, d'ores et déjà, assurer une gravure inférieure à 70 nm.

Les recherches menées sur l'EUV (rayons ultraviolets extrêmes) permettent d'envisager de poursuivre la lithogravure jusqu'à 45 nm de section.

De même, les travaux prometteurs sur les transistors verticaux permettront de s'affranchir des contraintes de la lithographie.

* la restriction des effets électriques liés aux interconnexions :

Afin de limiter les effets électriques dérivés de la diminution de la taille des interconnexions, des technologies de polissage diminuant la résistance de ces interconnexions sont explorées.

Des recherches sont également menées sur l'inclusion de pores d'air dans les puces, pour utiliser la très faible constante électrique de l'air.

* La limitation des effets thermiques :

Beaucoup de travaux sont actuellement menés pour optimiser les architectures afin de limiter la montée en puissance des effets thermiques, qui sont à un terme de cinq à dix ans une des difficultés principales de la miniaturisation.

C'est le cas des microradiateurs intégrés qui assurent la circulation de fluides de refroidissement par microcanaux et micropompes à l'intérieur des puces.

Indirectement, les techniques dites « SOI » (Silicium Sur Isolant), développées par une entreprise française, la SOITEC, y contribuent en limitant les consommations de courant des microprocesseurs.

- L'optoélectronique 

Cette discipline couvre plusieurs domaines, comme celui des lasers, dont les applications nanoélectroniques seront détaillées plus loin.

Une branche majeure de l'optronique concerne plus spécifiquement le couplage des photons et des électrons dans les microprocesseurs : les premiers pour transporter l'information, les seconds pour la traiter.

Les gains escomptés de la mise au point de cette utilisation conjointe sont multiples :

- elle diminuerait la résistance des circuits (en réduisant le nombre des interconnexions),

- surtout, elle éliminerait un des goulots d'étranglement qui fait que pour des vitesses d'horloge évaluées à 10 GHz, la miniaturisation - et donc les distances à parcourir pour l'information - limite paradoxalement la puissance des microprocesseurs.

Par ailleurs, des pistes de recherche prometteuses portent sur l'utilisation de nouveaux matériaux :

- des recherches sont entreprises sur l'arséniure de gallium qui a de bonnes capacités d'émission de lumière, mais pour des usages spécifiques,

- une découverte très récente a permis de doper le silicium pour le rendre luminescent, ce qui autoriserait cette technologie à s'inscrire dans la ligne de production de masse de la filière.

Enfin, s'esquissent des recherches en vue d'utiliser l'optronique non seulement pour transporter l'information, mais aussi la traiter. On entre alors dans un domaine plus lointain : les processeurs optiques.

Les reformulations économiques 

Les développements technologiques cités ci-dessus ont naturellement vocation à s'inscrire progressivement dans les processus de production industriels, suivant le schéma qui a présidé jusqu'ici au développement du secteur. Ils doivent donc répondre à des critères techniques mais aussi à des contraintes économiques.

D'autres axes de recherche ont pour objet de lever plus directement certaines des barrières économiques qui, nous l'avons vu, pèsent très fortement sur l'avenir du secteur.

On en mentionnera plusieurs :

- La baisse des coûts de certains équipements 

Par exemple, les travaux visent à diminuer le coût des masques de lithogravure (100 000 € pièce) en réduisant leur temps de fabrication de 24 heures à 4 heures, grâce à un microsystème comportant 1 million de micromiroirs.

- La baisse des coûts de l'encapsulage 

Une fois fabriqués, les microprocesseurs doivent être assemblés (collage sur un substrat, insertion de connexions extérieures, enrobage de résine). Cet encapsulage, le plus souvent externalisé vers des pays à bas coûts salariaux peut, cependant, représenter, suivant les cas, de 30 % à 50 % du coût des microprocesseurs.

Des recherches sont menées pour baisser ces coûts en incorporant directement l'encapsulage au processus de production de certains microprocesseurs.

- Les puces polymères 

Une autre orientation consiste à essayer d'adapter les coûts de production aux fonctionnalités attendues des microprocesseurs.

Des marchés de masse potentiels existent dans certains domaines sans exiger pour autant des microprocesseurs très puissants.

Sur ce point, les recherches sur les puces polymères, qui pourront être fabriquées à très bas coût par simple impression, répondent à des usages dont certains sont bien identifiés, comme l'étiquetage de masse ou les textiles intelligents.

Ces puces auront donc pour caractéristique de faibles puissances, mais un très bas coût en raison de l'utilisation des technologies classiques d'impression offset pour leur réalisation.

- Le calibrage du degré de fiabilité du microprocesseur 

La croissance presque exponentielle du coût des lignes de fabrication de semi-conducteurs réside dans leur très faible tolérance aux défauts. La miniaturisation croissante rend la réalisation de cet objectif de plus en plus difficile.

Les architectures logiques appliquées à la conception et à la mise en oeuvre des semi-conducteurs reposent sur l'utilisation de cellules identiques qui présentent, entre autres, l'avantage de la redondance. Si une des cellules est défectueuse elle a, la plupart du temps, un élément de rechange remplissant la même fonction.

Cette architecture redondante a pour résultat d'avoir des systèmes surdimensionnés en fiabilité alors que cela n'est pas toujours nécessaire.

Pour réduire les coûts imputables à des redondances inutiles, certaines équipes américaines travaillent sur des ordinateurs à architecture adaptable, ce qui permet de les faire fonctionner avec des taux de défectuosité beaucoup plus élevés.

- L'amélioration des logiciels de tests :

A chacun des 700 stades de leur fabrication, les microprocesseurs sont testés grâce à des logiciels coûteux. L'élimination des fautes représente de 50 à 75 % des coûts de développement des logiciels.

Elle s'effectue par tests, sachant qu'une vérification exhaustive est impossible compte tenu du nombre de transistors et de combinaisons logiques à tester.

Les recherches d'amélioration de ces tests portent sur les résultats attendus (en particulier, les architectures de tests hiérarchisant les priorités en vue d'assurer les fonctions attendues de l'objet).

Elles s'appliquent également à un domaine important, celui de la mise au point d'algorithmes de tolérance aux fautes décelées, mais qui n'empêchent pas le fonctionnement du logiciel.

2. Microélectronique et nanotechnologies : rupture ou continuité ?

a) L'apparition des nanosciences et des nanotechnologies 

« Je suis pratiquement sûr, disait Feynman, que lorsque nous aurons une certaine maîtrise de la façon dont les choses s'agencent à petite échelle nous disposerons d'une gamme infiniment plus grande de propriétés potentielles ».

Il définissait à la fois les objectifs, le modus operandi, et esquissait les profits escomptés des avancées des nanosciences et des nanotechnologies.

Car, curieusement, en dépit d'interrogations qui relèvent principalement de la science fondamentale, ces nanosciences sont, du fait même des procédés expérimentaux qu'elles emploient, très liées à ce qu'on appelle les nanotechnologies.

En effet, pour comprendre les phénomènes de base de l'infiniment petit, il est nécessaire à cette échelle expérimentale de travailler parallèlement sur les nanotechnologies. Car la compréhension des comportements de la matière à cette échelle n'est pas séparable de la mise au point des techniques nanométriques d'observation et d'assemblage des structures organiques ou des matériaux. De même cette étude passe-t-elle par des simulations théoriques et des contrôles nanométriques qui font que la technologie de l'infiniment petit est très étroitement liée à sa découverte.

De plus, les nanosciences - entre autres domaines d'élection - visent à élucider les méthodes par lesquelles la matière s'autoassemble et s'organise, c'est-à-dire la manière dont elle s'« autoindustrialise ». Cette problématique les rapproche, sinon d'une pensée, du moins de structures de « production » technologique.

Essayer de manipuler la matière à l'échelle nanométrique, et en fait à l'échelle d'un angström (un dixième de nanomètre), qui est celle des atomes, c'est s'efforcer de comprendre des phénomènes à une échelle quantique, à laquelle les propriétés de la matière ne sont plus les mêmes qu'à l'échelle micrométrique.

Nous touchons là aux confins de la physique classique et de la physique quantique.

Ce constat permet de mesurer assez exactement à la fois les promesses des nanosciences et des nanotechnologies, mais également l'horizon de leur espérance de réalisation.

Certes, on qualifie un peu abusivement de nanotechnologiques certaines applications, comme l'ajout de particules de césium au carburant diesel, qui favorise la destruction de certaines particules polluantes des moteurs automobiles, comme l'inclusion de nanoparticules d'oxyde de titane dans les crèmes solaires pour arrêter les rayons ultraviolets, ou encore les verres autonettoyants recouverts d'une couche de nanocristaux 14(*).

Mais ces applications, qui utilisent certaines des particularités de la matière à l'échelle nanométrique, ne sont que très périphériques par rapport aux efforts actuellement entrepris qui visent, rappelons-le, à comprendre comment la matière s'organise à l'échelle quantique et à fabriquer des matériaux et des systèmes dérivés de cette étude.

Les scientifiques entendus sur ce point estiment que les nanosciences et les nanotechnologies sont encore largement dans le champ de la recherche académique et de ses interfaces avec les développements technologiques de base, et qu'elles ne déboucheront pas avant dix ou quinze ans.

L'essentiel de la révolution des nanotechnologies reste donc à venir.

Cela étant, même si les nanotechnologies débordent de beaucoup le domaine de la microélectronique, certains de leurs axes de recherches la concernent directement et à moyen terme.

On doit citer les techniques, extrêmement diverses, de nanofabrication, les méthodes de nano-observation et d'adressage, les nanostructures semiconductrices à confinement électronique ou photonique, le nanomagnétisme et l'électronique de spin, l'électronique et les nanotechnologies moléculaires, la modélisation des composants et des architectures, les nanostructures biologiques.

Déjà, certains de ces objets de recherches définissent les perspectives d'un changement radical de technologie lorsque les possibilités de la filière silicium seront épuisées.

b) L'exploration de nouvelles filières 

D'ici une quinzaine d'années, à partir d'une section de transistor comprise entre 50 nm et 20 nm, le mouvement de réduction d'échelle portée par la filière silicium se heurtera, dans sa forme actuelle, à des limites physiques irréfragables.

Il faudra donc mettre en oeuvre d'autres processus pour poursuivre la course à la puissance miniaturisée.

Plusieurs possibilités se dégagent :

v l'électronique moléculaire 

L'idée de base a été formulée en 1974. Elle vise à la réalisation d'un composant électronique actif comme un transistor ou une diode avec une seule molécule.

Les technologies n'ont pas permis pendant longtemps d'explorer ce concept, jusqu'à l'invention du microscope à effet de tunnel, en 1981.

En 1995, a été réalisé un premier contact électrique sur une molécule.

Actuellement, les travaux de recherche, aux États-Unis comme en Europe, s'effectuent dans deux directions :

- la mise au point des interconnexions par autogreffe entre molécules et des fils métalliques de l'ordre de 10 nm, ces fils étant fabriqués par des procédés de nanolithographie électronique. Mais ni la composition chimique des molécules à greffer, ni l'effet physique permettant cette greffe ne sont exactement connus.

- l'exploration des techniques physico-chimiques qui permettent de déposer une seule molécule sur une nanojonction métallique. Mais, actuellement, le mariage entre les techniques de dépôt et la science des surfaces n'a pas été entièrement réalisé.

D'autres recherches essaient de sauter le pas des interconnexions. Il s'agit d'explorer des voies mono-moléculaires où une fonction électronique complexe sera assurée par une molécule sans passer par des interconnexions métalliques entre chaque composant élémentaire.

Mais cette voie intéressante est confrontée à un problème : les architectures habituelles des circuits électroniques ne peuvent être appliquées à l'échelle quantique de ces circuits. Par exemple, la mise en parallèle de deux fils moléculaires ne conduit pas à une addition des conductances comme dans un circuit électronique classique.

Les nanotubes de carbone constituent une orientation tout aussi prometteuse.

Ces formations sont de longs fils creux d'un diamètre très faible (1,4 nm), soit une réduction d'un facteur 100 par rapport à la taille des transistors actuels15(*). Ils présentent l'avantage de pouvoir conduire des courants plus élevés que les conducteurs classiques, et de pouvoir faire fonction à la fois de composant et d'interconnexion primaire.

Mais le développement de ce domaine de recherche présente un inconvénient lourd : on ne sait pas produire ces nanotubes à dimension uniforme. Or toute modification de leur diamètre (à une échelle nanométrique) a pour résultat de modifier la nature du tube, qui de conducteur devient semi-conducteur.

Cette filière nouvelle est encore loin de sa maturité :

- actuellement, on ne produit que 2 kg de nanotubes de carbone par an dans le monde,

- les caractéristiques physiques des nanotubes ne sont pas maîtrisées.

v les systèmes d'information quantiques 

Il est sans doute nécessaire de rappeler quelques repères avant d'esquisser une réflexion sur ces perspectives radicalement nouvelles.

En physique classique, on peut connaître à la fois la position et la vitesse des objets étudiés (comme, par exemple, une planète).

En mécanique quantique16(*), on peut ne pas préciser simultanément la vitesse et la position d'un électron (à cause de l'indétermination qu'introduit l'observation), mais uniquement poser une fonction de probabilité de ses états.

Or ces états peuvent se superposer et ces superpositions s'intégrer les unes aux autres. De ce fait, les systèmes qu'ils constituent offrent des possibilités de calcul exponentiels par rapport à celles alternatives de l'électronique classique binaire.

La théorie estime que l'on peut assembler jusqu'à 40 électrons ou qbits (au-delà de ce nombre le système quantique se lie à son environnement microscopique et perd ses propriétés), ce qui donne une possibilité de calcul de 240 par système.

On perçoit l'intérêt d'utiliser ces propriétés pour les appliquer aux ordinateurs, dont la puissance de calcul serait augmentée dans des proportions considérables, au-delà de l'imaginable.

Une note du poste scientifique français de San Francisco donne une description plus détaillée de ces possibilités :

« Dans un ordinateur quantique le support physique traitant l'information obéit aux lois de la physique quantique. Les bits deviennent des qubits et sont constitués de systèmes à deux niveaux. Un qubit peut être dans une superposition cohérente de ses deux états. Un registre, constitué d'un ensemble de qubits, peut également être dans une superposition cohérente de différents états. En d'autres termes le nombre écrit dans un registre peut prendre plusieurs valeurs à la fois. La manipulation d'un tel registre dans un ordinateur quantique permet l'exploration simultanée de situations correspondant aux différentes valeurs du registre. Les informations appropriées extraites du calcul tirent alors parti d'effets d'interférence. Le résultat obtenu dépendra alors des différents chemins suivis par les différentes valeurs du registre. Les superpositions quantiques peuvent être non-séparables, c'est-à-dire que seul l'état de l'ensemble du registre est connu sans que l'on puisse déterminer l'état d'un seul qubit. La quantité d'information contenue dans ces états non-séparables (ou intriqués) est exponentiellement plus grande que dans un système classique de même taille. Ce « parallélisme » quantique permet donc l'exploration d'un espace bien plus grand pour un nombre d'opérations donné. »

Les approches expérimentales d'application de cette théorie sont assez nombreuses17(*).

Elles portent sur deux domaines essentiels :

- tout d'abord, la réalisation d'une porte logique élémentaire, c'est-à-dire le couplage de deux systèmes quantiques pour que l'état de l'un modifie l'état de l'autre,

- puis, l'augmentation progressive du nombre de ces systèmes couplés pour arriver à former un ordinateur.

Étant précisé que les difficultés résident principalement dans le confinement dans un très faible volume de qbits en nombre significatif (de 10 à 40 qbits), ceci à température ambiante.

Même si les applications de masse de ces recherches sont à très long terme, probablement à un horizon plus lointain que celui de l'informatique moléculaire, certaines applications de la théorie des quanta pourraient avoir des débouchés dans un avenir plus proche.

Ainsi, les techniques de points quantiques, qui sont des boîtes quantiques (c'est-à-dire des zones conductrices isolées du reste du circuit), d'une dimension qui peut être réduite jusqu'à 30 nanomètres, ont déjà permis de réaliser des transistors à un électron.

De même, la cryptographie quantique, dont l'intérêt réside dans le fait que tout observateur extérieur modifie le message et donc le détruit. Mais la difficulté d'application de cette technique réside dans son faible débit. Par exemple dans une expérience de cryptographie effectuée sous le lac Léman, le support du message était des photons émis un à un dans de la fibre de verre.

v l'informatique ADN 

Les perspectives pratiques offertes par le bionique, c'est-à-dire la mise en ligne de cellules vivantes et d'électronique, sont très lointaines et se chiffrent en décennies.

Il est cependant possible d'évoquer une étape intermédiaire, l'informatique ADN.

L'informatique ADN essaie de s'inspirer d'un modèle assez performant d'ordinateur existant dans la nature, à savoir un organisme vivant. Considérer les réactions de biologie moléculaire comme des échanges d'information entre des séquences ADN ouvre des perspectives nouvelles très intéressantes qui sont apparues il y a seulement cinq ans.

Une molécule d'ADN est composée de deux chaînes imbriquées selon une double hélice. Chaque chaîne est composée d'une séquence de 4 « nucléotides », dénommés A, T, G, C. L'assemblage de ces deux chaînes obéit à des règles très simples. Seules les liaisons A-T et C-G sont possibles. Autrement dit une chaîne d'ADN ne peut s'associer qu'avec une chaîne contenant une séquence complémentaire.

La séquence d'une chaîne représente une information qui ne peut s'associer qu'avec la séquence complémentaire. C'est cette propriété qui est à la base de l'informatique ADN. Pouvoir faire évoluer un très grand nombre de molécules (~1018) dans un même tube à essai représente donc un calcul massivement parallèle. En effet, toutes les possibilités d'associations sont explorées, et en analysant la composition de la solution par des techniques très performantes de la biologie moléculaire, on est capable d'extraire le résultat de calcul (mais avec beaucoup de mise en oeuvre technologique et sur des problèmes très simples).

Plusieurs applications de ces recherches (notamment dans les domaines médicaux ou cryptographiques) sont envisageables.

Une des voies prometteuses sur laquelle plusieurs équipes travaillent est l'élaboration et l'autoassemblage des « briques » d'ADN afin de construire des nanocircuits électroniques.

c) Rupture ou continuité ? Unité ou diversité ?

Se projeter à quinze ans pour discerner des évolutions de fond dans un domaine où les acquis fondamentaux et les poussées technologiques sont très rapides peut s'apparenter à un exercice de chiromancie.

Cependant, avec toute la prudence qui est de mise dans ce domaine, on ne peut pas se dispenser d'essayer d'évaluer les perspectives à terme de la filière silicium, qui a pour une part porté la croissance mondiale depuis quarante ans.

Cette esquisse d'anticipation se fera sous deux approches :

La première, assez classique, concerne la rupture ou la continuité. En d'autres termes, devra-t-on effectuer d'ici une quinzaine d'années un changement de technologie ?

La question n'est pas académique, car compte tenu de la latence, d'au moins dix ans, entre les avancées fondamentales, leur développement et leur mise en oeuvre industrielle, il conviendrait de s'y préparer dès maintenant, et massivement.

La plupart des personnes entendues s'accordent à estimer que la filière silicium ne sera pas remplacée avant au moins quinze ans.

Pour plusieurs raisons.

D'abord, il ne faut pas minimiser les perspectives d'adaptation d'une filière très capitalistique et dont les moyens de recherche-développement sont considérables. Avant de passer aux ordinateurs quantiques ou moléculaires, il existe de nombreuses possibilités, explorées dès maintenant, pour développer la puissance des composants et diminuer leurs coûts de fabrication. Ces procédés aboutiront à repousser l'échéance prévue en 2014.

Ensuite, même si cela n'est pas impossible, il semble difficile d'imaginer une rupture scientifique et technologique complète qui aboutirait à supprimer brutalement la filière silicium pour la remplacer par une fabrication quantique ou moléculaire.

Enfin, la montée des microsystèmes, dont les perspectives du marché sont parmi les plus prometteuses du secteur, donne à penser que la filière silicium se maintiendra :

- d'une part, comme le montre le tableau ci-après, seule cette filière possède les techniques d'assemblage coordonnant un très grand nombre d'objets sur une surface très petite.

- et, d'autre part, parce que la maîtrise des nanoprocesseurs, et donc des systèmes d'information qui sont essentiels aux microsystèmes et nanosystèmes, s'intègrera à l'appareil de production de la filière silicium.

Aussi, plus qu'à une rupture, qui poserait des problèmes de coûts et d'adaptation des appareils de recherche-développement et de production quasiment insurmontables dans le moyen terme, on assistera très certainement à un croisement technologique progressif.

Mais la variété et la richesse des recherches et des développements technologiques suscitent une autre interrogation.

Depuis quarante ans, le secteur s'est développé, comme nous l'avons souligné à maintes reprises, de façon tout à fait unifiée.

Il est probable qu'il va maintenant se diversifier. Des domaines comme l'optoélectronique ou comme l'électronique des polymères sont appelés, dans les années à venir, à compléter ou à se juxtaposer à la filière silicium classique.

De plus, parallèlement à la multiplication des microsystèmes, il n'est pas non plus impossible que l'on assiste à une fragmentation des marchés, de multiples marchés de niches se développant à côté du secteur central de fabrication de microprocesseurs de plus en plus puissants et miniaturisés. Et, sur ce point, un des problèmes est de savoir si ces fabrications de niches seront assurées par des réseaux de PME innovantes ou, comme cela s'esquisse, pris principalement en charge par les grands fabricants.

* 11 Rappelons qu'un mm est un millième de mètre, un micron un millionième de mètre et un nanomètre un milliardième de mètre.

* 12 Récemment, ce record a été battu par une gravure à 9 nm de section.

* 13 C'est-à-dire de « l'évasion d'électrons » lorsque la couche d'isolant devient trop mince.

* 14 Suivant en cela le modèle de la fleur de lotus qui n'est jamais souillée par la boue dans laquelle elle croît.

* 15 Un cheveu, à l'échelle d'un nanotube de carbone, est un oléoduc à l'échelle d'un cheveu.

* 16 de quantum : combien ?

* 17 Mais les résultats sont encore très limités : on n'a réussi à factoriser avec un système quantique que le nombre 15.