Rapport de l'OPECST n° 138 (2002-2003) de M. Claude SAUNIER , fait au nom de l'Office parlementaire d'évaluation des choix scient. tech., déposé le 22 janvier 2003

Disponible au format Acrobat (2,1 Moctets)

N°566
ASSEMBLÉE NATIONALE

CONSTITUTION DU 4 OCTOBRE 1958

DOUZIÈME LÉGISLATURE

N° 138
SÉNAT

SESSION ORDINAIRE DE 2002-2003

Enregistré à la Présidence de l'Assemblée nationale

Annexe au procès-verbal de la séance du 22 janvier 2003

le 22 janvier 2003

OFFICE PARLEMENTAIRE D'ÉVALUATION

DES CHOIX SCIENTIFIQUES ET TECHNOLOGIQUES

RAPPORT

sur

l'évolution du secteur des semi-conducteurs et
ses liens avec les micro et nanotechnologies

par M. Claude SAUNIER, sénateur

Tome I : Rapport

Déposé sur le Bureau de l'Assemblée nationale

par M. Claude BIRRAUX

Président de l'Office

Déposé sur le Bureau du Sénat

par M. Henri REVOL

Premier Vice-Président de l'Office

Recherche.

Créé par la loi du 8 juillet 1983, l'Office parlementaire d'évaluation des choix scientifiques et technologiques, composé de députés et de sénateurs, a pour mission d'informer le Parlement sur les conséquences de ses choix à caractère scientifique ou technologique.

Les saisines, transmises par un des organes des deux assemblées, sont confiées à un rapporteur choisi parmi les membres de l'Office.

Celui-ci, après avoir procédé à des auditions et à des missions sur place et à la consultation d'experts, rend un rapport qui est soumis à l'approbation de l'ensemble des membres de l'Office, qui décident de sa publication.

Organisme exclusivement parlementaire, l'Office est totalement indépendant du Gouvernement et des administrations.

Le Sénat sur Internet :

http ://www.senat.fr

L'Espace Librairie du Sénat

20, rue de Vaugirard - 75006 Paris

Tél : 01.42.34.21.21

L'Assemblée nationale sur Internet :

http ://www.as

semblee-nationale.fr

Kiosque de l'Assemblée nationale

4, rue Aristide Briand - 75007 Paris

Tél : 01.40.63.61.21

INTRODUCTION

Quelques repères historiques

Les technologies électroniques sont plus anciennes qu'on ne le croit généralement. Dès la fin du XIX e siècle on avait démontré leur potentiel dans le domaine de la transmission sans fil.

Mais c'est à l' occasion de la seconde guerre mondiale qu'elles furent appliquées au calcul (et donc au traitement de l'information), et principalement par les Anglais dans le domaine du décryptage.

Également employés dans le projet « Manhattan 1 ( * ) » , les premiers calculateurs électroniques l'ont aussi été dans le guidage des bombardiers alliés. Mais ils étaient caractérisés par un rapport de puissance de calcul médiocre : la machine « ENIAC » consommait autant d'électricité qu'une ville moyenne pour une puissance de calcul inférieure à celle d'une calculette de poche actuelle.

Les principes scientifiques du transistor à semi-conducteurs ont été posés en 1947 et leur production commerciale a démarré dès 1954 ; certains d'entre nous se souviennent encore du passage des gros postes de radio à tubes aux « transistors ».

Mais c'est la réalisation des premiers circuits intégrés à partir des années soixante (puis des circuits à grande intégration dix ans plus tard) qui a donné un essor décisif à cette industrie.

Par rapport aux transistors ne remplissant qu'une seule fonction - transformation du courant fort en courant faible, gestion de l'énergie thermique dégagée par les systèmes, mémorisation -, les circuits intégrés ont constitué une novation essentielle, car, comme leur nom l'indique, ils peuvent regrouper des fonctions multiples (calcul, numérisation, commande), sur un seul ensemble.

Aujourd'hui , l' apparition des microsystèmes , qui associent les fonctions numériques des microprocesseurs, soit à des fonctions analogiques - comme dans les téléphones portables - soit à des capteurs d'environnement (magnétique, thermique, acoustique, etc.), marque un nouveau stade de développement des technologies électroniques.

Cette évolution doit se poursuivre puisque les applications nanoélectroniques des nanotechnologies se profilent à un horizon de cinq à dix ans.

Ces avancées technologiques ont donc été nourries par une maturation de plusieurs décennies. Nul ne pouvait alors prévoir ces applications, pas plus que l'on ne peut totalement cerner les applications des développements technologiques actuels.

Une anticipation raisonnée

Cette évolution a été rendue possible par un effort de miniaturisation qui a réduit, depuis 1960, la taille des composants d'un facteur dix mille 2 ( * ) .

Mais, tout autant que son amplitude, c'est la maîtrise de ce processus de miniaturisation qui étonne : il a été pensé, planifié et réalisé de façon constante et progressive depuis plus de quarante ans.

Nous en donnerons deux illustrations .

Dans une conférence tenue en décembre 1959 , à l'Institut californien de technologie, et devenue depuis mythique, le physicien américain Feynman s'était interrogé sur la possibilité de faire tenir les collections de la Bibliothèque du Congrès, du British Museum et de la Bibliothèque Nationale - soit 24 millions de volumes - sur une tête d'épingle de 1,5 mm de diamètre. Cet exemple à l'appui, il avait circonscrit les principales problématiques de ce qu'est devenue la microélectronique et de ce que sont appelées à devenir les nanotechnologies.

Cette anticipation mérite attention : c'est un peu comme si Watt avait pu rêver du TGV en inventant la machine à vapeur.

Depuis quarante ans, les spéculations de Feynman ont été constamment relayées - et mises en oeuvre - à l'aide de moyens humains et financiers impressionnants par la communauté scientifique et par l'industrie.

L'appel de Feynman a eu pour écho les formulations de Moore , qui en 1965, puis 1971, a énoncé, à l'appui des travaux sur les transistors, puis les microprocesseurs, sa célèbre loi aux termes de laquelle la puissance des composants doublerait, à taille égale, tous les dix-huit mois.

Le secteur des semi-conducteurs a répondu à cette axiomatique ambitieuse en réussissant, par sauts technologiques successifs, à organiser la réduction géométrique des composants.

Cette régularité du processus de miniaturisation a également été une des conditions de son succès. Linéaire lorsqu'on l'évalue sur longue période, il s'est effectué par paliers : chaque fois que l'industrie « sortait » une nouvelle génération de puces, la génération suivante était planifiée avec une constante de temps de trois ans.

En retour, cette lisibilité a permis aux clients des fabricants de composants d'anticiper les applications de chaque nouvelle génération de puces et a donc assuré à l'industrie électronique des marchés à terme, l'autorisant ainsi à mettre en oeuvre des coûts de recherche, de développement technologique et de fabrication de plus en plus élevés.

Des interrogations multiples

Mais à l'heure actuelle, la validité, ou tout au moins la régularité de ce schéma de progression ordonnée entre les avancées technologiques et la diffusion de leurs applications sociales est remise en question.

En effet, en réduisant la taille des sections de transistors (l'on est aujourd'hui à 130 nanomètres et l'on prépare la génération des 90 nanomètres), en s'approchant de « l'infiniment petit », la pente des coûts de recherche, de développement et de production des composants se raidit considérablement.

Dans le même temps que l' offre se renchérit , la demande de produits électroniques traditionnels (ordinateurs, téléphones portables, etc.) semble atteindre un palier qui la fait plafonner sans qu'elle soit clairement et massivement relayée par l'apparition de produits nouveaux que nous promettent les nanotechnologies. Car les produits nouveaux qui arrivent sur le marché ne sont que des substitutions numériques à des produits classiques (VHS en DVD, caméscopes en caméscopes numériques, etc.).

Aggravé par la crise financière et économique du secteur des nouvelles techniques de communication, ce décalage entre l'offre et la demande est, en lui-même, préoccupant.

En effet, les technologies microélectroniques ont été au coeur de la croissance économique 3 ( * ) du dernier demi-siècle, et leur croisement prochain avec les nanotechnologies va développer en aval les produits et les usages sociaux des vingt-cinq prochaines années.

*

* *

Les pistes de réflexion étant sommairement esquissées, on s'efforcera :

- de rappeler le caractère central pour l'économie mondiale du secteur des semi-conducteurs avec ses lignes de fragilité,

- de cerner les défis technologiques auxquels il est confronté et les espérances socioéconomiques qu'il porte,

- d'analyser l'ampleur des retards français et européens dans la compétition mondiale,

- et d'avancer des propositions pour la dynamisation d'une filière dont la promotion constitue une chance pour la France et pour l'Europe .

CHAPITRE I

LES « PUCES » : UNE RÉVOLUTION TRANQUILLE MAIS FRAGILE

Le paradoxe des composants électroniques est qu'ils irriguent la vie économique et façonnent les comportements sociaux tout en ayant une existence quasi confidentielle .

Peu d'objets sont aussi discrets qu'une puce de silicium , d'autant que sa complexité est occultée par son boîtier, qui n'a, lui, pas évolué depuis 30 ans .

Cette banalité exclut que l'on puisse percevoir qu'elle est à la fois un condensé de science et de développement technologique de très haut niveau et, dans le même temps, un facteur de progrès socio-économique sans égal depuis la généralisation de l'électricité .

Ce constat est assez naturel dans une société où la perception de la valeur s'est depuis longtemps déportée vers les services, le langage, les images et les réseaux. On s'intéresse plus volontiers aux applications de l'ordinateur personnel ou du téléphone portable qu'aux composants qui permettent de les faire fonctionner.

Pourtant, les semi-conducteurs sont omniprésents dans notre vie quotidienne et ont un poids décisif dans l'économie ; ils ont été à la source d'une révolution tranquille qui a porté une grande part de la croissance de l'économie mondiale depuis un demi-siècle .

A. UN SECTEUR DIRECTEUR DE L'ÉCONOMIE

1. Une omniprésence dans la vie quotidienne

La présentation dans une pièce unique d'un même objet, un téléphone par exemple, fabriqué à des dates différentes, permet d'illustrer les progrès techniques.

Or, si l'on comparait des objets de la vie quotidienne des années soixante à ceux de l'avant-guerre on observerait, certes, quelques différences. Mais si on les comparait à des objets de l'an 2000 ces différences seraient beaucoup plus accentuées ; elles seraient encore beaucoup plus nettes si on s'attachait aux services que nous rendent aujourd'hui ces objets.

Cette différence, l'addition progressive de ces plus-values minuscules dans notre vie quotidienne est, pour l'essentiel, imputable aux progrès de la microélectronique.

Depuis notre réveil par la radio jusqu'à l'extinction des lumières, nous sommes environnés d'objets dont les fonctionnalités n'existent que grâce aux composants électroniques.

Les deux tableaux qui suivent en donnent des illustrations qui ne prétendent pas à l'exhaustivité :

Mais l'influence des composants électroniques sur la vie socio-économique ne se mesure pas uniquement aux objets de notre vie quotidienne ou à leurs conséquences sur la mondialisation financière.

Dans un domaine vital pour l'économie mondiale, celui de l'énergie , la « main invisible » de l'électronique est tout aussi efficace . L'augmentation de la quantité d'énergie électrique produite dans le monde (6 500 milliards de Kwh actuellement) est inférieure de moitié à la croissance de la consommation.

L'ajustement de ces deux courbes sur une longue période n'a été rendu possible que grâce aux apports de l'électronique de puissance. L'amélioration des composants, le renforcement de leur intégration dans les systèmes de gestion de l'électricité et la miniaturisation ont contribué à accroître la quantité d'énergie électrique disponible à puissance initiale identique. Et ceci qu'il s'agisse d'une centrale nucléaire ou d'un appareil de traction de TGV.

Dans ce cas encore, la contribution directe de la microélectronique aux économies d'énergie, ou à ce que l'on appelle maintenant le développement durable, est décisive mais demeure confidentielle.

*

* *

Il serait possible d'énumérer sans fin les domaines, comme l'espace, ou la médecine, où les avancées technologiques du secteur améliorent notre vie et structurent nos usages sociaux ; il en est un, cependant, qui doit être mentionné plus particulièrement dans un rapport de l'Office parlementaire d'évaluation des choix scientifiques et technologiques : l'accélération du progrès scientifique .

L'agrégation de la puissance de calcul, la miniaturisation des appareillages, les progrès de la métrologie vers l'infiniment petit ont considérablement accru l'éventail instrumental de nos chercheurs et leur ont permis de créer et de tester de nouveaux concepts.

2. Un poids croissant dans l'économie mondiale

L'introduction de la puissance de traitement de l'information dans les objets de notre vie quotidienne s'est faite progressivement.

Elle nous est toujours apparue évidente alors qu'elle a reposé sur un effort scientifique et technologique d'une durée et d'une ampleur financière très supérieures à celui du programme Apollo.

Seul cet effort a permis à l'industrie des semi-conducteurs de vivre depuis quarante ans dans un rapport de coûts exponentiellement décroissant .

En 1973 le prix d'un mégabit de mémoire électronique équivalait à 75 000 € ; il est aujourd'hui de 5 centimes d'€, soit une réduction de coût d'un facteur d'un million et demi en trente ans.

C'est une des raisons du poids croissant des semi-conducteurs dans l'économie mondiale.

Mesurée par l'importance de son chiffre d'affaires mondial, la croissance de l'industrie électronique est spectaculaire : ce chiffre de 1,5 milliard de $ en 1965 est passé à 25 milliards de $ en 1985, à 144 milliards de $ en 1995, à 200 milliards de $ en 2000, et devrait s'approcher de 300 milliards de $ en 2005 4 ( * ) .

La masse financière de cette industrie qui, dès 1995, pesait d'un poids égal aux industries de l'armement et de l'aviation civile réunies, équivaudra en 2005 à celle des exportations de l'OPEP.

Le caractère quasi hyperbolique de cette croissance est illustré par le tableau ci-après :

Mais tout autant que cette progression spectaculaire, il nous faut insister sur l'effet de levier que représentent les semi-conducteurs. Ce secteur, qui ne représente que moins de 1 % d'un PNB mondial évalué à 28.000 milliards de $ en 2000, est devenu un acteur central de l'économie mondiale.

C'est ce que les spécialistes appellent « la pyramide inversée » de la filière silicium, et qu'illustre le tableau suivant : avec 200 milliards de $ de chiffre d'affaires, le secteur des semi-conducteurs contribue à générer 1.000 milliards de $ de chiffre d'affaires dans les industries électroniques, et 5.000 milliards de $ dans le secteur des services.

Pour décliner plus précisément la création de valeur ajoutée en aval par le secteur des semi-conducteurs, on donnera l'exemple suivant : pour 30 milliards de $ de semi-conducteurs achetés par les équipementiers, on crée 200 milliards de chiffre d'affaires de ventes de téléphones portables et 500 milliards de chiffre d'affaires chez les opérateurs.

3. Une diffusion technologique de plus en plus prévalente

Un ratio simple permet d'évaluer les potentialités de progression des consommations intermédiaires de semi-conducteurs.

Actuellement, le nombre de transistors consommés annuellement par habitant de la planète est de l'ordre de 50 millions 5 ( * ) (nombre moyen, donc indépendamment des inégalités de répartition de cette consommation). Ce nombre devrait passer à 200 millions en 2005 et à 1 milliard en 2010, soit une augmentation d'un facteur vingt.

Cette forte croissance potentielle du secteur, dans un contexte où certains de ses marchés - comme l'informatique - plafonnent, s'explique par une double extension, géographique principalement en Asie, et technique par l'incorporation croissante des semi-conducteurs aux objets de la vie quotidienne.

Les tableaux ci-après, qui évaluent les marchés à venir de la téléphonie mobile et des décodeurs numériques, en fournissent une illustration :

Ces prévisions pourraient sembler exagérément optimistes, mais elles ne font qu' extrapoler une courbe d'expérience qui date de la naissance de l'industrie des semi-conducteurs .

A l'origine, les équipements électriques incorporaient peu de microprocesseurs. Par exemple, un téléviseur du début des années soixante ne devait qu'un vingtième de sa valeur ajoutée aux puces. Un téléviseur d'aujourd'hui trois fois plus.

De même, le contenu d'un ordinateur personnel de la fin des années quatre-vingt en semi-conducteurs n'était que de l'ordre de 15 %. Aujourd'hui il est de 40 %.

On qualifie ce phénomène de « pervasion » du silicium , c'est-à-dire l'incorporation croissante de microprocesseurs de plus en plus performants et miniaturisés aux objets de la vie quotidienne .

Encore est-il nécessaire sur ce point de considérer que cette pervasion a, jusqu'ici, concerné des biens classiques. Comme l'ont mis en évidence les auditions effectuées par votre rapporteur, une évolution est en train de s'amorcer. Des produits, on passera aux produits-services , c'est-à-dire à des biens que l'on acquerra de moins en moins pour leur valeur intrinsèque que pour leur usage. Le téléphone mobile en est un exemple, comme l'automobile. Le béton intelligent ou les textiles intelligents en seront un autre demain.

Ce qui est vrai des consommations individuelles l'est encore plus des consommations industrielles. Car d'une économie de marché classique on va, peu à peu, passer à une économie de réseaux à flux continu où l'importance des semi-conducteurs est encore appelée à croître .

Mais ce secteur, qui a porté une grande part de la croissance de l'économie mondiale et des modifications presque incessantes de nos habitudes de vie depuis près de quarante ans, est aussi une industrie qui a ses facteurs de fragilité .

B. UNE INDUSTRIE PARADOXALEMENT FRAGILE

L'histoire industrielle, pourtant très récente, de la microélectronique est jalonnée d'autant de succès économiques et financiers qu'en leur temps celles des chemins de fer ou de l'électricité.

Pourtant, ce secteur économique, dont la croissance moyenne est de 15 % par an depuis une trentaine d'années, et qui irrigue en aval, de façon décisive, non seulement l'industrie mais également les services, est paradoxalement fragile.

Cette fragilité résulte principalement des conditions de constitution de son offre et de sa confrontation avec une demande mondialisée et très aléatoire.

Ceci induit des situations très mouvantes, tant entre nations qu'entre entreprises, et exacerbe les tentations de concentration.

1. Les données de la confrontation de l'offre et de la demande

a) Les contraintes pesant sur l'offre : la malédiction de la loi de Moore ?

La prophétie de la loi de Moore , évoquée en introduction, s'est à peu près vérifiée : le premier microprocesseur contenait 4 000 transistors, les plus récents en regroupent, sur une même surface, près de 80 millions.

Mais cette mise en perspective, qui a depuis trente ans imprimé une dynamique technologique impressionnante au secteur, porte en elle-même ses limites :

- le renchérissement parallèle des coûts de fabrication, c'est-à-dire de recherche, de développement technologique et de production (que Moore avait également envisagé),

- le dépassement de l'homme par la vitesse de la technologie qu'il met en oeuvre, qui se traduit par des problèmes de conception et de formation et d'usages.

La croissance quasi-exponentielle des coûts

- Les coûts de recherche et de développement

La chaîne, classique dans les productions de haute technologie, « recherche académique/développement technologique/recherche appliquée » est extrêmement intégrée dans la filière microélectronique.

C'est une des raisons du succès de ce secteur depuis trente ans, mais c'est également aujourd'hui une source de problèmes.

Car cela signifie que les industries du secteur doivent simultanément :

- améliorer l'ingénierie de production de la génération de puces en fabrication,

- assurer le développement de la génération suivante à un horizon de 3 à 4 ans auparavant et de 2 à 3 ans maintenant ,

- et canaliser les efforts de recherche fondamentale pour préparer les générations ultérieures.

Il en résulte que le pourcentage de chiffre d'affaires directement réinvesti dans la recherche-développement par le secteur est de l'ordre de 15 % - ce qui en fait un des plus élevés de toute l'industrie.

A eux seuls, par exemple, en 2001, les fabricants américains de semi-conducteurs ont exposé pour 12 milliards de $ de dépenses 6 ( * ) de recherche-développement.

Ce coût de recherche-développement a tendance à s'accroître très rapidement en valeur absolue.

Par exemple, en quinze ans, les dépenses de recherche-développement de très grands fabricants européens sont passées de 250 millions à 2.500 millions d'euros, soit une progression d'un facteur dix.

Cette pesée sur les coûts amont est amplifiée par deux phénomènes :

tout d'abord , l'accélération des séquences menant de la recherche au développement technologique et du développement technologique à la production. A titre d'illustration, les grandes entreprises de semi-conducteurs commencent à mettre en oeuvre des lignes de production de microprocesseurs avec des transistors de taille de section de 130 nm, mais doivent en même temps investir dans la prochaine génération de 90 nm qui commencera à être mise en oeuvre d'ici deux ans, et préparer à l'horizon 2006-2007 la génération des 70 nm.

De fait, on assiste, depuis 1995, à une accélération des sauts technologiques qui n'interviennent plus tous les trois-quatre ans, mais plutôt tous les deux-trois ans. Avec les dérives de coût que l'on peut imaginer.

ensuite , il est clair qu'au fur et à mesure que l'on va vers le toujours plus petit, les coûts augmentent du fait de la sophistication croissante des équipements et de la nécessité d'augmenter les équipes de chercheurs et de développeurs pour faire face à des contraintes physiques de plus en plus diversifiées.

Cette poussée des charges de recherche a une conséquence indirecte assez préoccupante : elle pèse tout autant sur les coûts des recherches publiques menées très en amont et sur ceux des développements technologiques.

A titre d'illustration, le coût estimé des équipements de base d'un laboratoire (par exemple une « salle blanche » dont les fluides doivent être vierges d'impureté, coûte au moins un million d'euros pour 100 m², un appareil de lithographie élémentaire de 2 à 3 millions d'euros). Les frais de fonctionnement de ce type d'installation sont du même ordre de grandeur. Mais il ne s'agit que des équipements de base d'une unité de recherche simple.

Pour donner une idée de ce que coûte réellement une très grande unité de recherche et de développement technologique de dimension internationale , on peut citer l'exemple du centre de recherche et de formation en nanotechnologies en voie de constitution auprès de l'université d'Albany, dans l'État de New-York. Le coût des bâtiments est de l'ordre de 250 millions d'euros, mais le coût des équipements qu'il est prévu d'y implanter est évalué entre 1 milliard d'euros (hypothèse basse) et 1,5 milliard d'euros (hypothèse haute) .

- Des lignes de production de plus en plus chères

Les contraintes de production sont de plus en plus lourdes.

Le rapport fait figurer en annexe de cette étude le détail du processus de production des microprocesseurs.

Pour fabriquer un disque de 300 mm sur lequel sont imprimés près de deux milliards de transistors sur 250 microprocesseurs, il est nécessaire que celui-ci fasse l'objet de 700 opérations différentes, qu'il soit aplani avec des tolérances de l'ordre d'un Angström (10 -10 m), soumis à des fluides dont les taux d'impureté admissibles sont de l'ordre du milliardième, testé à chaque stade de l'élaboration du produit, et que la moindre poussière dans des objets dont la taille approche le dixième de micron peut aboutir à porter au rebut toute une journée de production.

Ce processus de production dure de 4 à 8 semaines. N aturellement, au fur et à mesure que la taille des composants se réduit, le cahier des charges de production de l'infiniment petit s'épaissit : les coûts des équipements sont à l'échelle des défis technologiques qu'ils sont destinés à surmonter.

La visite de Crolles le confirme. Cette usine, qui est l'une des plus modernes du monde, fabrique près de Grenoble des disques de 300 mm. Les appareils de photolithographie destinés à une seule étape du processus de fabrication y coûtent 20 millions d'euros l'unité , et il en faut plusieurs dizaines .

Autre exemple, les masques servant à cette photolithographie, et que l'on doit changer périodiquement, coûtent 100 000 euros pièce et la fabrication d'un circuit intégré nécessite 30 masques différents.

De ce fait, en plus des 15 % du chiffre d'affaires de réinvestissement dans la recherche, le secteur provisionne en moyenne annuellement 20 % de ce chiffre pour le passage de ces installations de production d'une génération à l'autre.

Ceci explique que les courbes de coût de ces installations sont très ascendantes.

Une usine servant à fabriquer des disques de 200 mm coûtait 1,5 milliard de $ en 2000, en 2003 pour des disques de 300 mm le coût correspondant sera de 2,5 milliards de $ et en 2010, pour des unités de 450 mm 7 ( * ) , de l'ordre de 6 milliards de $. Soit, dans ce dernier cas, le coût de quatre centrales nucléaires.

L'intensité capitalistique de cette industrie peut également se mesurer par la répartition directe des coûts d'exploitation d'une usine de 300 nm :

- le matériel de production y représente 7 % des charges,

- le personnel et les services externalisés 22 %,

- l'amortissement des bâtiments 4 %,

- et l'amortissement de l'équipement 67 %, soit plus des deux tiers des coûts d'exploitation .

Le risque de surpassement des hommes par les technologies qu'ils mettent en oeuvre

La course à la puissance miniaturisée, constante et presque acharnée, du secteur de la microélectronique a été une réussite. Elle s'est adossée à une intensité capitalistique croissante.

Mais le succès de cette démarche a créé des goulets d'étranglement humains qui sont, à terme, autant de facteurs de fragilité. Et en particulier ceux qui ont trait à la CAO (la conception assistée par ordinateur) et à la formation des personnels.

Cette évolution est préoccupante car le capital financier n'est plus le seul facteur de production. La gestion de la connaissance devient tout aussi décisive.

- Les incertitudes de la CAO

En amont de la fabrication proprement dite des microprocesseurs, leur configuration est établie grâce à une conception assistée par ordinateur (CAO).

Pour aboutir à la création des masques nécessaires à la fabrication, celle-ci doit assurer plusieurs opérations :

• Au niveau élémentaire :

Ø Simuler le comportement individuel des transistors : tensions, intensités, charges, délais, etc. car il existe plusieurs formes de transistors

Ø Simuler le comportement des interconnexions et interactions

• Et au niveau collectif :

Ø Définir les spécifications des circuits

Ø Définir l'organisation et simuler mathématiquement le comportement collectif des :

ü dispositifs élémentaires : portes et/ou/non, point mémoire, etc.

ü dispositifs analogiques de base : convertisseurs numérique/analogique, dispositifs de filtrage

ü ensembles complexes : cellules (Unité arithmétique et logique, mémoire cache, décodeur, etc.)

ü microprocesseurs et systèmes sur puce : simulations de fonctionnement complet, y compris le logiciel.

Pour imaginer la complexité de cette activité, il faut savoir qu'un microprocesseur est 10 000 000 de fois plus petit que Paris, mais qu'il doit intégrer, sur une surface d'1,4 cm 2 , les mêmes implantations d'habitation et de fonctionnement (voiries, fluides, galeries souterraines, transports, etc.) que la ville toute entière.

Cette activité de la CAO est essentielle, et il est capital qu'elle soit conduite avec exactitude.

Une erreur majeure et non détectée dans la conception peut avoir pour effet de retarder la mise en oeuvre d'une ligne de production coûtant plusieurs milliards d'euros, comme c'est arrivé il y a quelques années à un des plus grands industriels du secteur.

Or, la conception assistée par ordinateur enregistre des retards inquiétants. Et son taux d'erreur est devenu plus élevé en modélisation qu'en prototypage de production.

En premier lieu, sa vitesse de réaction est médiocre . Ceci se traduit par une accumulation d'architectures déjà anciennes qui font qu'une partie des progrès de puissance dus à la miniaturisation technologique sont absorbés par la redondance et l'obsolescence des architectures.

Ensuite, sa productivité est insuffisante . Elle ne croît que de 20 % par an alors que le taux de complexité des technologies auxquelles elle s'applique croît de 58 % par an.

Ceci s'explique par le fait que cette activité est très consommatrice en moyens financiers (les grandes entreprises investissent autant sur la recherche en CAO que sur les recherches en technologie) et en hommes (on estime, par exemple, que si la conception proprement dite d'un microprocesseur mobilise 100 ingénieurs par an, la modélisation de celui-ci en mobilise plus du double).

La question se pose désormais de savoir si la CAO pourra suivre le rythme de progression de la technologie, parce qu'il ne sera pas possible, faute de ressources suffisantes, de poursuivre la progression géométrique des recrutements d'ingénieurs dans cette spécialité.

Dans un proche avenir, les difficultés de la CAO risquent de se multiplier .

D'une part , parce que dans le domaine des composants numériques la réduction continuelle de la taille des composants accroît plus que proportionnellement les défis de leur modélisation.

S'il est déjà difficile de modéliser l'architecture de microprocesseurs où l'on place 32 000 transistors sur la surface d'une section de cheveu, on conçoit que cette tâche ne va pas être simplifiée par le doublement ou le triplement de ces implantations.

Ainsi, la diminution de l'épaisseur des traits de gravure des masques fait qu'ils deviennent de plus en plus difficiles à modéliser. De même, la prise en compte des phénomènes thermiques devient plus aléatoire.

D'autre part , parce que la montée des microsystèmes et systèmes sur puce rend la conception de circuits de plus en plus difficile et de plus en plus exigeante.

Au-delà des interfaces classiques qu'il doivent modéliser (par exemple celle du silicium et de ses supports), les logiciels sont appelés à modéliser non seulement l'architecture des fonctions des microprocesseurs et leur comportement propre, mais également les interfaces de l'ensemble du microsystème (matériel/logiciel, analogique/numérique).

Les architectures de circuits et de systèmes sont de plus en plus appelées à s'imbriquer.

Or, si la modélisation des composants numériques - en dépit des incertitudes et des imperfections qui ont été relevées - est relativement automatisée, celle des terminaux analogiques ou des périphériques à l'échelle micrométrique (capteurs de pression et de chaleur, transpondeurs, etc.) s'effectue de façon trop artisanale, avec des coûts très lourds en productivité.

La formation des hommes

Les missions accomplies aux États-Unis et au Japon ont confirmé l'acuité d'un problème qui devient de plus en plus inquiétant : le déficit en formations scientifiques des grandes économies mondiales.

Ainsi, pour la seule Europe on estimait, en 2001, qu'il manquait 110 000 personnes dans les emplois qualifiés proposés par les secteurs de la haute technologie.

La baisse des vocations scientifiques est particulièrement préoccupante pour les grandes nations dont l'économie repose, en grande partie, sur les valeurs ajoutées technologiques de la production.

Il se décline, bien entendu, dans le secteur de la microélectronique.

En France, celui-ci a, par exemple, besoin de 800 ingénieurs de haut niveau (Bac+5 ou plus) par an. Ce chiffre correspond à peu près au nombre de formations dispensées par an par le Centre national de formation en microélectronique.

Mais l'appel de l'étranger (car le secteur est très largement mondialisé) et l'évasion vers des secteurs, plus rentables ou plus attractifs (commerce, banques), réduit le quota disponible de 50 %.

Les problèmes posés par ce déficit quantitatif se doubleront à terme d'une dimension qualitative.

La complexité croissante des systèmes, qu'il s'agisse du microsystème (pour lequel l'interface microélectronique/informatique se développe) ou des avancées des nanotechnologies (qui font de plus en plus appel à des compétences chimiques ou biochimiques ou biologiques) nécessite des formations interdisciplinaires de haut niveau.

Or, de façon assez logique, mais contradictoire, les systèmes d'enseignement supérieur sont plus conçus en fonction d'une spécialisation progressive que d'une intégration des savoirs .

À l'opposé, la multidisciplinarité des formations dispensées aux doctorants et aux ingénieurs va devenir de plus en plus nécessaire à la microélectronique.

*

* *

Au total, ce qui a fait la force du secteur de la microélectronique - rassembler des moyens humains et financiers de plus en plus massifs pour produire des composants de plus en plus puissants et de moins en moins chers pour des applications de masse - pourrait se transformer en faiblesse.

Les incertitudes financières et humaines qui pèsent sur la constitution de cette offre et risquent d'en entraver le rythme de progression pourraient se multiplier, du fait de sa confrontation avec une demande qui devient de plus en plus aléatoire.

b) Une demande traditionnellement heurtée et qui devient plus incertaine

des cycles de marchés très brutaux

Depuis la rupture du quasi-monopole américain au milieu des années soixante-dix, le secteur de la microélectronique a été un des premiers domaines d'activité largement mondialisés en recherche comme en production 8 ( * ) .

Il est donc entièrement soumis aux aléas de la demande mondiale et son cycle de recherche et de production, nous l'avons vu, est particulièrement long et coûteux.

Ces deux caractéristiques font de la microélectronique un secteur industriel plus soumis à l'aléa que la norme .

Entre le début du développement d'une nouvelle génération de « puces » et sa mise en ligne de production, il s'écoule plusieurs années, période pendant laquelle le risque financier est entièrement supporté par les fabricants.

Mais ce risque financier, déjà beaucoup plus lourd que dans d'autres activités, se double d'un risque industriel non négligeable.

Le moment de mise sur le marché peut être doublement décalé par rapport à la conjoncture mondiale, mais également par rapport aux marchés des produits qui incorporent des puces.

Dans la mesure où une des raisons du succès de cette industrie est d'être parvenue à irriguer de plus en plus les produits grand public, les conséquences de ce décalage sont de plus en plus importantes et, notamment dans les domaines de l'informatique et des télécommunications qui ont représenté, en 2000, plus des deux tiers des débouchés de l'industrie.

En outre, un des facteurs de succès dans cette industrie étant la rapidité de réaction aux demandes du marché, les ressauts de demande aboutissent à des surcapacités de production dont les conséquences sont très sévères lors des retournements de conjoncture .

Comme le montre le tableau suivant, le marché a connu depuis quarante ans de nombreuses crises :

Il est, au demeurant, assez difficile de caractériser ces crises sur de longues périodes ; elles ont été d'ampleur et d'intérêt très variables.

L'interrogation de cette série historique n'a pas qu'un intérêt rétrospectif, car après une croissance particulièrement spectaculaire en 2000 (204 milliards de $ de chiffre d'affaires), le secteur a connu une récession en 2001 et une stagnation en 2002, autour du chiffre d'affaires de 1999 (140 milliards de $). Ce ralentissement, qui a suivi la crise de surcapacité de 2001, va-t-il se poursuivre ?

Et la question se pose ici de savoir si le secteur - dont l'activité est naturellement liée aux tendances de l'économie mondiale - n'a pas également des cycles qui s'en différencient.

Le débat n'est pas académique car les coûts de recherche et de production ( cf. supra ) ont été multipliés par 7 depuis 1990, alors que le chiffre d'affaires du secteur n'a été multiplié que par 3,5 depuis cette date.

A ce rythme, il est nécessaire que la microélectronique puisse s'adosser à de nouvelles applications de masses relayant des usages qui semblent actuellement s'essouffler.

Un palier d'usages

Si l'on examine sur une longue période les écarts de croissance du chiffre d'affaires du secteur par rapport à sa tendance moyenne (+ 13 % 9 ( * ) par an), on s'aperçoit que ces écarts à la moyenne sont :

- synchrones avec les tendances lourdes de l'économie mondiale (par exemple le choc pétrolier et « stagflation » à la baisse ou, à l'opposé, à la hausse, la reprise américaine, puis mondiale),

- mais également concomitants, à la hausse, avec l'apparition de nouveaux produits (audio-vidéo dans les années soixante, puis PC) ou de nouveaux usages (Internet et téléphonie mobile), et, à la baisse, avec la saturation des marchés de ces produits.

La récession actuelle du secteur est imputable à la superposition d'un ralentissement de l'économie mondiale (qu'étant à la pointe du progrès, il accuse de façon plus accentuée) et à l'apparition d'un palier d'usages.

Certes, les professionnels du secteur estiment, à juste titre :

- qu'il existe des forts gisements potentiels de demande sur les marchés asiatiques, dont les populations nombreuses ne sont pas encore saturées d'ordinateurs et de téléphones,

- que le rythme d'amortissement (de l'ordre de 3 ans) de ces équipements sur les marchés saturés (États-Unis, Europe, Japon, Corée) restera un facteur d'activation, sinon de reprise marquée, de la demande,

- et que l'on assiste, peu à peu, à une substitution significative de nouveaux produits numériques aux produits analogiques (DVD, photo numérique, musique numérique, caméscope numérique, etc.). Même si sur certains de ces secteurs (comme la musique), l'évolution est ralentie par certains acteurs qui n'arrivent pas à mettre en place un « modèle d'affaires » pertinent.

Mais ces espérances légitimes ne portent que sur les possibilités d'une sortie cyclique, somme toute classique après chaque ralentissement de la demande .

Le palier d'usages qui affecte le secteur des microprocesseurs, ou plutôt ses clients directs des télécommunications, de l'informatique ou des industries électriques, est d'une toute autre ampleur.

Depuis au moins trente ans, la progression ordonnée du secteur des microprocesseurs a été assise sur le schéma suivant : la visibilité donnée à un terme de quatre à cinq ans, horizon de préparation d'une nouvelle génération de puces, permettait aux industries de concevoir et de préparer des applications de masses, dont le succès permettait à l'industrie des semi-conducteurs de préparer, à nouveau, la génération suivante.

Or, actuellement, les usages des équipements et des services de base, dont les succès de la microélectronique ont permis le développement (ordinateurs de bureau, téléphones mobiles, décodeurs, etc.) sont entrés dans les moeurs. À l'opposé, les biens d'équipement ou les services nouveaux, bien qu'annoncés, ne sont pas encore disponibles et, surtout, pas encore appropriés.

Le succès foudroyant de la téléphonie mobile s'explique très largement par la translation d'un usage fixe et acquis, correspondant à une double solvabilité, en argent et en temps.

C'est loin d'être le cas de la société de l'information et de son principal support, l'économie d'Internet 10 ( * ) .

Les transports ont connu trois révolutions technologiques en un siècle (chemin de fer, automobile et avion). Mais, à chaque fois, une latence de plusieurs dizaines d'années a été nécessaire pour que ces avancées fassent l'objet d'une appropriation de masse.

L'industrie des semi-conducteurs a effectué sept sauts technologiques majeurs en quarante ans ; le corps social les a absorbés assez rapidement.

Mais, aujourd'hui, le modèle sociologique de cette absorption, en fin de compte très rapide, vacille ou observe une pause.

Ce qui est proposé par les progrès de la microélectronique, ce n'est rien moins qu'une modification profonde de nos usages et de nos comportements.

On n'en donnera que deux exemples :

- le modèle d'une société reposant de plus en plus sur une symbiose de l'homme et de ses artefacts , dans des univers de plus en plus communiquants, préfigure l'avenir, mais n'est pas acquis : les produits correspondants n'existent pas et les structures sociales correspondantes ne sont pas prêtes. La lenteur relative de la mise en place de l'économie de l'Internet en est une illustration ;

- de même, il est probable que l'on n'a pas encore mesuré les conséquences, ni établi le cheminement de la constitution de ce qu'une des personnes entendues appelait le « quatrième secteur » , dédié à la production de biens immatériels comme le secteur des services, mais dont le caractère reproductible diminue le coût du facteur humain par rapport aux services.

2. Une hiérarchie mondiale traditionnellement très mouvante et actuellement caractérisée par une forte tendance à la concentration et à la diversification des métiers

a) La volatilité des hiérarchies

Lorsque l'on examine sur une longue période l'évolution du secteur, on s'aperçoit qu'aucune situation n'est acquise dans le terme.

- Par grandes régions géographiques

Ainsi, les États-Unis, qui assuraient 55 % de la production mondiale en 1978, n'en fournissaient plus que 37 % dix ans plus tard, pour recouvrer aujourd'hui une grande partie de leur position perdue.

A l'opposé, le Japon assurait 30 % de cette production en 1978, 50 % dix ans plus tard, et moins de 30 % en 2000.

Mais de façon assez surprenante - compte tenu des coûts d'accès technologique au secteur - celui-ci est perméable à l'intrusion de nouveaux arrivants. La zone asiatique (hors Japon) qui était quasiment absente du marché en 1985, en détient 10 % en 2000.

- Par entreprises

Les fluctuations de situation entre les grandes zones géographiques sont doublées d'allées et venues du même ordre entre entreprises :

Ainsi, derrière le leader incontesté (Intel), se profile un premier peloton de grandes entreprises généralistes avec des chiffres d'affaires très voisins (Toshiba, STMicroelectronics, Samsung, Texas Intel, NEC). Puis les autres compagnies s'éloignent rapidement, avec des parts de marché de plus en plus faibles. Il est à noter que seul Intel a plus de 5 % de parts de marché.

b) Deux tendances simultanées à la concentration et à la diversification des métiers

Le double impact de la crise et de la montée des coûts produit ses effets sur un secteur plus sensible que la moyenne aux variations de son environnement industriel et économique.

Deux tendances se dessinent : la concentration et la diversification des métiers.

La concentration

Jusqu'à la crise de 2001 , le secteur des semi-conducteurs se caractérisait par un affaiblissement de la concentration des acteurs .

Sur les deux dernières décennies, les parts de marché des 10 premières sociétés étaient tombées de 56,8 % en 1980 à 54,7 % en 1990, puis à 47,9 % en 2001.

Les parts de marché des 20 premiers opérateurs avaient enregistré le même mouvement : 81,2 % en 1980, 76,3 % en 1990 et 67,9 % en 2001.

Cette tendance est en passe de s'inverser.

Compte tenu des coûts actuels d'une usine de fabrication de disques de 300 mm, on estime que seules les sociétés qui possèdent un chiffre d'affaires annuel supérieur à 7 milliards de $ peuvent mettre en oeuvre les investissements correspondants.

Si on réfère cette donnée au chiffre d'affaires des principales sociétés mondiales en 2001, on s'aperçoit que seules les cinq premières sociétés répondaient à ce critère (étant précisé qu'à elle seule, la première de ces sociétés, Intel, y répond quatre fois, alors que les quatre suivantes ne font que s'en approcher).

Mais cette pesée sur les coûts se duplique d'une pesée sur les marges.

En effet, les principaux acheteurs de semi-conducteurs se regroupent. En 1980, ils représentaient 30 % des achats, en 2001, 59 %, et on estime qu'en 2007 ils représenteront 88 % de ces achats.

Cette concentration a pour conséquence l'altération des marges des fabricants.

La crise, la nécessité de maintenir des dépenses de recherche-développement et de production à un niveau élevé, et la pesée sur les marges poussent à la concentration.

Indirectement, tout d'abord , puisqu'il est probable que l'équation économique qui résulte de ce mouvement aboutira à l'élimination d'un certain nombre d'acteurs du marché.

Directement ensuite , car les fabricants de composants mutualisent les risques de recherche-développement et commencent à mettre en commun leurs ressources pour monter des lignes de production.

Il existe déjà une alliance internationale, la SEMATECH (cf. 2 e partie), qui a pour objet d'identifier les obstacles scientifiques et technologiques à la progression du secteur et dirige certains centres de recherche coopératifs.

Mais des alliances plus explicites se développent, comme celle conclue entre MTMicroelectronics, Philips et Motorola - en liaison avec le fondeur taïwanais TSMC autour de la plate-forme de Crolles et du pôle de recherche Minatec, animé à Grenoble par le CEA-LETI, et qui comprend des objectifs de mise en commun des développements technologiques comme d'installation de production.

Parallèlement à cette tendance à la concentration, se développe une autre tendance, apparemment contradictoire, à la diversification des métiers.

La diversification des métiers

Dans les années soixante, l'industrie des semi-conducteurs s'est développée conformément au modèle d'une intégration verticale totale.

Une société comme Motorola assurait alors en R&D la fabrication des équipements, le design complet des architectures, les tests, la production et l'encapsulage.

Depuis longtemps, pour répondre à la complexification du secteur, beaucoup de ces fonctions ont été externalisées : la conception et la fabrication des équipements, les logiciels de CAO ne sont pas, en majeure partie, assurés par les fabricants de composants.

Depuis quelques années, la structure elle-même des sociétés de fabrication de semi-conducteurs a fait l'objet d'évolutions divergentes.

Compte tenu de la hausse des coûts décrite antérieurement, de moins en moins d'acteurs sont en mesure d'assurer l'ensemble des opérations de recherche, de développement technologique et d'industrialisation.

Dès lors, à côté de ces sociétés se développent deux autres catégories d'intervenants :

Les « fabless », c'est-à-dire les sociétés qui ne possèdent plus en propre des lignes de production, parce qu'elles se sont transformées en prestataires de services technologiques, ou qu'elles font appel à des fondeurs (cf. infra).

Ces fonderies, extrêmement modernes, sont principalement installées à Taïwan, où deux entreprises, UMC et TSMC, détiennent 82 % du marché mondial pour un chiffre d'affaires de 5,5 milliards de $ en 2001 (contre 5 % pour la troisième société chartered, installée à Singapour).

Ce mouvement de diversification est doublement intéressant à relever :

d'une part du fait de son aire géographique principale, puisque les industriels taïwanais délocalisent à leur tour en République populaire de Chine, pays dont on estime qu'il deviendra à partir de 2010 le premier acheteur mondial de semi-conducteurs.

d'autre part, parce que le modèle taïwanais - qui s'est construit sur les aides exorbitantes des pratiques communes dans un secteur qui n'en est pas chiche indépendamment des proclamations libérales des uns et des autres - ne se limite pas aux seules fonderies, mais s'efforce de décliner la présence de ses entreprises dans une série de segments de la production (outre près des deux-tiers du marché mondial de la fonderie, les taïwanais ont près de 60 % du marché des masques ROM, 30 % du marché de l'encapsulage et 35 % du marché des tests).

Cela revient à dire que deux modèles de développement risquent, sinon de s'opposer, du moins de « cohabiter », à terme :

celui des très grands fabricants maîtrisant très en amont les développements technologiques, la conception et la fabrication des « puces »,

et celui d'une série d'intervenants prenant position sur tel ou tel maillon de la chaîne afin d'en capter des éléments de valeur ajoutée.

C. L'INDUSTRIE EUROPÉENNE DANS LE MARCHÉ MONDIAL

Dans les années quatre-vingt et quatre-vingt-dix, les industries européennes ont été très éloignées des centres de profit qu'ont constitué les ordinateurs et l'industrie des langages informatiques. A l'opposé, elles ont bien résisté dans d'autres secteurs liés à la microélectronique comme les télécommunications ou l'automobile.

Et une des surprises de l'étude a été de constater que dans un certain secteur aussi stratégique, les industries européennes, qui avaient pratiquement disparu en 1985, sont à nouveau présentes.

1. Les données du marché mondial

a) La demande par région (en 2001)

Ces données permettent d'appeler l'attention sur deux phénomènes :

- la place croissante de la zone Asie-Pacifique (hors Japon),

- et la relative sous-consommation de l'Europe en semi-conducteurs, qui, avec plus de trois fois la population du Japon et près d'une fois et demie la population des États-Unis, représente une part inférieure du marché.

b) la demande par application (en 2001)

On notera la part relative non négligeable d'applications en télécommunications et dans le secteur des transports, qui constituent une des zones de force de l'industrie européenne.

2. Les grandes entreprises mondiales

Sur l'ensemble de la chaîne de production des semi-conducteurs, c'est-à-dire en y incluant les équipementiers et les producteurs de logiciels pour la conception assistée par ordinateur, les Européens sont :

très dominés par les Américains et les Japonais dans le secteur des équipements (qui ont représenté 20 milliards d'euros de chiffre d'affaires en 2001), même si sur certains équipements les industries allemande et hollandaise résistent, et si le chiffre d'affaires des équipementiers français est très loin d'être négligeable sur d'autres niches.

Et à cet égard, même si notre part du marché mondial est faible (21,5 %), elle atteint 1,2 milliards d'euros par an et repose à la fois sur des leaders dans leur secteur (comme Air Liquide pour les gaz) et sur un réseau de PME très dynamiques sur certaines niches de production.

dépendants des Américains dans le domaine des logiciels de conception assistée par ordinateur.

Mais si l'on considère les très grands fabricants de semi-conducteurs qui mènent simultanément la recherche et le développement, la conception de microprocesseurs et de microsystèmes et la mise en oeuvre des lignes de production, l'industrie européenne occupe une place non négligeable.

Au total, dans un marché largement dominé par Intel, dont le chiffre d'affaires en 2001 (25 milliards de $) est à peine inférieur à celui des quatre sociétés suivantes, les trois sociétés européennes occupent un rang plus qu'honorable (le franco-italien STMicroelectronics est 3e, l'allemand Infineon 9e et le néerlandais Philips 10e).

A elles seules, ces sociétés européennes détiennent 10 % du marché mondial.

Encore doit-on souligner que ces sociétés occupent des positions significatives dans des secteurs à forte croissance potentielle (téléphonie mobile, cartes à puces, décodeurs, applications industrielles automobiles, etc.).

Ce redressement est imputable à plusieurs raisons :

- les sociétés européennes s'adossent à un système de formation universitaire et technologique encore performant :

- elles ont bénéficié et bénéficient encore des investissements effectués par les puissances publiques européennes en recherche de base et en développement technologique - même si sur certains points la récurrence de ces efforts tend à s'altérer de façon préoccupante,

- dans certains cas (en particulier à Dresde et à Grenoble), leur réussite est liée à l'implication de tous les partenaires nationaux et locaux, scientifiques et économiques.

Cet exemple permet, à nouveau, de souligner que toute politique industrielle dans ce domaine doit reposer sur une intégration de plusieurs facteurs :

- la lisibilité politique, financière et économique des projets dans le temps,

- le soutien à tous les segments technologiques d'une filière, y compris en premier chef à la formation,

- la mise en commun des efforts de tous les acteurs, nationaux et locaux, publics et privés.

*

* *

Une première analyse du secteur des semi-conducteurs laisse apparaître quatre observations principales :

1) ce secteur est un secteur central de l'économie mondiale, au sein de laquelle il a joué un rôle directeur depuis quarante ans,

2) la course à la puissance miniaturisée d'un facteur mille, conduite avec succès, a reposé :

- sur un effort d'investissement financier et humain d'une très grande ampleur,

- sur une solidarité exemplaire de tous les segments de valeur ajoutée d'une industrie de haute technologie (formation, recherche académique, développement technologique, applications industrielles),

3) l'accélération de son progrès technologique constitue paradoxalement un facteur de fragilité :

- car il pèse excessivement sur les constituants en capital et en hommes de son offre,

- et parce que ses avancées sont si rapides qu'elles anticipent actuellement sur la diffusion des usages économiques et sociaux que l'on peut en escompter.

4) dans un climat de concurrence mondiale exacerbée, les entreprises européennes, après leur quasi-disparition dans les années 80, occupent une position intéressante :

- moins par leur part relative du marché mondial (10 %, soit la moitié du marché européen) contre 50 % aux États-Unis et 27 % au Japon),

- que du fait de leur positionnement sur des produits porteurs et de la constance de leurs liens avec des centres de formation, de recherche et de développement qui sont significatifs sur le plan mondial.

*

* *

Comment cette configuration, à la fois forte et incertaine, va-t-elle faire face aux défis technologiques des quinze prochaines années ?

CHAPITRE II

LA COURSE VERS L'INFINIMENT PETIT : DES DÉFIS TECHNOLOGIQUES AUX ESPÉRANCES SOCIOÉCONOMIQUES

Le cycle vertueux de la microélectronique, continu depuis quarante ans, peut-il se poursuivre au même rythme ?

En tout cas, chacun y contribue.

Le stade industriel de la réduction géométrique organisée des composants approche dès maintenant l'échelle nanométrique 11 ( * ) . La barrière symbolique des 100 nm sera franchie en fabrication dès 2003.

En amont, les laboratoires et les centres de développement technologique affichent des résultats qui donnent le vertige : réalisation d'un transistor de 15 nm de section 12 ( * ) (l'équivalent, sur une puce, d'un cheveu sur un terrain de football) , transistors à deux barrières, transistors à électron unique, silicium luminescent pour les applications optoélectroniques, travaux sur les nanotubes de carbone de 20 nm de section, etc.

Mais avant d'examiner les défis scientifiques et technologiques auxquels le secteur de la microélectronique sera confronté dans les quinze prochaines années, il est nécessaire de lever un préalable : la poursuite de la course à la puissance miniaturisée s'impose-t-elle toujours ?

En d'autres termes, la croissance du coût des outils de production que suppose la fabrication de semi-conducteurs de plus en plus petits, de plus en plus puissants et de plus en plus complexes se justifie-t-elle économiquement ?

Certains estiment que non. Et font valoir que l'extrapolation de la loi de Moore n'a plus de signification économique, qu'il s'agisse du stockage ou du traitement de l'information.

S'agissant du stockage de l'information , vers 2010, pour une taille de transistor de 50 nm (130 nm actuellement) on pourra conserver sur une seule puce l'ensemble des collections de la Bibliothèque nationale. Dès lors, la logique économique consistant à construire des usines à 6 milliards d'euros l'unité, sans préjudice des coûts de recherche-développement connexes, pour aboutir à un résultat aussi surdimensionné, ne paraît effectivement pas évidente. Quel sera le marché, quels seront les usages pour de tels produits ?

Mais les interrogations les plus pertinentes portent surtout sur les produits grand public pour lesquels le problème est de savoir si les coûts de croissance de la miniaturisation, qui ont jusqu'ici été compensés - et au-delà - par l'ouverture des nouveaux débouchés, se justifient toujours.

Car il n'est pas certain que les utilisateurs d'ordinateurs, qui ne mobilisent en général que très partiellement les potentialités de ceux-ci, aient besoin d'une puissance de traitement de l'information de l'ordre de celle que pourrait offrir la poursuite de la vérification de la loi de Moore. La question des usages et de leur appropriation future est, sur ce point, essentielle pour un secteur économique qui est contraint d'engager à l'aveugle des instruments de plus en plus lourds .

Non sans pertinence, des industriels du secteur font également valoir qu'il ne paraît plus utile de porter la puissance des microprocesseurs jusqu'à des vitesses d'horloge de 10 GHz ou 100 GHz (c'est-à-dire jusqu'à des capacités de traitement de 10 milliards à 100 milliards d'opérations par seconde, soit de 5 à 50 fois plus que les microprocesseurs actuels, ce qui est envisageable pour 2010), alors même qu'à 2 GHz, les possibilités d'utilisation des ordinateurs sont de toute façon restreintes par les performances des disques durs, la médiocrité des mémoires vives, et, surtout, par les lenteurs et les imperfections des connexions externes.

Dans le même ordre d'idées, d'autres insistent sur le fait que le secteur des biens électroniques de demain reposera sur des usages nomades (téléphones portables de troisième génération, ordinateurs, assistants personnels ou produits dérivés du croisement de l'informatique et des télécommunications). Pour ces produits, la consommation, l'autonomie des batteries et les services offerts seront probablement plus décisifs que la poursuite de la course à la vitesse de traitement de l'information.

• Certains de ces arguments sont pertinents. Pourtant , d'autres raisons militent en faveur d'une poursuite de la course à la puissance et à la miniaturisation .

Car cette course à la puissance répond à de multiples applications, qu'il s'agisse du développement des interfaces homme-machine, des capacités de traitement nécessaires au dialogue machine-machine (en particulier pour une meilleure utilisation de l'Internet).

Ainsi, les recherches menées actuellement sur ce que l'on appelle le « réseau sémantique » visent à faire accomplir par les machines ce que l'homme fait actuellement. Par exemple, si un internaute s'inscrit à un congrès, la machine lui réservera automatiquement avion, hôtel et voiture, mettra à jour son agenda, et ..... débitera sa carte de crédit.

Par ailleurs, toutes les applications sur le traitement du son et de l'image (domicile, professionnel, transport) sont très gourmandes en puissance de calcul.

De plus, il convient de rappeler que la vérification de l'axiome de Moore a créé en aval de nouveaux produits, sans que les promoteurs de ce mouvement les aient préconçus comme les ordinateurs personnels ou les téléphones portables. Le développement actuel des micro et nanotechnologies laisse présager que les objets de notre vie quotidienne à l'horizon 2010-2015 exigeront de plus en plus de microprocesseurs, de plus en plus miniaturisés .

La tendance à la miniaturisation constatée depuis quarante ans est appelée à se poursuivre. Cette hypothèse est la plus vraisemblable. Car on ne perçoit aujourd'hui aucun élément permettant d'envisager une rupture de la croissance des performances de la microélectronique. Mais il est aussi évident que les conditions de cette progression deviennent de plus en plus complexes.

A. LES PERSPECTIVES SCIENTIFIQUES DES QUINZE PROCHAINES ANNÉES : VERTIGE ET RÉALITÉ

A l'occasion d'une célèbre conférence tenue en 1959 (cf. avant-propos), Feynman avait prophétisé que les recherches et les développements technologiques des années à venir pouvaient s'appliquer à l'infiniment petit en déclarant « en bas il y a de la place ».

C'est ce que prouvent aujourd'hui les chercheurs.

Mais entre les expériences de laboratoire et la production industrielle sous contrainte marchande, il y a une marge.

En effet, à partir d'un certain stade de réduction géométrique (en deçà de 50 nm de taille de section des transistors), on se heurte à la barrière quantique (cf. infra ) dont les implications de physique fondamentale sont, certes, identifiées, mais pas contrôlées.

Cette barrière est actuellement approchée de deux façons :

- par la « descente » (top-down) de la microélectronique vers la nanoélectronique,

- et par la « remontée » (bottom-up) des nanosciences et des nanotechnologies.

La question qui peut légitimement se poser à un horizon d'une dizaine d'années est de savoir s'il y aura rupture ou continuité technologique - ce qui signifierait alors qu'il convient de se préparer dès maintenant à cette rupture en recherche de base, et dans peu de temps en développement technologique -.

En d'autres termes, il convient de discerner si les réponses apportées par la microélectronique aux défis technologiques de la miniaturisation permettront à la filière silicium d'exister d'ici à quinze ans ou si celle-ci devra s'effacer devant les progrès des nanosciences et des nanotechnologies.

1. Obstacles et solutions de la microélectronique classique

a) Les principales difficultés à résoudre

Depuis le début des années quatre-vingt-dix, la SEMATECH, un consortium basé à Austin, qui regroupe les principaux fabricants de semi-conducteurs, publie une « road map ». Cette sorte de carte routière des défis technologiques de la filière comprend plusieurs volumes et est actualisée tous les deux ans. Dans le passé ses objectifs ont toujours été atteints .

Dans sa version actuelle, ce document répertorie jusqu'en 2011 les principales difficultés à surmonter pour réduire en taille des transistors de 130 nm actuellement à 35 nanomètres.

Ceci, année après année pour les difficultés à résoudre à l'horizon 2005, puis de 3 ans en 3 ans à compter de 2005 (2008-2011).

Un résumé de ce document permet d'évaluer les principales contraintes scientifiques et technologiques du secteur :

Ce document est intéressant à un double titre.

D'une part , il annonce assez clairement qu'il existe un « mur de briques rouges » - c'est-à-dire des impossibilités technologiques - entre 2003 et 2005 dès que l'on passe en dessous d'une taille de transistors de 100 nm.

D'autre part , il met en évidence que les problèmes technologiques du secteur ne se résument pas à la réduction géométrique de la taille de gravure des supports de silicium, mais concernent aussi l'épaisseur de la couche d'isolant, les interconnexions, et en particulier le nombre de couches d'interconnexions, leur résistivité (c'est-à-dire l'inverse de leur degré de conduction électrique) et les tensions d'alimentation qui sont appelées à diminuer ainsi que l'ampérage (qui correspondrait ici à des lampes d'appartement de 20.000 Watts de puissance).

Il est possible d'illustrer plus précisément ces difficultés :

La taille des puces

Le tableau ci-après donne, pour chaque dimension des transistors, les dimensions et le nombre d'atomes en jeu :

TAILLE DES PUCES

1997

2001

2004

2008

Dimension de la section de transistor

250 nm

130 nm

90 nm

50 nm

Epaisseur de l'isolant au sommet de la couche de silicium

Nombre de molécules d'oxyde de silicium

4-5 nm

13-15

2-3 nm

6-9

1,5-2 nm

5-6

< 1 nm

3

Taille de la zone de conduction du courant

Nombre d'atomes de silicium

50-100 nm

200-400

30-60 nm

120-250

20-40 nm

100-160

10-20 nm

40-80

Au stade de réduction envisagé pour 2008, et compte tenu de la distance interatomique de silicium, la couche d'isolant en matériau actuel (SiO 2 ) ne contient plus que de 3 à 4 molécules.

Outre les problèmes de production que cela suppose, ce nombre d'atomes est insuffisant pour régler de façon sûre la conduction du courant .

Car à ce niveau d'épaisseur de la couche d'isolant, les électrons, par le biais d'un effet dit de tunnel , peuvent « s'évader » du circuit, ce qui est de nature à altérer gravement sa fiabilité.

Enfin, la moindre impureté atomique suffit à perturber complètement les caractéristiques de l'isolant.

Les interconnexions

La diminution de la taille des interconnexions est nécessaire. Car si elle n'était pas réduite parallèlement à celle des transistors, on assisterait à une perte de puissance préoccupante. Comme le souligne J-P Collin dans un remarquable article ( Futuribles n° 278), dans un microprocesseur contenant, en 2010, 10 milliards de transistors et ayant une vitesse d'horloge de 100 Ghz, les distances sont paradoxalement très longues. Sur une puce d'un cm de côté la lumière ne parcourt qu'un mm par cycle d'horloge et il faudrait 20 cycles d'horloge pour qu'un bloc situé sur un côté de la puce pose une question au bloc opposé et reçoive la réponse. D'où une perte de rapidité, et donc de puissance de traitement.

Or, la réduction de la dimension des transistors accroît leur vitesse de traitement. Mais parallèlement, à cause d'un phénomène appelé « effet de peau », la courbe d'efficacité des interconnexions est inverse : plus leur taille se réduit, plus leur vitesse et leur fiabilité de transmission diminue.

L'un des défis des prochaines années sera d'assurer que la miniaturisation des interconnexions ne contrarie pas les effets attendus de celle des transistors.

Ce problème se complique également du fait de la croissance de la complexité des systèmes, et donc du nombre de couches d'interconnexions.

L'évacuation de la chaleur

Ce problème est tout aussi important que celui des interconnexions. Sur une puce de la génération de 2010 contenant 10 milliards de transistors commutant plusieurs milliards de fois par seconde, la chaleur qui s'exprime en W/cm² pourrait alors être assez forte pour volatiliser le silicium, si les microsystèmes de ventilation associés ne progressent pas, ou si la technologie n'évolue pas.

La conception assistée par ordinateur

La CAO, dont les insuffisances ont été évoquées en première partie, a elle aussi sa « road map », résumée dans le tableau ci-après :

Ce diagramme décrit pour chaque année à venir les concepts supplémentaires à maîtriser.

Il montre qu'à partir de 2006-2007 les logiciels de conception assistée vont devoir formaliser des phénomènes physiques nouveaux dont toutes les implications ne sont pas identifiées, comme les variations thermiques locales, les effets de barrière de source ou les effets quantiques.

Dès lors, il va de soi que l'utilisation des microprocesseurs dans des systèmes actuels plus diversifiés - au sein desquels l'intégration des matériels et des logiciels sera essentielle - posera de façon accrue le problème de la validité des tests mathématiques utilisés dans les vérifications des modèles conceptuels de microprocesseurs.

Et, dès maintenant, se pose la question de la pertinence des modèles mathématiques de base utilisés dans cette programmation .

La programmation actuelle repose sur des modèles mathématiques dérivés des travaux d'un mathématicien anglais des années 30, Alan Thuring. Celui-ci a formalisé le modèle de la machine à programme préenregistré (qui contient à la fois des données et des algorithmes - un peu comme si on stockait en même temps un livre de recettes de cuisine et les ingrédients de préparation).

Or, ce modèle a des limites ; si on le compare au cerveau humain, le microprocesseur est plus rapide (commutation neuronale à 0,3x10 -3 /s et informatique à 10 -9 /s), mais le cerveau humain est plus performant dans beaucoup de domaines :

- en permanence, un neurone est connecté à 10 000 neurones (à comparer à 5 à 6 transistors pour un transistor),

- à un instant donné, l'ordinateur met en oeuvre habituellement quelques centaines de transistors, alors que le cerveau mobilise des millions de neurones.

En d'autres termes, le modèle mathématique de la machine à programme préenregistré ne sait pas mettre en oeuvre des structures hyperconnectées et fonctionnant de façon hyperparallèle.

Son remplacement est un autre défi du secteur.

Le développement de systèmes complexes et la nécessité des interdisciplinarités

L'électronique peut se résumer à une image assez simple : celle d'un tuyau d'eau dont un robinet règle l'écoulement (en l'espèce, un courant d'électron avec des tensions de commande).

Classiquement, cette discipline se couplait avec l'informatique dont le langage permet de faire correspondre des fonctions à des flux d'électrons.

Mais sans être étrangers l'un à l'autre, ces deux mondes étaient plus juxtaposés qu'étroitement associés.

Or, l'effort de miniaturisation des semi-conducteurs a abouti à des objets de plus en plus complexes et introduit de nouveaux défis.

En premier lieu, la complexité accrue des objets , l'apparition des SOC (systems on chips - systèmes sur puces ), pose la question des combinaisons entre l'électronique et l'informatique à l'échelon même des matériels dont les architectures deviennent de plus en plus complexes.

Les schémas ci-après donnent une illustration de cette problématique. Ils exposent de façon détaillée, puis simplifiée, l'architecture d'une puce de 2 cm² à utiliser dans un téléphone portable de troisième génération :

Ce dernier schéma fait apparaître assez clairement que ce microprocesseur est conçu comme la résultante d'une juxtaposition de fonctions, comme le fait un enfant qui construit une maison avec des cubes de bois, alors qu'il devrait l'être en fonction d'une synergie d'ensemble assise, a priori , sur l'optimisation et la combinatoire des sous-systèmes qui le composent.

L'un des défis technologiques à venir est d'optimiser ce type de microprocesseur pour utiliser à plein ses ressources. Cela suppose que l'on se consacre à la conception d'architecture de systèmes se reconfigurant dynamiquement .

L'introduction des langages de plus en plus sophistiqués dans les matériels - ce qu'on appelle le middle ware - et l'apparition d'une nouvelle discipline - l' infotronique , née du croisement de l'informatique et de l'électronique - ne sont peut-être pas les défis les plus spectaculaires des années à venir, mais sont probablement parmi les plus importants.

b) Les réponses envisageables

Pour illustrer de façon simple les défis technologiques auxquels sera confronté le secteur des microprocesseurs, disons qu'il s'agit, dans les dix prochaines années :

- d'augmenter le nombre de transistors sur un microprocesseur, de 100 millions actuellement à 10 milliards, soit un facteur 100,

- d'en accroître la vitesse d'horloge de 2 GHz à 100 GHz, soit un facteur 50,

- d'effectuer cette avancée progressivement et dans le cadre de la filière silicium,

- d'améliorer l'efficacité des dispositifs grâce à des gains d'architecture.

Encore doit-on ajouter que ces progrès technologiques doivent être mis en oeuvre sous contrainte de marché.

C'est pourquoi on s'efforcera de distinguer entre les réponses technologiques visant plus spécifiquement à poursuivre la miniaturisation des composants et à augmenter leur puissance et les réponses plus directement économiques .

Les réponses technologiques

La visite de plusieurs dizaines de laboratoires, de centres de recherche et d'universités technologiques dégage l'impression d'un darwinisme technologique . Tout est essayé : une multitude de solutions sont recherchées et des axes technologiques développés pour repousser graduellement les barrières physiques actuelles.

On évoquera quelques-unes de ces pistes de recherche, sans prétendre à l'exhaustivité, tout en relevant que la plupart des techniques citées ci-après sont compatibles avec les technologies et les équipements de la filière silicium :

- La recherche directe d'augmentation de puissance

Cette augmentation résulte naturellement de l'accroissement du nombre des transistors à surface égale. Mais elle peut aussi découler d'autres voies.

Par exemple, les techniques dites de « silicium étiré », qui consistent à améliorer l'alignement des atomes, et donc à augmenter la vitesse de circulation des électrons pour un gain de puissance d'environ 35 %.

Autre illustration, les recherches sur les transistors à double ou triple barrière permettent de doubler (ou plus) le flux de courant électrique circulant dans les microprocesseurs, et donc leur puissance.

- Le contournement des obstacles à la miniaturisation

* La limitation de l'effet tunnel 13 ( * ) :

Des travaux actuellement menés sur les métaux des couches d'oxyde visent à limiter le développement des effets de tunnel qui se manifesteront au fur et à mesure que l'épaisseur de cette couche diminuera.

* La lithographie :

On réussit actuellement à diviser par trois l'épaisseur du trait de gravure par rapport à la longueur d'onde de l'émission : de 1 à 193 nm d'émission d'ultraviolets on peut, d'ores et déjà, assurer une gravure inférieure à 70 nm.

Les recherches menées sur l'EUV (rayons ultraviolets extrêmes) permettent d'envisager de poursuivre la lithogravure jusqu'à 45 nm de section.

De même, les travaux prometteurs sur les transistors verticaux permettront de s'affranchir des contraintes de la lithographie.

* la restriction des effets électriques liés aux interconnexions :

Afin de limiter les effets électriques dérivés de la diminution de la taille des interconnexions, des technologies de polissage diminuant la résistance de ces interconnexions sont explorées.

Des recherches sont également menées sur l'inclusion de pores d'air dans les puces, pour utiliser la très faible constante électrique de l'air.

* La limitation des effets thermiques :

Beaucoup de travaux sont actuellement menés pour optimiser les architectures afin de limiter la montée en puissance des effets thermiques, qui sont à un terme de cinq à dix ans une des difficultés principales de la miniaturisation.

C'est le cas des microradiateurs intégrés qui assurent la circulation de fluides de refroidissement par microcanaux et micropompes à l'intérieur des puces.

Indirectement, les techniques dites « SOI » (Silicium Sur Isolant), développées par une entreprise française, la SOITEC, y contribuent en limitant les consommations de courant des microprocesseurs.

- L'optoélectronique

Cette discipline couvre plusieurs domaines, comme celui des lasers, dont les applications nanoélectroniques seront détaillées plus loin.

Une branche majeure de l'optronique concerne plus spécifiquement le couplage des photons et des électrons dans les microprocesseurs : les premiers pour transporter l'information, les seconds pour la traiter.

Les gains escomptés de la mise au point de cette utilisation conjointe sont multiples :

- elle diminuerait la résistance des circuits (en réduisant le nombre des interconnexions),

- surtout, elle éliminerait un des goulots d'étranglement qui fait que pour des vitesses d'horloge évaluées à 10 GHz, la miniaturisation - et donc les distances à parcourir pour l'information - limite paradoxalement la puissance des microprocesseurs.

Par ailleurs, des pistes de recherche prometteuses portent sur l'utilisation de nouveaux matériaux :

- des recherches sont entreprises sur l'arséniure de gallium qui a de bonnes capacités d'émission de lumière, mais pour des usages spécifiques,

- une découverte très récente a permis de doper le silicium pour le rendre luminescent, ce qui autoriserait cette technologie à s'inscrire dans la ligne de production de masse de la filière.

Enfin, s'esquissent des recherches en vue d'utiliser l'optronique non seulement pour transporter l'information, mais aussi la traiter. On entre alors dans un domaine plus lointain : les processeurs optiques.

Les reformulations économiques

Les développements technologiques cités ci-dessus ont naturellement vocation à s'inscrire progressivement dans les processus de production industriels, suivant le schéma qui a présidé jusqu'ici au développement du secteur. Ils doivent donc répondre à des critères techniques mais aussi à des contraintes économiques.

D'autres axes de recherche ont pour objet de lever plus directement certaines des barrières économiques qui, nous l'avons vu, pèsent très fortement sur l'avenir du secteur.

On en mentionnera plusieurs :

- La baisse des coûts de certains équipements

Par exemple, les travaux visent à diminuer le coût des masques de lithogravure (100 000 € pièce) en réduisant leur temps de fabrication de 24 heures à 4 heures, grâce à un microsystème comportant 1 million de micromiroirs.

- La baisse des coûts de l'encapsulage

Une fois fabriqués, les microprocesseurs doivent être assemblés (collage sur un substrat, insertion de connexions extérieures, enrobage de résine). Cet encapsulage, le plus souvent externalisé vers des pays à bas coûts salariaux peut, cependant, représenter, suivant les cas, de 30 % à 50 % du coût des microprocesseurs.

Des recherches sont menées pour baisser ces coûts en incorporant directement l'encapsulage au processus de production de certains microprocesseurs.

- Les puces polymères

Une autre orientation consiste à essayer d'adapter les coûts de production aux fonctionnalités attendues des microprocesseurs.

Des marchés de masse potentiels existent dans certains domaines sans exiger pour autant des microprocesseurs très puissants.

Sur ce point, les recherches sur les puces polymères, qui pourront être fabriquées à très bas coût par simple impression, répondent à des usages dont certains sont bien identifiés, comme l'étiquetage de masse ou les textiles intelligents.

Ces puces auront donc pour caractéristique de faibles puissances, mais un très bas coût en raison de l'utilisation des technologies classiques d'impression offset pour leur réalisation.

- Le calibrage du degré de fiabilité du microprocesseur

La croissance presque exponentielle du coût des lignes de fabrication de semi-conducteurs réside dans leur très faible tolérance aux défauts. La miniaturisation croissante rend la réalisation de cet objectif de plus en plus difficile.

Les architectures logiques appliquées à la conception et à la mise en oeuvre des semi-conducteurs reposent sur l'utilisation de cellules identiques qui présentent, entre autres, l'avantage de la redondance. Si une des cellules est défectueuse elle a, la plupart du temps, un élément de rechange remplissant la même fonction.

Cette architecture redondante a pour résultat d'avoir des systèmes surdimensionnés en fiabilité alors que cela n'est pas toujours nécessaire.

Pour réduire les coûts imputables à des redondances inutiles, certaines équipes américaines travaillent sur des ordinateurs à architecture adaptable, ce qui permet de les faire fonctionner avec des taux de défectuosité beaucoup plus élevés.

- L'amélioration des logiciels de tests :

A chacun des 700 stades de leur fabrication, les microprocesseurs sont testés grâce à des logiciels coûteux. L'élimination des fautes représente de 50 à 75 % des coûts de développement des logiciels.

Elle s'effectue par tests, sachant qu'une vérification exhaustive est impossible compte tenu du nombre de transistors et de combinaisons logiques à tester.

Les recherches d'amélioration de ces tests portent sur les résultats attendus (en particulier, les architectures de tests hiérarchisant les priorités en vue d'assurer les fonctions attendues de l'objet).

Elles s'appliquent également à un domaine important, celui de la mise au point d'algorithmes de tolérance aux fautes décelées, mais qui n'empêchent pas le fonctionnement du logiciel.

2. Microélectronique et nanotechnologies : rupture ou continuité ?

a) L'apparition des nanosciences et des nanotechnologies

« Je suis pratiquement sûr , disait Feynman, que lorsque nous aurons une certaine maîtrise de la façon dont les choses s'agencent à petite échelle nous disposerons d'une gamme infiniment plus grande de propriétés potentielles ».

Il définissait à la fois les objectifs, le modus operandi , et esquissait les profits escomptés des avancées des nanosciences et des nanotechnologies.

Car, curieusement, en dépit d'interrogations qui relèvent principalement de la science fondamentale, ces nanosciences sont, du fait même des procédés expérimentaux qu'elles emploient, très liées à ce qu'on appelle les nanotechnologies .

En effet, pour comprendre les phénomènes de base de l'infiniment petit, il est nécessaire à cette échelle expérimentale de travailler parallèlement sur les nanotechnologies. Car la compréhension des comportements de la matière à cette échelle n'est pas séparable de la mise au point des techniques nanométriques d'observation et d'assemblage des structures organiques ou des matériaux. De même cette étude passe-t-elle par des simulations théoriques et des contrôles nanométriques qui font que la technologie de l'infiniment petit est très étroitement liée à sa découverte .

De plus, les nanosciences - entre autres domaines d'élection - visent à élucider les méthodes par lesquelles la matière s'autoassemble et s'organise, c'est-à-dire la manière dont elle s'« autoindustrialise » . Cette problématique les rapproche, sinon d'une pensée, du moins de structures de « production » technologique.

Essayer de manipuler la matière à l'échelle nanométrique, et en fait à l'échelle d'un angström (un dixième de nanomètre), qui est celle des atomes, c'est s'efforcer de comprendre des phénomènes à une échelle quantique, à laquelle les propriétés de la matière ne sont plus les mêmes qu'à l'échelle micrométrique.

Nous touchons là aux confins de la physique classique et de la physique quantique.

Ce constat permet de mesurer assez exactement à la fois les promesses des nanosciences et des nanotechnologies, mais également l'horizon de leur espérance de réalisation.

Certes, on qualifie un peu abusivement de nanotechnologiques certaines applications, comme l'ajout de particules de césium au carburant diesel, qui favorise la destruction de certaines particules polluantes des moteurs automobiles, comme l'inclusion de nanoparticules d'oxyde de titane dans les crèmes solaires pour arrêter les rayons ultraviolets, ou encore les verres autonettoyants recouverts d'une couche de nanocristaux 14 ( * ) .

Mais ces applications , qui utilisent certaines des particularités de la matière à l'échelle nanométrique, ne sont que très périphériques par rapport aux efforts actuellement entrepris qui visent, rappelons-le, à comprendre comment la matière s'organise à l'échelle quantique et à fabriquer des matériaux et des systèmes dérivés de cette étude.

Les scientifiques entendus sur ce point estiment que les nanosciences et les nanotechnologies sont encore largement dans le champ de la recherche académique et de ses interfaces avec les développements technologiques de base, et qu'elles ne déboucheront pas avant dix ou quinze ans.

L'essentiel de la révolution des nanotechnologies reste donc à venir.

Cela étant, même si les nanotechnologies débordent de beaucoup le domaine de la microélectronique, certains de leurs axes de recherches la concernent directement et à moyen terme.

On doit citer les techniques, extrêmement diverses, de nanofabrication, les méthodes de nano-observation et d'adressage, les nanostructures semiconductrices à confinement électronique ou photonique, le nanomagnétisme et l'électronique de spin, l'électronique et les nanotechnologies moléculaires, la modélisation des composants et des architectures, les nanostructures biologiques.

Déjà, certains de ces objets de recherches définissent les perspectives d'un changement radical de technologie lorsque les possibilités de la filière silicium seront épuisées.

b) L'exploration de nouvelles filières

D'ici une quinzaine d'années, à partir d'une section de transistor comprise entre 50 nm et 20 nm, le mouvement de réduction d'échelle portée par la filière silicium se heurtera, dans sa forme actuelle, à des limites physiques irréfragables.

Il faudra donc mettre en oeuvre d'autres processus pour poursuivre la course à la puissance miniaturisée.

Plusieurs possibilités se dégagent :

v l'électronique moléculaire

L'idée de base a été formulée en 1974. Elle vise à la réalisation d'un composant électronique actif comme un transistor ou une diode avec une seule molécule .

Les technologies n'ont pas permis pendant longtemps d'explorer ce concept, jusqu'à l'invention du microscope à effet de tunnel, en 1981.

En 1995, a été réalisé un premier contact électrique sur une molécule.

Actuellement, les travaux de recherche, aux États-Unis comme en Europe, s'effectuent dans deux directions :

- la mise au point des interconnexions par autogreffe entre molécules et des fils métalliques de l'ordre de 10 nm, ces fils étant fabriqués par des procédés de nanolithographie électronique. Mais ni la composition chimique des molécules à greffer, ni l'effet physique permettant cette greffe ne sont exactement connus.

- l'exploration des techniques physico-chimiques qui permettent de déposer une seule molécule sur une nanojonction métallique. Mais, actuellement, le mariage entre les techniques de dépôt et la science des surfaces n'a pas été entièrement réalisé.

D'autres recherches essaient de sauter le pas des interconnexions. Il s'agit d'explorer des voies mono-moléculaires où une fonction électronique complexe sera assurée par une molécule sans passer par des interconnexions métalliques entre chaque composant élémentaire .

Mais cette voie intéressante est confrontée à un problème : les architectures habituelles des circuits électroniques ne peuvent être appliquées à l'échelle quantique de ces circuits. Par exemple, la mise en parallèle de deux fils moléculaires ne conduit pas à une addition des conductances comme dans un circuit électronique classique.

Les nanotubes de carbone constituent une orientation tout aussi prometteuse.

Ces formations sont de longs fils creux d'un diamètre très faible (1,4 nm), soit une réduction d'un facteur 100 par rapport à la taille des transistors actuels 15 ( * ) . Ils présentent l'avantage de pouvoir conduire des courants plus élevés que les conducteurs classiques, et de pouvoir faire fonction à la fois de composant et d'interconnexion primaire .

Mais le développement de ce domaine de recherche présente un inconvénient lourd : on ne sait pas produire ces nanotubes à dimension uniforme. Or toute modification de leur diamètre (à une échelle nanométrique) a pour résultat de modifier la nature du tube, qui de conducteur devient semi-conducteur.

Cette filière nouvelle est encore loin de sa maturité :

- actuellement, on ne produit que 2 kg de nanotubes de carbone par an dans le monde,

- les caractéristiques physiques des nanotubes ne sont pas maîtrisées.

v les systèmes d'information quantiques

Il est sans doute nécessaire de rappeler quelques repères avant d'esquisser une réflexion sur ces perspectives radicalement nouvelles.

En physique classique, on peut connaître à la fois la position et la vitesse des objets étudiés (comme, par exemple, une planète).

En mécanique quantique 16 ( * ) , on peut ne pas préciser simultanément la vitesse et la position d'un électron (à cause de l'indétermination qu'introduit l'observation), mais uniquement poser une fonction de probabilité de ses états.

Or ces états peuvent se superposer et ces superpositions s'intégrer les unes aux autres. De ce fait, les systèmes qu'ils constituent offrent des possibilités de calcul exponentiels par rapport à celles alternatives de l'électronique classique binaire.

La théorie estime que l'on peut assembler jusqu'à 40 électrons ou qbits (au-delà de ce nombre le système quantique se lie à son environnement microscopique et perd ses propriétés), ce qui donne une possibilité de calcul de 2 40 par système.

On perçoit l'intérêt d'utiliser ces propriétés pour les appliquer aux ordinateurs, dont la puissance de calcul serait augmentée dans des proportions considérables, au-delà de l'imaginable.

Une note du poste scientifique français de San Francisco donne une description plus détaillée de ces possibilités :

« Dans un ordinateur quantique le support physique traitant l'information obéit aux lois de la physique quantique. Les bits deviennent des qubits et sont constitués de systèmes à deux niveaux. Un qubit peut être dans une superposition cohérente de ses deux états. Un registre, constitué d'un ensemble de qubits, peut également être dans une superposition cohérente de différents états. En d'autres termes le nombre écrit dans un registre peut prendre plusieurs valeurs à la fois. La manipulation d'un tel registre dans un ordinateur quantique permet l'exploration simultanée de situations correspondant aux différentes valeurs du registre. Les informations appropriées extraites du calcul tirent alors parti d'effets d'interférence. Le résultat obtenu dépendra alors des différents chemins suivis par les différentes valeurs du registre. Les superpositions quantiques peuvent être non-séparables, c'est-à-dire que seul l'état de l'ensemble du registre est connu sans que l'on puisse déterminer l'état d'un seul qubit. La quantité d'information contenue dans ces états non-séparables (ou intriqués) est exponentiellement plus grande que dans un système classique de même taille. Ce « parallélisme » quantique permet donc l'exploration d'un espace bien plus grand pour un nombre d'opérations donné. »

Les approches expérimentales d'application de cette théorie sont assez nombreuses 17 ( * ) .

Elles portent sur deux domaines essentiels :

- tout d'abord, la réalisation d'une porte logique élémentaire, c'est-à-dire le couplage de deux systèmes quantiques pour que l'état de l'un modifie l'état de l'autre,

- puis, l'augmentation progressive du nombre de ces systèmes couplés pour arriver à former un ordinateur.

Étant précisé que les difficultés résident principalement dans le confinement dans un très faible volume de qbits en nombre significatif (de 10 à 40 qbits), ceci à température ambiante.

Même si les applications de masse de ces recherches sont à très long terme, probablement à un horizon plus lointain que celui de l'informatique moléculaire, certaines applications de la théorie des quanta pourraient avoir des débouchés dans un avenir plus proche.

Ainsi, les techniques de points quantiques , qui sont des boîtes quantiques (c'est-à-dire des zones conductrices isolées du reste du circuit), d'une dimension qui peut être réduite jusqu'à 30 nanomètres, ont déjà permis de réaliser des transistors à un électron.

De même, la cryptographie quantique, dont l'intérêt réside dans le fait que tout observateur extérieur modifie le message et donc le détruit . Mais la difficulté d'application de cette technique réside dans son faible débit. Par exemple dans une expérience de cryptographie effectuée sous le lac Léman, le support du message était des photons émis un à un dans de la fibre de verre.

v l'informatique ADN

Les perspectives pratiques offertes par le bionique, c'est-à-dire la mise en ligne de cellules vivantes et d'électronique, sont très lointaines et se chiffrent en décennies.

Il est cependant possible d'évoquer une étape intermédiaire, l' informatique ADN .

L'informatique ADN essaie de s'inspirer d'un modèle assez performant d'ordinateur existant dans la nature, à savoir un organisme vivant. Considérer les réactions de biologie moléculaire comme des échanges d'information entre des séquences ADN ouvre des perspectives nouvelles très intéressantes qui sont apparues il y a seulement cinq ans.

Une molécule d'ADN est composée de deux chaînes imbriquées selon une double hélice. Chaque chaîne est composée d'une séquence de 4 « nucléotides », dénommés A, T, G, C. L'assemblage de ces deux chaînes obéit à des règles très simples. Seules les liaisons A-T et C-G sont possibles. Autrement dit une chaîne d'ADN ne peut s'associer qu'avec une chaîne contenant une séquence complémentaire.

La séquence d'une chaîne représente une information qui ne peut s'associer qu'avec la séquence complémentaire. C'est cette propriété qui est à la base de l'informatique ADN . Pouvoir faire évoluer un très grand nombre de molécules (~10 18 ) dans un même tube à essai représente donc un calcul massivement parallèle. En effet, toutes les possibilités d'associations sont explorées, et en analysant la composition de la solution par des techniques très performantes de la biologie moléculaire, on est capable d'extraire le résultat de calcul (mais avec beaucoup de mise en oeuvre technologique et sur des problèmes très simples).

Plusieurs applications de ces recherches (notamment dans les domaines médicaux ou cryptographiques) sont envisageables.

Une des voies prometteuses sur laquelle plusieurs équipes travaillent est l'élaboration et l'autoassemblage des « briques » d'ADN afin de construire des nanocircuits électroniques .

c) Rupture ou continuité ? Unité ou diversité ?

Se projeter à quinze ans pour discerner des évolutions de fond dans un domaine où les acquis fondamentaux et les poussées technologiques sont très rapides peut s'apparenter à un exercice de chiromancie.

Cependant, avec toute la prudence qui est de mise dans ce domaine, on ne peut pas se dispenser d'essayer d'évaluer les perspectives à terme de la filière silicium, qui a pour une part porté la croissance mondiale depuis quarante ans.

Cette esquisse d'anticipation se fera sous deux approches :

La première, assez classique, concerne la rupture ou la continuité. En d'autres termes, devra-t-on effectuer d'ici une quinzaine d'années un changement de technologie ?

La question n'est pas académique, car compte tenu de la latence, d'au moins dix ans, entre les avancées fondamentales, leur développement et leur mise en oeuvre industrielle, il conviendrait de s'y préparer dès maintenant, et massivement.

La plupart des personnes entendues s'accordent à estimer que la filière silicium ne sera pas remplacée avant au moins quinze ans.

Pour plusieurs raisons.

D'abord, il ne faut pas minimiser les perspectives d'adaptation d'une filière très capitalistique et dont les moyens de recherche-développement sont considérables . Avant de passer aux ordinateurs quantiques ou moléculaires, il existe de nombreuses possibilités, explorées dès maintenant, pour développer la puissance des composants et diminuer leurs coûts de fabrication. Ces procédés aboutiront à repousser l'échéance prévue en 2014.

Ensuite, même si cela n'est pas impossible, il semble difficile d'imaginer une rupture scientifique et technologique complète qui aboutirait à supprimer brutalement la filière silicium pour la remplacer par une fabrication quantique ou moléculaire.

Enfin, la montée des microsystèmes, dont les perspectives du marché sont parmi les plus prometteuses du secteur, donne à penser que la filière silicium se maintiendra :

- d'une part , comme le montre le tableau ci-après, seule cette filière possède les techniques d'assemblage coordonnant un très grand nombre d'objets sur une surface très petite.

- et, d'autre part , parce que la maîtrise des nanoprocesseurs, et donc des systèmes d'information qui sont essentiels aux microsystèmes et nanosystèmes, s'intègrera à l'appareil de production de la filière silicium.

Aussi, plus qu'à une rupture , qui poserait des problèmes de coûts et d'adaptation des appareils de recherche-développement et de production quasiment insurmontables dans le moyen terme, on assistera très certainement à un croisement technologique progressif .

Mais la variété et la richesse des recherches et des développements technologiques suscitent une autre interrogation .

Depuis quarante ans, le secteur s'est développé, comme nous l'avons souligné à maintes reprises, de façon tout à fait unifiée .

Il est probable qu'il va maintenant se diversifier . Des domaines comme l'optoélectronique ou comme l'électronique des polymères sont appelés, dans les années à venir, à compléter ou à se juxtaposer à la filière silicium classique.

De plus, parallèlement à la multiplication des microsystèmes, il n'est pas non plus impossible que l'on assiste à une fragmentation des marchés, de multiples marchés de niches se développant à côté du secteur central de fabrication de microprocesseurs de plus en plus puissants et miniaturisés. Et, sur ce point, un des problèmes est de savoir si ces fabrications de niches seront assurées par des réseaux de PME innovantes ou, comme cela s'esquisse, pris principalement en charge par les grands fabricants .

B. DE LA DÉCOUVERTE À L'APPLICATION QUOTIDIENNE

En première partie de cette étude, nous avons souligné combien les semi-conducteurs irriguent notre vie quotidienne et ont modifié nos comportements sociaux.

Les évolutions qui se préparent sont d'une ampleur encore plus grande

Dans un rapport préparé par le Conseil national du renseignement américain et intitulé la « révolution technologique globale », la Rand Corporation s'est efforcée d'étudier les conséquences de la projection et les effets de synergie de trois grands domaines de recherche et de développement technologique (les nouveaux matériaux, les nanotechnologies et la biologie) à l'horizon 2015.

Par certains de ses aspects ce rapport déborde assez largement du sujet du présent rapport, notamment pour ce qui concerne les applications biotechnologiques. Il contient des éléments de réflexion au prophétisme quelquefois excessif, mais aussi des éléments intéressants, dont deux semblent devoir être soulignés :

- la montée des transversalités scientifiques et technologiques,

- la place centrale des micro et des futurs nanosystèmes dans les applications industrielles des quinze prochaines années.

Mais on doit opérer une distinction entre les microsystèmes déjà présents dans le tissu industriel et les nanosystèmes dont les perspectives d'application ne sont pas immédiates et qui posent, notamment, de réels problèmes de cheminement industriel.

1. L'essor des microsystèmes

Rappelons qu'il s'agit de technologies visant à développer des dispositifs à l'échelle du micron (et en fait de 10 à 100 aujourd'hui).

En général, ces microsystèmes associent un microprocesseur traitant l'information et des dispositifs liés à l'environnement (thermique, de pression, chimique, magnétique, etc.) afin d'accomplir des fonctions complexes.

Leur domaine d'applications technologiques recouvre maintenant des disciplines de plus en plus nombreuses (mécanique, optique, fluidique, chimie, biologie, espace, etc.).

Les microsystèmes sont en plein développement industriel et représentent un marché mondial de plusieurs dizaines de milliards d'euros, appelé à s'accroître rapidement.

L'automobile est un de leurs domaines d'élection, du fait de l'ancienneté de leur introduction (dès le début des années 1990, les premiers microaccéléromètres - capteurs inertiels simples - ont été dédiés à l'installation des « airbags ») et parce que ce secteur constitue un marché de masse bien adapté à la « pervasion » des microsystèmes .

La part de l'électronique, qui atteint 20 à 25 % du coût d'une voiture de base, peut très rapidement monter à 40 % du coût d'une berline de luxe :

- capteurs de pression des pneus, des gaz de moteur, ou de l'huile,

- capteurs de flux d'air ou d'oxygène,

- capteurs de vitesse permettant de régler l'injection du véhicule,

- capteurs d'autocollision,

- microgyroscopes de contrôle dynamique du véhicule pour des applications de suspension active ou d'ABS, etc.

Tous ces systèmes sont liés à des transpondeurs permettant de transmettre l'information, ou à des systèmes permettant de rectifier les dysfonctionnements détectés.

Mais de plus en plus de secteurs sont également concernés :

- l' espace , où des systèmes à l'étude de micropyrotechnie ouvrent des voies au guidage de microsatellites d'une vingtaine de kilos,

- les télécommunications , où les microsystèmes d'hyperfréquence trouveront une application aussi bien en téléphonie mobile qu'en liaisons satellitaires. De même, dans ce secteur, les microsystèmes optiques sont de plus en plus engagés dans la conversion optoélectronique,

- l' industrie agroalimentaire , où le mûrissement des fruits est déjà suivi grâce à des microcapteurs chimiques,

- la médecine (capteurs de pression, notamment cardiaque) et la biologie (laboratoires sur puces pour effectuer des tests à moindre coût),

- l' aéronautique , où l'on étudie le remplacement des volets sur les ailes des avions par un maillage de microvolets afin d'augmenter la sûreté de fonctionnement et de fournir des économies d'énergie,

Même les activités sportives sont concernées . Une semelle dotée de 64 microcapteurs a ainsi permis de fabriquer des chaussures sur mesure pour les footballeurs d'un club espagnol.

Le nombre de domaines industriels concernés n'est pas exhaustif car le champ de ces nouvelles technologies est extensible à tous les domaines de la vie quotidienne.

*

* *

On estime que, d'ici dix ans, le nombre de microsystèmes fabriqués dans le monde croîtra d'un facteur 10 000 .

Ces systèmes ont progressé, et progresseront encore rapidement pour deux raisons :

- ils ont su trouver des domaines d'applications de masse (comme l'automobile et les télécommunications), donc des zones de rentabilité à partir desquelles ils pourront essaimer vers d'autres applications industrielles,

- ils mettent en oeuvre une interdisciplinarité, restreinte dans un premier temps mais en croissance rapide, puisqu'elle couple les sciences de l'ingénierie et les disciplines concernées (électronique, physique, chimie, biologie, etc.). Cette interdisciplinarité nécessaire et féconde n'exclut pas qu'assez rapidement des problèmes d'intégration de systèmes se posent, comme c'est le cas dans la téléphonie mobile, faisant de plus en plus appel aux langages informatiques.

Au-delà des promesses aujourd'hui clairement perçues, la translation des micro aux nanosystèmes, d'un ordre de grandeur géométrique 10 à 100 fois plus petit, soumis à des interdisciplinarités plus larges et proposant des services sans usages sociaux encore établis pose des problèmes d'une autre ampleur.

2. Perspectives des nanosystèmes : espoirs et interrogations

a) Les différences entre micro et nanosystèmes

La distinction entre les microsystèmes et les nanosystèmes pose en elle-même problème.

En effet, il n'est pas acquis qu'il y ait solution de continuité, à un terme d'une quinzaine d'années, entre les microsystèmes et les nanosystèmes, du fait notamment des progrès de la nanoélectronique.

On est là, pleinement dans la problématique de la rencontre entre le « top down » et le « bottom up ».

Mais, en l'état, il est nécessaire de relever les différences entre micro et futurs nanosystèmes :

l' horizon de temps n'est pas le même, les microsystèmes sont actuellement disponibles, les nanosystèmes ne seront pas sur le marché avant dix à quinze ans,

le changement d'échelle , de l'ordre d'un facteur 100, offre des possibilités d'applications économiques et sociales beaucoup plus importantes,

la convergence des disciplines sera beaucoup plus forte dans les nanosystèmes que dans les microsystèmes, où sont finalement associés une seule discipline et les soucis de l'ingénierie,

le propos initial n'est pas le même : d'un côté le couplage des acquis de la miniaturisation des microprocesseurs avec des interfaces de captage et de traitement de l'environnement, de l'autre l'utilisation de la façon dont la matière s'organise à l'échelle moléculaire,

enfin, et quoique cette différence soit appelée à se réduire, les nanosystèmes sont consubstantiels à une économie de réseaux beaucoup plus étendus (par exemple du malade au contrôle hospitalier à distance), que les microsystèmes qui sont, pour l'heure, plus dédiés à des réseaux restreints (comme par exemple ceux d'une automobile).

b) Des domaines d'application économiques et sociaux bien identifiés

Au delà des incertitudes liées à des systèmes qui ne viendront pas à maturité avant dix-quinze ans, paradoxalement certains des domaines d'application des nanosystèmes sont dès à présent identifiés :

les systèmes dédiés à la santé

Ceux-ci concernent des applications proprement médicales, des applications permettant de compenser les handicaps et des applications permettant de répondre au vieillissement de la population, et, en particulier :

- les techniques de diagnostic non intrusives,

- les techniques de diagnostic in vivo et les systèmes d'alerte liés,

- les organes artificiels,

- les thérapies anti-cancéreuses exactement ciblées,

- les délivrances localisées et in vivo de médicaments en fonction des réactions de l'organisme,

- les textiles médicaux servant au même objectif,

- la domotique reposant sur les commandes vocales pour les personnes âgées.

Cette énumération n'est naturellement pas limitative, un complément y sera apporté par l'étude dont a été saisi l'Office sur le thème « nanosciences et progrès médical ».

La protection de l'environnement et le développement durable

Déjà, les microsystèmes sont capables de capter le degré de pollution de l'eau et de mettre en oeuvre des dispositifs d'alerte sur ce point. Ils sont aussi capables, comme nous l'avons relevé, de former des dispositifs dans les pots d'échappement des automobiles assurant une meilleure régulation des moteurs thermiques et, par voie de conséquence, une amélioration des rejets gazeux.

Mais les nanosystèmes intervenant à l'échelle moléculaire présenteront des avantages beaucoup plus décisifs pour la protection de l'environnement et le développement durable.

D'une façon générale, il s'agit d'apprendre comment la nature s'auto-organise afin de mettre au point de nouveaux processus industriels, plus économiques en énergie et en matières premières.

Pour caricaturer, il s'agit d'éviter, comme nous le faisons trop souvent, d'abattre un arbre pour fabriquer un cure-dent.

Il est vrai que, de la construction en laboratoire d'une brouette ou d'un moteur moléculaire avec un microscope à effet de tunnel à la mise en ligne industrielle, il s'écoulera probablement plus qu'une décennie.

Pourtant, dès maintenant, les nanosystèmes offrent des perspectives assez proches d'amélioration de la protection de l'environnement et de promotion du développement durable.

Nous en donnerons deux exemples :

- En matière de protection de l'environnement , les nanotubes de carbone immergés font apparaître des processus d'agrégation : certaines particules se collent et restent agrégées les unes aux autres. Cette propriété fait également l'objet d'études pour créer des structures permettant d'éliminer la dioxine. Une nouvelle approche des dispositifs de filtration de gaz et de liquides est ainsi envisageable.

- En matière de développement durable :

* les mêmes nanotubes pourraient être un support de stockage ultraléger de l'hydrogène pouvant être utilisé dans les futures piles à combustible ;

* les recherches menées actuellement sur la nanooptoélectronique sont très prometteuses sur plusieurs points ; en particulier :

- lorsque les recherches sur les lasers bleus et verts auront été menées à bien, les « télévisions à laser » pourraient permettre (sur la base de 4 heures d'utilisation quotidienne moyenne) d'économiser 5 % de la consommation électrique d'un pays ;

- les installations photovoltaïques sont encore peu utilisées pour la production électrique en raison de leur faible rendement actuel. Celui-ci pourrait être porté de 10 % à 30, voire 40 % de l'énergie solaire reçue. Une nouvelle approche de l'énergie domestique en résulterait.

- Diodes et dispositifs lumineux

Des dispositifs lumineux, en particulier les diodes de nouvelle génération pourraient, à moyen terme, modifier radicalement les instruments d'éclairage qui nous entourent et réduire considérablement la consommation électrique.

Les domaines de la sécurité

Aux dires des personnes entendues, ces applications sont parmi les plus avancées, mais pour beaucoup d'entre elles, ne parviendront au stade du marché de masse que si le ministère de la défense américain donne son acquiescement à leur divulgation.

Il s'agit d'un secteur privilégié de recherche, en particulier aux États-Unis, en raison du contexte nouveau résultant du 11 septembre. Déjà des applications multiples sont envisagées et expérimentées. Elles concernent au premier chef le domaine militaire (systèmes personnels de protection des combattants, nanosystèmes de détection et de sécurité), mais ont également des applications civiles.

Outre les nanoréseaux de détection, déployés pour protéger ou sécuriser un secteur (qui peut être une base militaire, un aéroport ou une maison), des études sont, par exemple, menées sur les possibilités de détection de gaz par les nanotubes de carbone (même si, en l'état, celles-ci ne sont effectives qu'à température élevée).

L'irrigation des industries traditionnelles

Celles-ci connaîtront également les effets de la nouvelle révolution numérique par l'introduction massive des micro et nanosystèmes dans les processus de fabrication et dans la conception même des produits.

Il est plus probable que l'introduction des nanosystèmes s'effectuera progressivement selon la séquence approfondissement-élargissement . Et, qu'à ce titre, ces systèmes n'irrigueront l'ensemble de l'industrie qu'après avoir trouvé des marchés de masse sur certains segments.

Mais certains secteurs, comme le textile, développent déjà des prototypes.

Le domaine des textiles intelligents est actuellement très exploré (vêtements délivrant du parfum grâce à des microvalves, vêtements incorporant des capteurs pour les usages sportifs, comme un tensiomètre, vêtements incluant des systèmes d'information sur le textile, ou l'état de propreté, permettant d'autorégler les machines à laver, vêtements avec GPS pour donner l'alarme quand un enfant s'éloigne d'un certain périmètre ou vêtements intégrant un système de lecture de musique tout en restant normalement lavable).

Cela ne constitue qu'un exemple, parmi d'autres, de la façon dont les nanosystèmes vont peu à peu irriguer les industries traditionnelles, et de façon quelquefois imprévue.

Au total, c'est l'ensemble du secteur industriel traditionnel et la totalité des objets d'usage quotidien et des produits de consommation courante qui vont être bouleversés par l'irruption massive des nouvelles « puces » électroniques.

c) Un long cheminement

Les espoirs, tant économiques que sociaux , que l'on peut fonder sur l'essor des nanosystèmes, sont réels (on estime leur marché en 2015 à plusieurs centaines de milliards de $ 18 ( * ) ) mais pas acquis .

Leur réalisation suppose un cheminement divers, financier, puis industriel, politique enfin.

* Sur le plan financier

La discipline en est encore à la recherche académique et aux premiers développements technologiques de base.

L'unité de temps, jusqu'aux applications de masse, est au moins la décennie.

Cela implique que pendant deux lustres au moins la puissance publique apporte un soutien financier récurrent (et de grande ampleur compte tenu des coûts expérimentaux) à l'essor de ces technologies.

Cela implique également que l'on mette en oeuvre une politique de formation de chercheurs et d'ingénieurs massive et adaptée aux contraintes d'interdisciplinarité de ces nouvelles disciplines.

Certains États, qui ont pris conscience du caractère stratégique du contrôle scientifique de ces technologies, ont engagé ces politiques ; d'autres suivent plus doucement (cf. infra - Chapitre III).

* Sur le plan industriel

La conception d'une politique industrielle pour des applications qui viendraient à maturité dans une dizaine d'années n'est pas rendue plus aisée par cette latence.

Il est, dès maintenant, nécessaire d'associer beaucoup plus étroitement les industriels à une veille technologique à moyen terme et de leur permettre d'orienter, dans certains cas, les développements technologiques de base.

Sur ce point, il est nécessaire de souligner la façon dont les grands centres de recherche américains et allemands s'efforcent d'associer à leurs recherches, non seulement les grands fabricants de microprocesseurs, mais également les clients de ces fondeurs.

Si on accepte le postulat que d'ici quinze ans les nanosystèmes se diffuseront dans l'ensemble de l'industrie, il faut également se préparer à y associer les PME, qui forment en Europe 80 % du tissu industriel, et dont beaucoup ne font aucune recherche.

* Sur le plan politique

L'irruption des microsystèmes et la diffusion annoncée des nanosystèmes vont être à la source d'une série d'interrogations sociales qui ne se résument pas à l'enveloppe de financement public qui doit être accordée à leur développement.

Par exemple :

- Comment concilier le respect de la vie privée avec des systèmes sécuritaires de plus en plus perfectionnés et dont les spécificités seront maîtrisées par le secteur privé ?

- Comment financer les effets indirects négatifs et positifs 19 ( * ) que l'on escompte des nanosystèmes dans le domaine de la santé ?

- Le droit de la propriété industrielle européen sera-t-il adapté à un domaine où les brevets portant sur les développements technologiques de base auront bientôt plus d'importance que ceux enregistrés sur la recherche appliquée ?

Ces questions non limitatives démontrent, en dépit du délai de maturation des nanotechnologies, qu'il serait utile que les gouvernements européens et l'Union européenne s'intéressent dès que possible aux conséquences de leur essor .

CHAPITRE III
LE RETARD FRANÇAIS ET EUROPÉEN
DANS LA COMPÉTITION MONDIALE

Depuis plus de quarante ans, le secteur des semi-conducteurs a reçu d'importants soutiens publics, directs et indirects, dans les grandes nations scientifiques.

La France, pour sa part, a soutenu depuis les années soixante une politique volontariste de soutien à certaines filières de haute technologie, principalement pour des raisons liées à la préservation de l'indépendance nationale dans des domaines jugés stratégiques (en matière nucléaire, aéronautique, d'espace et de télécommunications) qui a, entre autres, conduit au développement du CEA-LETI à Grenoble, et du CNET.

L'Europe a également mené une politique volontariste à la fin des années quatre-vingt, qui s'est incarnée dans le programme JESSI, destiné à sauver l'industrie européenne des semi-conducteurs face à une industrie japonaise alors très menaçante. C'est grâce à ce programme que l'industrie européenne des composants occupe encore une place fragile mais significative dans le marché mondial.

Les missions menées dans le cadre de cette étude aux États-Unis, au Japon et à Taïwan, montrent que le degré et la nature des soutiens dispensés par les concurrents de l'Europe au secteur de la microélectronique et des nanotechnologies ont changé au cours des dernières années :

- ils sont devenus beaucoup plus massifs . Par exemple, sur les nanotechnologies, les pays d'Europe engageaient en 1998 une aide de 120 millions de $, du même ordre que celle des États-Unis et du Japon ; ce qui n'est plus le cas ;

- ils s'inscrivent dans des stratégies lisibles , établissant quelques priorités (biotechnologies, développement durable, nanotechnologies, technologies de l'information et de la communication) que les États s'engagent à privilégier par des crédits récurrents à moyen terme ;

- ils intègrent l'ensemble de la filière , quelquefois au-delà même de la recherche précompétitive, jusqu'à la conception de produits par l'industrie.

En substance, il s'agit dans tous les cas de véritables politiques industrielles de soutien aux filières de haute technologie.

Il est établi que la maîtrise des micro et nanotechnologies sera stratégiquement essentielle pour les économies européennes de demain . La question se pose donc de savoir si les réponses des États et de l'Union européenne à ces défis sont appropriées. Cette remarque vise l'ampleur des aides, mais également leur degré d'intégration et le cadre des règles concurrentielles qui s'y appliquent.

Au regard des critères nouveaux (lisibilité politique des objectifs à terme, volume et récurrence des aides directes et indirectes, intégration des soutiens sur l'ensemble de la chaîne, prise en considération du caractère mondial de la compétition pour définir la politique de la concurrence), il semble que l'Europe et la France prennent actuellement du retard, alors que nous disposons pourtant d'atouts incontestables .

A. LE VOLONTARISME D'ÉTAT DES CONCURRENTS

Ce constat s'appuie principalement pour trois études de cas : les États-Unis, le Japon et Taïwan, qui sont dans le peloton de tête de la compétition mondiale dans le domaine de la microélectronique.

1. Les politiques américaines

Les autorités américaines ont conscience que les nouvelles technologies ont porté la croissance étonnante des États-Unis depuis 10 ans. Selon des estimations convergentes, elles participent pour 50 % à l'accroissement annuel du PIB américain 20 ( * ) .

Elles soutiennent donc les nouvelles technologies à tous les échelons de pouvoir .

a) Les politiques fédérales

Compte tenu du caractère vertigineux des budgets (56 milliards de $ dans le projet de budget 2003), l'attention se porte d'abord sur la politique de recherche du ministère de la défense. Mais le DoD (département de la défense) n'est pas, et il s'en faut, la seule agence active dans le soutien à la recherche.

Le département de la défense

Le budget de recherche total (en 2003), du département de la défense américain est évalué à 56 milliards de $.

On sait depuis la seconde guerre mondiale et depuis la guerre du Vietnam que ces recherches militaires ont des débouchés civils, alors même que la labellisation « militaire » leur permet d'échapper aux règles de l'OMC .

Cette conception duale (militaire et civile) de la recherche aux États-Unis a largement assuré l'hégémonie technologique et économique américaine.

Cette tendance est en voie de se renforcer après les évènements du 11 septembre, avec la mise en oeuvre d'un concept opérationnel de fantassins de l'avenir suréquipés et surinformés à l'aide de matériaux et d'objets de communication nouveaux, qui peuvent avoir des applications civiles immédiates.

Sur un plan pratique, il est difficile d'identifier, sur cette enveloppe, les pourcentages de ces crédits dédiés indirectement à la recherche en microélectronique et aux micro et nanosystèmes lorsque ceux-ci sont fondus dans des programmes de recherche plus larges.

On s'en tiendra donc ici à l'exposé des activités de la DARPA (Agence de projet de recherches de défense avancées), dont le budget pour 2003 est de 2,7 milliards de $. En précisant que les programmes de soutien de la DARPA ont une double originalité :

- partant du constant qu'aucun des systèmes ayant révolutionné l'art de la guerre n'avait été lancé sur la base d'une expression de besoin militaire, ils s'affranchissent de toute définition de besoin et prennent aussi en compte les demandes civiles,

- ils portent sur des domaines à hauts risques technologiques.

Pour 2002 et 2003, les programmes de la DARPA impliquant les micro et nanotechnologies sont les suivants :

Programme

2002 (millions de $)

2003 (millions de $)

Recherches à long terme pour les besoins de défense

142

176

Technologies de systèmes tactiques

164

181

Matériaux et technologies électroniques

345

440

Technologies électroniques avancées

200

150

Systèmes de commandement, de contrôle et de communication

115

130

Technologies de capteurs et de guidage

192

224

Soutien à la recherche innovative dans les PME

TOTAL

1200

1343

A titre d'exemple, on peut explorer le détail du budget pour le programme « Matériaux et technologies électroniques », dont l'objectif est de développer, à l'aide de systèmes à base de matériaux et de composants électroniques et biologiques, une large gamme de nouvelles applications militaires :

Sous-programme

2002 (millions de $)

2003 (millions de $)

Technologies de traitement des matériaux

169

145

Dispositifs microélectroniques

93

122

Électronique cryogénique

9

0

Filières post-silicium

74

95

Matériaux et dispositifs à base de composants biologiques

0

78

TOTAL

345

440

La NSF (Fondation nationale pour la science)

Fondée en 1950, la NSF est le principal organisme d'encouragement à la recherche fondamentale américaine. Son projet de budget pour 2003 est de 5 milliards de $, et il est même envisagé de le porter à plus de 9 milliards de $ à partir de 2005.

La répartition des fonds de la NSF va :

- pour 58 % au soutien de projets,

- pour 19 % à la contribution et à l'achat d'équipements de recherche,

- pour 18 % à des programmes de soutien à l'éducation et à la formation scientifique,

- et pour 5 % à des frais de gestion.

La NSF encourage également des programmes de recherche fondamentale menés conjointement par les universités et l'industrie dans une centaine de centres (dans ce cas, son taux de participation est d'1 pour 8 à la charge des autres partenaires). Quoique critiquée (l'université doit-elle devenir le bras armé de l'industrie ?), cette action permet d'offrir une réponse à un phénomène constaté depuis peu : le rapprochement du segment aval de la recherche académique.

S'agissant des nanosciences et de la microélectronique, le budget de la NSF pour 2003 est en rapide augmentation : 221 millions de $, contre 149 millions de $ en 2001, soit une croissance de 48 % en deux ans.

Les programmes de soutien à la recherche appliquée

L'ATP (programme pour les technologies avancées)

L'ATP, qui a été créée en 1988, dispose d'un budget de l'ordre de 200 millions de $ par an.

Son domaine d'intervention est l'aval du développement technologique et la recherche appliquée jusqu'au prototypage (cela n'exclut pas que ses projets aient pu être antérieurement encouragés, au stade du développement technologique ou de la recherche de base, par d'autres agences fédérales [NSF, département de la défense notamment]).

Elle procède par appels d'offres, puis sélection de projets - notons que cette procédure ne donne pas lieu à indemnisation des entreprises qui ne sont pas primées.

Pour 2002, l'ensemble des applications de la microélectronique a fait l'objet de soutiens de l'ordre de 45 millions de $.

Le SBIR (Small Business Innovation Research : soutien à la recherche et à l'innovation dans les petites entreprises)

Il s'agit d'un programme transversal à tous les ministères et agences fédérales concernés par le soutien à la recherche-développement (département de la défense, de l'énergie, de l'agriculture, des transports, de l'environnement, des instituts relevant de la santé, etc.).

La taille des PME qui peuvent en bénéficier est assez extensive, ces programmes s'appliquant à toute société de moins de 500 salariés .

Pour 2002, le budget du SBIR est d'un milliard et demi de $, dont 300 millions de $ pour des applications microélectroniques.

L'initiative nanotechnologique

Lancée officiellement au début de l'an 2000 par le Président Clinton, « l'initiative nationale nanotechnologique » (NNI) dispose de budgets de plus en plus importants :

- 270 millions de $ en 2000,

- 600 millions de $ en 2002,

- et 700 millions de $ demandés pour 2003 .

Ces sommes regroupent l'ensemble des crédits supplémentaires affectés aux départements ministériels et aux agences fédérales en vue de contribuer à cette action.

Pour le principal, elles se répartissent comme suit :

La NSF (Fondation nationale pour la science)

Les budgets de la NSF en nanotechnologies ont évolué rapidement : 97 millions de $ en 2000, 150 millions de $ en 2001, et 174 millions de $ en 2002, soit une augmentation de 80 % en deux ans.

Les deux plus gros acteurs de la NSF sont les départements ingénierie (70 millions de $) et mathématiques et sciences physiques (88 millions de $). Les efforts sont dirigés sur 5 grands axes :

- la recherche fondamentale et l'éducation (108 millions de $) : biosystèmes, structures nanométriques, phénomènes nouveaux et contrôle quantique, architecture système, effets multiéchelle, modélisation et simulation

- les grands défis technologiques (8 millions de $) : matériau par design, nanoélectronique, optoélectronique, catalyse, process chimique, environnement, santé

- les centres et réseaux d'excellence (30 millions de $) : la NSF avait prévu 4 nouveaux centres, un réseau pour la simulation et la modélisation, un centre commun de nanofabrication.

Le 19 septembre, elle annonçait la création de 6 centres :

Columbia (transport électronique moléculaire),

Cornell (systèmes pour les technologies de l'information),

Harvard (systèmes pour l'intégration électronique),

Northwestern (technologies de détection),

Rennselear (assemblage direct),

et Rice (génie biologique et environnement).

- l'infrastructure de recherche (20 millions de $) correspond à des équipements de niveau mi-lourd,

- les implications pour la société (9 millions de $) pour l'éducation, la formation et l'étude de l'impact de l'initiative sur la société.

Le Département de l'énergie

Il est le deuxième acteur de l'initiative nationale nanotechnologies pour les aspects fondamentaux au travers de son « Office of basic energy science » et de son parc de laboratoires gouvernementaux et de grands instruments. Ce département est doté de 97 millions de dollars en 2002, répartis comme suit :

- 34 millions de $ pour la recherche fondamentale,

- 29 millions de $ pour les grands challenges,

- 15 millions de $ pour les centres (phase exploratoire)

- 15 millions de $ pour l'infrastructure de recherche.

Le Département de l'énergie envisage la création de 5 centres nano dans ces laboratoires. La thématique de chaque centre sera fortement marquée par la nature des grands équipements qui y sont présents.

Les NIH (Instituts nationaux de la santé)

Il est difficile de faire apparaître clairement les actions spécifiques aux nanosciences dans le champ très large des recherches menées aux instituts nationaux de la santé. La NNI a identifié un certain nombre d'actions en matière de génétique médicale et de recherche clinique. De plus, a été créé un consortium de bio-ingénierie qui devra coordonner les efforts en nanoscience.

Le budget de 2002 pour ces actions a été de 45 millions de $.

La NASA

Les efforts sont concentrés à Ames pour l'électronique et les calculs, à Langley pour les matériaux et au Jet propulsion laboratory pour les capteurs et composants. La NASA va aussi fortement augmenter ses interactions avec le milieu universitaire :

Le budget de 2002 pour ces actions a été de 46 millions de $.

Le crédit d'impôt-recherche fédéral

Parallèlement aux formes « classiques » de soutien à la recherche, le gouvernement des États-Unis utilise aussi des outils fiscaux.

Ainsi, le crédit d'impôt-recherche institué en 1993 a été renouvelé sur la période 1999-2004 (étude IDATE sur les soutiens des pouvoirs publics à la microélectronique). Son assiette est beaucoup plus large qu'en France (cf. Chapitre IV infra ), puisqu'il ne porte pas sur l'accroissement des dépenses de recherche année après année mais sur 20 % des montants des dépenses de recherche exposées sur l'exercice fiscal considéré .

b) Les politiques de soutien des États

Les États participent très inégalement au soutien à la recherche. Mais certains d'entre eux développent une action massive.

Ainsi, des États comme la Californie (32 millions d'habitants) ou l'État de New-York (17 millions d'habitants) mettent des moyens financiers importants à la disposition d'universités publiques et de centres de recherche de niveau international.

Une de leurs initiatives les plus caractéristiques est l'attribution de crédits publics pour fonder des instituts ad hoc avec un double but :

- mettre en réseau leurs universités et centres de recherche,

- créer un effet de levier, en attribuant une partie des fonds délivrés en contrepartie d'apports extérieurs au moins aussi importants de l'industrie, ce qui a pour conséquence de lier plus étroitement celle-ci et les centres de recherche.

La Californie a ainsi créé, entre autres, un centre dédié à la microélectronique et aux nanotechnologies, doté de 300 millions de $ sur quatre ans et qui a vocation à lever des fonds privés de l'ordre de 300 à 600 millions de $ sur cette période .

Ajoutons que pour sa part d'imposition sur les sociétés, l'État de Californie met en oeuvre :

- un crédit d'impôt pour investissement (dont les investissements de recherche) de 15 % des sommes engagées (porté à 24 % lorsqu'il s'agit d'actions de recherche menées en commun avec les universités) ;

- un remboursement à 100 % de la taxe sur les salaires des frais de formation engagés pour maintenir le niveau technologique de la main d'oeuvre.

Mais les programmes les plus impressionnants sont mis en oeuvre par l' État de New-York , dont le bureau pour la science et la technologie dispose d'un budget annuel de 500 millions de $, dont 250 millions alloués aux centres d'excellence universitaires de l'État, respectivement consacrés au développement bioinformatique à Buffalo, à l'infoélectronique à Rochester et à la nanoélectronique à Albany.

Ce dernier centre constitué auprès de l'université d'Albany est appelé à devenir le centre du réseau nanoélectronique-nanotechnologique des États-Unis, en liaison avec le ministère de la défense, Stanford et le M.I.T.

Rappelons que le coût des bâtiments déjà construits est de 250 millions de $, celui des équipements évolue entre 1 milliard et 1 milliard et demi de $ (dont 50 % de fonds publics, fédéraux et de l'État de New-York). Son budget de fonctionnement sera de 125 millions de $ par an pour 800 chercheurs, ingénieurs et post-doc 21 ( * ) .

Au-delà de l'architecture impressionnante par les moyens financiers et humains que ce projet déploie, son propos est triplement intéressant :

- il s'agit d'un centre dédié dans le même temps à la recherche et à la formation ,

- un de ses objectifs est d'organiser la mise en oeuvre d'une réelle interdisciplinarité totalement indispensable à la nanoélectronique et aux nanotechnologies,

- il vise non seulement à renforcer les liens entre les chercheurs du centre et ceux des sociétés de fabrication de semi-conducteurs et de microsystèmes, mais également à associer beaucoup plus étroitement les clients finaux de ces fabricants . C'est, au demeurant, une des tendances fortes du secteur : pour valoriser les futures avancées des nanotechnologies, il est de plus en plus nécessaire de rapprocher les industriels de la définition des objectifs du développement technologique de base . Ceci afin de réduire la durée des cycles de protection et de diminuer les coûts de la recherche-développement.

c) Les universités

Nous retiendrons ici seulement le centre pour les systèmes intégrés de l'université de Stanford, qui est un bon exemple de la capacité de réaction des grandes universités américaines aux défis des micro et nanotechnologies.

Le centre a reçu une dotation de 155 millions de dollars pour 2002, dont :

- 25 % de l'université,

- 41 % de subventions et de contrats publics, dont les 3/4 du Gouvernement fédéral (essentiellement DARPA, NSF, NIH),

- 7 % de revenus de donations,

- 27 % d'autres ressources, parmi lesquelles seules 10 % proviennent de l'industrie .

Sa fondation, récente, a eu pour objet de répondre à un besoin nouveau car les liens entre la recherche universitaire et l'industrie ont évolué .

Dans les années 1980, il s'agissait le plus souvent de projets communs, puis dans les années 1990, le transfert de technologies s'est opéré par le biais des start-up vers des universités.

Aujourd'hui, la priorité est d'accélérer les transferts de technologies , en associant plus en amont les industries à la recherche universitaire.

Pour répondre à ces impératifs nouveaux, l'organisation du centre s'est adaptée :

- les professeurs et les étudiants qui y sont affectés sont séparés des départements académiques ;

- le centre est volontairement interdisciplinaire ;

- les industries sont membres des centres en payant une cotisation de 150 000 $/an, qui leur donne accès à certains des résultats de recherche, de façon décloisonnée (par opposition aux contrats qui ne s'appliquent qu'à un objet de recherche) ; elles peuvent en outre parrainer des doctorants en affectant à des recherches plus précises des fonds supplémentaires.

L'objet des recherches du CIS était initialement centré sur les intégrations des semi-conducteurs à tous les niveaux de l'architecture ; puis, il s'est aussi appliqué aux interactions entre le hardware et le software ; actuellement, des recherches s'élargissent aux interrelations entre les systèmes électroniques et optoélectroniques, aux réseaux et aux nanotechnologies.

2. La politique japonaise

On se souvient de la théorie du nénuphar japonais qui, de façon discrète, était supposé conquérir l'ensemble des marchés mondiaux dans les années quatre-vingt. Elle s'appliquait à de nombreux secteurs et était particulièrement crainte pour l'industrie automobile. Or, cette théorie a été démentie par les faits.

En 1988, les entreprises japonaises détenaient plus de la moitié du marché mondial des semi-conducteurs ; aujourd'hui ces entreprises n'en regroupent qu'à peine plus du quart.

La réaction japonaise est intervenue en 2001. Elle vise à redresser cette situation, en saisissant la « seconde chance », la possibilité de redistribution des cartes qu'offrent la nanoélectronique et les nanotechnologies.

a) La définition des instruments et la fixation des objectifs

La principale novation introduite en 2001 a pour objet l'installation auprès du Premier ministre - qui le préside - d' un Conseil pour la politique scientifique et technologique où sont représentés les principaux ministères concernés.

En outre, les structures de gestion de la recherche et du développement technologique ont été réaménagées : l'Agence pour la science et la technologie a été fondue avec le ministère de l'éducation (MEXT) et le MITI (commerce international + industrie) a été transformé en METI (économie, commerce et industrie) et ne gère plus directement qu'une agence de technologie industrielle unifiée au lieu de 15 laboratoires.

Le conseil pour la politique scientifique a décidé, en mars 2001 :

- d'augmenter les allocations de ressources à la recherche-développement en les affectant de façon plus efficace (240 milliards d'euros sur cinq ans) ;

- de concentrer l'effort technologique sur quatre grands domaines (sciences de la vie, information et télécoms, environnement, nanotechnologies et matériel), tout en continuant à promouvoir la recherche de base ;

L'objectif premier est donc de dynamiser à nouveau la recherche japonaise afin d'aboutir à des résultats économiques concrets.

Dans ce cadre, quatre orientations fortes ont été imposées :

- le doublement des fonds alloués à la recherche;

- le renforcement de la compétitivité des technologies industrielles ;

- l'encouragement à une meilleure collaboration entre les acteurs gouvernementaux, universitaires et industriels ;

- la promotion de la recherche dans les régions.

b) Les organismes de soutien

La juxtaposition d'un système universitaire, très bien doté en moyens, qui couvre très largement tous les aspects du développement technologique de base et de très grandes entreprises qui mènent leurs propres développements sans liens étroits avec ce système universitaire constitue une des faiblesses du Japon.

Les autorités japonaises ont donc réorienté l'action du NEDO, qui est l'organisme de financement de la recherche-développement du METI, vers les segments allant du développement technologique de base à la recherche précompétitive, tout en essayant d'assouplir ses modes d'intervention.

Le NEDO procède, la plupart du temps, par contractualisation sur objectifs, ce qui n'exclut pas les subventions directes avec les entreprises - mais également avec les universités - dans le cadre de programmes de cinq à sept ans.

Ces programmes portent sur la phase précompétitive.

Les formes d'intervention semblent assez souples puisque l'organisme peut aussi bien financer un pourcentage du salaire des chercheurs d'entreprises, un pourcentage du prix des équipements de recherche des entreprises ou un pourcentage du prix des équipements d'instituts de recherche publique - dans le cadre de son créneau d'intervention.

A cet effet, le NEDO subventionne plusieurs organismes comme le STARC et le SELETE (cofinancé par l'État et les entreprises) qui s'efforcent de façon systématique de faire reculer le « mur de briques rouge » (projet ASUKA à l'échelle de 70 nm et projet MIRAIL à l'échelle de 50 nm).

Au total, une évaluation des dotations consacrées au secteur (c'est-à-dire budget du NEDO + budget du MEXT + ensemble [coût de fonctionnement des laboratoires et centres de recherches]) permet de situer à plus d'1,3 milliards d'euros par an le soutien accordé à ces disciplines .

3. Le « miracle taïwanais »

a) Des résultats impressionnants

A la fin des années quatre-vingt, l'économie de Taïwan était dédiée au montage des ordinateurs dont les éléments étaient fabriqués dans d'autres parties du monde.

Depuis cette date, les autorités taïwanaises ont mené une action très vigoureuse en développant un modèle économique original, tournant le dos aux modèles d'intégration verticale du Japon et des États-Unis, et visant à exploiter de façon systématique plusieurs segments de valeur ajoutée de la chaîne de conception et surtout de production des semi-conducteurs.

Le bilan de cette politique est impressionnant . Aujourd'hui, le secteur des semi-conducteurs représente 40 % du PIB taïwanais et regroupe :

- 180 entreprises « fabless » dont beaucoup sont spécialisées dans la conception, qui est un des axes de développement futur choisi par les autorités taiwanaises [Cette richesse des entreprises fabless illustre la puissance nouvelle de l'université taiwanaise qui regroupe beaucoup de chercheurs en langages et en mathématiques] . Pour consolider cette avancée spectaculaire, le gouvernement de Taïwan prévoit la création d'un centre de design de niveau mondial à l'horizon 2007,

- 4 entreprises spécialisées dans les masques,

- 15 entreprises de fabrication, dont :

8 de fabrication de disques (4 sont parmi les 10 premiers fabricants mondiaux),

des fabricants d'écrans, dont Taïwan est le 3 ème producteur mondial (mais cette activité est en voie d'être délocalisée en Chine),

- 42 entreprises d'encapsulage dont Taïwan est le leader mondial ;

- 37 sociétés de test, ce qui traduit bien la force taïwanaise dans les recherches appliquées aux techniques de production.

Beaucoup de ces sociétés sont concentrées dans le parc de Hsinchu, qui accueille 312 sociétés, emploie 100.000 personnes et génère un chiffre d'affaires de 20 milliards de $.

La création d'un second parc, au sud de l'île, plus dédié à la recherche-développement est programmée.

b) Des aides sans limite

Ces résultats et ces projets spectaculaires nécessitent un arrêt sur les méthodes utilisées, et en particulier l'engagement de l'État.

Le dispositif taïwanais d'aide au développement d'entreprises de haute technologie dépasse l'imagination et se situe clairement en dehors des normes de référence en France ou en Europe.

Ce dispositif comporte plusieurs volets :

Les incitations à l'investissement et à la formation 22 ( * ) :

- Dans les parcs scientifiques, les sociétés sont dispensées de l'impôt sur les sociétés pendant cinq ans ,

- elles bénéficient d'un amortissement accéléré des équipements : les équipements utilisés pour la recherche-développement, l'expérimentation, le contrôle de qualité, les économies d'énergie et la réduction de la pollution peuvent être amortis sur deux ans au lieu de cinq (après deux ou trois ans ces équipements, déjà amortis, sont réimplantées en Chine continentale),

- elles obtiennent des crédits d'impôts de toute nature :

une société achetant des équipements ou licences pour s'automatiser, réaliser des économies d'énergie ou réduire la pollution peut recevoir un crédit d'impôt sur les bénéfices calculé comme suit :

Type d'application

Crédit d'impôt en % du montant de l'investissement

Achat domestique

Achat à l'étranger

Équipements d'automatisation

20 %

10 %

Technologies liées à l'automatisation

10 %

Équipements de contrôle de la pollution

20 %

10 %

Technologies liées à la protection de l'environnement

5 %

Une société dont les dépenses en recherche-développement dépassent 2 % de son chiffre d'affaires par an peut déduire 25 % du total de ces investissements de l'impôt dû. Si le montant dépasse les 3 % du chiffre d'affaires, la société est autorisée à déduire 20 % des dépenses de l'impôt sur les sociétés ;

Les sociétés peuvent déduire 25 % du montant de leurs dépenses de formation de leur impôt sur les sociétés (lorsqu'elles en paient).

L'aide au développement de nouveaux produits :

- L'État peut allouer la moitié des fonds nécessaires à la recherche pour la mise au point de produits innovants. Cette aide est accordée pour les travaux d'amélioration d'équipements existants. Les droits de propriété industrielle des produits développés appartiennent à l'entreprise qui a participé financièrement à la recherche.

- L'État peut fournir jusqu'à 75 % des fonds nécessaires à la mise au point d'une nouvelle technologie dès lors que le projet est approuvé par la Commission nationale des sciences.

*

* *

Ce survol des trois exemples américain, japonais et taïwanais oblige à une réflexion plus générale en matière de politique économique.

La plupart des gouvernements affichent leurs convictions libérales dans les conférences internationales et lors des négociations techniques sur les normes ou les règles du commerce mondial.

En réalité, lorsqu'il s'agit d'enjeux stratégiques , comme celui du secteur abordé par cette étude, les grandes nations scientifiques se donnent tous les moyens d'encourager tous les segments d'une filière .

Dans le domaine de la microélectronique et des nanotechnologies, la nouveauté des dernières années vient, aux États-Unis et au Japon, d'une intervention réellement massive sur des disciplines précisément ciblées. L'innovation vient aussi du renforcement des liens entre les entreprises et les centres de recherche afin d'orienter le développement économique selon les signaux du marché.

B. LA TIMIDITÉ DES RÉPONSES DE LA FRANCE ET DE L'EUROPE

La communication faite en juin dernier par le commissaire européen à la recherche, M. Philippe Busquin, est particulièrement peu réjouissante : le retard accumulé par l'Union européenne s'accroît :

« Les dépenses de recherche et développement technologique (recherche-développement) ont atteint 288 milliards d'euros aux États-Unis au cours de l'année 2000 (soit 265 milliards de $), contre seulement 164 milliards dans l'UE . En euros courants, l'écart entre les États-Unis et l'UE a atteint 124 milliards en 2000 . À parité et prix constants, cet écart représente près de 100 milliards d'euros en 2000, alors qu'en 1994 il était de 51 milliards et n'a cessé de croître depuis cette date. Il s'agit d'une aggravation considérable de la tendance observée depuis la seconde moitié des années 1990. Cette évolution confirme l'importance et l'urgence d'atteindre l'objectif fixé par le Conseil européen de Barcelone d'augmenter les dépenses de recherche-développement dans l'Union pour approcher 3 % du PIB en 2010 ».

Or, ce constat si préoccupant ne fait apparaître qu'une partie du retard européen .

En effet, l'analyse :

- compare terme à terme les dépenses effectuées en 2000. Or depuis deux ans les soutiens publics américains (et japonais) ont beaucoup plus augmenté qu'en Europe,

- efface les redondances de la dépense publique de recherche, trop dispersée entre les grands laboratoires et centres de recherche de chaque État européen alors qu'elle l'est moins aux États-Unis et au Japon.

De plus, comme le soulignent les services du commissaire Busquin, la recherche privée européenne - et donc l'accession aux marchés du futur - est également défaillante car l'écart entre les montants de recherche financés par les industries américaines et européennes, qui n'était que de 15 milliards d'euros en 1995, a atteint 104 milliards d'euros en 2000.

*

* *

Au-delà de cette observation générale, deux questions se posent :

- Le secteur européen de la microélectronique se distingue-t-il de cet environnement bien terne ?

En d'autres termes, les États européens - et au premier rang d'entre eux la France et l'Allemagne, principales nations scientifiques et industrielles européennes du secteur - préparent-ils mieux l'avenir dans les domaines des micro et nanotechnologies que dans d'autres domaines ?

- Autre question : l'Union européenne, aussi bien par l'action qu'elle prévoit de mener dans le cadre du 6 e PCRD que par les règles de concurrence qu'elle met en oeuvre, y contribue-t-elle ?

1. Les politiques allemande et française

a) L'action menée en Allemagne

Au premier chef, l'Allemagne se distingue de la France par :

- une organisation du soutien à la recherche assez compliquée, puisque partagée entre la Fédération et les Länder, ce qui pourrait éclairer utilement les débats français sur la décentralisation de compétences « sensibles » comme la recherche,

- un pourcentage relativement plus élevé du PIB (2,5 % contre 2,2 % en 2000) consacré à la recherche-développement,

- l'existence d'une agence de moyens assez puissante, la DFG (communauté pour la recherche allemande), qui dispose d'un budget annuel d'1,2 milliard d'euros,

- et par la prévalence de l'industrie dans le financement de la recherche-développement (de l'ordre des deux tiers de la dépense en 2001 contre 54 % en France).

De plus, afin de fédérer une recherche éparpillée entre des différents réseaux (Max Planck Gesellschaft, Helmolz Gesellschaft, Fraunhofer Gesellschaft, Leibniz Gesellschaft et 345 universités et écoles supérieures technologiques), l'Allemagne, comme le Japon, met en oeuvre des programmes prioritaires (sciences du vivant, nouvelles techniques de communication, développement durable, transport, spatial, nouvelles technologies - dont microtechnologies et nanotechnologies) qu'elle soutient avec clarté et vigueur .

Ces grands programmes thématiques de recherches disposent de fonds particuliers et sont dirigés par des responsables de projets dont le rôle principal est de coordonner l'action de l'ensemble des intervenants.

S'agissant plus précisément des soutiens à la microélectronique et aux micro et nanotechnologies, l'Allemagne se distingue essentiellement de la France :

- par la montée en puissance rapide des moyens financiers qui lui sont affectés,

- par le souci permanent d'articuler le développement technologique avec le tissu industriel.

La montée en puissance rapide des moyens financiers

Comme le Japon et les États-Unis, l'Allemagne a pris conscience du caractère stratégique de ces technologies dès 1998-1999. Mais c'est à partir de 2000 - grâce aux fonds récoltés à l'occasion de l'attribution des licences de 3 e génération de téléphonie mobile, que les actes sont venus à l'appui des intentions :

Dépenses du ministère de la formation et de la recherche pour la période 1998-2003

Soutien du BMF

dans le domaine des nanotechnologies

1998

1999

2000

2001

2002

2003

Soutien aux projets en groupement

27,0

31,1

32,7

52,0

86,7

110,6

Soutien à la mise en réseau

des centres de compétences

0,6

1,6

2,1

2,1

1,8

1,5

Somme (en millions d'euros)

27,6

32,7

34,8

54,1

88,5

112,1

Une bonne partie des fonds des programmes « nanotechnologies » est orientée vers la nanoélectronique, les technologies optoélectroniques et l'ingénierie des nanosystèmes :

Soutien du ministère de la formation et de la recherche dans le domaine des nanotechnologies

2001

2002

2003

Nanomatériaux

23,5

23,9

29,1

Technologies optiques

12,6

17,0

17,6

Biotechnologies

1,3

8,5

9,6

Nanoélectronique

8,6

27,5

42,0

Technologies de la communication

2,9

4,0

4,0

Technologies liées à la production

0,2

0,6

1,3

Génie des microsystèmes

5,0

7,0

8,5

Somme (en millions d'euros)

54,1

88,5

112,1

Si on ajoute aux sommes avancées par le ministère de la formation et de la recherche celles attribuées par les soutiens institutionnels (agence de moyens de la communauté pour la recherche allemande, réseaux Max Planck, Fraunhofer et Leibniz) et le secteur privé, on aboutit à une somme relativement importante (217 millions d'euros en 2001, soit la moitié des soutiens directs du Japon (440 millions d'euros en 2002) à ces technologies :

Dépenses publiques et privées en Allemagne en 2001

Soutien aux nanotechnologies (2001)

Montant total (Millions d'euros)

Dépenses publiques

Part provenant de l'industrie

Soutien du ministère de la formation et de la recherche

96,6

54,1

42,5

Soutien du ministère de l'économie

8,0

6,0

2,0

Soutien de l'agence de moyens et des réseaux (Max Planck, Fraunhofer, etc.)

112,7

93

19,7

Somme (en millions d'euros)

217,3

153,1

64,2

L'accent mis sur le maintien du lien technologique avec le tissu industriel

De façon générale, les crédits accordés par le Gouvernement fédéral aux instituts de recherche sont pour moitié récurrents et pour moitié alloués sur appels d'offres. Ces appels permettent assez souvent d'orienter l'utilisation des fonds vers des recherches communes aux instituts et aux entreprises.

Mais le lien principal avec l'industrie s'effectue par le truchement du réseau des sociétés Fraunhofer . Fondé après la guerre, le réseau des sociétés Fraunhofer est principalement dédié à l'aval du développement technologique et à la recherche appliquée.

Le réseau, qui n'a pas de vocation lucrative, est financé pour les 2/3 par crédits publics (dont la moitié de crédits récurrents et la moitié de fonds déclinés sur appels d'offres), et pour le restant par des fonds privés.

A l'heure actuelle, le réseau gère 900 millions d'euros et emploie 11 000 personnes, dont 60 % de chercheurs et d'ingénieurs.

S'agissant de la nanoélectronique, six instituts Fraunhofer s'y consacrent dans le cadre d'un consortium : institut sur les circuits intégrés et l'électronique appliquée à Erlanger, institut sur les circuits intégrés et la technologie des composants à Erlanger, institut sur les circuits intégrés et les systèmes à Dresde, institut sur les technologies silicium à Itzehoe, institut sur la fiabilité et la microintégration à Berlin et institut sur les technologies de télécommunication à Munich.

Les enseignements de la visite de deux de ces instituts, celui de Berlin et celui de Dresde, témoignent d'un souci d'explorer aussi complètement que possible l'ensemble des débouchés industriels liés aux avancées technologiques des micro et nanosystèmes (et en premier lieu les procédés de fabrication des composants et des microsystèmes). Un de ces instituts, quoique sans but lucratif, va jusqu'au bout de la logique industrielle et met en oeuvre des chaînes de production ou de fabrication de niches dans le domaine des microsystèmes.

*

* *

Au total, si ce dispositif peut sembler relativement lourd pour des motifs institutionnels propres à l'Allemagne, on doit relever :

- qu'il dispose dans le domaine concerné de moyens relativement importants ,

- et qu'il établit des liens solides entre le développement technologique et la recherche appliquée, aussi bien avec les industriels du secteur des semi-conducteurs qu'avec le segment aval de l'application .

b) La situation française

Dans le secteur de la microélectronique, la France dispose d'atouts industriels réels avec une dizaine d'unités de production, dont 4 de 200 mm et une de 300 mm à Crolles, près de Grenoble. Elle dispose également d'un potentiel scientifique non négligeable, assez largement implanté sur le territoire.

Mais la diversité de ces implantations ne doit pas masquer le fait qu'elles sont d'importance très variable .

Une mission d'experts américains invités par les autorités françaises, a estimé que si certains centres menaient des recherches et développements intéressants, un seul de ces centres, celui du CEA-LETI, était de niveau mondial.

Face à la mise en oeuvre de politiques ambitieuses de la part de nos principaux concurrents, quelle est la réponse de notre pays, et est-elle à la hauteur des enjeux ?

Un dispositif satisfaisant a été progressivement mis en place mais laisse subsister des interrogations .

Un dispositif satisfaisant

L'idée de base du projet d'organisation de la filière microélectronique dont il est débattu depuis plus de deux ans est de décider d'activer les synergies entre les centres de recherche d'une part, et entre ceux-ci et les industriels d'autre part, dans trois domaines :

- la voie descendante de la microélectronique,

- la voie montante des nanotechnologies,

- et les voies parallèles des micro et nanosystèmes.

Cette organisation est actuellement en phase d'application.

Cette coordination des efforts - dont l'essentiel sera supporté par le CNRS (département des NTIC) et par le CEA (et, en particulier, le LETI à Grenoble) repose sur trois volets :

La création d'un réseau de grandes centrales de technologies

Celles-ci se définissent comme des ensembles cohérents d'équipements permettant de mener des recherches sur l'ensemble d'une filière technologique .

Cinq sites ont été choisis :

- la centrale du CEA-LETI , à Grenoble, qui dispose de près de 800 chercheurs et ingénieurs et met en oeuvre une ligne complète de recherche sur les 200 mm (plate-forme PLATO) pour la microélectronique avancée et une ligne de silicium de 100 mm pour l'étude des microsystèmes.

Cette plate-forme sera couplée avec le pôle Minatec en voie de constitution et travaille en étroite collaboration avec les fondeurs du site de Crolles (STMicroelectronics, Philips, Motorola) sur les applications 300 mm.

Rappelons que le pôle Minatec en cours de constitution (il sera achevé en 2004) regroupera, outre la plate-forme technologique :

* Une plate-forme Enseignement

Celle-ci comprend :

la formation initiale avec le transfert sur le site des deux écoles d'électronique et de physique de l'Institut national polytechnique de Grenoble (ENSERG et ENSPG) et du CIME (Centre interuniversitiare de MicroElectronique),

la formation continue avec la création du nouveau Centre de formation continue en microélectronique et microsystèmes.

* Une plate-forme Valorisation Industrielle

Elle est constituée d'un nouveau Bâtiment de Haute Technologie destiné à accueillir :

des jeunes pousses industrielles dans leur phase de croissance,

des lignes pilotes d'entreprises innovantes de taille moyenne,

ou des échelons de Recherche et Développement de grands groupes industriels.

Par ailleurs, pour accélérer le processus d'innovation et tirer parti de la pluridisciplinarité des domaines couverts et pour fonctionner en réseau national et international, le Pôle sera complété par une structure assurant l'animation, le rayonnement au niveau national et international et le support à l'ensemble des acteurs du Pôle. Cet élément central appelé Maison des Micro et NanoTechnologies regroupera dans un même bâtiment l'ensemble des moyens communs nécessaires à ces trois plates-formes (veille technico-économique avec l'Observatoire des Micro et Nanotechnologies (cf. infra ), soutien aux jeunes pousses industrielles avec les incubateurs, fonds d'amorçages, bureaux des réseaux nationaux et européens des micro et nanotechnologies, support de communication et soutien pour les acteurs du Pôle, organisation de colloques, conférences, centre de documentation, etc.). Il constituera un « centre de vie » pour tous les partenaires afin de favoriser les croisements des cultures et d'amplifier la créativité et l'esprit d'initiative et d'entreprise.

Ce Pôle regroupera à terme (échéance 2004-2005) de l'ordre de 1 000 étudiants, 200 enseignants-chercheurs, 1 200 chercheurs publics et un millier d'emplois industriels directs, sans compter les emplois indirects créés à l'échelle départementale, régionale et nationale (travail en réseau) tant en amont (recherche) qu'en aval (sous-traitance, emplois connexes). Avec 3 500 à 4 000 personnes oeuvrant dans le domaine des micro et nanotechnologies, il constituera le premier pôle européen du domaine et l'un des tous premiers au niveau international.

- la centrale CNRS du LAAS (Laboratoire d'analyses et d'architecture des systèmes), à Toulouse

Le LAAS est appelé, tout en restant en liaison avec Grenoble, à fédérer le pôle Sud-ouest, et notamment les laboratoires du CEMES (Centre d'élaboration des matériaux et d'études structurales, nanotechnologies) de Toulouse et de Montpellier. Ses recherches portent sur les domaines suivants : microsystèmes de silicium, capteurs et composants biologiques, dispositifs photovoltaïques, tests, conversion et gestion de l'énergie.

Ses activités dans la filière de l'électronique et des microsystèmes regroupent 150 personnes.

- la centrale du LPN (Laboratoire de photonique et de nanostructures)

Cette centrale est installée dans le sud de Paris, auprès des laboratoires d'Alcatel à Marcoussis. Y sont développés des procédés appliqués aux nanostructures et des dispositifs photoniques pour des applications de télécommunications.

- la centrale de l'IEF (Institut d'électronique fondamentale) , à Orsay, développe des actions spécifiques autour des microsystèmes, des composants optoélectroniques et des nanotechnologies et nanostructures magnétiques.

- la centrale de l'IEMN (Institut d'électronique et de microélectronique du Nord) , à Lille, a des activités essentiellement tournées vers les procédés pour les circuits et dispositifs optoélectroniques et micro-ondes, et les micro et nanotechnologies pour les technologies de l'information ou de la communication.

La constitution de ces centrales doit faire l'objet d'une dotation de 100 millions d'euros au total sur les exercices 2003-2004-2005, cette somme étant destinée à couvrir à la fois l'équipement et le fonctionnement.

Cette initiative a pour but de donner un nouvel élan au développement technologique de la filière :

- qui activera ses interfaces avec la recherche fondamentale. Car en créant ces pôles d'excellence il s'agit également de lier plus étroitement ces deux segments et d'attirer les meilleurs chercheurs ;

- qui développera des rapports plus étroits avec la recherche appliquée sur trois points :

l'environnement fort de développement technologique et de formation ayant pour objet d'attirer - comme cela a été fait à Crolles avec Philips et Motorola - des entreprises étrangères ;

les plates-formes technologiques devront également oeuvrer au démarrage des start-up et participer au prototypage d'objets de démonstration de micro et de nanotechnologies ;

les plates-formes seront orientées vers des recherches exogènes sur les processus de production avec, le cas échéant, une participation financière des centrales.

L'établissement de priorités de recherches technologiques de base par le CNRS et le CEA sur la période 2003-2007

Il s'agit, pour les deux grands organismes concernés, d'échanger des informations et de coordonner leurs recherches dans les grands domaines du développement technologique de base :

- micro et nanoélectronique de la filière silicium, mais également dans les autres filières (arséniure de galium, phosphore d'indium),

- nanotechnologies et notamment toutes les technologies de nanofabrication, nano-observation et nano-adressage, ainsi que les recherches sur les dispositifs microscopiques susceptibles d'être intégrés dans des systèmes à échelle géométrique plus vaste,

- photonique avec l'ensemble de ses applications sur les composants et les systèmes, les besoins pour les capteurs, la météorologie, le traitement optique de l'information et l'évolution vers des détecteurs lisibles à bas coût,

- intégrations et les hybridations de technologies,

- ensemble des microsystèmes.

Il va de soi que cette agrégation de l'action des deux organismes devra être l'occasion d'une mutualisation des moyens et des encouragements à l'interdisciplinarité.

Dans ce cadre, quatre modes d'utilisation spécifiques sont mis en place :

- des appels à projets de recherche interdisciplinaires,

- des soutiens à un ou deux projets monodisciplinaires dans des domaines où la poussée de la science de base est essentielle,

- le soutien à un ou deux projets intégrés, pour faire sauter les verrous technologiques,

- et le soutien au fonctionnement des centrales existantes.

Cette action, et notamment la définition des appels à projets et des conditions de soutien vise également à inverser les processus de fonctionnement du RMNT : il s'agit de faire appel au milieu économique afin qu'il se tourne vers les laboratoires pour identifier, puis dépasser, les verrous technologiques.

Au total, sur la période 2003-2007, le coût de cette relance des grands programmes de développement technologique est calibré à 25 millions d'euros.

Les mesures d'accompagnement

Elles sont de trois types :

- l'organisation des échanges d'information entre le CEA et le CNRS au travers d'un observatoire des micro et nanotechnologies,

- un partenariat entre les deux organismes pour assurer une propriété industrielle solide sur les savoir-faire et les brevets sur les programmes de recherche technologique de base,

- le renforcement du nombre et de la mobilité des jeunes chercheurs dans les domaines concernés.

Un effort qui demeure insuffisant

Le dispositif décrit ci-dessus, très largement articulé autour du centre de niveau mondial du CEA-LETI, est de nature à permettre à la France de faire valoir ses atouts.

Il demeure cependant lacunaire sur trois points :

les moyens opérationnels ne sont pas à la hauteur des enjeux :

Sans même tourner les yeux vers « le rouleau compresseur américain » ou se référer aux efforts japonais (440 millions d'euros par an), force est de constater que les moyens financiers dégagés ne correspondent pas aux crédits qu'une puissance scientifique mondiale de 60 millions d'habitants devrait affecter à des actions stratégiques pour son développement économique à moyen et long terme.

En comparant ce qui est comparable, les moyens opérationnels français (100 millions d'euros sur trois ans pour la plate-forme technologique, 25 millions d'euros sur cinq ans pour la relance des programmes et seulement 12 millions d'euros pour le réseau national des micro et nanotechnologies) demeurent très inférieurs aux 153 millions d'euros de crédits publics affectés annuellement par l'Allemagne à ces actions.

Certes, ces financements doivent être complétés par les budgets des organismes concernés, mais c'est également le cas au Japon et en Allemagne, dont les centres de recherche disposent aussi de moyens institutionnels assez confortables.

De plus, s'il paraît légitime de mener une action de relance du développement technologique de base, qui est un secteur central compte tenu de ses rapports amont et aval, il ne faudrait pas que ces financements supplémentaires contribuent à assécher les ressources de la recherche académique.

L'impératif de soutien à la recherche académique s'impose d'autant plus que dans les domaines des nanosciences et des nanotechnologies, les frontières entre ces deux segments de la filière s'estompent.

l'absence de l'INRIA

Compte tenu des croisements de plus en plus fréquents à venir entre l'informatique et l'électronique, en particulier dans le domaine des microsystèmes, de l'importance grandissante de la conception assistée par ordinateur et des modèles prédictifs qui y sont associés, une présence de l'INRIA dans ce dispositif devrait être envisagée.

le degré d'irrigation du tissu industriel

La mise en réseau de plates-formes technologiques autour de grands pôles sera incontestablement un facteur d'attraction des industriels du secteur .

De même, comme le montre déjà l'exemple du CEA-LETI, ce réseau pourra être le réceptacle privilégié de l'essaimage des start-up.

Mais ces leviers d'un encouragement à la valorisation laissent de côté un des segments de la filière : la recherche appliquée industrielle, en aval des fabricants de semi-conducteurs.

Or, les missions effectuées dans le cadre de l'étude aux États-Unis montrent que, même dans des centres de recherche dédiés au développement technologique, les pays concurrents accordent une très grande importance à l'aval, c'est-à-dire aux clients de la filière :

- pour réduire le temps de mise sur le marché,

- pour réorienter certains axes du développement technologique de base.

Si l'on admet que les progrès de la microélectronique, des microsystèmes et des nanotechnologies sont de plus en plus appelés à irriguer le tissu industriel, il faut s'en préoccuper dès maintenant .

2. Les engagements européens

a) Le programme Eurêka « Medea+ »

Medea+ trouve ses racines dans le programme JESSI, créé à la fin des années quatre-vingt lorsqu'il est apparu que l'industrie microélectronique européenne ne pouvait, du fait de sa trop grande fragmentation, suivre le rythme des développements mondiaux. JESSI a permis de favoriser l'émergence d'une infrastructure microélectronique européenne viable en créant un réseau de coopération de recherche et de développement technologique.

Arrivé à son terme avec succès en 1996, JESSI a été relayé par le programme MEDEA, qui a poursuivi cet effort (55 projets de développement avec la participation de plus de 150 partenaires de 12 pays pour un coût sur cinq ans de 2 milliards d'euros).

Successeur de Medea, Medea+ doit couvrir la période 2001-2008 avec des dotations annuelles de l'ordre de 500 millions d'euros par an (pour autant que les engagements des États participants soient confirmés, année après année).

L'intérêt de ces programmes est multiple :

- ils répondent directement aux besoins des entreprises et des centres de recherche qui ont l'initiative des projets,

- les procédures de labélisation sont beaucoup plus confidentielles (limitation des expertises extérieures) et l'attribution des crédits (subvention ou avance remboursable suivant les pratiques de chacun des pays participants) beaucoup plus rapide,

- ils jouent un rôle fédérateur des efforts des centres de recherche et de l'industrie européenne qui imprime une dynamique plus efficace que le programme-cadre de recherche et de développement de l'Union européenne,

- les projets s'inscrivent dans une durée longue (en général supérieure à trois ans), ce qui donne une lisibilité à l'industrie.

Les deux principaux domaines de développement de Medea+ sont les Applications Silicium et les Technologies Clés.

- Dans le domaine des Applications Silicium , les principaux thèmes couverts sont les communications à très grande vitesse et les méthodologies de conception de systèmes sur puce. Les projets dans ce domaine concernent la création, les nouvelles techniques de conception adaptées aux différentes technologies, le test et la correction des erreurs, les terminaux multimédia, l'électronique automobile et les cartes à puce.

- Pour les projets du secteur des Technologies Clés , les défis les plus cruciaux sont dans le domaine de la lithographie EUV (Extrême UV) et des procédés sous -100 nm. Les plannings des projets labellisés sont ajustés et suivis en permanence pour rester en ligne avec ITRS (« International Roadmap for Semiconductors »), la référence globale pour les développements de l'industrie du silicium.

Au total, avec à ce jour 35 projets actifs, le programme Medea+ mobilise 10 000 chercheurs/an, pour un coût de 500 millions d'euros par an. La durée moyenne des projets est de 3 ans et demi.

Medea+ regroupe plus de 200 partenaires provenant de 17 pays européens avec en tête la France, l'Allemagne, l'Italie, les Pays-Bas et la Belgique.

Plus des deux-tiers des participants aux projets Medea+ sont des PME et des laboratoires universitaires (36 % et 32 % respectivement). Ceci représente un accroissement combiné de 10 % par rapport à Medea. Les grandes entreprises qui forment les 32 % restants apportent cependant 75 % des effectifs des projets.

b) Le 6e programme-cadre de recherche et développement (PCRD) de l'Union européenne

Le dispositif

Le 6 e PCRD, portant sur la période 2002-2006, a été adopté le 27 juin 2002.

Il est doté, pour la période, d'un budget de 17,5 milliards d'euros.

Il s'efforce de mettre en oeuvre la notion d'espace européen de recherche, proposée au Conseil par le commissaire Busquin, et adoptée depuis plus de deux ans.

L'organisation de cet espace européen repose sur une idée directrice : structurer la recherche européenne pour en faire le levier du développement économique et social européen.

Pour répondre à cet objectif, et éviter les dilutions de crédits antérieurs, trois principes ont prévalu dans la définition du 6 e PCRD :

- la concentration des ressources sur un nombre restreint de thèmes, et sur des pôles d'excellence scientifiques et technologiques afin d'atteindre des masses critiques au niveau mondial,

- la création d'instruments d'intervention visant à structurer la recherche européenne pour éviter ses redondances. En particulier , les programmes intégrés de recherche ont un double objet :

fédérer les laboratoires et les industries sur les grands thèmes,

assurer une lisibilité à moyen terme dépassant le cadre des appels d'offres annuels,

- l'ouverture du PCRD au programme mené par d'autres États de l'Union, en application de l'article 169 du Traité. Cette disposition vise au premier chef les programmes de l'initiative Eurêka, comme Medea+,

- par ailleurs, le PCRD vise à une simplification des procédures, trop longues et quelquefois trop coûteuses et décourageantes pour les industriels.

Il faut rappeler que le 6 e PCRD est organisé globalement en trois grands types d'actions transversales :

- l'intégration de la recherche européenne,

- la structuration de l'espace européen de recherche, qui s'applique principalement à la mobilité des chercheurs et à l'aide aux infrastructures,

- le renforcement de ses bases (coordination des efforts des États).

Les thèmes structurants retenus sont les suivants :

- les sciences du vivant (2,2 milliards d'euros),

- les technologies de la société de l'information (3,6 milliards d'euros),

- le développement durable (2,1 milliards d'euros),

- les nanosciences et les nanotechnologies (1,3 milliard d'euros),

- l'aéronautique et l'espace (1,1 milliard d'euros),

- la qualité et la sécurité alimentaire (0,7 milliard d'euros),

- et la gouvernance dans la société de la connaissance (0,2 milliard d'euros).

S'agissant des domaines particulièrement abordés par cette étude, les thèmes prioritaires concernent :

- le sous-thème « composants et microsystèmes » du thème « technologies de l'information ». Dans ce cadre, l'effort sera concentré en particulier sur :

la conception et la production de composants nano, micro et optoélectroniques et photoniques, y compris ceux utilisés aux fins de stockage de l'information, les activités visant à poursuivre la miniaturisation et à réduire les coûts ainsi que la consommation d'énergie des composants microélectroniques,

la nanoélectronique, les microtechnologies, les systèmes de visualisation et les microsystèmes, ainsi que la recherche multidisciplinaire sur les nouveaux matériaux et les dispositifs quantiques ; les nouveaux modèles et concepts de traitement de l'information.

- et le thème « nanotechnologies et nanosciences ». Derrière cet intitulé, les principaux objets de recherche s'organisent en trois ensembles : nanosciences et nanotechnologies, matériaux multifonctionnels et nouveaux procédés et moyens de production. Le détail des rubriques est plus explicite.

Nanosciences et nanotechnologies

la recherche interdisciplinaire à long terme pour la compréhension des phénomènes, la maîtrise des processus et le développement d'outils de recherche,

les architectures supramoléculaires et macromolécules,

les nanobiotechnologies,

les techniques d'ingénierie à l'échelle du nanomètre pour la création de matériaux et de composants,

le développement de dispositifs et d'instruments de manipulation et de contrôle,

les applications dans des domaines tels que la santé, la chimie, l'énergie et l'environnement.

Matériaux multifonctionnels basés sur la connaissance

le développement des connaissances fondamentales,

les technologies associées à la production et la transformation, y compris le traitement, de matériaux multifonctionnels basés sur la connaissance et de biomatériaux,

l'ingénierie du support.

Nouveaux procédés et moyens de production

le développement de nouveaux procédés et de systèmes de fabrication flexibles et intelligents intégrant les avancées des technologies de fabrication virtuelle, y compris des simulations, les systèmes interactifs d'aide à la décision, l'ingénierie de haute précision et une robotique novatrice,

les recherches systémiques nécessaires pour la gestion durable des déchets et la maîtrise des risques dans la production et la fabrication, y compris dans les processus biologiques, conduisant à une réduction de la consommation de produits de base à une moindre pollution,

le développement de nouveaux concepts optimisant le cycle de vie des systèmes, des produits et des services industriels.

Les interrogations sur l'application du 6 e programme-cadre

Au-delà du simple exposé des thèmes de recherche, le 6 e PCRD appelle quelques observations.

En première analyse, le dispositif adopté par l'Union européenne semble satisfaisant. Il confirme la notion d'espace européen de la recherche, dont l'objectif est de structurer la recherche européenne pour la dynamiser à l'échelon mondial. C'est là un objectif stratégique majeur.

A ce titre, des instruments comme les pôles d'excellence, les programmes intégrés ou l'association souhaitable des programmes Eurêka au PCRD sont des avancées conceptuelles très positives .

Cependant, le 6 e PCRD commence seulement et ses résultats dépendront autant des modalités d'application que de ses intentions.

Sur ce point, on peut présenter plusieurs observations :

Le partage entre nanotechnologies des composants, gérées par la direction générale de la société de l'information, et les nanosciences, qui relèvent de la direction générale de la recherche, répond à des logiques incontestables, mais méconnaît peut-être le caractère transversal des données scientifiques et technologiques des domaines concernés.

Le maintien de pôles d'excellence recherche, de niveau mondial, doit être assuré, y compris face aux demandes des pays de moindre poids scientifique qui pourraient conduire à l'éparpillement des efforts, donc à la perte d'efficacité.

De même, une incertitude sur les masses financières réelles des programmes intégrés subsiste . Si ceux-ci se limitent à des incitations de l'ordre d'un million d'euros, ils ne joueront pas le rôle fédérateur de la grande industrie et des laboratoires, et donc, in fine , d'amélioration de la compétitivité de l'industrie européenne qui leur est assigné.

Enfin, et surtout, on doit s'interroger sur un document de travail de l'office d'évaluation technologique du Parlement européen qui aborde la question de la compatibilité juridique des grands instruments d'intégration de la recherche proposée par le 6 e PCRD (mise en réseau des pôles d'excellence, projets intégrés, participation des PCRD aux programmes extérieurs menés entre États, comme Eurêka) avec les Traités.

Sans entrer dans ce débat juridique, on voit bien qu'il révèle des contradictions entre les Traités qui définissent « en creux » l'Europe comme un espace économique limité à un marché et une volonté de mener une politique industrielle européenne qui suppose de hiérarchiser les priorités, d'effectuer des choix et de majorer les moyens financiers alloués à ces objectifs.

c) Le cadre de concurrence européen

Face à l'agressivité des politiques menées par les États-Unis et le Japon, on peut à bon droit s'interroger sur l'application quelquefois rigide d'un droit dont les cadres conceptuels ne répondent plus à toutes les exigences de la mondialisation . C'est en particulier le cas des secteurs de haute technologie qui s'inscrivent totalement dans la problématique mondiale.

« L'encadrement communautaire des aides à la recherche et à la technologie » fixe les règles de compatibilité des aides des États. Ces règles contraignent les États à notifier les aides allouées sur leur territoire et visent, conformément à l'article 87 du Traité, à éviter les distorsions de concurrence.

Elles ne sont plus adaptées au marché mondial des nouvelles technologies 23 ( * ) :

- la notification des aides entraîne des délais dans la matérialisation de celles-ci dans des secteurs où la rapidité d'action est essentielle,

- le degré de dépense subventionnable de 100 % (recherche fondamentale) à 25 % (recherche appliquée) fait référence à un modèle linéaire d'avancées technologiques qui n'est plus pertinent dans un secteur où les frontières s'estompent, voire n'existent plus,

- appliquer des règles restrictives sur le marché intérieur n'a plus beaucoup de sens dans un domaine où les grands acteurs européens sont très peu nombreux et où ils coopèrent de plus en plus dans le domaine de la recherche,

- et, surtout, ces règles contraignantes, sur le fond et sur la procédure, contrastent totalement avec les pratiques des principaux concurrents de l'Europe (États-Unis, Taïwan, Japon, Corée), qui n'ont pas ces scrupules.

Il est donc urgent que l'Union européenne définisse des règles d'attribution des aides aux industries de haute technologie conformes à la réalité du marché mondial .

Ce qui peut apparaître comme l'application d'une réglementation obsolète confine à l'absurde lorsque la Commission se prononce sur des allégements fiscaux consentis par les États, alors même que les impôts auxquels ces allégements s'appliquent sont autant de désavantages pour les industries nationales concernées.

C'est le cas, par exemple en France, des allégements sur la taxe professionnelle payée par les très grands investissements industriels.

L'Union européenne qui s'efforce, grâce au 6 e PCRD, de rénover ses modes d'intervention, devrait donc également s'interroger sur la définition de son cadre de concurrence et sur la façon dont la Commission les applique.

*

* *

Le survol des politiques publiques engagées par les principaux États du monde au secteur des semi-conducteurs, des micro et nanotechnologies permet d'esquisser quelques constats incontestables :

1] Les principaux concurrents des nations européennes aident massivement ce secteur,

2] Le retard européen, imputable à l'insuffisance générale des dépenses intérieures de recherche, s'accentue dans ce secteur de pointe,

3] La France, surtout si on la compare aux pratiques de l'Allemagne, souffre :

- du sous-financement de tous les segments de la filière,

- de la faiblesse, traditionnelle, des liens des organismes de recherche avec les industries de l'aval.

4] Les réponses de l'Union européenne semblent :

- satisfaisantes quant à l'ampleur et aux méthodes du 6 e PCRD, dont les orientations de principe devront être confirmées par leur application,

- mais totalement dépassées quant aux règles et à la pratique du droit de la concurrence,

- globalement trop « courtes » compte tenu du caractère stratégique du secteur et dans le cadre d'un marché mondial voué à une concurrence exacerbée.

CHAPITRE IV

PROPOSITIONS : SOUTENIR LES FILIÈRES
DE HAUTE TECHNOLOGIE

Il n'est plus utile aujourd'hui de souligner le rôle des filières de haute technologie dans l'économie des grandes nations scientifiques. Chacun s'accorde à estimer que ce rôle va s'accroître.

C'est un risque réel qui peut conduire à la marginalisation et au déclin. C'est aussi une chance à saisir par notre pays.

Les références théoriques qui orientent aujourd'hui l'économie mondiale dénoncent explicitement le volontarisme politique en la matière.

Comment ? Il devient plus difficile, compte tenu des règles européennes et du dispositif de l'OMC, de mener une politique industrielle, au sens traditionnel du terme .

Pourtant, dans le même temps, la puissance qui a, le plus, porté le discours libéral et la progression de la mondialisation est celle qui soutient le plus massivement ses secteurs industriels de haute technologie .

D'autres la suivent.

En grossissant le trait, on a l'impression que la France a partiellement décroché de cette évolution ; qu'elle a suivi, depuis une dizaine d'années, les prescriptions du tout libéral sur la non-intervention de l'État dans le secteur industriel, fût-il stratégique à terme, en abandonnant ses modes d'intervention habituels sans lui en substituer d'autres.

Rappelons que si le CEA-LETI existe à Grenoble, c'est grâce à une volonté politique forte, à l'origine centrée vers la constitution d'une force atomique indépendante.

Rappelons également qu'il y a moins de dix ans, près de 50 millions d'euros de crédits de la Délégation générale à l'armement permettaient de soutenir certains des secteurs de la recherche technologique de base 24 ( * ) .

Rappelons, enfin, que consécutivement à la privatisation de France Telecom et à la disparition du CNET, 600 millions d'euros ( 300 millions d'euros pour le CNET, 300 milliards d'euros pour la direction des affaires industrielles de France Telecom ) ne sont plus dérivés annuellement vers la recherche et le développement dans les filières de haute technologie .

Ces ressources importantes et récurrentes n'ont pas été remplacées :

- les crédits que, d'après la loi de 1994, France Telecom est tenue de consacrer à la recherche (4 % de son chiffre d'affaires) sont consacrés de façon prioritaire par France Telecom à son métier d'opérateur, et non à la recherche fondamentale,

- les réseaux , qui devaient compenser la disparition du CNET (réseau national de recherche en télécommunications : 15 millions d'euros en 2003, réseau national des micro- et nanotechnologies : 12 millions d'euros en 2003, réseau national en technologies logicielles : 15 millions d'euros), n'allouent plus que des fonds annuels inférieurs à 50 millions d'euros.

Ce collapsus brutal des aides directes n'a pas été relayé par un accroissement des aides indirectes à la recherche en entreprises, comme, par exemple, le crédit d'impôt-recherche.

Le monde a changé et la réalité des pratiques étrangères ne peut être ignorée. Il faut en tirer toutes les conséquences.

Si la France ne met pas à niveau sa politique de soutien et si elle n'adapte pas ses modes d'intervention aux filières de haute technologie, elle ne participera pas réellement à la nouvelle révolution industrielle qui se prépare.

*

* *

Il est donc urgent d'agir.

Si notre pays a certains atouts, l'étude a prouvé que dans les secteurs stratégiques des semi-conducteurs et des micro et nanotechnologies, il n'y avait pas de position définitivement assise.

Quelles pourraient être les bases d'une nouvelle politique industrielle destinée à encourager les filières de haute technologie, en particulier celle des semi-conducteurs et des micro et nanosystèmes ?

Les propositions qui suivent sont l'esquisse d'une première réflexion.

FIXER DES OBJECTIFS
ET COORDONNER L'ACTION DES ACTEURS

Avec les précautions qu'imposent des contextes historiques différents, on se prend quelquefois à regretter la ténacité de Colbert et même la brutalité efficace de Louvois.

Autrement dit, l'action d'hommes qui affichaient une politique et avaient les moyens de la mettre en oeuvre dans la durée.

I. AFFICHER DES OBJECTIFS

La lisibilité de son action dans la durée devrait s'imposer à l'État lorsqu'il s'agit d'activités stratégiques dont les cycles de recherche, développement et production s'étalent sur de longues périodes (de 5 à 15 ans) et supposent des investissements massifs.

D'une façon ou d'une autre, toutes les grandes nations scientifiques l'ont fait, tous les grands pays qui comptent aujourd'hui et constitueront les pivots du monde de demain le font.

S'agissant des filières de haute technologie, il devient de plus en plus urgent que les pouvoirs publics, en particulier en France, s'engagent donc plus explicitement sur leurs priorités.

Ils doivent affirmer leur volonté au travers de la loi de programme 25 ( * ) dédiée à la recherche et aux filières de haute technologie .

II. COORDONNER LES ACTEURS

A. LES ACTEURS PUBLICS

Les missions menées dans le cadre de cette étude révèlent des schémas d'organisation très divers de l'action publique en matière de recherche selon les pays :

- addition de programmes de ministères, associés à des agences à compétences verticales (NSF) ou transversales (NIST) aux États-Unis,

- enchevêtrement de compétences fédérales et locales, d'agences de moyens et d'organismes de recherche, mettant en oeuvre des programmes prioritaires, en Allemagne,

- juxtaposition de plusieurs compétences ministérielles, d'universités très puissantes, comme celle de Tokyo, et d'agences de moyens aux programmes diversifiés, au Japon,

- organisation par ministère dont dépendent des organismes de recherche, en France.

Il n'y a donc pas de modèle dominant dans ce domaine.

Mais, au regard des exemples étrangers, l'organisation du soutien aux filières de haute technologie dans notre pays souffre de deux défauts : une culture excessive de verticalité et l'absence de tradition de gestion par programmes,

- la verticalité ministérielle se répercute naturellement entre les organismes et centres de recherche que gèrent les ministères (même si un effort très réel de décloisonnement a été entrepris par la constitution des réseaux, le lancement des actions concertées et par le rapprochement du CNRS et du CEA évoqué précédemment).

Elle gêne la fixation des priorités et entrave leur mise en oeuvre, en particulier dans les secteurs de haute technologie où les frontières traditionnelles entre les disciplines et entre la recherche-développement et l'application deviennent plus floues.

Pour en surmonter les inconvénients, on peut avancer une proposition simple .

Compte tenu du caractère stratégique des filières de haute technologie, on pourrait s'inspirer du modèle japonais en instituant, sous la présidence du Premier ministre, un Conseil pour la politique scientifique et technologique (où tous les ministères concernés seraient représentés), qui aurait pour rôle de veiller à la réalisation des objectifs du Gouvernement et de rendre les arbitrages nécessaires dans ce domaine.

- l'absence de gestion par programmes oblitère également la lisibilité des objectifs, dilue les responsabilités dans leur mise en oeuvre, et dénie souvent les transversalités nécessaires.

Si, comme il est proposé, les pouvoirs publics définissent des objectifs quant aux filières de haute technologie, il est tout aussi souhaitable que ces objectifs soient déclinés en programmes et, à l'imitation de ce qui se fait en Allemagne, qu'à chaque programme corresponde un responsable .

C'est, au demeurant, la façon dont fonctionne, à la satisfaction de tous, les programmes européens de haute technologie de l'initiative Eurêka, comme Medea+.

B. LES ACTEURS PRIVÉS

Des multiples auditions des intervenants privés effectuées dans le cadre de l'étude, il est ressorti un besoin diffus : celui d'une meilleure organisation du dialogue avec les ministères.

Il pourrait être utile de créer une conférence de concertation biannuelle, offrant un cadre plus stable aux rapports entre l'aval de la filière, les ministères concernés et les principaux centres de recherche .

METTRE À NIVEAU LES SOUTIENS

I. L'ÉCHELON EUROPÉEN

La Commission européenne est tout à fait fondée, comme elle le fait depuis deux ans, à alerter l'opinion sur le sous-financement de la recherche en Europe.

Mais avant d'essayer de discerner ce qui pourrait être fait sur ce point dans notre pays, on doit relever qu'il existe une contradiction, à l'échelon européen, à poser des objectifs sans donner aux États les moyens de les atteindre .

Plus précisément, on sait que trois des grands pays de l'Union, dont deux des premières puissances scientifiques, la France et l'Allemagne, ont actuellement des problèmes avec l'application du pacte de stabilité.

On peut légitimement estimer que l'objectif d'affecter 3 % du PIB à la dépense de recherche a un caractère plus prioritaire pour l'avenir de l'Europe que la réalisation du pacte de stabilité. On pourrait avancer une première proposition pour activer la réalisation de cet objectif.

Ce choix politique de rupture par rapport à l'orthodoxie conduit à avancer une première proposition.

Il s'agirait, pendant 5 ans, d'exclure du calcul des déficits budgétaires publics les financements directs ou indirects de la recherche pour l'application du pacte de stabilité.

II. LE CADRE FRANÇAIS

L'exigence d'augmenter, d'ici à 2010, de 2,2 % à 3 % la part du PIB affectée à la dépense de recherche, a été récemment réaffirmée par les plus hautes autorités de l'État, avec raison.

Soulignons que pour atteindre ce pourcentage de 3 % à l'horizon envisagé, il est nécessaire, sur la base d'une croissance moyenne du PIB de 2 %, que la dépense intérieure de recherche progresse de 5,6 % en volume par an, ce qui n'a pas vraiment été inscrit dans les choix budgétaires de 2003.

Un consensus assez large existe sur cet objectif, chacun étant convaincu que si notre pays ne s'en approche pas, il perdra pied dans la compétition économique mondiale.

Mais la recherche s'inscrivant dans la durée, l'organisation financière de son soutien doit échapper aux arbitrages des lois de finances annuelles, qui se traduisent trop souvent par l'oubli ou la mise à l'écart provisoire des actions de long terme .

C'est pourquoi il est important que soit rapidement présentée une loi de programmation de la dépense de recherche d'ici à 2010 .

Cette loi ne devrait pas se limiter à affecter des crédits publics à des programmes, mais également inclure les effets de synergie attendus d'une mise à niveau des aides indirectes et, au premier chef, d'une rénovation des dispositifs fiscaux d'encouragement à la recherche.

Sur la base d'un rapport déposé chaque année par le Gouvernement, elle ferait l'objet, tous les ans, d'un débat parlementaire, déconnecté du projet de loi de finances.

ADRESSER LES SOUTIENS À L'ENSEMBLE DE LA FILIÈRE

Les filières de haute technologie sont caractérisées par quelques traits dominants :

la solidarité de l'ensemble de la filière

Si l'on veut assurer une avancée régulière des acquis dans les hautes technologies, il est nécessaire de faire progresser aussi bien la recherche académique que le développement technologique et la recherche appliquée.

Dans le domaine de la microélectronique, il est clair que plus on avance dans la voie de la réduction géométrique, plus l'impulsion de la recherche fondamentale et du développement technologique devient essentielle.

l'effacement de la linéarité du modèle traditionnel « recherche de base/développement technologique/recherche appliquée »

La poussée à la miniaturisation estompe les frontières :

- entre recherche académique et développement technologique : on assiste de plus en plus à des recoupements entre la découverte et l'exploration de ces possibilités technologiques,

- entre développement technologique et recherche appliquée : les prototypages préindustriels de micro ou de nanosystèmes vont de plus en plus s'appuyer sur le savoir-faire et les équipements des grands centres de développement technologique.

le resserrement des contraintes de temps entre la découverte et l'application

La montée irrésistible des coûts de recherche-développement et celle des investissements dans les lignes de production de microprocesseurs ont deux conséquences directes :

- le risque technologique devient de plus en plus dangereux en termes financiers,

- le retour sur investissement doit s'accélérer.

Ce mouvement , comme celui que l'on observe sur le plan scientifique, pousse à un rapprochement plus étroit des industriels avec les développements de l'amont . Aussi bien aux États-Unis qu'en Allemagne, ces centres de recherche s'efforcent d'associer aux axes du développement technologique de base non seulement le secteur des semi-conducteurs, mais également les clients de ces fabricants.

*

* *

Face à cette évolution (solidarité de la filière, raccourcissement des délais, imbrication croissante de l'industrie et des centres de recherche et de développement technologique), l'organisation française des soutiens à la filière de haute technologie est-elle satisfaisante ?

Les réponses varient en fonction des segments de la filière.

Le chaînon central « développement technologique-industrie des semi-conducteurs » paraît assez bien couvert pour la création des plates-formes technologiques par le soutien aux pôles de Grenoble et de Crolles et par l'accord CEA-CNRS.

Cette observation se fait sous réserve qu'une mise à niveau de son financement soit acquise, en parallèle avec la croissance de la part du PIB consacrée à la recherche.

En revanche, aux deux extrémités de la chaîne, une attention particulière devrait être accordée à la recherche de base et aux applications industrielles finales .

La recherche de base

La recherche fondamentale en nanosciences et nanotechnologies utilise des équipements de plus en plus chers, à l'achat comme au fonctionnement.

- Les équipements

La réalisation de nanocomposants, électriques ou optoélectroniques, reposant sur des filières à base de semi-conducteurs ou même de composés organiques suppose que des outils suffisamment versatiles et adaptables puissent être disponibles. Le maintien et la disponibilité des salles blanches de 100 nm pour ce type de recherches suscitent quelques inquiétudes.

Par ailleurs, la visite de laboratoires dédiés aux nanotechnologies ou aux microsystèmes a démontré qu'ils manquaient des fonds nécessaires à l'acquisition d'équipements. Afin de poursuivre leurs recherches dans des secteurs très avancés, les scientifiques de ces laboratoires se font mettre à disposition, qui des logiciels prédictifs, qui un microscope à effet de tunnel pour étudier la création d'une « nano-salle blanche », le fruit éventuel de leur recherche étant alors approprié par les industriels étrangers qui leur ont prêté ces équipements. L'insuffisance de nos moyens nationaux conduit à un transfert de notre intelligence au profit de concurrents .

Les dotations en équipement des laboratoires de la recherche fondamentale doivent donc être mises à niveau pour correspondre à la hausse des coûts expérimentaux.

- Le fonctionnement

Plusieurs aspects de ce problème doivent être pris en considération :

les coûts de fonctionnement et la maintenance des équipements de recherche sur l'infiniment petit sont coûteux ; il faut les mettre à niveau ;

afin de donner une réalité aux échanges entre chercheurs, notamment entre les plates-formes de développement technologique, il faut augmenter les dotations de déplacement et de séjour des chercheurs ;

enfin, si la France veut attirer des chercheurs étrangers sur ces grandes plates-formes technologiques et y faire séjourner des chercheurs français issus d'autres centres de recherche, il est nécessaire qu'une politique de logement adaptée soit lancée, avec la recherche d'un financement partenarial nécessaire à cette politique d'accueil .

Le tissu industriel final

L'apparition massive des nano et microsystèmes va créer, à un terme de 10-15 ans, des marchés de plusieurs centaines de milliards d'euros. Cette certitude ne doit pas éluder les interrogations sur le cheminement de ces avancées technologiques dans le tissu industriel.

Si le dispositif français semble pertinent, sous réserve de l'adoption d'ajustements fiscaux, pour favoriser la création de start-up nées directement du développement technologique, il semble moins avancé que d'autres pour anticiper et activer la valorisation de ces développements à l'ensemble de l'industrie (ceci à l'exception de très grandes entreprises, comme celles du secteur automobile).

La France n'a ni les centres de recherche intégrés des États-Unis, ni le dispositif massif des sociétés de type Fraunhofer dont dispose l'Allemagne.

Certes, l'ANVAR joue un rôle non négligeable dans la valorisation de la recherche en favorisant le face-à-face des industriels et des laboratoires, mais il manque à notre pays de grands centres de développement technologiques dédiés de façon permanente au rapprochement de la science et de l'industrie .

L'importance future des filières de haute technologie et, au premier chef, de celles des microprocesseurs, et des micro et nanotechnologies, commande que l'on constitue, sans tarder, des unités intégrées de ce type.

Les équipementiers

Le rôle des équipementiers du secteur doit être souligné. Et à cet égard il semble indispensable que les conditions de leur accès aux plates-formes de haute technologie soient clairement réglées par convention .

ADAPTER LA RÉGLEMENTATION EUROPÉENNE
AUX RÉALITÉS DU MARCHÉ MONDIAL

Une très récente communication de la Commission européenne, du 16 décembre 2002, nous apprend que celle-ci place la politique industrielle au premier rang de ses préoccupations.

Répondre à cette exigence implique, pour le moins, qu'elle fasse évoluer certains de ses modes d'intervention, et en premier lieu la politique de la concurrence.

La réglementation européenne de la concurrence vise à éliminer les pratiques non concurrentielles dans l'espace de l'Union européenne. Son application est donc centrée sur cet espace.

Or, la concurrence est mondiale.

Elle l'est encore plus dans les filières de haute technologie car :

- les facteurs de production (capital, chercheurs et ingénieurs) y sont très mobiles,

- le coût du transport est marginal dans la valeur ajoutée des entreprises.

Dans ce contexte, il est surréaliste d'appliquer à cette filière le même droit de la concurrence que l'acier ou que les textiles.

Il serait donc souhaitable que l'Union européenne redéfinisse les règles d'attribution des aides d'État aux filières de haute technologie en prenant en considération la réalité de leur marché mondial.

En effet, on doit s'interroger sur la pertinence de « l'encadrement communautaire des aides à la recherche et à la technologie » 26 ( * ) .

Maintenir dans l'espace européen, principalement pour les entreprises européennes, des règles et des procédures contraignantes qui contrastent avec celles des principaux concurrents de l'Europe n'a plus beaucoup de sens.

Justifier ce maintien par la nécessité de faire respecter la libre concurrence en a encore moins dans un contexte où la pression des coûts de recherche, de développement et de production contraint les entreprises européennes à coopérer sur presque tous les segments de la filière.

Il convient donc de définir de nouvelles règles et de préconiser des pratiques plus proches de la réalité. Et notamment :

- de supprimer les notifications préalables d'aide qui sont à la source de délais trop importants dans des domaines où la rapidité de réaction doit prévaloir,

- d'élargir les critères d'éligibilité de soutien des États à la recherche-développement, en s'affranchissant d'un modèle de dépense subventionnable obsolète (100 % à la recherche fondamentale, 50 % en développement technologique et 25 % à la recherche appliquée),

- et de permettre d'admettre plus largement les allégements fiscaux lorsque ceux-ci ont pour objet le maintien des grandes lignes de production de microprocesseurs et de microsystèmes, vitaux pour la compétitivité de l'industrie européenne dans ce domaine stratégique.

Si l'Europe entend mettre en oeuvre une politique industrielle favorisant la compétitivité de ses entreprises, elle doit s'en donner les moyens.

PROMOUVOIR LA PLURIDISCIPLINARITÉ

La pervasion de la microélectronique vers les micro et nanosystèmes, les remontées des nanosciences exigent de plus en plus d'interdisciplinarité.

Cette évolution doit naturellement trouver sa traduction dans une réflexion sur les formations (cf. infra ) mais également dans les pratiques quotidiennes.

Sur ce point, elle devrait être facilitée par la mise en place d'instruments financiers mieux adaptés, et par des actions concertées incitatives.

Mais, si elle est largement souhaitée, encouragée et proclamée, la pluridisciplinarité est-elle vécue comme un impératif par la communauté des chercheurs ?

Plusieurs des auditions effectuées dans le cadre de l'étude ont montré qu'il existait, en dépit des efforts de certains organismes de recherche, un cloisonnement excessif entre les disciplines .

Ce cloisonnement peut avoir pour résultat de freiner la carrière des chercheurs, un chimiste travaillant, par exemple, avec des biologistes ou avec des physiciens, sera considéré avec circonspection par ses pairs.

Il semble donc nécessaire de réformer plus explicitement le fonctionnement des comités d'évaluation afin de mieux prendre en compte les activités interdisciplinaires des chercheurs.

CRÉER UN CADRE FISCAL ADAPTÉ À LA SPÉCIFICITÉ
DES HAUTES TECHNOLOGIES

Depuis 1993, la part du financement public de la recherche en entreprise s'est effondrée : elle est passée de 15,7 % à 9,3 % en 2000.

Parallèlement à cette baisse sans précédent des aides directes, l'État n'a pas su développer des aides indirectes correspondant à la spécificité des filières de haute technologie . La puissance publique a même continuellement aggravé, en matière de taxe professionnelle, le statut fiscal des très grandes entreprises de la filière.

Les projets récemment annoncés par le Gouvernement sur la fiscalité des entreprises à croissance rapide répondent à une partie de ces besoins. Ils sont, au demeurant, dans le droit fil de la loi sur l'innovation adoptée à l'unanimité sous l'impulsion du précédent Gouvernement.

Mais, pour l'essentiel, le dispositif reste timide en matière de crédit d'impôt recherche, très pénalisant pour les équipements de haute technologie en matière de taxe professionnelle, et très incomplet dans le domaine si important de la formation continue .

Mettre en place un crédit d'impôt recherche significatif

De nombreux pays, dont la France, mettent en oeuvre un crédit d'impôt-recherche.

Ainsi, les États-Unis pratiquent cette politique aussi bien à l'échelon fédéral qu'au niveau des États. Ils appliquent des dispositifs qui prévoient une assiette large puisqu'un pourcentage (20 % à l'échelon fédéral, variable dans les États) des dépenses de recherche et de développement peut être déduit, sans plafond , de l'impôt sur les sociétés.

Le Royaume-Uni a établi en 2000 un crédit d'impôt recherche réservé aux PME et l'a étendu à toutes les entreprises en 2002. Cette disposition fiscale est très favorable aux industriels puisqu'elle permet de déduire de l'impôt sur les sociétés 125 % de la dépense éligible définie sur une base étendue.

Le dispositif français est beaucoup plus timide :

- son assiette est limitée et ne porte que sur 50 % de la dépense supplémentaire de recherche effectuée par rapport à la moyenne de celle exposée sur les deux exercices fiscaux précédents,

- il est plafonné à 6,1 millions d'euros, plafond qui n'a pas été modifié depuis 1991. Celui-ci est notablement insuffisant pour les grandes entreprises qui portent la plus grande partie de l'effort de recherche des filières de haute technologie,

- il n'encourage pas le lien , maintenant essentiel, entre les recherches publiques et privées, entre l'amont et l'aval des filières de haute technologie, ce qui ne correspond pas à leur évolution.

Ce dispositif modeste a un coût très modeste : 490 millions d'euros en 2001 27 ( * ) , soit environ 3 % de la dépense de recherche nationale développement supportée par les administrations.

Il vient à échéance à la fin de 2003. Une réflexion est engagée sur son évolution.

On peut contribuer à cette réflexion en avançant les propositions suivantes :

- s'agissant des PME, le dispositif est satisfaisant à une réserve près : l'assiette est trop étroite et inadaptée aux rythmes économiques . Asseoir le crédit d'impôt sur 50 % de la dépense de recherche supplémentaire par rapport à la moyenne des deux exercices antérieurs est notablement antiéconomique. En effet, lorsqu'une entreprise engage un effort de recherche supplémentaire à l'année « n », elle n'en tirera pas de bénéfice, et donc d'espoir de bénéfice du crédit d'impôt avant l'année n+1 ou n+2.

Si on souhaitait maintenir ce type d'assiette, il faudrait pour le moins, soit la lisser 28 ( * ) sur des périodes plus longues, soit, surtout, admettre le report du crédit d'impôt sur les deux exercices postérieurs à l'engagement de la dépense supplémentaire .

- le crédit d'impôt est totalement inadapté aux masses engagées par les très grandes entreprises .

Comme pour les petites entreprises, se pose le problème de l'étroitesse de l'assiette et de son inadaptation aux rythmes économiques, mais surtout celui de son plafonnement.

Un crédit d'impôt limité à 6,1 millions d'euros n'a que très peu d'effets d'encouragement pour ces entreprises à accroître leur recherche. En d'autres termes, le coût marginal d'une prise de risque financier est, en général, total, puisque le gain qui pourrait être escompté du crédit d'impôt-recherche est neutralisé par l'effet de son plafonnement.

Rappelons que beaucoup de pays concurrents de la France mettent en oeuvre des crédits d'impôt entièrement déplafonnés et que dans une économie mondialisée, il est très facile de déplacer des chercheurs vers des pays où le statut fiscal de leur activité est valorisé .

Il est nécessaire de mettre en oeuvre le plus rapidement possible un déplafonnement significatif de crédit d'impôt-recherche, si l'on ne veut pas soumettre les très grandes entreprises aux tentations de la délocalisation scientifique.

- Enfin, il est essentiel de mettre à profit la réforme de cet instrument, de toute façon obsolète, afin de subordonner l'assouplissement des avantages fiscaux qui devront être accordés aux filières de haute technologie à l'accroissement des actions menées en commun par les entreprises avec les grands centres de recherche et de développement technologique publics .

Adapter la législation sur la taxe professionnelle

La taxe professionnelle est une particularité bien française, puisque c'est la seule taxe au monde assise sur l'appareil productif, indépendamment des revenus des entreprises 29 ( * ) .

Les très grands investissements industriels , comme les lignes de production des semi-conducteurs,qui sont les installations les plus coûteuses (2,5 milliards d'euros aujourd'hui, 6 milliards d'euros dans quelques années) sont donc très vulnérables au régime applicable dans ce domaine.

Afin de limiter les effets négatifs de cette taxation, le législateur avait prévu d'accorder un dégrèvement de taxe, à la charge de l'État, égal à la différence entre la taxe normalement due et 4 % de la valeur ajoutée (pour les entreprises dont le chiffre d'affaires est supérieur à 76 225 000 € - 500 millions de francs).

Mais ce dégrèvement est lui-même plafonné depuis 1995 à 76 225 000 €.

Les effets de cette disposition, conjugués avec celles intervenues depuis (changement d'assiette intervenue au bénéfice des sociétés de main d'oeuvre au détriment de l'industrie lourde, réforme de l'intercommunalité, non-plafonnement de la taxe additionnelle à la taxe professionnelle perçue au bénéfice des chambres de commerce et d'industrie), créent une situation très préoccupante .

Dès maintenant :

- une ligne de production de semi-conducteurs paye 10 000 € de taxe professionnelle annuelle, soit 6 fois plus que la moyenne des établissements industriels,

- sur une usine de disques de 300 mm, les prélèvements de taxe professionnelle approchent 60 % du montant d'une marge brute normale de 10 %.

Si cet état de fait n'est pas rapidement rectifié, des décisions de délocalisation de l'usine de production de disques de 300 mm de Crolles pourraient être, à terme, envisagées (notamment en Italie - dont l'État, rappelons-le, est le principal coactionnaire de STMicroelectronics, avec la France).

On mesure dès maintenant les conséquences qu'auraient de telles délocalisations :

- une usine de disques de 300 mm qui emploie 1 200 personnes dont la plupart sont hautement qualifiées, induit, sur son seul fonctionnement, 3 500 emplois supplémentaires, et en génère indirectement 7 000 de plus. Ajoutons que ce type d'installations agrège d'autres entreprises de haute technologie (comme le montre l'exemple de la zone industrielle de Crolles).

Les ressources sociales et fiscales associées à ce type d'implantation seraient menacées en cas de délocalisation de l'usine.

- mais surtout, la délocalisation des installations de Crolles aurait pour résultat d'affaiblir fortement le pôle de recherche et de technologie de Grenoble.

Or, les liens de tous les segments de cette filière sont très étroits, et le développement technologique se nourrit de plus en plus des interrogations et des retours d'expérience de la production.

Dans le même temps où l'État encourage la constitution d'un pôle de dimension mondiale à Grenoble, il aboutirait ainsi, par l'invariance de sa politique fiscale, à son démantèlement.

Il faut donc trouver une solution.

Dans la mesure où il semble difficile de modifier la répartition des assiettes ou la loi sur l'intercommunalité, ce qui perturberait l'équilibre des finances des collectivités locales concernées, la solution réside probablement dans le desserrement du plafonnement à 76,2 millions d'euros 30 ( * ) du dégrèvement de taxe professionnelle accordé aux très grandes installations industrielles.

Cette suppression peut s'effectuer progressivement, mais il est essentiel, dans ce domaine comme dans d'autres, de donner une lisibilité aux entreprises sous la forme d'un échéancier, à insérer dans la deuxième partie de la prochaine loi de finances.

Entamer une réflexion sur un crédit d'information adapté aux filières de haute technologie

Cette piste est mentionnée pour mémoire, elle sera exposée dans la partie des propositions consacrées à la gestion de la connaissance.

GÉRER LA CONNAISSANCE

Dans l'économie industrielle classique, née du 19 e siècle, les périodes de ruptures technologiques étaient suivies de durées d'exploitation assez longues. Dans ce cadre, l'adaptation des connaissances ne posait pas de problèmes particuliers.

Dans l'économie moderne, il en va autrement.

Le secteur des microprocesseurs, en poussée technologique continuelle depuis plus de quarante ans, illustre bien le changement intervenu dans la dynamique de l'économie d'aujourd'hui.

Tout autant que le capital, l'exploitation de la connaissance scientifique et technologique est devenue un facteur déterminant de la compétitivité des grandes économies.

Comme le capital, c'est un facteur de production qui se mondialise rapidement ; les chercheurs et les ingénieurs, actuellement, s'importent et s'exportent.

Dans ce cadre, il est plus que probable que seuls les pays qui sauront gérer le facteur humain - c'est-à-dire produire de la connaissance, la conserver, organiser sa diffusion et sa valorisation - pourront prétendre à conserver la maîtrise de leur développement 31 ( * ) .

C'est particulièrement vrai pour la France qui bénéficie d'une forte attractivité en raison de la qualité et du nombre des étudiants qu'elle forme au niveau prédoctoral ou doctoral.

Une ambition de ce type, dont la réalisation touche beaucoup d'aspects de la vie économique, sociale et culturelle de notre pays excède, de beaucoup, l'objet de cette étude, et même de l'organisation du soutien aux filières de haute technologie. Elle la recoupe, pourtant, sur beaucoup de points en matière de formation initiale, comme de formation continue.

La formation initiale

Remédier à la crise des vocations scientifiques

Dans la plupart des grands pays scientifiques on fait le même constat qu'en France : les formations scientifiques attirent de moins en moins d'étudiants (aux États-Unis, le nombre des docteurs de nationalités étrangères en sciences approche celui des docteurs de nationalité américaine).

Même si les raisons de cette situation sont complexes, il est urgent que les pouvoirs publics engagent rapidement une politique permettant de redresser cette évolution, y compris au prix de mesures que l'on pourrait juger discriminatoires - comme par exemple dans le domaine du nombre et du montant des bourses ou de l'accueil des étudiants étrangers .

Anticiper les évolutions

la formation à la pluridisciplinarité

L'apparition des microsystèmes et des nanotechnologies commande une plus grande interdisciplinarité .

Or, les formations scientifiques telles qu'elles sont conçues, à l'université ou dans les écoles, sont organisées en fonction d'une spécialisation croissant avec la durée des études.

Il semble donc souhaitable qu'une réflexion soit engagée afin d'étudier comment notre système de formation pourrait prendre en considération une évolution incontournable et qui semble aller à l'encontre de sa logique d'organisation actuelle .

Prévoir les besoins dans le domaine de la conception assistée par ordinateur

Dans les écoles d'ingénieurs, il paraît essentiel de faire un effort dans un domaine de la microélectronique où le manque de diplômés se fait déjà sentir : la conception assistée par ordinateur.

Il s'agirait ici d'accroître les moyens des écoles spécialisées en logiciels de simulation 32 ( * ) et de créer, dans une ou deux implantations, des unités de valeur correspondante.

Quoiqu'en apparence peu ambitieuse, cette préconisation permettrait au système de formation français de conserver une maîtrise et d'opérer un pouvoir d'attraction dans un segment du secteur qui devient de plus en plus important.

Relancer la formation en microélectronique et microsystèmes

Cette formation repose, dans un premier stade, sur les écoles d'ingénieurs puis, à l'échelon bac+5, sur le Centre national de formation à la microélectronique (CNFM).

Le CNFM est un GIP constitué entre le ministère de l'éducation nationale et le SITELESC (Syndicat professionnel des fabricants de semi-conducteurs).

Il est organisé en centrales de moyens à vocation régionale ou interrégionale. Il forme actuellement 1 000 spécialistes en microélectronique et fournit à 2 000 étudiants non spécialisés une formation dans ce domaine - ce qui est un élément de pluridisciplinarité fort.

Son action, dans un secteur où une insuffisance de main d'oeuvre qualifiée se manifeste déjà, est essentielle.

Mais il est nécessaire de l'amplifier.

D'une part, parce que les besoins industriels se diversifient, notamment vers les systèmes sur puces et les microsystèmes, mais également dans ceux de la simulation et des tests.

D'autre part, parce qu'une projection des besoins montre qu'il est nécessaire de doubler de 1 000 à 2 000 le nombre des spécialités en microélectronique, et d'augmenter pour 1 000 diplômés supplémentaires le volume des enseignements en microélectronique pour les filières à bac+5.

Ces objectifs pourraient être progressivement atteints en cinq ans sous réserve d'allocation de moyens financiers supplémentaires de l'ordre de 5 millions d'euros par an.

Si la France veut conserver les atouts dont elle dispose du fait de son système de formation, il est indispensable qu'elle se donne les moyens, dans ce domaine, de l'adapter en permanence.

A cet égard, on doit formuler une observation : le partage de notre système de formation entre plusieurs ministères dotés de moyens financiers insuffisants, paralysés par la culture de la verticalité administrative, constitue un handicap important.

On mesure, comme trop souvent dans notre pays, une certaine incapacité à mesurer les enjeux, à fixer des priorités et à les doter de moyens suffisants dans la durée . Considérer que l'avenir de la formation dans une branche aussi stratégique dépende d'une majoration de financement annuel de 5 millions d'euros dont les ministères concernés n'arrivent pas à se répartir la charge laisse perplexe.

La formation continue

La France se situe au second rang européen pour le nombre de diplômés en sciences et ingénierie par rapport aux classes d'âge (20-29 ans).

A ce titre, elle forme 80 % de plus d'ingénieurs que les États-Unis et 60 % de plus que le Japon 33 ( * ) .

Sa formation continue est-elle à la hauteur de l'excellence de cet effort initial ?

Plus tout à fait.

Le dispositif de la loi sur la formation professionnelle continue de 1971

Le système de formation continue dans les entreprises reste, pour l'essentiel, régi par la loi du 16 juillet 1971 . Il draine environ 150 milliards d'euros par an au travers de canaux quelquefois complexes.

Ce texte a vieilli.

Pour preuve, la France, qui avait été un pionnier dans ce domaine, se situe maintenant dans la moyenne des pays de l'Union européenne, derrière le Royaume-Uni et les nations du nord de l'Europe.

On peut également poser la question de la pertinence du dispositif général, et surtout son adaptation aux exigences des filières de haute technologie. Celles-ci, constamment soumises à la pression de l'innovation technologique, engagent des sommes beaucoup plus élevées (de l'ordre de 6 à 7 % de leur chiffre d'affaires) que l'obligation légale de 2 %.

Il est de toute façon nécessaire d'envisager une refonte de la loi de 1971, et à cette occasion il serait souhaitable d'engager une réflexion particulière sur la formation continue dans les filières de haute technologie .

Le crédit d'impôt formation

Il existe un crédit d'impôt formation, mais celui-ci est réservé aux PME (plus précisément aux entreprises réalisant un chiffre d'affaires de 7,63 millions d'euros).

Il est nécessaire d'étudier les voies de son extension aux grandes entreprises.

RECONSIDÉRER LES POSSIBILITÉS
OFFERTES PAR LES FONDATIONS

Les fondations sont des structures privées dont l'objet social est public.

En d'autres termes, il s'agit d'un mode de participation à certains services publics échappant assez largement à l'État.

Dans la tradition anglo-saxonne, et notamment aux États-Unis, ces fondations jouent un rôle important dans le soutien à la recherche scientifique et technologique. Les financements essentiellement privés dont elles disposent sont la contrepartie d'un abandon de ressources par l'État - aux États-Unis, par exemple, essentiellement des droits de succession.

En dépit d'encouragements consentis depuis trente ans de façon assez timide, les fondations jouent un rôle largement inférieur à d'autres pays comparables à la France. En effet, notre conception très unitaire de la souveraineté (le peuple, les représentants de la nation, la loi, le budget) exclut, sauf à la marge, que l'État consente des abandons de souveraineté et des subdélégations fiscales à des structures privées, même s'il s'agit de concourir à l'intérêt général.

Cette situation conduit les détenteurs de grands ou de très grands patrimoines à refuser ce type d'intervention - sauf en cas de dation artistique ou d'érection de musées abritant leurs collections.

Ce n'était pas le cas au début du 20 e siècle. Il suffit par exemple de visiter le hall de la Sorbonne pour être impressionné par le nombre de donateurs illustres qui avaient, alors, soutenu cette institution.

Or les fondations, par rapport aux modes de gestion publics traditionnels, présentent un triple intérêt :

- financièrement, à partir d'une masse critique initiale importante, elles permettent d'agréger d'autres financements provenant de donateurs moins fortunés,

- leur gestion est plus souple,

- surtout, avec un objet social identique ou proche de celui des acteurs publics, elles sont à même de jouer un rôle complémentaire dans des domaines que l'action de ceux-ci ne couvre qu'imparfaitement.

On peut, dès lors, se poser la question de la mise à l'étude de fondations spécifiquement affectées au soutien à la recherche et au développement technologique dans le cadre d'une révision de l'impôt sur la fortune ou des droits de succession.

Sans formuler de réponse à cette question, on doit étudier, sans parti pris, les avantages et les inconvénients qu'il y aurait à donner une nouvelle impulsion aux fondations dans notre pays.

ADOPTION PAR L'OFFICE

Lors de sa réunion du mardi 21 janvier 2003, l'Office parlementaire d'évaluation des choix scientifiques et technologiques a adopté à l'unanimité le rapport de M. Claude Saunier, sénateur, sur « L'évolution du secteur des semi-conducteurs et ses liens avec les micro et nanotechnologies » .

REMERCIEMENTS

Je tiens à adresser des remerciements extrêmement chaleureux à tous les membres du comité de pilotage qui m'ont assisté dans cette étude :

Monsieur Jacques CITERNE

Directeur adjoint du Département scientifique

INSA Rennes

Monsieur Jean-Jacques DUBY

Directeur

Ecole Supérieure d'Électricité (SUPELEC)

Monsieur Bernard FAURE

Directeur Stratégie & Développement

Philips

Monsieur Laurent GOUZENES

Directeur du Plan et des Programmes d'Etudes

STMicroelectronics SA

Professeur Patrice HESTO

Institut d'Électronique Fondamentale

Université Paris-Sud

Professeur Jean-Claude LAPRIE

Directeur du Laboratoire d'Analyse et d'Architecture des Systèmes, Toulouse

Monsieur Gérard MATHERON

Directeur

Medea +

Monsieur Jean THERME

Directeur du LETI

CEA Grenoble

ANNEXES

ANNEXE I :

LISTE DES PERSONNALITÉS AUDITIONNÉES

I. LISTE DES PERSONNES AUDITIONNÉES EN FRANCE

M.

Jean-Baptiste

ALBERTINI

Président-Directeur général

ALDITECH

CEA-LETI

M.

Daniel

AMINGUAL

Direction de la Recherche technologique

CEA

M.

Bernard

BAYLAC

Directeur de la Communication

STMicroelectronics

M.

Jean-Paul

BEISSON

Directeur des Infrastructures

ALTIS Semiconductor

M.

Gaston

CAMBON

Professeur des Universités

Laboratoire d'Informatique, de Robotique et de Microélectronique de Montpellier (LIRMM)

M.

Emmanuel

CAQUOT

Chef du service des Technologies et de la Société de l'information

Ministère de l'économie, des finances et de l'industrie

M.

Jacques

CITERNE

Directeur adjoint du Département scientifique

INSA

M.

Pascal

COLOMBANI

Administrateur Général

CEA

M.

Francis

COMPAGNON

Directeur du Marketing et des Ventes

TRONICS Microsystems

M.

Alain

COSTES

Directeur de la Technologie

Ministère de la Recherche

M.

Marc

CUZIN

Directeur technique et Affaires publiques,

Vice-président

APIBIO

M.

Thierry

DAMERVAL

Directeur de la Stratégie et de l'Évaluation

CEA

M.

Jean-Philippe

DAUVIN

Vice-Président

STMicroelectronics

M.

Christian

DESMOULINS

Directeur de la Recherche et de la Technologie

CEA

M.

Wilfried J.

DUBOIS

Directeur des Ressources humaines

Texas Instruments France

M.

Jean-Jacques

DUBY

Directeur

École supérieure d'Électricité

M.

Thierry

DUMAURE

Contrôleur de gestion

CADENCE Design Systems SAS

M.

Michel

DUMONT

Président-Directeur général

ST MICROELECTRONICS

M.

Alain

DUTHEIL

Vice-Président

STMICROELECTRONICS

M.

Christophe

DUVERNE

Directeur du Marketing

PHILIPS

M.

ERYIÈS

Directeur du service des Stratégies techniques et des Technologies communes

Délégation Générale de l'Armement

M.

Bernard

FAURE

Directeur Stratégie et Développement

Président

Philips

SITELESC

M.

Jean-Paul

GIRAUD

Vice-Président

Conseil général de l'Isère

M.

Laurent

GOUZENES

Directeur du Plan et des Programmes d'études

STMicroelectronics

M.

Philippe

GRANGIER

Directeur de Recherche au CNRS

Groupe Optique Quantique

Institut d'Optique Théorique et Appliquée

Laboratoire Charles Fabry

Unité mixte de recherche IOTA, université Paris-Sud

M.

Eric

GUICHARD

Chercheur

École Normale Supérieure (Ulm)

M.

Jacques

GUICHARD

Directeur des Interfaces humaines

FRANCE TELECOM

M.

Patrice

HESTO

Professeur des Universités

Université Paris-Sud

Institut d'Électronique fondamentale

M.

Christian

JOACHIM

Directeur du Groupe Nanosciences et Nanotechnologies

Centre d'élaboration des matériaux et d'études structurales (CEMES Toulouse)

M.

Francis

JUTAND

Directeur du Département des Sciences et Technologies de l'Information et de la Communication

C.N.R.S.

M.

Didier

LAMOUCHE

Directeur

ALTIS Semiconductor

Docteur

Philippe

LAPORTE

Département des Technologies silicium

Direction de la Recherche technologique

CEA-LETI

M.

Jean-Claude

LAPRIE

Directeur

Laboratoire d'Analyse et d'Architecture des Systèmes (LAAS)

M.

Paul

LE GUERNIC

Directeur de Recherche

INRIA Rennes

M.

Gérard

MATHERON

Directeur

MEDEA+

M.

Roger

MAYNARD

Direction de la Recherche

Ministère de la Recherche

M.

Joël

MONNIER

Vice-Président

STMicroelectronics

M.

Michel

MONTIER

Directeur des Technologies avancées

STMicroelectronics

M.

Jean-Pierre

NOBLANC

Président

MEDEA+

M.

Olivier

NORA

Sous-direction des Composants électroniques

Service des technologies et de la société de l'information

Ministère de l'économie, des finances et de l'industrie

Direction générale de l'industrie, des technologies de l'information et des postes

M.

Gérard

OLLIVIER

Délégué Général

SITELESC

M.

Jacques

PERROCHEAU

Consultant

LCP's

M.

Pierre

PIVER

Vice-Président

INFINEON Technologies

M.

Jean-François

PONE

Professeur des Universités

Institut d'Electronique fondamentale

Université d'Orsay

M.

Claude

PUECH

Directeur scientifique et technique

THALES HTO

M.

Patrice

QUINTON

Directeur de l'Institut de Formation et de Communication

INRIA Rennes

Mme

Marie

REYNIER

Directrice Générale

Ecole supérieure nationale des Arts & Métiers (ENSAM)

M.

Jean-Louis

ROBERT

Direction de la Recherche

Ministère de la Recherche

M.

Georges

SALMER

Directeur

Institut d'électronique et de microélectronique du Nord (IEMN)

M.

Gaël

SCHMIDT

Président-Directeur Général

Président

KARL-SÜSS France

JEMI France

M.

Vincent

TEMPELAERE

Vice-Président

MEMSCAP

M.

Jean

THERME

Directeur

CEA - LETI

M.

Christian

TORDO

Directeur Général

TEXAS Instruments

II. LISTE DES PERSONNES AUDITIONNÉES À L'ÉTRANGER

A. ALLEMAGNE

Pr.

Johann

BARTHA

Professeur des Universités

Technische Universität, Dresde

Pr.

Dieter

BIMBERG

Directeur

NANOP - Technische Universität, Berlin

Dr.

Hans

DEPPE

Vice-Président

AMD Saxony LLC & Co. Kg

Dr.

Wolfgang

HOENLEIN

Directeur

INFINEON Technologies

Dr.

Hubert

LAKNER

Directeur de l'Institut

Fraunhofer IMS, Dresde

M.

Bernard

LE TALLEC

Conseiller commercial

Mission économique de Munich

Dr.

Norbert

LEHNER

Coordinateur international

INFINEON Technologies

Pr.-Dr.

Herbert

REICHL

Directeur de l'Institut

Fraunhofer IZM, Berlin

Dr.

Werner

WEBER

Directeur

INFINEON Technologies

M.

Marcel

BERVEILLER

Professeur des Universités

Conseiller pour la science et la technologie

Ambassade de France en Allemagne

M.

Michel

GUICHARD

Chargé de mission (science et technologie)

Ambassade de France en Allemagne

M.

Nicolas

CLUZEL

Chargé de mission (science et technologie)

Ambassade de France en Allemagne

B. JAPON

Pr.

Shigefumi

NISHIO

Directeur

Institute of Industrial Science (IIS)

Université de Tokyo

Dr.

Vincent

SENEZ

Directeur-adjoint

Institute of Industrial Science (IIS)

Université de Tokyo

M..

Hiroyuki

FUJITA

Directeur

LIMMS (Laboratory for Integrated Micro-Mechatronic Systems

Institute of Industrial Science (IIS)

Université de Tokyo

Pr.

Kazuhiko

HIRAKAWA

Professeur

Université de Tokyo

Pr.

Toshiro

HIRAMOTO

Professeur

Université de Tokyo

M.

Hideo

SETOYA

Directeur

ASET (Association of superadvanced electronics technologies), Tokyo

M.

AYABE

Département du Planning et de la Promotion

Semiconductor Leading Edge Technologies, Inc (SELETE), Kanagawa

M.

NAGAO

Directeur

SELETE (Semiconductor leading edge technologies)

M.

Toyoki

TAKEMOTO

Vice-Président

Semiconductor Technology Academic Research Center (STARC), Kanagawa

M.

Motoo

NAKANO

Directeur du Plan

Semiconductor Technology Academic Research Center (STARC), Kanagawa

M.

Akira

KUBOTA

Directeur général (Développement des Technologies électroniques et de l'information)

New Energy and Industrial Technology Development of Japan (NEDO), Tokyo

M.

Kyohei

NISHIDA

Directeur général

(Développement des Technologies des nanotechnologies et des matériau

New Energy and Industrial Technology Development of Japan (NEDO), Tokyo

M.

Satoshi

NARA

Directeur

Office for Materials Research & Development,

Ministry of Education, Culture, Sports, Science & Technology (MEXT)

M.

Kazumasa

KUSAKA

Directeur Général

Industrial Science and Technology Policy and Environment Bureau

Ministry of Economy, Trade and Industry (METI)

C. TAÏWAN

M.

Tee-yuan

CHEN

Directeur Général adjoint de la Direction de la Planification

Institut de la Recherche de Technologie industrielle (ITRI)

M.

Gorden

CHEN

Président

Taïwan Semiconductor Industry Association

M.

Wen-pin

LEE

Directeur adjoint de la Division de Technologie informatique industrielle

Ministère des Affaires économiques

M.

Cheng-chin

LU

Chef de section

Ministère des Affaires économiques

M.

Tien-hsing

CHOU

Bureau de Développement industriel

Ministère des Affaires économiques

M.

Fadah

HSIEH

Vice-Président

Conseil pour le Planning et le développement économique

M.

Joseph K.

CHOU

Premier Conseiller du Président

Institut pour l'industrie informatique

M.

MORISHA

Président

AIR LIQUIDE Far Eastern

D. ÉTATS-UNIS

M.

DASHER

Directeur

Center for Integrated Systems (CIS),

université de Stanford

M.

Jim

DENN

Directeur des Relations publiques

New York State Office of Science, Technology and Academic Research (NYSTAR),

M.

Tal

FINNEY

Premier Conseiller

Science and Technology Affairs, State of California, Sacramento

M.

Lamar

HILL

Directeur

Université d'Albany

M.

Daryl

HATANO

Vice-Président

Semiconductor Industry Association (SIA),

San Jose

Mme

Kathleen

McTIGUE

Économiste

National Institute of Standards and Technology (NIST), Gaithersburg

Mme

Rose

GOMBAY

Directeur

National Science Foundation (NSF),

Arlington

M.

Warren R.

DEVRIES

Directeur

National Science Foundation (NSF),

Arlington

M.

Jesse

SZETO

Directeur

Technology, Trade and Commerce Agency,

Sacramento

III. LISTE DES PERSONNES AUDITIONNÉES À LA COMMISSION EUROPÉENNE

M.

Philippe

BUSQUIN

Commissaire Européen à la Recherche

M.

Gérard

CAUDRON

Député européen

M.

Philippe

AIGRAIN

Chef de Secteur

DG Société de l'information

M.

Ezio

ANDRETA

Directeur

DG Recherche

M.

Dirk

BEERNAERT

Chef d'Unité

DG Société de l'information

M.

Jean-Louis

COLSON

Chef d'Unité

DG Concurrence

Dr.

Ramon

COMPAÑO

Chef d'Unité

DG Société de l'information

M.

Horst

FORSTER

Chef d'Unité

DG Société de l'information

Mme

Tania

FRIEDERICHS

Cabinet de M. Philippe BUSQUIN

DG Recherche

M.

Heico

FRIMA

Responsable de Projet

DG Recherche

M.

Bernard

NÉTANGE

Responsable de Projet

DG Société de l'information

M.

Hervé

PERO

Chef d'Unité

DG Recherche

M.

Henri

RAJENBACH

Chef d'Unité

DG Société de l'information

ANNEXE II :

PROCÉDÉS DE FABRICATION

La chaîne générale de fabrication d'un semi-conducteur, depuis le sable qui sert à produire le silicium jusqu'à la sortie d'usine du microprocesseur assemblé, s'effectue ainsi :

La ligne de production du microprocesseur donne lieu à de très nombreuses opérations :

Les différentes opérations de lithographie, de gravure et d'implantation sont décrites ci-après :

Une fois le microprocesseur fabriqué, on procède à des opérations d'assemblage.

ÉCHELLES DU TRÈS PETIT À L'INFINIMENT PETIT


De 100 000 nm à 10 000 nm :

- plus petits composants micromécaniques (100 000 nm)

- diamètre d'une section de cheveu (50 000 nm)

- épaisseur d'une feuille d'aluminium alimentaire (10 000 nm)


De 10 000 nm à 1 000 nm :

- profondeur des gravures d'un CD : 1 500 nm

- bactéries, globules rouges

De 1 000 à 100 nm :

- limite inférieure d'un microscope électronique (500 nm)

- plus petites particules de poussières (500 nm)

- épaisseur de la paroi d'une bulle de savon (600 nm)

- longueur d'onde de la lumière visible (350 nm à 750 nm)

De 100 nm à 10 nm :

- épaisseur d'une feuille d'or (30 nm)

- plus courte onde UV (30 nm)

- macromolécules

De 10 nm à 1 nm :

- épaisseur d'une gouttelette d'émulsion d'une crème pour visage

- épaisseur des brins d'ADN (2,5 nm)


De 1 nm à moins de 0,25 nm :

- petites molécules

- diamètre d'un atome de fer (<0,25 nm)

Depuis plus de trente ans, la microélectronique a porté une grande part de la croissance de l'économie mondiale ; elle a irrigué notre quotidien d'objets nouveaux : ordinateurs, téléphones portables, lecteurs de DVD, etc., qui ont profondément modifié nos usages sociaux.

Les microsystèmes qui y sont, dès à présent, associés et les futurs nanosystèmes vont encore accroître le rôle de ce secteur.

Il s'agit donc d'une chance à saisir.

Dans la compétition mondiale qui s'annonce sur ces marchés essentiels, les principaux concurrents de la France et de l'Europe font preuve d'un volontarisme d'État qui contraste avec la timidité de nos propres réponses.

C'est pourquoi Claude Saunier, tirant les leçons du constat effectué dans cette étude, avance des propositions permettant de soutenir nos filières de haute technologie, dont dépend, en définitive, notre avenir économique.

* 1 Mise au point de la bombe atomique par les alliés.

* 2 Ce qui, par exemple, revient à dire que l'on a intégré les fonctionnalités du paquebot France dans sa réplique de collection de poche .

* 3 Qui, rappelons-le, n'a pas été interrompue par la crise intervenue à compter de 1975. A titre d'illustration, le site de l'INSEE nous indique que sur la base d'un indice 100 en volume en 1978, le PIB de 2001 atteint 164,2.

* 4 Même si l'on a observé en 2001 un recul assez sensible du secteur consécutivement à la crise (141 milliards de $ de chiffre d'affaires)

* 5 c'est-à-dire moins que le nombre de transistors implantés sur un seul microprocesseur de grande puissance.

* 6 Soit une somme supérieure aux 8,7 milliards d'euros du budget de la recherche publique en France en 2002.

* 7 La recherche de fabrication de disques de plus en plus grands a pour objet de réduire les coûts de production (de l'ordre de 30 % entre une fabrication de disques de 200 mm et de 300 mm), puisque pour le même nombre d'opérations (environ 700), la production de microprocesseurs croît. Elle suppose un renouvellement de l'ensemble des appareils de production, et donc une forte augmentation des coûts fixes de production.

* 8 Le prix au kilo des microprocesseurs est particulièrement élevé (1 500 €), ce qui rend ses charges de transport marginales.

* 9 15 % par an de 1960 à 2000.

* 10 Un des chercheurs entendus par votre rapporteur sur les usages de l'Internet a relevé que 60 % des utilisateurs étaient désemparés, que le grand public utilisait un moteur de recherche tous les quinze jours et que la plupart des utilisateurs étaient désorientés par les changements très nombreux de présentation de ces moteurs de recherche.

* 11 Rappelons qu'un mm est un millième de mètre, un micron un millionième de mètre et un nanomètre un milliardième de mètre.

* 12 Récemment, ce record a été battu par une gravure à 9 nm de section.

* 13 C'est-à-dire de « l'évasion d'électrons » lorsque la couche d'isolant devient trop mince.

* 14 Suivant en cela le modèle de la fleur de lotus qui n'est jamais souillée par la boue dans laquelle elle croît.

* 15 Un cheveu, à l'échelle d'un nanotube de carbone, est un oléoduc à l'échelle d'un cheveu.

* 16 de quantum : combien ?

* 17 Mais les résultats sont encore très limités : on n'a réussi à factoriser avec un système quantique que le nombre 15.

* 18 La NSF (Fondation nationale pour la science des États-Unis) estime même ce chiffre à 1 000 milliards de $.

* 19 par exemple, si quelqu'un peut être alerté plus tôt d'un problème cardiaque, une opération précoce peut générer des économies par rapport à une intervention lourde, mais également prolonger sa vie de quelques années, ce qui accroît le coût de sa retraite.

* 20 Le Syndicat des fabricants américains de semi-conducteurs estime même que tout retard mis dans la réalisation de la « road map » se traduit par un déficit de croissance de 0,3 % du PIB.

* 21 C'est-à-dire un potentiel humain de recherche de l'ordre de celui du CEA-LETI.

* 22 Compte tenu de ce qui suit, on ne s'étonnera pas qu'à Taïwan le bénéfice avant impôt des sociétés de haute technologie soit inférieur au bénéfice après impôt.

* 23 Sauf pour la construction navale, l'Union européenne refuse toute politique sectorielle de concurrence.

* 24 En 1991, la dépense militaire représentait 63 % du budget de recherche-développement français, elle n'en représentait plus que 21 % en 2001.

* 25 Ces lois sont prévues par l'article 34 de la Constitution, pour déterminer « les objectifs de l'action économique (...) de l'État ».

* 26 Qui pose les règles du droit européen applicables en la matière

* 27 D'après les voies et moyens du projet de loi de finance pour 2003.

* 28 Ce qui se fait au Japon.

* 29 Ce qui est, de plus, particulièrement inadapté à un secteur aussi cyclique que celui des semi-conducteurs.

* 30 Ceci en concertation avec la Commission européenne.

* 31 Un récent rapport émanant du Commissariat général au plan (« La France dans l'économie du savoir » - Rapport du groupe présidé par Pascal Viginier) appelle l'attention sur l'importance de cet enjeu et préconise des orientations qui sont par ailleurs développées dans cette étude (afficher des objectifs, valoriser la connaissance dans le milieu industriel, etc.).

* 32 Les coûts de location sur le marché de ces logiciels sont de l'ordre d'un million d'euros annuels, mais leur facturation est plus faible pour les centres de formation.

* 33 Données du tableau de bord européen de l'innovation - décembre 2002.

Page mise à jour le

Partager cette page