B. EXPOSÉS-DÉBATS
La
séance est ouverte à 9 h 30 par
M. Claude Saunier
,
Sénateur des Côtes d'Armor.
M. Claude Saunier, sénateur
- Mesdames, Messieurs, Madame la
Ministre - je ne sais pas si vous souhaitez que ce soit Madame le ou la
Ministre - de la recherche et des nouvelles technologies, je voulais tout
d'abord vous remercier personnellement et très sincèrement pour
votre présence. Je sais quelles sont vos obligations, mais votre
présence, ici, est le signe à la fois de votre capacité
d'écoute, que j'ai eu l'occasion d'apprécier à plusieurs
reprises, et de votre volonté de marquer votre intérêt,
pour le secteur de la microélectronique qui est notre passion commune,
à vous Mesdames et Messieurs, un peu plus que moi qui arrive ici,
totalement en amateur.
Je voulais remercier les présents à ce colloque. Ils viennent des
quatre coins de France, des universités, des laboratoires, des
entreprises. Ils ont pris sur leur temps professionnel le soin de distraire une
journée pour échanger, et je crois que l'on peut
considérer que cette journée va être l'occasion, pour les
uns et pour les autres, de faire le point sur l'état de la science et
d'ouvrir quelques perspectives également sur un secteur qui n'en manque
pas.
Je voudrais remercier ceux et celles qui sont à l'origine de ce rapport
et en particulier une organisation professionnelle, le SITELESC, Syndicat
Interprofessionnel qui réunit l'ensemble des professionnels du secteur
de la microélectronique et en particulier Monsieur FAURE,
Président du SITELESC, qui est juste en face de nous et qui a
interpellé l'Office parlementaire d'évaluation des choix
scientifiques, il y a maintenant un peu plus d'un an, pour souhaiter que cet
office s'empare du sujet et donne l'occasion, aux uns et aux autres, de faire
le point sur la situation.
Je voudrais aussi remercier l'ensemble des membres du Comité de pilotage
scientifique - je ne suis pas du tout scientifique, j'étais professeur
d'histoire-géographie et j'ai découvert ce monde de la
microélectronique - car ils m'ont appris beaucoup. Ce sont eux qui m'ont
permis, je l'espère, de ne pas faire trop d'erreurs dans l'approche de
ce secteur.
Je voudrais remercier aussi les 110 personnes qui ont accepté de prendre
une heure, deux heures, une demi-journée, parfois plus, et qui au cours
d'un an et demi environ d'enquêtes, de rencontres, nous ont accueillis,
nous ont donné toutes les explications qui nous ont permis de mieux
connaître ce secteur.
Le sujet du colloque, vous le savez, c'est :
«
Microélectronique et nanotechnologies :
« une chance à saisir
».
Vous le voyez, Madame, notre état d'esprit aux uns et aux autres, ce
n'est pas le défaitisme, ce n'est pas l'abandon, ce n'est pas l'alarme,
c'est simplement la conscience qu'il existe une grande opportunité pour
notre pays, pour l'Europe, que nous devons servir.
L'objectif de ce colloque, est, à la fois, non pas de reprendre le
contenu du rapport, vous en savez, les uns et les autres, infiniment plus que
moi sur la question, mais c'est l'occasion de donner un coup de projecteur
devant l'opinion publique.
Dans mon propos liminaire, je me contenterai d'aborder trois points mais pour
aller vers l'essentiel : quelles sont les idées que nous avons pu
dégager au travers de ces auditions qui charpentent le rapport ?
D'abord je voudrais exprimer une idée générale, qui est
une découverte pour quelqu'un qui n'est pas un spécialiste, mais
qui me semble refléter l'état de l'opinion publique par rapport
à la microélectronique et aux nanotechnologies.
Ce secteur est un secteur - et c'est tout son paradoxe - qui est
déterminant, qui joue un rôle majeur dans notre économie,
qui a été depuis trente ans le moteur ou l'un des moteurs du
développement et de la croissance et qui n'est pas perçu à
sa juste mesure, et dont l'opinion publique ne mesure pas clairement les enjeux.
La deuxième idée, c'est que si nous voyons bien - en faisant un
petit effort de mémoire - ce que la microélectronique nous a
apporté au cours des quelques décennies
précédentes, dans notre vie quotidienne et surtout dans notre vie
professionnelle, ce qui nous attend est infiniment plus fort, infiniment plus
important que ce que nous avons connu et donc les perspectives offertes par ce
secteur constituent une perspective véritablement révolutionnaire
dans l'organisation de notre société et l'organisation des modes
de production dans notre vie quotidienne.
C'est donc là un secteur qui est au coeur de la recherche et du
développement économique et sociétal.
Trois constats dans le rapport :
1 - prendre la mesure de la révolution des puces, mais je crois l'avoir
évoquée, de leur place dans l'économie, de leur effet
levier fabuleux.
On a eu du mal à retrouver les chiffres, à les compiler, et les
mettre en perspective, mais en fusionnant les sources, au niveau mondial, on
peut considérer que ce secteur de la microélectronique avec tous
les secteurs périphériques consolidés, regroupent sur un
PIB mondial de l'ordre de 30.000 milliards de dollars, des
activités qui pèsent environ 5.000 milliards de dollars.
Cela donne une idée de l'importance économique du secteur.
Je voudrais vous dire aussi que notre sentiment, sentiment qui n'est que le
résultat d'une expression collective, c'est que cette industrie, qui est
une industrie géante, est une industrie géante aux pieds d'argile.
Elle est fragile parce qu'elle est soumise à une concurrence mondiale
qui est extrêmement brutale.
2 - la révolution économique que nous avons connue, repose sur
une révolution scientifique et technologique majeure qui résulte
elle-même de la conquête de l'infiniment petit.
Là nous retrouvons la fameuse loi de Moore, qui n'en est pas une, mais
une sorte de prophétie qui continue à se réaliser,
à notre surprise, parfois à notre émerveillement, et
peut-être aussi parfois à notre effroi.
Aujourd'hui, il y a accord pour dire que la filière silicium, sur
laquelle est fondé l'essentiel de notre technologie actuelle, va
continuer à se développer et à respecter la loi de Moore
en gros pendant dix à quinze ans.
Au-delà, on sait aussi qu'il existe d'autres réponses et d'autres
perspectives.
3 - cette industrie se situe dans un environnement totalement
mondialisé, à la fois au niveau de la recherche et au niveau de
la production.
L'une des observations faites au cours de cette enquête, c'est que la
France et l'Europe ne sont pas dans une situation marginale par rapport au
paysage mondial mais qu'elles ont en face d'elles des Etats qui ont
considéré qu'il y avait là un enjeu véritablement
stratégique pour leur avenir et qui mobilisent des moyens qui n'ont rien
à voir avec ce que nous mobilisons ici en France et aussi au niveau
européen pour soutenir ce secteur stratégique.
C'est l'objet des quelques préconisations que j'ai formulées et
que je vous ai adressées, Madame la Ministre, parce que je tenais
à ce que vous en soyiez informée.
Elles n'ont pas pour prétention d'apporter des réponses à
tout, simplement elles alertent sur deux ou trois points :
- comment améliorer l'efficacité globale du dispositif de la
filière ?
- comment donner à la filière française le poids
nécessaire pour prendre sa place dans l'environnement mondial ? Il n'y a
que l'échelon européen, bien à l'évidence, qui le
lui permettra.
- comment s'emparer aussi de ce qui est le moteur de cette filière,
c'est-à-dire la connaissance et la promotion de l'intelligence ?
- dernier élément, qui n'est pas secondaire : comment prendre
quelques dispositions d'ordre fiscal qui permettent à nos industriels
d'avoir des armes à peu près égales par rapport à
la concurrence internationale ?
Voilà, Madame, les quelques pistes du rapport et les quelques
préconisations qui ont été approuvées par l'Office
parlementaire, il y a deux jours.
Encore une fois, mes remerciements les plus sincères pour votre
présence.
Je vous passe la parole pour ouvrir notre colloque.
Mme Claudie Haigneré -
Merci beaucoup, Monsieur le
Sénateur Saunier.
Mesdames et Messieurs les Sénateurs, Mesdames et Messieurs, il est vrai
que ces propos introductifs montrent que l'initiative qui nous réunit
aujourd'hui est de celles qui traduisent une vision, une vision importante pour
un avenir proche et puis surtout un avenir un peu lointain qu'il faut que nous
construisions ensemble.
Le simple titre de ce colloque, comme vous l'avez signalé, sonne
réellement comme un défi : «
Microélectronique,
et nanotechnologies : une chance à saisir
».
Nous en sommes tous conscients et ma présence ici montre à quel
point je vous accompagne sur cette réflexion.
Je suis donc tout à fait heureuse de pouvoir adresser mes remerciements
au Sénateur Saunier, rapporteur de l'Office, qui a conçu et
organisé cet événement, qui a beaucoup travaillé
pour nous donner des éléments de réflexion et de
progression.
C'est tout à fait notre conviction. Nous avions eu l'occasion d'en
parler précédemment : microélectronique et
nanotechnologies sont réellement cette chance à saisir.
Je crois que tous ensemble nous pouvons essayer de saisir cette chance et de
nous orienter.
Il est vrai que depuis cinquante ans, les microtechnologies ont joué un
rôle tout à fait capital dans le développement des
technologies de l'information et de la communication, et une nouvelle
ère s'ouvre aujourd'hui avec le franchissement des 100
nanomètres, qui symbolisent cette entrée de l'industrie du
semi-conducteur dans le domaine des nanotechnologies.
A n'en pas douter, bien sûr, ce sera une source d'application nouvelle
dans les secteurs de la santé - et je pense que c'est un thème
sur lequel vous allez travailler beaucoup - dans le secteur du spatial, des
matériaux, mais aussi - car ce sont des problématiques qui nous
sont proches actuellement - dans le secteur de l'énergie, des transports
et bien entendu de l'environnement.
C'est véritablement une révolution avec l'introduction de ces
nano-objets dont on prend conscience mais dont on n'a peut-être pas
encore effectivement imaginé tous les impacts.
Vous avez parlé de révolution, c'est un véritable saut
technologique bien sûr, un saut quantique pourrait-on dire, avec ses
propriétés quantiques de la matière, connues depuis
maintenant de nombreuses années, depuis le début du siècle
dernier mais qui deviennent maintenant des objets de recherche
appliquée, et des objets de technologies naissantes.
Vous l'avez rappelé : les grands pays, comme les Etats-Unis, le Japon,
ont pris pleinement conscience de cet enjeu, avec en particulier aux
Etats-Unis, depuis 1999, le financement à un très haut niveau
dans le cadre de « la national nanotechnology initiative »,
avec 700 millions de dollars pour l'année 2003, donc une prise de
conscience et la mise en place de moyens tout à fait
considérables.
C'est vrai, vous l'avez rappelé, c'est un enjeu bien sûr
européen et l'Europe affiche tout à fait sa volonté de
placer les nanotechnologies comme une priorité dans le cadre du
6
e
PCRD en particulier, avec, vous le savez :
- un budget de 1,3 milliard d'euros sur le thème des nanotechnologies et
des moyens de production nouveaux concernant les matériaux
perfectionnés,
- et puis le financement aussi, sous le thème des technologies pour la
société de l'information, le domaine de la micro et de la
nanoélectronique, avec un budget, dans ce cadre européen, de 3,6
milliards d'euros.
Ce sont donc des moyens européens qui se mobilisent.
La France, quant à elle, était déjà très
présente dans le domaine de la microélectronique et j'ai eu
l'occasion de saluer, en arrivant, trop brièvement, quelques-uns des
représentants qui ont déjà montré à quel
point la France est présente, et brillamment : la recherche bien
sûr, à travers le CEA-LETI, mais aussi l'industrie, via
STMicroelectronics.
J'avais eu, à cette occasion, au tout début de mon arrivée
dans mes fonctions, de pouvoir passer à Grenoble et d'avoir cette
présentation tout à fait magistrale de notre positionnement dans
ce domaine.
J'en avais été très impressionnée.
Je citerai bien sûr les industriels de la carte à puce et puis des
PMI de haute technologie dans ce secteur, encore à Grenoble, et je pense
à SOITEC par exemple.
La France se doit de renforcer ce pôle d'excellence en s'appuyant sur ces
points forts bien sûr, pour mettre en place un plan, encore plus
ambitieux, qui lui permet justement d'occuper en Europe toute la place qui est
la sienne, et au-delà de l'Europe, d'occuper cette place dans le monde.
Au ministère délégué à la recherche, nous
avons essayé, avec déjà beaucoup d'actions mises en place
en 2003, de structurer, de lancer un nouveau programme national,
« Nanosciences », avec un financement beaucoup plus
significatif par rapport à ce que nous avions fait
précédemment, de l'ordre de 12 millions d'euros, en associant les
différents partenaires qui étaient déjà
présents sur ces activités et en y associant de nouveaux
partenaires : l'INSERM et la Délégation Générale
à l'Armement.
Les thèmes retenus dans l'appel à projet de recherche amont
concernent les objets individuels et composants élémentaires,
l'information quantique, l'organisation et l'assemblage des nano-objets, ainsi
que les architectures de circuits, les nanomatériaux, et les
nanobiosciences.
Outre l'aide apportée par ces fonds aux actions structurantes dans le
domaine des nanosciences et à la formation, point important sur lequel
nous insistons beaucoup, une part de ce financement servira à la
constitution de ces réseaux d'excellence et la préparation des
projets intégrés pour pouvoir les porter avec toute leur ampleur
au niveau européen.
Dans le cadre du partenariat entre recherche publique et industrie, dès
1999, le ministère en charge de la recherche et le ministère
délégué à l'industrie ont constitué le
réseau : « réseau micro et
nanotechnologique », que vous connaissez tous, je pense, et qui
soutient ces projets coopératifs entre les industriels et les
laboratoires de recherche publique.
Depuis son lancement, 51 projets ont été labellisés avec
un soutien total de 42 millions d'euros financés sur quatre ans par le
ministère chargé de la recherche, le ministère
délégué à l'industrie et l'ANVAR.
La moitié de ces projets, dans le cadre de ce réseau, concernent
les nanostructures, les nanomatériaux, et la nanoélectronique.
Pendant l'année 2002, nous avons consacré du temps à
l'élaboration d'un livre blanc destiné à préciser
la délimitation du domaine industriel, scientifique, technique pour bien
définir le positionnement de ce réseau, définir ses
objectifs et sa stratégie, pour atteindre les objectifs ambitieux que
nous partageons.
Vous l'avez signalé, Monsieur le sénateur, et c'est vrai que
l'Office le sait, grâce à ces études approfondies que vous
avez menées depuis quelques mois : une mission de scientifiques
américains a analysé au début de 2002, en toute
transparence, le potentiel des laboratoires européens dans les
nanotechnologies, et en a conclu que l'écart entre l'Europe et les
Etats-Unis se creusait au profit de ces derniers.
C'est un élément que vous avez tout à fait
intégré et présenté dans vos conclusions.
Cependant, j'ai quand même lu un article récent, en
décembre 2002, dans « Institute of Physics
Publishing » qui montre que la France est en première position
des dépôts de brevets en nanotechnologies aux Etats-Unis. C'est
quand même une bonne nouvelle que nous devons aussi intégrer !
Il est vrai qu'il y a quelques mois, lors de mon arrivée au
ministère, j'ai demandé qu'un effort particulier soit
porté sur la constitution de plates-formes technologiques au meilleur
niveau, pour concevoir les procédés technologiques
élémentaires du futur et mettre au point les filières
d'assemblage autour d'un réseau de quatre grandes centrales
technologiques qui puissent être compétitives au niveau mondial.
J'avais eu l'occasion, en octobre dernier, d'annoncer la mise en place de ce
réseau compétitif, lors de l'inauguration du Salon international
de l'innovation et de la prospective, et je suis heureuse aujourd'hui de
pouvoir revenir plus en détail sur la constitution de ce réseau
ambitieux qui vous concerne.
Ce réseau est organisé autour d'un nombre très
limité de sites qui bénéficient de fortes capacités
de recherches, le CEA, le CNRS, et les universités ; ceci afin de
concentrer les efforts, et de faire bénéficier ces sites d'un
équipement adéquat, tout en assurant des moyens convenables en
fonctionnement et en personnel.
Les sites de Grenoble, de Lille, de Toulouse, de Paris-sud ont
été choisis.
Grenoble, j'ai eu l'occasion d'y passer déjà. Je serai lundi
à Lille, au CNRS et à l'IEMN, pour voir un petit peu
l'organisation.
L'ensemble de ces quatre sites représentent un effectif proche d'un
millier de personnes, des chercheurs, des ingénieurs, des techniciens,
des administratifs, qui au-delà des équipements,
équipements lourds, nécessaires à assurer la
présence de la France sur la scène internationale,
possèdent cette compétence, l'expertise sans laquelle bien
entendu aucune avancée scientifique et technologique ne serait possible.
L'effort nécessaire que nous porterons vis-à-vis de cette mise en
place peut être estimé sur trois ans à 100 millions d'euros.
Je crois que cette durée répond aux souhaits que vous avez
formulés dans votre rapport, que les actions menées soient
lisibles dans la durée.
Le ministère délégué à la recherche et aux
nouvelles technologies a donc programmé pour 2003 le fonds de la
recherche technologique, le FRT, géré par la direction de la
technologie, avec un financement de 32 millions d'euros, avec cette
prévision de 100 millions d'euros sur trois ans.
L'objectif est d'accroître les moyens des laboratoires français,
ceux qui sont les mieux armés dans ce domaine, et de les encourager
à travailler en réseau pour renforcer le positionnement de la
France dans l'espace européen de la recherche.
Ces grandes centrales, c'est notre ambition, sont appelées à
devenir un point d'attractivité du territoire national, en
matière de micro et nanotechnologies au service de l'avancée des
technologies, de l'économie nationale, et bien sûr de la formation.
A côté du réseau de ces quatre grandes centrales
technologiques, il y a 8 centrales dites spécifiques qui viennent
compléter ce dispositif : Grenoble, Lyon, Marseille, Montpellier,
Limoges-Bordeaux, Rennes, Nancy-Strasbourg, et Besançon.
Ces centrales permettront également d'assurer une mission essentielle de
formation en nanotechnologies en liaison avec le Centre national de formation
en microélectronique.
Si on récapitule un petit peu ces diverses actions que je viens de vous
présenter, les budgets consacrés sur 2003, on arrive à 50
millions d'euros pour notre ministère aux diverses étapes de la
chaîne des nanotechnologies, sans compter les fonds des autres
ministères et les fonds des organismes.
J'ajouterai aussi que le ministère délégué à
l'industrie a des fonds spécifiques mis en place sur des programmes plus
applicatifs, comme JESSI ou MEDEA par exemple.
Ce sont des éléments de structuration, de renforcement, de
financement, qui sont accompagnés par des éléments
développés par Mme Nicole FONTAINE et moi-même, dans
le cadre d'une politique de l'innovation, avec un cadre fiscal,
législatif, et administratif qui puisse permettre que ce désir
d'attractivité soit effectivement mis en place par des mesures qui
permettront de s'engager avec plus de facilité dans ces
activités, par la création de statuts nouveaux, de la jeune
entreprise innovante, tout ce dont vous avez entendu parler, de ce plan de
l'innovation avec des mesures tout à fait concrètes qui sont en
train d'être déclinées sur le plan législatif
très rapidement au cours du premier semestre 2003.
Je crois que ce large dispositif doit donner à la France les moyens
nécessaires pour faire face aux formidables enjeux dont vous avez
rappelé les éléments qui s'offrent à nous, et que
nous devons absolument relever dans ce contexte de grande concurrence mondiale.
Un élément concret pour essayer aussi de concentrer un petit peu
la source d'informations dont vous pourriez avoir besoin, pour faciliter
l'accès à ce dispositif : sur le site du ministère,
très prochainement, sera mis en place un portail
« nanomicro.net » qui devrait vous permettre
d'accéder aux informations.
Voilà, Mesdames et Messieurs, voilà décrit à grands
traits, parce que vous avez une longue journée de travail (et j'ai une
longue journée de travail également) le dispositif des actions
que nous souhaitons mettre en place.
Je crois qu'elle traduit tout à fait cette volonté d'accompagner
votre excellence, votre expertise et vos visions d'avenir.
Je ne peux malheureusement pas rester avec vous pour entendre les
réflexions que vous allez mener, qui seront très fructueuses mais
bien évidemment beaucoup de personnes des services du cabinet sont ici,
auprès de vous, pour écouter recommandations et analyses,
au-delà du rapport tout à fait exemplaire qui nous a
été remis.
Tout cela est d'une acuité tout à fait particulière pour
nous tous. Je vais donc vous souhaiter une très fructueuse
journée de travail. Je crois que ces interactions sont toujours
très riches et je voudrais vous remercier pour cette volonté que
vous affichez.
Je voudrais aussi en profiter, puisque nous sommes encore en janvier, pour vous
présenter mes voeux, mes voeux personnels et mes voeux de
réussite dans vos grands projets. Merci.
(
Applaudissements
)
M. Claude Saunier, sénateur -
Merci, Madame, pour vos propos ;
merci, Madame, pour vos annonces, merci, Madame, pour vos voeux. Recevez
également les nôtres en cette circonstance.
Je sais qu'à cette heure vous devriez déjà être sur
le perron de Matignon. Donc, faites attention, la police est là, elle
veille au grain. En tout cas, nous essaierons de suivre votre conseil et de
faire de cette journée, une journée fructueuse.
Nos débats ne sont pas l'occasion d'un simple échange. Ils seront
enregistrés et constitueront le deuxième volet du rapport que
vous recevrez dans quelques semaines.
Mme la Ministre -
Merci.
M. Claude Saunier, sénateur -
Merci encore.
Avant de passer la parole à Monsieur
Francis JUTAND
, directeur du
département des sciences et technologies de l'information et de la
communication au CNRS, merci d'avoir pris place à un restaurant qui vous
offre un menu si copieux.
Nous avons été très ambitieux, n'est-ce pas, Monsieur
Faure, dans cette affaire-là. Cela va nous contraindre à un
respect strict des horaires avec trois grandes plages de réflexions et
d'échanges.
La première sur la révolution de l'infiniment petit. La
deuxième, sur les conditions de la réussite, et la
troisième sur le volontarisme collectif.
Ces titres-là indiquent la philosophie qui nous anime. Je voudrais
inviter les différents intervenants à faire preuve de la plus
grande liberté d'expression, mais je crois qu'elle est la règle,
à la fois pour les industriels et pour les universitaires, dont c'est
une des prérogatives, pour qu'effectivement, au-delà du rapport
qui se contente de poser quelques jalons, il y ait un véritable
approfondissement de notre réflexion sur ces questions.
Il ne faut pas que ce colloque soit simplement un colloque un peu formel, mais
qu'il nous permette de dire, ce soir, effectivement : « nous avons
fait le point sur ce que nous croyons savoir sur la situation, et sur les
perspectives, aussi bien dans le domaine technologique que dans le domaine
économique ».
Merci, Monsieur Jutand. Je vous laisse la parole pour lancer le débat.
LA RÉVOLUTION DE L'INFINIMENT PETIT
1. Les perspectives scientifiques : vertige et réalité
M. Francis Jutand -
Monsieur le Sénateur, Mesdames et Messieurs les
Sénateurs, chers Collègues, Mesdames et Messieurs, j'ai
accepté, avec grand plaisir, cette invitation d'ouvrir la partie plus
scientifique sur le thème : « les perspectives scientifiques :
vertige et réalité. »
Rêve et vertige, c'est comme cela que j'ai compris le titre, et je vais
commencer en vous montrant ce qu'était le vertige des années 1980.
Le vertige des années 1980 était une surface de
mémorisation à un micron carré, et dix ans plus tard cela
a donné ce circuit avec un cheveu qui est positionné pour donner
la dimension.
Ensuite, je vais vous parler du vertige du début des années 1990
qui était, avec la microscopie, la possibilité de commencer
à toucher la matière, à toucher l'atome, à pouvoir
commencer à mesurer des efforts de nature atomique, et à
commencer à avoir une vision, une représentation des images de
ces atomes, de ces molécules.
C'est important parce que lorsqu'on commence à pouvoir toucher, voir,
mesurer, cela veut dire qu'on peut commencer à agir et effectivement
à rentrer dans cette ère des nanotechnologies.
Pour aller très vite dans ce balayage, ce qui était aussi ce
vertige de ces années 1990, et qui est maintenant une
réalité, c'est toute cette chimie particulière du carbone,
qui est d'abord extrêmement intéressante pour les chimistes et qui
nous donne des matériaux du futur que l'on fait pousser d'un tas de
façons, comme cette forêt de ces nanotubes.
On commence à savoir toucher, et agir à des dimensions
nanométriques. Que va-t-on en faire ?
J'ai voulu situer d'abord cette descente qu'on est en train de faire vers les
nanotechnologies - on en parlera tout à l'heure - avec une iconographie.
On a situé, sur ce transparent, les dimensions du vivant. Il y a
toujours, quelque part - ce sera un élément de conclusion - une
réflexion sur des organisations, des machines de traitement de
l'information extrêmement performantes et vous avez, à gauche, les
atomes et les molécules, l'ADN, des protéines et ensuite des
organismes vivants comme sont les bactéries, et à droite une
grosse cellule qui atteint des dimensions entre 10 et 100 microns pour les plus
grosses.
Que va-t-on faire de tout cela ?
Il y a une première tentation, qui va être d'essayer de refaire,
avec d'autres principes, des résistances commandables. Vous avez
là, par exemple, une voie moléculaire. Comment faire des
résistances, des interrupteurs ?
On peut aussi essayer de construire l'équivalent de transistors avec ces
nanotubes.
On peut aussi, dans des visions un peu plus futuristes, commencer à voir
comment des micromouvements peuvent s'opérer, en étudiant des
molécules, des molécules de tissu cellulaire, etc.
On peut aussi essayer de faire des moteurs cellulaires, c'est l'illustration de
droite, pour commencer à avoir des micromécanismes agissant
à ces échelles moléculaires, à ces échelles
nanométriques.
On peut aussi commencer à travailler sur les molécules. On a des
illustrations un peu plus longues avec de l'animation qui montrent comment on
sait, d'ores et déjà, immobiliser des molécules, y faire
entrer un certain nombre de corps étrangers, donc les traiter de
différentes façons, pour les canaliser.
On sait commencer à travailler sur ces microsystèmes au niveau
des molécules elles-mêmes.
On peut également travailler à l'affichage avec le papier
électronique, toujours à partir de ces nanotechnologies en
développant tous les éléments très importants pour
le développement de l'information, et des échanges d'informations
avec les afficheurs, avec la possibilité, s'agissant du papier
électronique, d'avoir de la très faible consommation et de la
souplesse pour tous les interfaces.
On produit aujourd'hui 100 milliards de transistors dans le monde. Ce chiffre
est naturellement approximatif.
On sait, d'ores et déjà, qu'on va faire beaucoup mieux. On a la
capacité de multiplier ce nombre par 1.000 dans les 12 à 15 ans
qui se présentent.
Ce sont des vertiges qui sont devenus des réalités. Tout cela
s'appuie bien sûr sur la recherche scientifique dans ce domaine, mais
essentiellement sur tout le développement technologique qui permet de
traduire ces rêves en réalité.
Le mouvement de la technologie sera assez constant vers le toujours plus petit.
La micromécanique a permis d'aller jusqu'au dixième de
millimètre.
La microélectronique s'arrête là où commencent les
nanotechnologies, c'est-à-dire au 1/10
e
de micron, et la
nanoélectronique devrait nous permettre de travailler des objectifs
jusqu'au dixième de nanomètre.
Cela devient toujours plus complexe. Le nombre d'étapes dans les
procédés technologiques s'accroît et se traduit en
plusieurs centaines aujourd'hui - on parle même, à terme, de
milliers d'étapes.
Le nombre d'éléments à assembler sur une puce, est
évidemment toujours de plus en plus grand, ce qui pose des
problèmes de complexité évidents.
Se pose aussi le problème des niveaux d'intégration parce qu'il
faut sortir de ces dimensions nanotechnologiques. On assemble, dans un circuit,
dans des boîtiers, des micro-boîtiers. On a donc toujours de plus
en plus de complexité dans l'ensemble du processus qui va utiliser ces
technologies pour faire des systèmes de traitement de l'information.
Il y a aussi la recherche du moins cher, qui est masquée ici :
automatiser la production, automatiser le montage, automatiser le test, parce
que les équations économiques sont toujours très fortes
dans ce domaine.
Où en sommes-nous aujourd'hui ?
Comme Madame la ministre l'a dit, nous sommes entrés industriellement
dans le nanomonde si on considère qu'il y a des offres industrielles de
circuits dans des dimensions qui sont de l'ordre de 100 nanomètres,
et s'ouvrent à nous deux voies de recherches qui sont en forte synergie :
- la première est celle qu'on pourrait appeler la voie de la
« road map », en accord avec cette loi de Moore.
Jusque-là, tous les acteurs continuent de se mettre d'accord pour la
suivre, avec toute la tension, la pression et l'innovation que cela
amène parce que les calendriers sont extrêmement tendus.
On parle de ce fameux « mur de briques » comme une
illustration claire, du fait que l'on peut dire qu'à un horizon de 6 ou
7 ans les choix de technologie industrielle n'ont pas encore été
faits. Il y a beaucoup d'inconnues, il y a beaucoup de recherches qui sont
faites et on a une assez grande confiance dans le fait qu'on veut y arriver ou
qu'on arrivera à faire de bons compromis.
Ce qui hélas ne se voit pas, ni à votre vue, ni sur mon
écran, ce sont effectivement tous les paradigmes alternatifs - on va
passer à l'oral - tous les paradigmes alternatifs de traitement de
l'information qui sont en voie de maturation très forte et pour
lesquels il va nous falloir dérouler un certain nombre
d'opérations, mais je vais revenir dessus.
Si on regarde cette voie de la road map, il faut bien voir que l'on s'adosse
à plus de 50 ans de progrès continu de technologie avec une
filière technologique mère qui est de plus en plus volumineuse en
connaissances accumulées, ce qui a permis de faire les premiers
transistors intégrés. Puis, la microélectronique a permis
ensuite à l'optoélectronique de se développer en
s'appuyant sur ces technologies, ces machines, cette compréhension des
semi-conducteurs et leur traitement.
Ensuite, on en a tiré des outils. Les Japonais ont commencé
à bâtir des outils de visualisation. On a ensuite
développé la filière des microsystèmes. On va dans
le développement de l'optoélectronique vers des voies photoniques
avec la nanophotonique. On rentre dans la nanoélectronique dont on
parlait, et puis on ajoute la nanobiologie et, toujours en s'appuyant sur ces
technologies-là, on va commencer à travailler les paradigmes
alternatifs que sont le moléculaire et le quantique.
Tout cela se fait avec des road maps, comme je l'ai dit, extrêmement
tendues.
Voici une sorte de road map générique avec une fréquence
de trois ans. La profession est allée plus vite ces dernières
années, en raccourcissant le cycle de Moore. Mais des régulateurs
économiques vont probablement faire qu'on va peut-être revenir
à cette loi de trois ans.
Ce qu'il est très important de souligner, c'est qu'entre les
premières étapes où on essaie le dispositif qui ira aux
alentours d'une dizaine de nanos, celles où l'on commence à en
faire une étape d'un procédé technologique, la
façon dont on va assembler le procédé technologique et la
façon dont on va réaliser et produire des circuits
réellement commercialisables, il peut se dérouler entre 9 et 12
ans.
Cette industrie est la seule qui a la chance de bénéficier d'une
road map aussi longue, ce qui permet en fait de paralléliser les efforts
et de tenir ce rythme puisque, d'ores et déjà, dans les
laboratoires on a des gens qui travaillent sur les courbes violettes et vertes,
et ensuite les relais sont pris par de grands laboratoires intégrateurs
comme le LETI ou les industriels eux-mêmes pour faire ces
dernières étapes, capitales pour la performance, que sont
l'intégration des procédés et leur industrialisation.
Ici c'est un transparent pour lequel, s'il y avait des droits d'auteur, je
pense que l'auteur aurait gagné beaucoup d'argent : c'est effectivement
ce mur de briques que l'on constitue aux environs de 2007 et qui nous dit :
tout ce qui est en rouge, ce sont des éléments pour lesquels on a
peu de solutions, pour lesquels on n'est pas sûr des solutions, et on
cherche et on fera les choix au dernier moment pour que cela devienne le
meilleur choix possible !
Il faut bien voir que dans la micro, dans la façon de mener cette
recherche, poussés par la technologie et des calendriers très
serrés, on fait appel à énormément de sciences et
on a une très grande motivation pour notre recherche fondamentale qui se
confronte à des problèmes tout à fait essentiels.
On a donc là aussi une accélération des recherches dont
vont bénéficier, j'en suis persuadé, tous les paradigmes
alternatifs de la nanoélectronique et de la nanophotonique.
Quand on veut développer un nouveau paradigme, de quoi a-t-on
besoin ?
Pour faire du traitement de l'information - parce que c'est notre sujet
essentiel d'aujourd'hui - on a besoin d'une grandeur physique mesurable qui va
porter l'information et d'un support à cette grandeur physique.
Cela peut être un électron. On a aussi besoin d'un
opérateur de transformations, c'est-à-dire un opérateur
qui va être capable de manier ces états pour faire du traitement
de l'information. On a des molécules qui peuvent le faire, des
transistors, un certain nombre de boîtes quantiques, un certain nombre
d'approches pour faire des résistances commandables.
Ensuite il nous faut définir - pour avoir une filière
technologique - toutes les fonctions élémentaires du traitement
de l'information sans quoi une filière de traitement n'est pas
harmonieuse.
Il faut être capable de générer, avoir des sources, il faut
être capable de stocker, il faut être capable de faire de la
mémoire, il faut être capable de transmettre, de communiquer
l'information et il faut être capable de mélanger,
c'est-à-dire de calculer !
Dans les trois ou quatre technologies alternatives qui vous sont
présentées, on est dans cette phase-là.
Ensuite, il faut construire une véritable filière technologique.
Pour cela, il faut travailler à des technologies d'assemblage. On peut
avoir des dispositifs mais il faut pouvoir les assembler en très grand
nombre : connexions, isolations, etc, empilement. Il faut être capable de
définir des opérateurs de traitement qui vont utiliser au mieux
cet effet et ce n'est pas toujours la recherche de la reproduction de l'ancien
effet qui est la bonne façon de prendre les choses.
Ensuite, si on a des ruptures dans ces traitements, il faut travailler sur
toute l'algorithmie de traitement, c'est le domaine du traitement de
l'information, de l'informatique. Par exemple, pour être capables,
à grande échelle, d'avoir à utiliser ces opérateurs
et d'enchaîner les actions pour faire des traitements de grande
complexité.
Et puis il faut également des architectures pour trouver les bonnes
projections sur les supports technologiques. Et également mettre au
point une équation économique.
Il ne faut évidemment pas comparer ce que l'on sait faire aujourd'hui et
ce que dix ans, douze ans de travail vont nous permettre de faire sur ces
filières alternatives.
Ceci était un transparent pour Madame la ministre et ses
représentants en disant que derrière tout cela, il faut des
moyens. Nos compétiteurs en mettent beaucoup. La France, je pense, a
marqué une rupture cette année avec ce développement des
grandes centrales technologiques, avec le développement soutenu par la
direction de la technologie, avec ce grand programme sur les nanosciences
soutenu par la direction de la recherche.
Donc, il y a beaucoup d'argent qui est effectivement injecté. Si on
regarde au niveau européen, on commence à être dans les
ordres de grandeur mais il ne faut pas oublier que derrière on a une
partie cachée très importante : nos chercheurs, et qu'il
faut trouver effectivement les équilibres entre les moyens et les
ressources, les bras et les cerveaux, en l'occurrence, pour le faire !
Je m'achemine vers la conclusion en disant : quelle vision a-t-on, au CNRS
?
Il faut savoir que le CNRS a posé cinq priorités
interdisciplinaires impliquant tous les départements : la physique, la
chimie, les sciences du vivant, et puis bien entendu, les STIC, à savoir
les sciences et technologies de l'information et de la communication, pour
l'utilisation des nanotechnologies dans le traitement de l'information.
C'est une des priorités du CNRS. C'est aussi une de nos priorités
de notre département des STIC.
Nous avons 4 grandes priorités :
- les nanotechnologies
- le pendant, qui est le domaine de la complexité, donc la
maîtrise de tous les systèmes, matériels et logiciels, que
l'on pourra faire avec cette puissance de traitement.
- enfin, les deux défis que constituent la compréhension des
phénomènes cognitifs, et le développement de l'ergonomie
et des usages, dans ces mondes virtuels que l'on crée.
Ce sont nos quatre grandes priorités. Les nanotechnologies mobilisent au
moins un sixième des forces de ce département.
Sur ces bases, il nous faut poursuivre la voie vertueuse de la road map.
Pourquoi je l'appelle la voie vertueuse ? Parce que c'est toute son
équation économique qui nous permet, à la fois, de fournir
des outils de traitement et des systèmes de traitement de plus en plus
performants mais aussi qui fournit les équipements, l'instrumentation,
le savoir-faire et les méthodes pour aller travailler sur des
technologies de plus en plus fines.
C'est une voie vertueuse qu'il faut absolument poursuivre et en temps, il faut
anticiper sur ces nano-objets, sur ces nanodispositifs et travailler avec eux
pour savoir comment construire une filière alternative de traitement de
l'information.
Ces études qui sont faites ont de l'intérêt en
elles-mêmes et en même temps elles génèrent de
nouveaux matériaux, de nouvelles réponses que l'on va aussi
absorber dans cette voie de la road map.
Il y aura donc des contributions assez importantes à l'avancée et
à la réalisation sur les voies de la road map, issues des
recherches menées en physique-chimie sur les nanodispositifs.
Il faut travailler, comme je l'ai dit, cette maturation des autres paradigmes.
Deux questions peut-être... On va avancer sur la voie de la road map, il
y aura beaucoup de difficultés, mais on va avancer.
Une première question scientifique : y aura-t-il une convergence, y
aura-t-il des synergies entre les technologies du vivant et les technologies
de l'artificiel ?
Nous sommes effectivement dans des ordres de grandeur, dans des dimensions qui
commencent à être assez semblables et il n'est pas du tout
sûr que la bonne voie, avec nos technologies, soit d'utiliser celle du
vivant, mais il y a des paradigmes du traitement de l'information dans le
vivant qui sont intéressants et qui nous posent question.
Ensuite, une deuxième question, qui est une question scientifique
très forte - et je pense qu'il y aura des interventions lors des tables
rondes là-dessus - : est-ce que l'on va réussir à
maîtriser les comportements atomiques et subatomiques pour le traitement
de l'information, auquel cas on aura encore une rupture très forte par
rapport à un certain nombre d'autres paradigmes plus classiques du
traitement de l'information qui travaillent plutôt au niveau
moléculaire ou équivalent.
Je crois qu'il ne faut pas oublier deux choses également :
- on a des objets de plus en plus complexes et la vertu de la voie de la road
map, c'est qu'effectivement, en aval, on sache utiliser les puces que l'on va
faire avec des milliards de transistors.
Il ne faut pas oublier de travailler sur tous les outils de conception de
systèmes et circuits très complexes, sinon, quelque part, notre
rêve va s'arrêter.
- le dernier point c'est que, dans nos laboratoires, nos spécialistes du
traitement de l'information réfléchissent aux alternatives pour
faire du traitement de l'information autrement qu'on ne le fait aujourd'hui.
D'ores et déjà, c'est vrai pour le quantique mais il faut pousser
sur d'autres recherches, il faut qu'on ait une vision du traitement de
l'information utilisant notamment les paradigmes du vivant pour voir quelles
sont les possibilités, avec des problèmes d'apprentissage
d'évolution intéressante à ce niveau.
Conclusion de la conclusion - et c'est une métaphore que j'ai un peu
adaptée - : la réalité d'aujourd'hui dépasse les
vertiges d'hier. On peut être confiant par rapport à la question
qui était présentée.
Deuxième aphorisme un peu bricolé : pour grimper haut, il faut
des points d'appui.
Dans le domaine de la technologie, on peut bien entendu rêver mais il
faut aussi imaginer. C'est comme quand on est face à une paroi, il faut
imaginer la façon dont on va avoir des prises pour monter et avoir un
peu de recul pour les voir, parce qu'il ne faut pas non plus se lancer dans des
voies qui seront des culs-de-sac.
Dernière remarque : pour construire le futur, le meilleur des futurs, il
faut explorer tous les avenirs, il faut explorer les avenirs qui ne seront pas
le futur de maintenant, mais il faut les explorer à coup sûr, et
donc explorer toutes les voies offertes par les paradigmes alternatifs pour
construire un futur tel qu'on le souhaite.
Je vous remercie.
(
Applaudissements
)
M. Claude Saunier, sénateur -
Merci, Monsieur Jutand, de ces
propos qui nous introduisent vraiment dans le vif du débat.
Je reviens sur votre propos, qui est une confirmation de ce que nous avons
senti au cours de la bonne centaine d'auditions de la dernière
année.
Je retiens aussi de votre propos une perspective, quelque chose par rapport
à quoi nous devons commencer à nous préparer
intellectuellement, c'est la grande convergence du vivant et du physique. Dans
combien de temps ? Je n'en sais rien, mais là, ce sera un peu une
révolution, un peu terrifiante d'ailleurs au point de vue éthique.
Un point d'interrogation, Monsieur le Directeur, sur les crédits. Vous
l'avez bien compris, mon état d'esprit n'est pas du tout d'ouvrir la
moindre polémique sur les crédits engagés. J'ai quand
même le sentiment qu'il existe un écart terrifiant entre les
crédits publics engagés chez un certain nombre de nos partenaires
et chez nous. Je confirme tout à fait d'ailleurs le chiffre qui a
été donné par Madame la Ministre, il y a un instant.
J'avais le chiffre de 40 millions, elle annonce 50 millions... il n'y
a pas de raison de mettre ce chiffre en cause !
Un ordre de grandeur : à ma connaissance, et compte tenu de ce que nous
avons appris sur les crédits allemands, et les politiques allemandes,
c'est de l'ordre de 150 millions d'euros. Cela donne un ordre de grandeur.
Sur les Etats-Unis, d'après ce que l'on sait, et compte tenu de
l'opacité qui caractérise en particulier les crédits de la
DARPA, c'est de l'ordre de 2 milliards de dollars pour les seuls fonds
fédéraux. Il y a encore de la marge.
Je cède la parole maintenant à Monsieur Augustin
MARTINEZ
,
Directeur-adjoint du Laboratoire d'architecture et d'analyse des
systèmes (LAAS) à Toulouse, qui va être l'animateur de la
table ronde qui réunit :
- Monsieur Jean-Claude
LAPRIE
, Directeur du LAAS à Toulouse.
- Monsieur Christian
JOACHIM
, Directeur du groupe Nanosciences et
technologies au CEMES de Toulouse.
- Monsieur Philippe
MAGARSHACK
, Directeur de CAO, à
STMicroélectronics.
- et M. Jean-Yves
MARZIN
, Directeur au Laboratoire photononique et
nanostructures au CNRS.
Messieurs, vous avez la parole.
M. Augustin Martinez -
Merci, Monsieur Saunier.
Mon animation est vraiment simplifiée par l'introduction que vient de
faire M. Francis Jutand.
En effet, il a posé deux points principaux :
1 - pour l'infiniment petit et son évolution, il faut regarder la loi de
Moore ou bien il faut examiner les ruptures technologiques.
2 - quand on va vers l'infiniment petit, on augmente de plus en plus la
complexité. Complexité des technologies, complexité des
circuits, mais aussi complexité des systèmes.
A partir de ces pôles importants, je pense qu'on doit effectivement
examiner l'évolution de la recherche, non plus au niveau du composant
peut-être élémentaire, et il en faudra toujours, mais
examiner la recherche au niveau plus général du système
complexe.
A partir de là, on voit que cette recherche devient de plus en plus
interdisciplinaire, car pour aller vers cette complexité, pour aller
vers ces systèmes complexes, il faudra des physiciens bien
évidemment pour étudier les différents matériaux.
Si on peut penser que le silicium restera le matériau roi pour l'avenir,
il n'empêche qu'il sera allié à d'autres matériaux
et en même temps, ces matériaux devront avoir des structures
différentes, ou peut-être ce qu'on appelle actuellement la
nanostructuration des surfaces, et dont la physique est de plus en plus
importante.
Cela fera appel à toutes les notions de chimie. Actuellement, les
chimistes sont peut-être les plus novateurs pour la création de
nouveaux objets. A côté des physiciens et des chimistes, les
microélectroniciens sont au coeur de la problématique. Je ne les
écarte pas parce que j'en suis !
Lorsqu'on a regardé les matériaux, qu'on a regardé les
objets et les nouveaux procédés, il a aussi fallu regarder de
quelle façon on concevait les systèmes. Et là, à
nouveau, les concepteurs devront se poser d'autres questions et notamment dans
les simulations, ils devront étudier comment, à côté
des simulateurs globaux, on va utiliser de plus en plus des simulateurs
excessivement fins, en physique !
Il y a donc tout cela, mais en même temps, il faudra examiner les
couplages qui peuvent exister et les prendre en compte dès la conception
du futur nanosystème.
Les concepteurs ont un rôle important et enfin, quand on crée un
système il faut qu'on soit sûr qu'il fonctionne. Et plus vous
êtes nanotechnologique, plus vous devrez regarder les défaillances
qu'il peut y avoir, vous devez regarder la propagation des signaux, vous devez
regarder comment le protéger !
Les représentants à cette table ronde appartiennent à
toutes ces disciplines.
On va donc commencer par Monsieur
Marzin
. On va lui demander quel est
son point de vue - puisqu'il est physicien - par rapport à
l'évolution des matériaux.
M. Jean-Yves Marzin -
Bonjour. Je suis Directeur du laboratoire de
photonique et de nanostructures du CNRS, situé à Marcoussis, et
qui est l'une des centrales de technologie que Madame la Ministre a
évoquées dans son discours introductif.
Je suis aussi membre du Comité scientifique de l'action concertée
nanosciences et nanotechnologies, lancée par le ministère de la
recherche l'année dernière.
Je voudrais vous en dire un petit mot parce que l'analyse de ce qui a
été fait dans le cadre de cette action concertée permet
d'avoir une vision de la communauté scientifique au moins dans le monde
académique, dans ce domaine important que constituent les nanosciences
et les nanotechnologies.
Au passage, j'ai aussi essayé de réfléchir un petit peu
à la raison pour laquelle ce domaine est aussi important pour la
communauté des scientifiques et pourquoi maintenant ?
J'ai un certain nombre d'éléments de réponse qui ont
été, au passage, aussi évoqués par Francis Jutand.
Les nanotechnologies, c'est ce domaine où,
a priori
, on
étudie des systèmes dans une des dimensions qui est
inférieure à la centaine de nanomètres.
Un premier élément de réponse nous est donné par le
monde du vivant : on sait très bien qu'à chaque fois qu'on a
gagné un ordre de grandeur dans nos moyens d'observation, cela a
bouleversé notre vision du monde vivant et la compréhension que
l'on pouvait en avoir.
La deuxième raison, au-delà de cela, c'est que lorsqu'on arrive
dans le domaine de la centaine de nanomètres ou en-dessous, eh bien
pratiquement tous les objets deviennent quantiques. Ils ne sont plus
décrits par la physique classique du monde macroscopique, mais par la
physique quantique.
C'est un plus par rapport à cette simple réduction de
l'échelle d'observation.
Il y a une troisième raison qui me semble importante, et qui se traduit
par la très forte interdisciplinarité de ce domaine, c'est que
les objets à l'échelle nanométrique, les objets de la
biologie, les objets que sont capables maintenant de fabriquer les chimistes,
avec les macromolécules, et puis les objets que les physiciens sont
capables de fabriquer, eux aussi, sont, pour nombre d'entre eux, tous dans
cette échelle de dimension.
Il y a une raison un peu plus circonstancielle, qui est la convergence des deux
grandes méthodes de fabrication des nano-objets :
- la méthode qui part du bas, qui assemble des atomes pour faire des
macromolécules, disons des objets nanométriques chimiques.
- les méthodes qui sont celles de la microélectronique qui
consistent, à partir d'objets macroscopiques, à réduire
progressivement les dimensions.
Un autre point que j'aimerais mentionner : les nanosciences et les
nanotechnologies sont un trépied. Un trépied qui part souvent de
la curiosité des scientifiques qui veulent voir, manipuler, fabriquer
les objets et comprendre les objets à des échelles de plus en
plus petites, à l'échelle nanométrique.
Pour faire cela, ils ont besoin de nouveaux outils, et j'essaierai d'illustrer
le fait que de nombreux outils ont été développés
avec ce genre de démarche. Cela permet de fabriquer de nouveaux objets
et puis, pour les comprendre, il faudra de nouveaux concepts !
Dans le meilleur des cas, cela se traduit aussi par des applications et par des
ruptures technologiques. Je voudrais simplement dire que les ruptures
technologiques, en général, n'arrivent pas là où on
les attend. Il est donc très important de garder les trois pattes de ce
trépied.
Quelques illustrations de ce propos : Francis Jutand a déjà
montré un schéma de microscope à effet de tunnel - qui
fonctionne sur un mécanisme purement quantique -. En fait, il a
été réalisé par des physiciens qui ont reçu
le prix Nobel pour cela en 1986, pour répondre à une question
très simple : peut-on manipuler les atomes ?
Et puis, de cette question a émergé un outil, un outil fabuleux
qui permet à la fois de voir les surfaces et de manipuler les atomes.
Les outils correspondent à des outils lourds... ce microscope tunnel,
ultravide à haute température, eh bien il faut des choses
très stables pour manipuler les atomes et en gros, il fait ma taille en
hauteur. Cela a déclenché la genèse d'un grand nombre
d'outils, de microscopie à pointe comme cela, pas seulement
électronique, mais aussi optique, ce qui permet de voir par exemple ici
les modes dans une fibre complexe, de microscopie à force atomique. Cela
permet de voir de nouvelles choses, et par exemple, ici, la gravure d'un
morceau de silicium.
Si on regarde cela dans un microscope électronique, c'est la petite
photo qui est là, et on a l'impression que la surface est parfaite, mais
quand on va regarder à une plus petite échelle, il en est tout
autrement !
C'est un exemple mais il y en a beaucoup d'autres au-delà de la
microélectronique. Je vais en prendre un deuxième
peut-être, qui est celui de l'optoélectronique.
Dans l'encadré qui est ici, j'ai représenté une
quantité qui est importante pour les lasers, les petits lasers solides
que vous trouvez dans vos compact discs ou dans les pointeurs. C'est le courant
qu'il faut faire passer dedans pour déclencher l'émission du
laser.
Ce qu'on voit dans ce graphe, ce sont les meilleurs points au fur et à
mesure du temps, depuis les années 1960, jusqu'aux années 2000.
On voit une évolution comme cela avec des ruptures. Ces ruptures, elles
entraînent un facteur 10 dans ce courant, c'est très important,
parce que cela veut dire fabriquer des lasers portables, des lasers qui sont
intégrables en grande quantité pour des consommations de courant
raisonnable. Toutes ces ruptures, en fait, ont été liées
à l'utilisation de structures quantiques de dimensions de plus en plus
petites, d'abord de type quantique, et de boîte quantique, et cela
concerne les objets que l'on peut fabriquer avec des technologies de
fabrication de semiconducteurs qui sont des objets nanométriques qui
émettent de la lumière dans ces structures-là.
Une autre question simple, une autre problématique scientifique simple :
comment se propage la lumière dans un milieu qui est structuré
à l'échelle de sa longueur d'ondes ?
Question reformulée autrement pour un physicien : peut-on faire à
la lumière ce qu'on fait avec un cristal dans lequel on a un
réseau périodique d'ions qui le constituent, réseau qui
modifie profondément la structure des électrons et la
manière dont les électrons se promènent dans ce
cristal ?
On peut faire des structures artificielles, des structures qui sont à
l'échelle du nanomètre. La période de ce petit
réseau ici est de l'ordre de 500 nanomètres environ. On peut
fabriquer des matériaux artificiels comme ceux-là, où la
lumière ne peut pas se propager, et du coup on peut faire des guides,
etc.
C'était une question scientifique simple. Les applications potentielles
de tout cela sont là aussi un peu vertigineuses. Cela permettra sans
doute de faire des circuits intégrés optiques de dimensions cent
fois plus petites par rapport à ce que l'on sait faire actuellement.
C'est une rupture technologique sans doute inattendue.
Je voudrais juste dire un mot de l'action concertée nanosciences et
nanotechnologies pour finir : cette action concertée, on peut dire
qu'elle est limitée en volume financier mais je crois qu'elle est
extrêmement importante pour structurer la communauté scientifique
dans le domaine des nanosciences et des nanotechnologies.
Elle a été mise en place conjointement par le ministère de
la recherche, la CNRS, et le CEA, la direction des sciences et de la
matière, en s'appuyant sur un comité de coordination.
En 2002, il y a eu un certain nombre de modes d'actions, ainsi que des appels
à projet, avec les thèmes qui sont indiqués ici, sur les
objets individuels, les circuits, les systèmes, l'information quantique,
l'approche à partir du bas dont je parlais tout à l'heure, et
puis les nanotechnologies d'interfaces avec le monde du vivant, les actions
intégrées qui ont plutôt soutenu des projets avec les
industriels, les actions amont de laboratoires universitaires
nécessitant de plus gros moyens, et puis un soutien au réseau
central de technologies.
Je voudrais juste vous montrer un état des lieux des réponses
à ces appels d'offres. Si on regarde le nombre de laboratoires
répartis dans ces différents thèmes, qui ont
répondu à cet appel d'offres, on trouve 270 laboratoires au
total. C'est un chiffre qui me laisse perplexe. Cela veut dire qu'il y a un
grand nombre de laboratoires publics qui sont actifs dans ces champs.
On a retenu environ une quarantaine de projets sur les 125 qui avaient
été soumis.
Un autre élément qui me paraît important, c'est la
répartition géographique de tout ceci. Je suis sûr que les
sénateurs présents dans la salle y seront sensibles. Là,
nous avons la simple analyse des réponses par région. On constate
effectivement qu'on a deux grandes régions assez dominantes dans ce
secteur de la science, comme dans d'autres, qui sont l'Ile-de-France et
Rhône-Alpes.
Mais la plupart des régions sont concernées. J'ai mis, ici,
à côté, la couverture par des moyens de technologie. C'est
quelque chose d'important que les chercheurs disposent des outils pour
fabriquer ces nano-objets et de les étudier.
Vous avez les centrales de technologie dites du premier cercle, dont vous a
parlé Mme la Ministre tout à l'heure, et puis les centrales
spécifiques qu'elle a également évoquées qui
couvrent assez correctement, je crois, le territoire national. C'est aussi, de
ce point de vue-là, qu'il était important que le ministère
de la recherche se préoccupe de la structuration.
Cela continuera en 2003. Pour ce qui est de l'action concertée, on a
changé un petit peu les thèmes. Ici, on retrouve un certain
nombre des thèmes qui ont été soutenus l'année
dernière, auxquels on a rajouté un thème spécifique
qui n'y figurait pas mais qui est pourtant très important, qui est celui
des nanomatériaux, c'est-à-dire l'utilisation de la structuration
des matériaux à l'échelle nanométrique pour changer
leurs propriétés.
Voilà ce que je voulais vous dire.
M. Martinez -
Merci.
Après avoir vu les objets, après avoir vu la physique qui
sous-tend la réflexion sur les objets, il faut savoir que lorsqu'on
conçoit un système, jusqu'à présent, il y avait des
modèles, il y avait des simulateurs mais il y avait aussi des
bibliothèques. Mais, lorsqu'on réduit les dimensions, et
lorsqu'on complexifie, ces outils sont-ils toujours pertinents ?
J'aimerais que Monsieur
Magarshack
nous donne son point de vue quant
à l'évolution des problèmes qui se posent en CAO
(conception assistée par ordinateur).
M. Philippe Magarshack -
Bonjour. Je suis chez STMicroelectronics,
à Crolles, en charge des équipes qui mettent en place les moyens
de conception de ces circuits intégrés.
Jusqu'à présent, on a beaucoup parlé - et M. Francis
Jutand en particulier - des problèmes de physique qui permettaient
d'intégrer beaucoup de composants élémentaires sur les
mêmes puces.
On a moins parlé de ce qu'on allait faire avec ces centaines de millions
de transistors que l'on sait intégrer sur ces puces. Finalement le
problème se pose aussi. A chaque fois qu'on gagne une décade dans
la complexité, il faut imaginer qu'on construit un niveau de
hiérarchie supplémentaire dans la conception, que l'on construit
une cuisine, de la cuisine on construit la maison, et de la maison on construit
le village, du village on construit la ville. On en est au niveau du pays, et
il faudra construire le continent et la planète.
A chaque fois, on imagine le niveau de complexité qu'il faut simplement
pour utiliser tous ces instruments que sont les transistors pour
réaliser des applications qui vont ensuite être utilisables dans
la vie de tous les jours et j'en donnerai quelques exemples.
Tout d'abord, je voudrais simplement revenir à la fameuse loi de Moore
qui a été longuement évoquée. On a effectivement
franchi le seuil psychologique des nanotechnologies puisque les technologies
qu'on est en train d'industrialiser ont une épaisseur de gravure de 90
nanomètres. C'est en particulier l'effort qui est fait en commun
à Crolles où je travaille avec l'alliance ST-Philips et Motorola.
Juste pour donner un ordre de grandeur, on peut mettre 1,2 million de
transistors dans un millimètre carré. Il y a 5 ans, 1,2 million
de transistors, c'était la complexité d'une dizaine de
processeurs Intel. Vous pouvez imaginer que vous avez une dizaine de
processeurs Intel dans ce millimètre carré ! C'est un
produit qui fait maintenant de façon routinière entre 50 et
100 mm². Que va-t-on pouvoir faire de toute cette
fonctionnalité disponible ?
J'en profite pour rappeler un petit peu la difficulté dans laquelle on
est, si on extrapole, je dirai linéairement, la fameuse road map. C'est
un transparent qui est fourni par Intel. A chaque nouvelle
génération du Pentium, la puissance est multipliée par un
facteur 2 ou 3, et si on continue sur cette échelle, d'ici quelques
années la puissance développée par votre ordinateur, votre
PC, sera du même ordre que celle d'un réacteur nucléaire.
Evidemment il y a une absurdité quelque part. Il faut qu'on arrive
à utiliser ces transistors différemment, à être plus
intelligents dans l'utilisation de ces transistors.
Quelle est la manière dont on réfléchit, on produit des
solutions chez ST-Philips ou chez Motorola ? On utilise ces transistors pour
intégrer ensemble plusieurs domaines d'applications qui étaient
à l'origine différents.
Dans cet exemple, on rassemble les technologies du traitement de l'image avec
les technologies du traitement de la parole, de la transmission par
téléphone sans fil, qui peuvent également être
intégrées avec des ordinateurs, des note books ou des assistants
personnels.
Ce qu'il faut comprendre, c'est que toutes ces applications potentiellement
peuvent être réunies sur une seule et même puce à
l'échelle du 90 nanomètre.
Il faut qu'on ait des moyens pour concevoir ces puces et pour bien entendu
faire en sorte qu'elles fonctionnent et qu'on puisse en vendre à des
millions et des millions d'exemplaires pour rentabiliser toutes les
unités de production que l'on est en train de construire.
C'est ce qu'on appelle, dans notre jargon, le système sur puce, en
anglais, « système sur puces » qui est au carrefour
de beaucoup de tendances. Je pense qu'il est inutile de rappeler la road map
due à la loi de Moore.
Il faut aussi mentionner une conséquence : c'est que ces centaines de
millions de transistors font qu'individuellement un circuit va coûter
quelques dizaines, quelques vingtaines d'euros à fabriquer, et cela doit
être son prix final.
Donc, pour rentabiliser tous ces moyens de fabrication, il faut que le nombre
de puces produites soit, dans les dizaines de millions ou dans les centaines de
millions, ce qui veut dire des marchés grand public.
Les marchés grand public sont, malheureusement, soumis à des
effets de mode, à des effets d'évolution rapide des tendances, ce
qui veut dire que les fenêtres de marchés sont de plus en plus
courtes.
En même temps, ces systèmes sont, à la fois, du
matériel, des transistors et également du logiciel. C'est
vraiment une tendance très forte. A titre d'exemple, on développe
actuellement, pour les nouvelles puces que l'on sort, en traitement
télévision numérique par exemple, 1 million de lignes de
code logiciel par produit.
L'effort en ressources humaines, pour concevoir ces produits, est
supérieur, pour le développement du logiciel, à ce qu'il
est pour le développement du matériel et pour la conception et
l'utilisation des transistors.
Enfin, et je terminerai peut-être par ce point, à chaque nouvelle
étape technologique, des effets électriques et physiques qui
étaient du second ordre, qui étaient ignorés dans la
technologie précédente, deviennent prépondérants,
ce qui rend la tâche de concevoir les mêmes transistors plus
difficile.
En particulier, on pouvait ignorer le temps de transition, dans les connexions,
entre transistors, il y a quelques années. Maintenant ce temps de
connexion, entre transistors, est prépondérant et on peut,
à la limite, quasiment ignorer le temps de commutation de ces
transistors.
Cela remet donc en cause, de manière fondamentale, la manière de
concevoir ces circuits.
Merci de votre attention.
M. Martinez -
Merci.
On a fait des circuits, on voit maintenant la problématique, et on a dit
« il faut regarder un petit peu ces systèmes complexes qui
sont soumis à plusieurs agressions et donc ils peuvent être
défaillants ».
Là, c'est souvent le domaine des informaticiens.
J'aimerais que Monsieur Laprie nous dise ce qu'il pense, compte tenu des
dimensions, quelles sont là aussi les évolutions dans la mise en
place des méthodes et des moyens pour prévenir un petit peu ces
différentes attaques.
En même temps, je souhaiterais, s'il peut le faire en deux mots, dire le
rôle que le CNRS joue dans la mise en place d'une recherche en
informatique dans les nanosystèmes et, si ce n'est pas possible, je
poserai la question à Monsieur Jutand.
M. Jean-Claude Laprie -
Bonjour à toutes et à tous.
Indépendamment de la question que vient de me poser Augustin Martinez
à brûle-pourpoint, j'avais l'intention de vous parler d'un autre
sujet qui est commun finalement à toutes les relations
sciences-technologies, vers des objets qui sont les nôtres.
En effet, on peut rêver, mais il faut que cela fonctionne et donc ne sont
utilisés que les objets dont les taux de défaillance sont
acceptables pour une utilisation sociale.
Dans le domaine qui est en discussion aujourd'hui, de la
microélectronique, les causes de défaillance sont nombreuses, ont
évolué et continuent à évoluer significativement au
cours du temps.
Bien sûr vous me pardonnerez, pour les experts fins du domaine, le
caractère schématique de la présentation. Je pense que
nous en sommes tous réduits à cela compte tenu des contraintes
temporelles.
Le premier point c'est que les défaillances physiques permanentes, pour
schématiser, dues aux phénomènes d'usure, sont en baisse
continuelle et ce n'est plus vraiment le problème actuel.
Par contre les défaillances physiques temporaires, en particulier les
défauts résiduels de production dus à la miniaturisation
et à l'augmentation de la complexité, augmentent.
L'orateur précédent a mentionné le problème des
interconnexions. Le problème des interconnexions est clairement central
là, à savoir que non seulement il est vrai qu'il y a des
problèmes de temporisation, mais aussi des phénomènes
extrêmement subtils, comme les courants qui se développent
à la surface des interconnexions.
Il y a donc un écart très faible dans la reproductivité du
processus de production, ce qui peut amener à des difficultés
intermittentes de fonctionnement.
Autre chose qui est vraiment spécifique à la
microélectronique : c'est l'action des radiations, c'est-à-dire
les radiations dans lesquelles nous vivons fort bien, qui nous entourent, dans
lesquelles nous baignons, et qui posent des problèmes à la
microélectronique.
Dans les années 1970, on a découvert que les particules alpha qui
sont présentes en quantité infinitésimale dans tous les
matériaux, qui peuvent provenir de l'eau, qui est elle-même un
véhicule de ces particules, conduisaient à des problèmes
qui ont été bien sûr résolus depuis et encore plus
intriguant, si je puis dire, à l'heure actuelle, nous sommes
confrontés aux problèmes des neutrons qui viennent de l'espace
lointain après décomposition des rayonnements probablement
galactiques, dans les couches de l'atmosphère, ce qui fait qu'on
récupère des neutrons et des psions, des psions ayant des
durées de vie de l'ordre d'une vingtaine de picosecondes, et sont moins
susceptibles d'être affectés, encore qu'il a été
démontré que cela pouvait affecter des circuits
intégrés.
Il est clair que la miniaturisation fait que l'ambiance dans laquelle nous
vivons a une influence sur leur fonctionnement.
Enfin, et elles sont souvent oubliées, on a les erreurs de conception au
sens logique du terme, c'est-à-dire l'équivalent des bugs du
logiciel, qui affectent le matériel.
L'orateur précédent a aussi rappelé le nombre faramineux
de transistors, de millions de transistors qui sont sur les puces ; à
l'heure actuelle, dans les millions de logiciels dont nous nous servons tous
les jours, il y a un nombre de bugs résiduels considérables et il
y a aussi des bugs résiduels dans les circuits intégrés.
Ceci est une conséquence de l'augmentation de la complexité.
Avant de parler de : comment se protéger de cela, quelques transparents
pour illustrer ce que je viens de dire.
La partie gauche montre l'accroissement considérable, plus de deux
ordres de grandeur, dans les taux de défaillances permanentes pour les
circuits SMOS et ceci, en l'espace d'une dizaine d'années. Cela aboutit
donc à un accroissement considérable.
Intéressante mais pas toujours faite, la relation ou la
corrélation très forte qu'il y a avec les rendements de
fabrication, courbe de droite. Cette courbe de droite illustre les taux de
défaillance pour les losanges et pour les carrés, les
défauts par millions, donc le nombre de transistors qui sont
déclarés non utilisables en rendement de fabrication.
Cela va de pair et donc tout cela s'améliore.
Illustration du mécanisme à partir de rayons cosmiques : on a une
cascade qui va jusqu'au niveau de la terre. Une fois que les primaires ont
disparu, par l'effet de cascade, après, au contraire, on a une
très forte augmentation des particules. Ensuite tout cela est
absorbé par toutes les couches de l'atmosphère, mais il en reste
encore, au niveau de la mer, qui peuvent provoquer des basculements.
Le point commun à tous ces problèmes intermittents, c'est qu'ils
affectent essentiellement l'information et qu'
a priori
, sauf si cela
persiste, cela n'affecte pas durablement le matériel et donc, par
conséquent, on peut, par des moyens de recouvrement, s'en
protéger !
J'ai parlé des particules et des neutrons. Quel est le plus important
des deux ? Cela dépend des technologies.
Sur cette planche, on voit que selon la technologie utilisée, ce sont
les neutrons qui prennent la main, ou au contraire ce sont les particules alpha
qui dominent. Par conséquent, il faut vivre avec les deux !
Enfin les erreurs de conception résiduelle. Cela figure sur les
processeurs Intel. On voit que pour une série de gammes de processeurs,
le nombre de fautes résiduelles - ce sont des données disponibles
sur le site de Web Intel - se comptent par dizaines, par centaines, d'autant
qu'elles sont appelées de façon politiquement correcte des
« errata », et non pas des erreurs ou des fautes.
Plus le processeur est ancien, plus le rapport entre fautes annoncées et
fautes encore présentes - puisqu'il y a des versions successives pour
les corriger - est important. Sur les processeurs plus récents, il n'y a
pas beaucoup de fautes qui ont été corrigées. Il est dit,
dans les mises à jour, qui paraissent tous les trimestres, qu'il y a un
certain nombre de fautes qui ne seront jamais corrigées. Il faut donc
vivre avec !
Tout cela se propage, part du matériel, se propage dans le logiciel, va
à l'utilisateur, provoque donc des défaillances du système
et il importe donc de s'en protéger. On peut s'en protéger par
une panoplie de moyens et de protections qui existent, depuis la technologie
des procédés - et sur la partie droite, j'ai cité quelques
exemples, « technologie du silicium sur isolant », etc -
jusqu'à la conception fine des circuits.
On sait faire des bascules qui sont insensibles aux erreurs et puis
après, il y a tout l'arsenal de la tolérance aux fautes avec les
traitements d'erreurs fins que procure le codage sous toutes ses formes.
Là aussi, il y a une course poursuite. Par exemple les neutrons, les
particules alpha provoquaient des erreurs sur 1 bit, alors que les neutrons
provoquent des erreurs sur plusieurs bits, ce qui veut dire qu'il faut faire
appel à des codes correcteurs d'erreurs qui sont beaucoup plus
performants que ceux qu'on avait l'habitude d'utiliser !
Enfin vous avez aussi toutes les solutions architecturales. La plupart du
temps, il faut les implanter au niveau des logiciels mais aussi au niveau des
matériels, en particulier quand on parle de réplication, tout ce
qui est traitement d'exception et puis lorsque la criticité le demande,
eh bien la diversification, c'est-à-dire l'utilisation de
systèmes différents, peut être mise en oeuvre.
Par exemple, lorsque vous prenez un avion, que ce soit un Airbus ou un Boeing,
je suppose que vous ne regrettez pas que le système de contrôle de
vol soit basé sur ce principe de diversification, soit
matérielle, soit logicielle, soit les deux !
Une observation par rapport aux rêves et aux vertiges qui nous ont
été présentés par les deux premiers orateurs :
comment tout cela va-t-il se comporter vis-à-vis des nanotechnologies ?
Pour l'instant, on nous a parlé de fonctionnalités mais il y a
aussi tout l'aspect protection contre les défaillances qui interviennent.
Au niveau des mécanismes fins, je pense que c'est un champ encore
ouvert. Par contre, c'est un gisement fantastique au point de vue des solutions
architecturales. En particulier compte tenu du nombre d'éléments,
il n'y aura pas besoin qu'ils soient tous fonctionnels et donc, il va y avoir
une redondance naturelle énorme qui permettra peut-être de mettre
en oeuvre tous les rêves que nous pouvons faire sur l'auto-organisation
des systèmes pour permettre de fonctionner de façon satisfaisante.
Merci.
Je me garderai bien de répondre à l'autre question qui, je pense,
ne devait pas m'être destinée.
M. Martinez -
Elle n'était effectivement pas prévue.
Je voulais passer la parole à Monsieur
Joachim
, pour que lui,
effectivement, nous fasse rêver.
Pour lui, une molécule, ce peut être un composant ou un
système extrêmement complexe.
Voilà jusqu'où il a poussé les lois de la physique, et
est-ce qu'il n'est pas maintenant aux limites de la thermodynamique?
M. Christian Joachim -
Merci, Augustin.
Bonjour. Je suis Directeur de recherches au CNRS dans un laboratoire qui
s'appelle le CEMES. Je suis responsable d'un groupe qui s'appelle
« nanosciences et picotechnologies » pour faire mode !
Je vais essayer, rapidement, de traiter la question d'Augustin d'une autre
manière.
Ce qui nous intéresse à Toulouse, et qui intéresse
d'autres laboratoires en Europe, avec lesquels on travaille ardemment, c'est de
répondre à une question très simple : quel est le nombre
minimal d'atomes dont on a besoin pour faire une machine !
Ce n'est pas vraiment, je dirai, dans la perspective de produire demain ou
après-demain, un gros ordinateur avec une seule molécule, mais
c'est en fait pour pouvoir éclairer et explorer !
Au point de vue financier, cela peut être tout à fait
intéressant d'avoir une road map et différentes road maps, autres
que la loi de Moore.
Un exemple tout bête : si vous voulez faire une brouette ou une charrette
à bras, une seule molécule peut-elle remplir cette fonction ?
C'est un exemple concret puisque cette molécule existe. Elle est en
train d'être finalisée à Toulouse et va être
envoyée par Airbus à Berlin.
Vous avez ici, sur cette molécule, deux roues avant, deux pieds
arrière et on essaie de comprendre la physique et la mécanique
à cette échelle-là. Vous voyez effectivement que les
éléments les plus simples des systèmes sont, par exemple,
une roue qui fait ici 0,6 nanomètre de diamètre.
C'est un exemple de machine mécanique. On pourrait aussi rêver de
faire un ampère dans une molécule, etc. On pourrait essayer tout
type de machine à l'échelle d'une seule molécule.
Ce qui nous intéresse ici, c'est plutôt la
microélectronique et la suite de la microélectronique.
On a trois zones d'exploration actuellement.
Là vous avez les circuits traditionnels. Ici, vous avez des circuits
où chaque composant serait remplacé par une molécule. On
peut aussi essayer de faire tout le circuit, c'est-à-dire les
interconnexions et les molécules à l'intérieur d'une seule
molécule, et on peut aussi essayer de supprimer cette typologie qui date
finalement des années 1840, avec un circuit élémentaire,
pour perdre un peu cela, et bénéficier au maximum du comportement
quantique d'une molécule.
Il y a donc ces trois éléments qui sont explorés. On en
connaît un peu plus maintenant sur cette voie-là,
c'est-à-dire sur les avantages et les désavantages.
Avantages : les composants sont effectivement très petits.
L'énergie de dissipation est très faible dans une seule
molécule, on l'a mesurée récemment !
Désavantage : par rapport à l'intégration, vous pouvez
voir qu'entre chaque composant, il y a un petit fil, et ce petit fil
métallique, on ne peut pas le réduire en dimension jusqu'à
la dimension d'une molécule puisqu'on a besoin, si on veut faire des
circuits de ce type-là, de mettre en oeuvre des lois standards de
conception des circuits.
On a besoin d'une petite distance entre les deux et cela ne permettra pas, sur
ce type d'électronique, qu'on appelle hybride maintenant, de descendre
en taille complètement.
On a ici, en effet, une réserve. De plus, ces composants ont un autre
problème, c'est qu'ils n'ont pas trop de gains et comme ils n'ont pas
trop de gains, si on commence à les mettre en cascade la bande passante
devient catastrophique.
Or, on sait très bien qu'à l'intérieur d'une seule et
même molécule, sans en sortir, il y a plein de comportements
quantiques qui sont très rapides à l'intérieur de la
molécule.
La question est de savoir si ces comportements quantiques, on va pouvoir les
utiliser dans une structure classique, ou dans une structure
complètement quantique ! Le débat, en ce moment, se situe entre
ces deux zones-là : faut-il aller complètement ici, rester ici,
ou marier les deux ?
Pour vous montrer un exemple d'énergie de dissipation qui concerne
plutôt ce domaine, voici une courbe. Vous avez en abscisse les
années, et en ordonnée, les énergies consommées par
un commutateur élémentaire.
Vous avez un petit composant d'Intel qui descend ici, et la loi de la
thermodynamique nous montre que l'énergie minimale dissipée est
ici. Et avec des molécules de transistors C60 - et plus
récemment, on a mesuré cela avec un switch avec un seul pied, sur
une seule molécule - on descend à 5 ordres de grandeur en dessous
du meilleur transistor actuel en production.
Si vous faites le calcul, 10
9
molécules, comme cela, avec un
terahertz de bande passante, et 10
- 8
picojoules, vous obtenez un
watt.
Il y a donc de la réserve au niveau moléculaire pour le petit
composant moléculaire élémentaire. Le problème
n'est pas là, le problème se pose en fait du côté de
l'architecture ; pour compenser les bandes passantes catastrophiques de ces
systèmes-là, on est obligé de faire des architectures un
peu compliquées.
Là, vous avez une architecture que nous avons testée, en
utilisant des caractéristiques exactes et expérimentales des
composants moléculaires que nous avons injectées dans un
simulateur space, qui est un haut standard, et on a fait tourner jusqu'à
obtenir un processeur, et on a observé pour voir si cela fonctionnait ou
pas !
Cela fonctionne, il y a beaucoup de défauts. En fait, là, il faut
4 fois plus de transistors que pour une technologie non moléculaire, et
pour la bande passante, on n'arrive pas à dépasser les 10 MHz.
Enfin, pour montrer qu'on travaille maintenant beaucoup sur la partie
monomoléculaire, voici une molécule compliquée. Celle-ci
ne fonctionnera pas du tout comme les auteurs du dessin l'ont proposé.
Mais on commence maintenant à avoir, à notre disposition, dans
les laboratoires, des logiciels de simulation de circuits moléculaires,
qui tournent pour complètement évaluer ce genre de nouvelle
architecture.
On voit par exemple que la loi des noeuds, des mailles standards, que tout le
monde connaît, n'est plus valable à l'intérieur d'une seule
molécule, et qu'il faut donc passer à autre chose. Cette autre
chose, c'est l'exploration entre le mode quantique et le mode classique.
M. Martinez -
On peut peut-être prendre cinq minutes s'il y a des
questions dans la salle à poser aux orateurs ?
M. Claude Saunier, sénateur -
Des réactions ou des
contestations ? Des rêves qui se convertissent en cauchemars ?
Est-ce qu'on peut dire que la science nous ouvre des perspectives, Messieurs,
pour rester simple ? On va revenir encore plus vers la terre. Est-ce que les
perspectives scientifiques que vous venez d'esquisser vont se traduire par des
concrétisations dans notre vie quotidienne, parce qu'il faut redescendre
sur terre ?
Merci, Monsieur Martinez.
2. De la découverte à l'application : la
révolution du quotidien
Nous allons passer à la deuxième table ronde, avec un changement
d'acteurs.
Monsieur
GRIOT
, vous, vous lancez la grande fresque, et ensuite
M. Daniel BOIS, Directeur scientifique à l'école des Mines
de Gardanne, va être l'animateur du groupe.
Les intervenants seront :
- M.Guy
CARRÈRE
, directeur à France Télécom.
- M. Guy
LABRUNIE
, directeur au CEA.
- M. Dominique
BOULLIER
, professeur en sciences de l'information et de
la communication à l'UTC de Compiègne.
- M. François
de CHARENTENAY
, qui est ancien directeur de
recherche chez PSA.
- M. Francis
LEPAGE
, du CRA de Nancy.
Messieurs, vous pouvez prendre place.
M. Denis Griot, vice-président, MOTOROLA -
Monsieur le
Sénateur, Mesdames, Messieurs, merci de nous donner la
possibilité de passer de la recherche, des possibilités de la
technologie pour aller voir ce qui se passe du côté des
applications, en particulier des applications du quotidien, comme vous le
disiez, Monsieur le Sénateur.
Qu'il soit question d'informatique, ou de télécommunications 3G,
tout le monde, en fait, recherche l'application miracle - les américains
disent la « killing application » - c'est-à-dire
celle qui va pouvoir porter la croissance dans notre industrie, comme en son
temps l'ont été le PC, ou le téléphone portable.
J'aimerais, d'abord, partager avec vous une analyse des tendances je dirai
lourdes, à long terme, qui se passent du côté des
applications, du côté du marché.
A la fin des années 1990, on a vu des modèles économiques
évoluer, ce qu'on appelle la « nouvelle
économie » qui, en fait, pousse à la valorisation de la
technologie.
Vous voyez, le pendule est montré très haut de ce
côté-là. L'impression que nous avons, c'est que le pendule
revient. Le pendule revient du côté du concret, des applications,
du court terme et l'équilibre s'établit entre d'un
côté la poussée de ces innovations technologiques, qui
ouvrent définitivement des portes, et aussi de l'autre
côté, l'appel qui provient des besoins réels des
applications qui vont satisfaire ces besoins. J'ai donc placé le pendule
au milieu, en équilibre en quelque sorte. J'aimerais, avec vous, revenir
un petit peu en arrière pour regarder le problème du temps qui
s'écoule entre une innovation et son utilisation à grande
échelle.
Sur ce diagramme, ici, on montre des exemples historiques. En fait, il s'agit
du siècle dernier, voire du 19ème siècle, mais voyez qu'il
a fallu peut-être en fait entre 50 et 100 ans pour passer d'une
découverte comme la pile de Volta, à l'utilisation domestique de
la lampe à incandescence. Cela représente plus de 80 ans de
toute façon. Il a fallu encore 30 ans, au siècle dernier, pour
passer de l'invention de la radio à son utilisation domestique
généralisée.
Si vous prenez la même transition pour des technologies beaucoup plus
récentes comme l'Internet ou le téléphone portable, voyez
que les durées sont considérablement réduites puisque
là, on parle de 5 à 10 ans.
Dans l'entreprise à laquelle j'appartiens, il y a des exemples qui
prouvent aussi que de grandes inventions, de grandes innovations sont capables,
presque en elles-mêmes, de créer des marchés.
Si on prend ici des exemples qui nous sont chers - et Motorola est née
de l'invention de l'autoradio en fait - vous voyez que l'autoradio s'est
développé de lui-même. Il n'y a pas eu d'immenses efforts
de marketing. Les talkies-walkies se sont développés comme des
instruments de communication radio, pratiquement sans effort marketing. Le
téléphone cellulaire, dont nous avons évidemment beaucoup
de brevets de base, a aussi été capable d'exploser de
lui-même !
Il est d'autres inventions, d'autres technologies avec lesquelles nous avons
été impliqués, qui n'ont pas percé le
marché. Prenez l'exemple d'Iridium, téléphone
satellitaire, qui n'a pas réussi à percer !
J'aimerais regarder avec vous, mais de façon très rapide, vu les
contraintes de temps, quels sont les facteurs-clés qui nous permettent
de raccourcir - excusez l'anglicisme - ce « time to
volume ».
Si on part ici du côté droit de ce transparent, du besoin de
l'utilisateur, en termes de fonctionnalités nouvelles, coût,
qualité, comme le disait M. Laprie, fiabilité, et
flexibilité, et que l'on remonte vers les fournisseurs de services et
les fournisseurs de systèmes, le point-clé, et le
point-clé quand on parle des modèles économiques,
évoqués tout à l'heure, c'est la rapidité ou la
contraction du délai, qui va s'écouler entre la mise au point de
la technologie, et sa production en grand volume. C'est cela, le facteur
clé de réussite d'un modèle industriel, d'un modèle
de nouvelle technologie.
Remontons spécifiquement sur la microélectronique et regardons le
rôle d'accélérateur qu'a joué la
microélectronique pour les systèmes électroniques.
Là, vous avez un transparent qui remonte sur une trentaine, voire une
quarantaine d'années. Comme vous le savez tous, la
microélectronique a vraiment pénétré - c'est ce
qu'on appelle la première vague - dans les grands systèmes
informatiques.
Puis, le PC a repris un formidable relais de croissance. Dans les dix
dernières années, on a assisté à l'essoufflement du
PC, et à l'émergence des communications de réseau, de la
téléphonie mobile et du multimédia qui, elles, ont
déclenché une nouvelle explosion.
Là aussi, vous allez voir des vagues mais dans un domaine qui est moins
connu, mes collègues de la table ronde vont y revenir, qui est celui de
l'automobile, qui m'est très cher. Cela montre qu'une industrie, comme
l'industrie automobile européenne, a su exploiter la potentialité
de la microélectronique non seulement pour survivre mais aussi pour se
développer.
Aujourd'hui, et mon collègue de PSA peut me contredire, 90 % ou
plus des nouvelles fonctionnalités dans l'automobile sont directement ou
indirectement créées par la microélectronique.
La microélectronique, ici, en Europe, a permis à beaucoup de
constructeurs de prendre un leadership mondial. On y reviendra après, je
ne vais pas entrer dans ces détails, mais voyez, la
pénétration des semi-conducteurs, depuis le contrôle moteur
jusqu'à bien sûr la télématique, représente
ce qu'on appelle la cinquième vague, qui est la vague de
mécatronique, c'est-à-dire le mélange intime de
l'électronique et de la mécanique pour des fonctions qui
n'existent pas aujourd'hui mais qui sont déjà en
développement comme le pilotage, le freinage à fil, etc.
Ce sont des systèmes qui vont permettre un niveau de
sécurisation, au niveau de la voiture, bien supérieur à ce
que l'on connaît aujourd'hui.
Si vous me permettez, l'exemple phare est celui de la téléphonie
mobile pour la microélectronique. Je veux parler des
téléphones cellulaires qui, dans leur première
génération, ne disposaient que de la voix, qui maintenant bien
sûr, se sont enrichis de nouvelles fonctionnalités, le texte, le
SMS, des possibilités effectivement ouvertes par les écrans
couleur et bien entendu la transmission des données et de l'image, mais
ceci n'est qu'un début. La troisième génération va
permettre d'accéder à un plus grand nombre de services : bien
sûr les téléchargements de programmes vidéo et
audio, l'e-mail, etc. Ce développement, aujourd'hui, il ne se construit
plus en Europe, je dirai même qu'il se construit hors de l'Europe.
Si vous regardez les courbes qui sont à gauche, et que vous suivez ici,
sur quelques années - il s'agit d'une huitaine d'années -
l'évolution de l'utilisation des semi-conducteurs, c'est-à-dire
de la vente de semi-conducteurs, chez l'équipementier, au niveau de
l'utilisateur, vous voyez qu'on divise le monde en 4 grandes
régions, l'Asie étant la courbe verte.
Voyez que depuis deux ans maintenant, l'envol de l'Asie est absolument
irréfutable, irrémédiable. L'Asie, à elle seule,
dépasse toutes les autres régions, comme l'Amérique du
Nord, l'Europe et le Japon, de manière absolument massive et prend la
tête de cette compétition mondiale.
Quoi faire ?
L'une des solutions que nous avons proposées, qui est aujourd'hui
offerte à nos clients, ici en Europe en particulier, c'est d'offrir,
pour justement saisir ce défi du « time to volume »,
non seulement du silicium, c'est-à-dire des puces, mais aussi d'offrir
des solutions logicielles, des démonstrateurs, c'est-à-dire des
téléphones sur circuits imprimés ou sur maquettes, qui ont
les fonctionnalités de base et à partir desquels le client,
fabricant de téléphone européen, si je prends un exemple,
ici, en France, Alcatel ou Sagem, vont pouvoir, dans un délai
très court, beaucoup plus court que les temps de développement
habituels, et à un coût réduit, compléter leur gamme.
Ils vont par exemple amener, sur le marché, un téléphone
de type GPRS en six mois, de la décision à la production en
volume.
C'est ce qu'on appelle une offre plate-forme. Ceci leur permet de
réaliser des téléphones de milieu ou de bas de gamme sans
avoir recours aux sous-traitants, comme vous l'avez vu, qui se
développent à grande allure à Taïwan mais aussi en
Chine maintenant.
Voilà une réponse que j'aimerais partager avec vous.
Ceci est un exemple qui s'appelle ID 150, pour la génération 2,5
G. Mais de la même façon, pour les téléphones 3G,
une offre plate-forme est offerte aux fabricants de téléphone, ce
qui leur permet de passer à un produit final à moindre
coût, sans faire ces investissements énormes de
développement. Au-delà du 3G, bien sûr, car il ne faut pas
s'arrêter là.
Vous avez ici un exemple de démonstration, de transmission et de
réception 4G, technologie qui, comme vous le savez, permettra des
débits de plusieurs centaines de mégabits/seconde,
démonstration faite entre notre siège à Chicago et notre
laboratoire de recherche telecoms, sur le plateau de Saclay, tout près
d'ici.
Francis Jutand et mes prédécesseurs ont parlé de road map
et de l'accélération technologique de la road map. Cette
accélération se fait vraiment au quotidien, si je puis dire,
puisque - et je suis désolé d'avoir empilé des images
là-dessus - pour vous donner un exemple et un point sur cette road map :
en 1994-1995, on prévoyait le 130 nanomètres en production pour
2004. Nous sommes en production depuis plus d'un an sur ce 130
nanomètres. Cette accélération est donc bien réelle
! L'accélération a lieu au niveau de l'arrivée de ces
nouvelles plates-formes, de ces nouvelles technologies, et ce de plus en plus
rapidement.
L'accélération est aussi vraie au niveau des coûts de
développement et des investissements pour fabriquer ces plates-formes
technologiques.
C'est la raison pour laquelle, en ce qui concerne notre société,
nous avons choisi la France pour développer nos technologies
nanométriques, si je puis dire, et de le faire en collaboration avec nos
partenaires.
Deux raisons à cela : il faut trouver ici deux partenaires
stratégiques, STMicroélectronics et Philips, avec lesquels nous
partageons totalement la vision, la stratégie des technologies CMOS.
Ce partenariat est donc totalement focalisé sur les technologies CMOS.
Ensuite, nous avons trouvé, en France, le meilleur tissu de centres de
recherches appliquées et de laboratoires d'intégration, dont le
CEA-LETI, il faut le dire, est la pièce maîtresse pour notre
Centre de Crolles.
L'alliance de Crolles n'a pas d'autre objectif que de relever le défi
asiatique. Monsieur le Sénateur vous parlait du défi mondial ce
matin. Relever le défi asiatique, c'est être le premier à
briser le mur de 2007, et devenir effectivement, dans les technologies CMOS,
particulièrement dédiées aux systèmes monopuces
mentionnés par Philippe Magarshack, le leader mondial dans ce domaine.
Avant de terminer, je voudrais vous parler d'un sujet qui me passionne et pour
lequel il faut aussi qu'on réagisse en tant que Français et
Européens. C'est ce que j'appelle la désagrégation de la
chaîne de la valeur.
Vous savez que ces dernières années, les fabricants de
semi-conducteurs prenaient tout en charge, des opérations de conception
jusqu'à la livraison du circuit intégré à
l'équipementier. L'équipementier, lui, allait de la puce jusqu'au
client final ; le client final pouvait, dans certains cas, être un
fabricant d'équipements, comme un fabricant automobile.
C'est donc une maîtrise totale de tous les maillons de la chaîne et
un contrôle de ce processus à travers tous les maillons. En fait,
dans les 5 à 7 dernières années, cette chaîne s'est
désintégrée du fait que de nombreux acteurs ont
réussi à extraire de la valeur à partir d'un seul maillon,
un maillon ou une activité qu'ils ont parfaitement
maîtrisés.
C'est, comme on dit, un nouveau business model. Ils ont créé une
force industrielle. L'exemple clé, ce sont les Fonderies
taïwanaises qui ont trouvé la maîtrise de la fabrication pour
un certain nombre de technologies.
Ceci pose des problèmes.
Par exemple, sur la partie haute de ce transparent, vous avez le nombre
d'acteurs avec lequel le client final doit jouer, pour mettre ses solutions sur
le marché.
Ce qui est apparu en parallèle, c'est la nécessité de
standardiser chaque maillon de la chaîne, standardisation qui touche les
architectures de corps de microprocesseurs par exemple, les processus de
fabrication mentionnés tout à l'heure, mais aussi la logistique
et les logiciels d'exploitation.
Je vais résumer mon propos : très clairement, notre industrie,
pour se développer en France et en Europe, et prendre la position
qu'elle mérite, doit continuer l'effort de recherche et de
développement.
Nous apprécions en particulier, en France, le soutien public
significatif dans ce domaine.
Les initiatives de standardisation, les mesures incitatives appropriées
pour le développement sont importantes. Je veux parler, en fait, des
marchés télécoms. L'Europe est vraiment la terre du GSM,
elle doit devenir la terre de l'UMTS et du 4G. On ne peut pas laisser les
autres régions du monde prendre le leadership là-dessus !
Je ne pourrai pas terminer sans souligner le rôle de la
microélectronique comme source - cela a été
mentionné ce matin - de sécurité, de santé, de
confort, de protection de l'environnement, mais aussi, nous le croyons au
moins, un moyen possible pour rendre notre société plus ouverte
et plus solidaire.
J'en ai terminé, merci beaucoup.
(
Applaudissements
)
M. Claude Saunier, sénateur -
Monsieur Daniel
BOIS
est
directeur scientifique au centre de microélectronique de Provence, en
cours d'installation à Gardanne.
Il va animer le débat.
M. Daniel Bois -
Quelques mots pour introduire le débat - Nous
n'aurons pas de transparents, on en a décidé ainsi pour cette
table ronde - autour de ce thème qui a été
intitulé «
de la découverte à
l'application
».
En fait, on devrait beaucoup plus dire « de la découverte aux
applications », tant il est vrai que si la technologie progresse
d'une manière linéaire avec cette road map, dont on a entendu
parler, les applications progressent d'une manière extrêmement
foisonnante.
Cela rend la présentation et la discussion, autour de ces applications,
et je dirai également les actions de soutien aux applications, beaucoup
plus difficiles.
Il faut bien voir que ce foisonnement est une source de richesses fantastiques
pour le progrès de la microélectronique et Denis Griot l'a
très bien illustré puisqu'il y a, grâce à ce
foisonnement, en permanence, création de nouvelles chaînes de
valeur qui prennent leurs racines dans le silicium et, plus exactement
aujourd'hui, qui s'enracinent dans cette révolution sur laquelle on
reviendra, que constitue le système sur la puce, qui est une
révolution méthodologique extrêmement importante au niveau
du travail dans ce secteur-là.
C'est autour de ce thème-là que nous allons débattre. Nous
avons décidé de prendre, comme fil conducteur de ce débat,
au travers de ce foisonnement, le temps.
Denis Griot l'a dit : il faut réduire les temps. C'est bien connu. En
plus de les réduire, il faut être capable de les maîtriser,
de prévoir les temps de mise en application des nouvelles technologies.
Ceci est d'autant plus important qu'aujourd'hui, les technologues font des
efforts considérables et réussissent à réduire les
temps de développement et les temps de montée en production.
Il est clair que si, d'une manière concomitante, on ne réduit pas
les temps de mise en application, on arrive à des désaccords
entre l'offre de production et le marché, et c'est un peu la cause des
difficultés que l'on connaît périodiquement dans le domaine
de la microélectronique, et ceci est une problématique qu'il nous
faut absolument aborder, dont on parlera probablement au cours de cette table
ronde : comment travailler sur ce que j'appelle cette chaîne du temps,
qui va de l'idée à l'usage véritablement d'un produit, en
passant par la chaîne, spécification/conception/validation/tests,
etc. ?
Il y a une chaîne ici, et une question que l'on doit traiter au cours de
cette table ronde, c'est : comment, dans les différents secteurs dont on
va parler, travailler au niveau national et comment améliorer cette
maîtrise du temps ? Et ceci est d'autant plus difficile aujourd'hui
que, comme l'a dit Denis Griot, il y a une révolution importante qui est
cette désagrégation de la chaîne de la valeur,
multiplication du nombre des acteurs pour aboutir à un seul
système sur une seule puce, puisqu'il faut de plus en plus
d'intervenants.
Ceci crée des interfaces entre les intervenants avec de nouvelles
méthodes de travail. Par conséquent, que faisons-nous
actuellement, dans notre pays, pour rapprocher les acteurs et avoir des actions
du type centrales technologiques?
Y a-t-il des centrales d'application et comment peut-on travailler pour mieux
maîtriser cette chaîne du temps ? C'est une problématique
qu'il faut, je crois, adresser, en tout cas, au cours de cette journée,
et voir comment on peut faire de la R et D à ce niveau-là.
Pour traiter du sujet, nous avons donc 5 intervenants, extrêmement divers
bien entendu puisqu'on va parler de domaines d'applications variés.
Pour gagner un peu de temps, je vais demander à chaque intervenant de
dire d'où il vient et de se présenter rapidement en 5 minutes, et
puis ensuite, nous aurons une demi-heure pour débattre entre les
intervenants s'ils le souhaitent, et avec la salle.
Pour commencer, je voudrais passer la parole à Guy Carrère pour
qu'il nous parle des télécoms. Les télécoms sont -
et Denis Griot l'a dit - un des moteurs extrêmement puissants de la
microélectronique aujourd'hui.
Il y a eu un peu de chaos. J'aimerais qu'il nous dise où sont les
perspectives d'avenir et puis que, d'une certaine manière, il nous
explique comment la désagrégation de la chaîne de la valeur
conduit, dans ce domaine des télécommunications, à rendre
plus difficile la fluidité nécessaire entre la technologie et
l'application et comment France Télécom traite le sujet ?
M. Guy Carrère -
Merci et bonjour.
Je m'appelle Guy Carrère, je suis le directeur scientifique de France
Télécom, plus exactement de France Télécom R et D,
qui, pour beaucoup, pendant 50 ans, s'est appelé le CNET.
Je voudrais apporter le point de vue d'un opérateur de
télécommunications, aujourd'hui, sur l'impact de ces nouvelles
technologies de plus en plus petites, de ces nanotechnologies sur les
différents services que nous pouvons amener.
En effet, le rôle d'un opérateur de
télécommunications, aujourd'hui, est essentiellement de fournir :
1 - des moyens d'interconnexion entre les individus et puis de plus en plus,
entre individus et machines, et dans quelques mois ou années
(l'échelle de temps est extrêmement variable dans ce domaine)
entre machines et machines, allant des grosses machines industrielles à
la machine à laver au domicile, à la puce que l'on pourra
implanter dans le corps et qui communiquera à l'extérieur un
certain nombre d'informations, jusqu'à ce qu'on appelle aujourd'hui les
« smart dust » c'est-à-dire les grains de sable qui,
en fait, seront à la fois des capteurs et des transmetteurs
d'informations.
2 - des services. Ces besoins de services, ces nouveaux services sont là
pour répondre à un certain nombre de nouveaux usages qui sont
apparus ces dernières années, que l'on voit de plus en plus se
développer.
Ces usages sont essentiellement : on veut des informations, l'individu veut des
informations de plus en plus nombreuses, dans des situations de plus en plus
différentes en mobilité, en fixe, mais également des
informations de plus en plus riches, avec une quantité d'informations
par individu qui augmente de façon exponentielle.
Ces informations, il les veut de manière ubique, c'est-à-dire
qu'il veut pouvoir, dans ce que nous appelons les différentes
sphères de vie, la sphère privée, la sphère
publique, la sphère professionnelle, en bénéficier. Il les
veut dans les différents endroits où il va se trouver, mais il
veut quand même pouvoir discerner ces différentes informations. Il
veut pouvoir les recevoir en permanence. Il veut des moyens de connexion,
évidemment de préférence sans fil, à tout moment.
Et puis il veut, de plus en plus, d'interfaces. Des interfaces de plus en plus
humaines, c'est-à-dire des interfaces de plus en plus multisensorielles.
Si je veux résumer, je vois que nous avons besoin, dans les nouveaux
services de télécommunications, d'abord de plus en plus de
puissance de calcul, ce n'est pas exclusif à notre domaine, nous avons
besoin de plus en plus de puissance de stockage, nous avons besoin
également - et c'est un besoin particulier - de puissance d'aiguillage,
c'est-à-dire des systèmes capables, de plus en plus, d'aiguiller
les différentes informations qui deviennent de plus en plus
volumineuses, vers le particulier.
Ces puissances d'aiguillage, il faut simplement savoir que nous
véhiculons aujourd'hui des cheveux, dans des fibres optiques de la
taille d'un cheveu, avec des débits qui vont dépasser le terabit.
Ce sont donc des choses assez considérables qu'il faut pouvoir
effectivement être capable d'aiguiller extrêmement rapidement.
Et puis nous avons également une contrainte de protection de
l'information. Il faut qu'on soit capable de protéger ces informations,
que ce soit des informations que l'on transmet, ou que ce soit des informations
que l'on stocke, et de plus en plus, on aura besoin de stocker des informations
personnelles. Et dans ce cas, il faut prendre en compte la notion de la
protection de la vie privée qui doit être aussi assurée par
ces opérateurs.
Je vous disais tout à l'heure qu'on a de plus en plus besoin
d'interfaces humaines, de plus en plus humaines. Cela veut dire qu'on a besoin
d'écrans pour visualiser, pour la partie vision. On a besoin
également de systèmes qui vont pouvoir permettre de transmettre
d'autres sens en particulier le toucher, avec les systèmes tactiles, et
puis quelques expérimentations autour de la transmission des odeurs.
On va de plus en plus vers des systèmes qui vont permettre de
transmettre les 5 sens.
Quels liens avec les nanotechnologies ?
Précisément, j'ai essayé de regarder aujourd'hui tout ce
qui pouvait avroir un impact sur ces tendances très fortes du domaine
des télécommunications, qui étaient en train
d'apparaître dans les nanotechnologies !
Le premier point, c'était dans le domaine du traitement de l'information
et du stockage de l'information. Dans le domaine du stockage de l'information,
on voit les premières annonces de systèmes comme ceux d'IBM, qui
ont des capacités de l'ordre de 10 milliards de bits, sur une surface de
9 mm², ce qui ne veut pas dire grand-chose.
Si je ramène cela à quelque chose d'un petit peu plus concret,
cela veut dire que sur un timbre poste, on est capable de stocker, de
mémoriser le contenu de 100.000 livres, ou sur une carte de
crédit, on peut stocker l'équivalent de 50 DVD. Donc voyez
des capacités de stockage de plus en plus importantes grâce aux
nanotechnologies.
Cela va répondre à des besoins très forts que nous allons
avoir dans les années à venir.
Et puis, on a évoqué depuis ce matin tout ce qui concerne ce que
j'appelle les « nanopuces », qui vont nous permettre en
particulier de pouvoir réaliser des écrans avec les technologies
des nanotubes : des écrans plats, des écrans facilement
intégrables dans notre environnement, et allant jusqu'à des
possibilités qui aujourd'hui sont concrètes.
Un certain nombre de laboratoires, dont le MIT, ont développé du
papier électronique avec le même type de visibilité que sur
un papier ordinaire et une rémanence de l'information sans modification
par un courant électrique de ce contenu.
Nous voyons également arriver, au niveau de ces nanopuces, quelque chose
qui va impacter assez fortement le « toujours
connecté », c'est-à-dire l'intégration, dans le
silicium, d'émetteurs-récepteurs.
Chaque processeur sera probablement intégré d'une puce qui sera
capable de communiquer par radio avec son environnement et ceci, avec des
standards complètement différents : UMTS, Hyperlane, Blue tooth,
disons tous les standards dont on entend parler aujourd'hui.
Tout ceci devait être facilité également pour la partie
terminaux, pour les parties 3G, 4G. En fait, le problème majeur concerne
le stockage de l'énergie. On a fait beaucoup de progrès
là-dessus mais les nanotechnologies devraient nous amener des approches
assez différentes de piles à combustibles. Ces piles à
combustibles, compatibles avec la taille d'un téléphone portable
devraient nous permettre :
1 - d'obtenir des autonomies de plusieurs dizaines de semaines,
2 - d'avoir un mode de fonctionnement de type station-service. Ce n'est plus la
prise de courant qu'il faut brancher tous les soirs, mais on fait le plein de
son téléphone portable, comme dans une station-service, avec une
ampoule d'éthanol, ou une ampoule de liquide, et ce plein va durer un
certain nombre de semaines.
Il doit exister une adéquation très forte entre nos besoins dans
le domaine des télécoms, des nouveaux usages de
télécommunications, et des technologies qui aujourd'hui
émergent dans le domaine des nanotechnologies, ce qui va nous aider
à réussir ces challenges.
M. Bois -
Merci, Guy.
Je vais passer tout de suite la parole à
François de
Charentenay
, qui représente ici un domaine différent, qui a
une dynamique de progression extrêmement différente puisqu'il va
nous parler du monde de l'automobile.
M. François de Charentenay -
Merci.
Je suis ancien directeur de la recherche du groupe PSA, Peugeot-Citroën,
que j'ai quitté en 2001. Maintenant, je suis consultant. J'ai donc pu
vivre, au centre PSA, de 1986 à 2001, l'évolution
extrêmement importante de l'électronique à
l'intérieur d'une industrie automobile en la modifiant très
profondément. C'est une sorte d'intégration et de mutation
interne qui a été importante.
Je remercie donc M. le sénateur et les organisateurs d'avoir inclus
l'industrie automobile dans ce colloque, ainsi que dans le rapport où
elle est citée à plusieurs reprises.
J'aborderai cette question d'autant plus que l'industrie automobile ne fait pas
partie des valeurs technologiques ni de la nouvelle économie, mais c'est
une industrie qui a quand même absorbé une quantité
d'électronique absolument considérable.
Je vais aborder cette question en trois parties :
1 - comment ont évolué les fonctions automobiles grâce et
avec l'électronique ?
2 - la mutation - et je n'ai pas eu le temps de lire ce point dans le rapport -
complète du fonctionnement de l'entreprise et en particulier de son
processus de développement à cause des nouvelles technologies de
calcul, d'imagerie et de simulation.
Je pense que c'est un secteur très important.
3 - reprendre un peu la discussion sur les chaînes de valeur dont on a
parlé tout à l'heure pour voir comment l'automobile se situe.
Sur la première partie, je ne vais pas vous faire une liste - elle ne
serait sûrement pas exhaustive - de l'ensemble des fonctions qui ont
été :
- d'une part, les fonctions classiques qui ont été
profondément modifiées.
- et d'autre part, les nouvelles fonctions qui sont arrivées.
Je crois qu'il est très important de dire qu'en majorité ce sont
quand même des fonctions qui existaient. Le moteur existait, il tournait
avec une magnéto, une bobine, et des choses comme cela, mais il
existait. Il y avait même, au début du siècle, un autoradio
Motorola aux Etats-Unis. Il y avait très peu d'électronique
dedans, mais il tournait sans électronique !
Ensuite est arrivée l'électronique.
Et puis il y a des nouvelles fonctions qui sont apparues. Il faut partir, non
pas des composants de la voiture, mais des fonctionnalités, car c'est
cela le plus intéressant.
En fait, la voiture c'est d'abord un objet qui doit avoir un certain nombre de
performances, d'agréments de conduite. C'est tout ce qui concerne le
moteur. Le moteur a été, je pense, complètement
révolutionné.
Je me souviens de mon arrivée chez PSA, en 1986 où, à ce
moment-là, il y avait déjà un certain nombre
d'électronique dans le moteur, mais on se posait déjà des
questions en disant : quel sera le moteur du futur ? Il y avait, disons, un
certain scepticisme sur des grandes évolutions.
Et puis, en dix ans, il y a eu une explosion de nouvelles solutions qui
étaient quelquefois d'anciennes solutions mais revisitées
grâce à l'électronique, qui n'avaient pas été
possibles pendant 20 ou 30 ans, comme les soupapes
électromécaniques par exemple, et qui ont été
revisitées par l'électronique et qui se sont ou vont se
développer. Toute cette partie est donc tout à fait importante.
Il y a la partie sécurité, qui était un des grands
chantiers que l'électronique a pu faire évoluer
considérablement. L'exemple de l'air bag est le plus illustratif, et
c'est celui que je prendrai. L'air bag est intéressant. Il a un
microsystème, qui est un micro-accéléromètre, qui
permet, avec un calcul, de mesurer le niveau d'accélération
pendant un certain temps, ce qui représente le seuil de
déclenchement de l'air bag. Il mesure non seulement le seuil de
déclenchement de l'air bag maintenant, mais aussi les modalités
de déclenchement de l'air bag ou des autres air bags.
Cela devient de plus en plus complexe avec une sorte de sécurité,
quasiment à la carte, et dans l'avenir, des progrès très
importants seront faits notamment avec la détection des obstacles, et
éventuellement des procédures d'aide à la conduite, pour
éventuellement prendre la place du conducteur, au cas où il ne
pourrait pas se sortir d'une situation accidentogène. Cette partie est
aussi très importante.
Une autre fonctionnalité : le confort. Toute la partie
« confort du véhicule » a été
profondément modifiée par des petits équipements qui ne
semblent pas de très haute technologie, comme un essuie-glace
automatique ou la climatisation, mais qui contiennent de l'électronique
et du logiciel pour tourner correctement.
Toutes ces fonctions classiques de l'automobile ont évolué de
façon tout à fait considérable et vous en retrouvez un
tableau, à la page 11 du rapport du sénateur Saunier.
Pourquoi ceci a-t-il pu se faire ? C'est parce qu'il existe un ensemble de
systèmes avec la chaîne capteurs-processeurs-actionneurs avec,
à l'intérieur, une boucle - puisque c'est un système
contrôlé - automatique.
Je crois qu'il est important de dire qu'on a beaucoup parlé de
logiciels, mais sur ces systèmes automatiques, il y a un logiciel de
contrôle, qui est un secteur tout à fait important.
Comme l'a dit Monsieur Griot - il a prononcé le mot dans son
introduction - : l'automobile est devenue un objet mécatronique,
c'est-à-dire un objet qui est à base de mécanique, de
thermique mais qui est contrôlé par des superviseurs, et des
contrôleurs à base de microélectronique et à base de
microsystèmes.
Le développement des capteurs est donc un domaine extrêmement
important. Il ne faut jamais se focaliser seulement sur la puce qui calcule.
C'est toujours la tendance, on se précipite sur la puce qui calcule !
Or, quand on dit qu'il y a 20 % d'électronique dans un
véhicule, ce n'est certainement pas 20 % de puce. La puce doit
représenter 2 ou 3 % du coût, mais tout le reste concernera
les microsystèmes, les logiciels que l'on met, un certain nombre
d'actionneurs. Toutes ces choses-là sont beaucoup plus larges qu'on ne
le pense.
Pour vous donner une idée sur l'évolution, et pour vous donner un
chiffre, le logiciel de la 607 est au niveau du logiciel que l'on trouvait sur
l'Airbus A 310, au début des années 1980. C'est
intéressant à savoir.
Cela fait un delta entre l'aéronautique, très haute technologie,
et l'automobile, d'une vingtaine d'années de glissements et de mutations.
Ce qu'il faut savoir, c'est que ce delta est en rétrécissement
extrêmement rapide. On va arriver probablement, dans certains cas,
à voir les militaires revenir chez les constructeurs automobiles pour
pouvoir reprendre un certain nombre de fonctions et en particulier, pour voir
abaisser les coûts qui sont devenus beaucoup trop considérables.
Je voudrais terminer sur cette partie du produit automobile en disant que
l'automobile, ce n'est pas seulement un objet isolé, c'est aussi un
objet communicant. Il communique maintenant de plus en plus avec
l'extérieur, non seulement il reçoit des messages par
l'autoradio, mais il peut émettre un certain nombre de messages et toute
cette interactivité prend une place considérable.
Pour tout ce qui est informations de trafic, guidages, alerte pour la
sécurité, et je pense par exemple au fait d'avertir les gens
qu'il y a une nappe de brouillard sur l'autoroute, c'est quelque chose
d'intéressant, et cela va devenir possible par le développement
de toutes ces technologies.
Je passe au deuxième point rapidement. Le processus de conception de
l'industrie automobile a été complètement
bouleversé en 15 ans, je ne parle pas seulement de la CAO, mais surtout
des calculs et de la simulation qui permettent de construire un véhicule
virtuel jusqu'à une étape assez avancée du
développement avant de passer à un produit réel et
à des prototypes. C'est une partie très importante, y compris la
simulation et l'imagerie, toute l'imagerie, c'est-à-dire que cela
consiste à plonger le futur client - cela concerne les gens du marketing
qui l'utilisent beaucoup - dans l'utilisation d'un véhicule qui
n'existe pas.
La troisième partie, sur la chaîne de la valeur, et c'est
important de le dire, c'est que dans ce domaine de l'électronique,
75 % d'un véhicule est acheté chez un fournisseur et des
équipementiers, et ces équipementiers font de la conception et de
la fabrication. Eux-mêmes ont leur propre fournisseur de
sous-systèmes ou de systèmes électroniques.
On a vu que dans l'amont il y avait cette désagrégation, comme il
a été dit, mais dans l'aval il est évident que le
constructeur n'a pas de rapports directs marchands avec le fournisseur
d'électronique de base, de microélectronique mais il a des
rapports importants, comme le soulignait Monsieur Griot, qui voit
régulièrement des responsables de PSA. Il faut donc avoir une
vision commune sur ce qui va se produire !
En résumé, le constructeur est responsable de l'architecture
électronique de son système, il est responsable aussi de la
fiabilité du système et en particulier de toutes les contraintes
électromagnétiques qui sont des contraintes très fortes
sur ces systèmes électroniques.
Voilà, Monsieur le Président et animateur, et excusez-moi d'avoir
dépassé mon temps.
M. Bois -
Oui, merci, et excusez-moi de vous avoir un peu coupé
la parole. Je voudrais que tout le monde puisse s'exprimer et qu'ensuite on ait
un débat avec la salle.
Le troisième intervenant est Francis
Lepage
, directeur du centre
de recherches en automatique de Nancy.
On a parlé de mastodonte industriel, pour les télécoms et
l'automobile. Je pense qu'il y a des domaines plus émergents. D'abord,
qu'est-ce que la microélectronique peut apporter par exemple à
l'environnement ?
M. Francis Lepage -
Merci, Monsieur Bois.
Je vais commencer par me présenter rapidement. Je suis Francis Lepage.
Je dirige le centre de recherches en automatique de Nancy, qui est une
unité mixte de recherche du CNRS, du département STIC, de
l'université Poincaré et de l'Institut national polytechnique de
Lorraine.
Ce laboratoire anime un réseau thématique pluridisciplinaire mis
en place par le département STIC du CNRS, ce qu'on appelle un RTP, STIC
et environnement, qui montre la volonté du département STIC
d'impliquer tout de suite les relations entre les nouvelles technologies et des
applications telles que l'environnement.
Je commencerai par parler de l'implication des nanotechnologies dans certains
produits, avec quelquefois des résultats sur l'environnement, qui sont
quelquefois un objectif - on vient de parler de la voiture et là, il est
clair qu'un certain nombre d'applications des nanotechnologies visent à
réduire l'évolution au niveau d'un véhicule, mais
quelquefois c'est tout simplement une conséquence, ce n'est pas un
objectif.
Par exemple, dans le domaine du textile, nous avons rencontré des
industriels qui actuellement souhaitent mettre des puces dans des draps, dans
des chaussettes, dans différents produits de textile, mais souvent ils
ont un impératif d'usage qui n'est pas immédiatement celui de
l'environnement.
Tout de suite on voit derrière, en faisant une analyse de la valeur de
ces nanotechnologies, dans les textiles, qu'on arrive à des
conséquences sur l'environnement, en diminuant par exemple le nombre de
lavages, en augmentant la durée d'usage du textile, etc.
On a parlé tout à l'heure du papier électronique, et je
crois que ce n'est pas forcément l'environnement qui est visé en
créant ce papier électronique. En tout cas, il est clair que cela
aura des conséquences sur la quantité de papier, sur la
quantité d'encre qui est utilisée, etc. C'est un premier point.
Un deuxième point sur lequel j'insisterai un peu plus, c'est sur les
nanotechnologies dans l'observation de l'environnement.
Monsieur Carrère a parlé tout à l'heure des
« smart-dust ». C'est une puce intelligente qu'on appelle
en fait sous différents noms, dont celui des réseaux de capteurs.
Ce sont des petites puces que l'on va disséminer dans la nature, qui ont
la capacité de communiquer entre elles et qui vont nous fournir une
observation en fait de leur environnement proche. Si on en met beaucoup, on
peut imaginer prendre des exemples précis qu'on envisage actuellement,
par exemple pour la détection d'incendie de forêts.
On sème, avec un avion, ces petites puces sur les forêts, chaque
petite puce est équipée d'un tout petit capteur détecteur
de température, et quand ils voient une élévation de
température au-dessus d'un certain seuil autour de lui, mais aussi dans
son environnement extrêmement immédiat, de quelques
millimètres autour de lui, il le signale à la puce ou aux puces
qui sont autour de lui, et comme cela on arrive jusqu'au système
d'observation.
C'est là la détection du défaut, mais pour nous,
automaticiens qui créons des modèles, en fait, cela nous sert
beaucoup à enrichir notre connaissance des modèles. Actuellement,
on a des modèles sur des inondations de certains territoires ou encore
des modèles sur des pollutions de l'air qui sont relativement
imprécis parce qu'il existe des phénomènes qui sont encore
mal compris. En fait, si on arrivait à avoir des mesures beaucoup plus
fines, on arriverait à avoir des modèles beaucoup plus fiables et
ces modèles, bien sûr, ce qui est important, c'est d'en faire un
usage.
Le but, c'est de faire de la prédiction. Il est clair que les
catastrophes dont nous sommes victimes en ce moment, puisque la nature nous
arrose abondamment, pourraient être certainement un peu mieux
prévues.
Je voudrais terminer - puisque le fil conducteur était le temps - en
disant que dans le domaine de l'environnement, en général, on n'a
pas de périodes courtes, ce sont plutôt des réflexions
à long terme.
Je crois que malheureusement ce sont les catastrophes qui peuvent, elles,
être un moteur, un déclencheur pour raccourcir la chaîne du
temps dans les applications des nanotechnologies dans l'environnement.
Je crois qu'il faut, à ce moment-là, réagir très
vite et être capables de fournir les éléments de
réponse parce qu'on sait bien aussi, et vous le savez bien, Monsieur le
Sénateur, parce que cela arrive souvent au niveau politique, qu'une fois
la catastrophe passée, il reste un phénomène de
mémoire et c'est la raison pour laquelle il faut réagir
très vite.
Voilà donc la remarque que je voulais faire sur la chaîne du temps.
M. Bois -
Merci d'avoir été très bref.
On va passer peut-être à une deuxième partie
d'exposé. Jusqu'à maintenant on regardait les secteurs. Il y a
des thématiques qui sont un peu transverses aux différents
secteurs.
Je vais donc demander à Guy
Labrunie
de nous dire comment les
start-up, comment la création d'entreprise peut aider à mieux
maîtriser le temps, réduire les temps de cycle, de mise des
applications sur le marché et d'illustrer cela avec un secteur qu'il
connaît bien, je crois, qu'on n'a pas encore abordé, qui est le
domaine de la santé.
M. Guy Labrunie -
Merci.
Je m'appelle Guy Labrunie, j'ai passé de nombreuses années au
LETI, notamment comme responsable dans les domaines de l'électronique,
puis de la microtechnologie et après un passage dans l'industrie de la
santé chez Mérieux, pendant quelques années, je suis
maintenant responsable de CEA Valorisation qui est une filiale du CEA, qui a
pour objectif de faciliter la création de nouvelles
sociétés en investissant, en amorçage, dans ces
sociétés.
Je souhaiterais revenir un petit peu sur le domaine des microtechnologies et
dire quelques mots, en enchaînant sur ce qui a été dit tout
à l'heure par les représentants des grosses industries sur le
potentiel et sur les limitations des jeunes pousses, comme on dit en
français et en canadien, dans ce domaine.
Je crois qu'il est bien connu que les microtechnologies représentent un
potentiel dont le volume financier est de l'ordre de quelques milliards de
dollars, selon la façon dont on compte. Cela est
représenté encore aujourd'hui en majorité par quelques
gros marchés de très grands volumes, qui sont occupés par
quelques gros industriels : ST, Motorola, IBM, ou Bosch, pour n'en citer que
quelques-uns.
Ces marchés sont des marchés qui sont très
segmentés, à la fois en domaines d'application, en types de
produits, en technologie de fabrication, en technologie de montage, en
technologie d'interconnexion, parce qu'on a affaire à une très
grande variété de grandeurs à mesurer et de grandeurs avec
lesquelles on souhaite interfacer.
Par conséquent, c'est un domaine qui est déjà assez
naturellement à la portée des start-up dans la mesure où
ce sont notamment des sociétés qui sont en principe
dévolues avec une grande souplesse, avec une grande agilité, qui
mettent en évidence de nouveaux secteurs industriels et commerciaux, et
qui dégagent de l'intérêt de ces secteurs.
Je n'en voudrais pour preuve que, dans la période 2000-2002, la
réduction des investissements en amorçage et en premier tour,
comme on dit, dans le jargon professionnel, s'est faite par un facteur 20
à 30 pour le secteur européen.
Les microtechnologies ont vu leur part non seulement maintenue, mais
légèrement augmentée, aux alentours de 20 %. Nous
sommes à la fin d'un cycle probablement qui concerne les
microtechnologies, qui a été un cycle avec plusieurs parties,
mais dont la dernière partie, sur les 7 ou 8 dernières
années, a été très importante.
Nous n'avons pas encore abordé, à quelques rares exceptions
près, le cycle des nanotechnologies qui est probablement un cycle qui va
démarrer à l'occasion d'une reprise que nous espérons tous
prochaine.
Pourquoi est-ce que les jeunes pousses se sont bien placées ?
C'est parce que dans ces domaines, en dehors du risque représenté
par la grande parcellisation des marchés, par une très grande
variété de technologies, les cycles de valorisation sont
relativement longs, probablement à cause des volumes dont je viens de
parler et par conséquent des marges que l'on peut dégager, qui ne
viennent que très progressivement.
Aujourd'hui, peut-être encore plus qu'avant, dégager du cash-flow
positif prend au moins 4-5 ans, quand les choses se passent bien et d'autre
part, comme cela a été dit notamment au cours de l'introduction,
on se trouve aussi dans une situation où on progresse par îlot,
par pôle de compétences.
Le facteur important dans le développement de ces compétences,
c'est la proximité de plates-formes de compétences. On a beaucoup
parlé du LETI pour la France mais on pourrait aussi parler des instituts
Fraunhofer pour l'Allemagne, ainsi que d'autres pôles de
compétences européens.
Il existe un deuxième facteur de proximité importante : c'est la
présence d'intégrateurs, leaders mondiaux dans leur domaine.
On a parlé tout à l'heure de l'automobile et de la
téléphonie, mais on pourrait parler également des
télécommunications bien qu'elles soient aujourd'hui en
difficulté.
Enfin un autre facteur important : ce sont les expertises traditionnelles
locales. On a cité le pôle de Besançon. Je crois que la
micromécanique est un des facteurs, par exemple en Suisse ou dans l'est
de la France, qui permet de favoriser ces développements. Ces facteurs
représentent également des difficultés.
Première difficulté pour les investisseurs : il y a peu
d'expériences réussies en matière de retour sur
investissement malgré, encore une fois, les promesses.
Deuxième difficulté : il n'y a pas de main stream, contrairement
à la microélectronique. On a beaucoup de technologies lourdes,
souvent peu compatibles entre elles. On a des difficultés à
produire avec rendement et qualité aujourd'hui encore.
D'autre part, on a une certaine difficulté à intégrer la
chaîne de la valeur. On vient de parler de parcellisation ou de
morcellement de cette chaîne et, dans le domaine des microtechnologies,
intégrer la chaîne depuis la conception, la fabrication et le
test, simplement au niveau des composants, est déjà quelque chose
de très ambitieux !
La plupart des jeunes pousses n'ont pas une telle capacité !
Je rebondis sur les sciences de la vie parce que je crois que ce domaine de la
santé est un domaine où, au fond, on trouve les exemples les plus
marquants par rapport à tout ce que je viens de dire.
Les biopuces - nous n'en avons pas encore parlé ce matin -, disons les
microsystèmes d'analyses sur des puces, que ce soit des puces en
silicium ou des puces en plastique, sont des éléments essentiels
de la recherche biomoléculaire, de la recherche de nouvelles
molécules dans le domaine thérapeutique.
Les microsystèmes, dont on n'a pas encore parlé, sont des
microsystèmes d'analyse et quelquefois même d'injection ou de mise
en oeuvre de thérapie qui permettent vraiment d'ouvrir la voie à
la thérapie ambulatoire.
Ceci est vraiment très porteur pour un avenir proche et moyen terme mais
néanmoins, cela recouvre un très large spectre de
compétences et là, de nouveau, le problème du retour sur
investissement est très long, la compétition est forte, l'issue
est incertaine.
Je suis convaincu que c'est dans ces domaines, en particulier, que les
développements des besoins et la reprise du cycle économique
devraient d'abord nous profiter.
M. Bois -
Merci.
Donc à l'autre bout de la chaîne et à l'autre bout de la
table, une question qui est peut-être finalement la plus critique
aujourd'hui en termes de maîtrise des montées en volume,
maîtrise des marchés, c'est : comment ces nouvelles technologies,
ces nouvelles applications sont-elles acceptées par le client
final ?
On a parlé, par exemple, de puces dans le corps humain. Comment le
client, l'utilisateur va-t-il accepter cela, et comment peut-on diminuer les
temps d'apprentissage des nouvelles technologies par les utilisateurs ?
C'est une question pour Dominique
Boullier
.
M. Dominique Boullier -
Bonjour. Je suis professeur à
l'université de technologie de Compiègne, je suis anthropologue,
par ailleurs chargé de mission au Département STIC, où je
pilote un réseau thématique pluridisciplinaire :
acceptabilité, ergonomie et usage des TIC.
Je ne vais pas en fin de compte parler vraiment des questions de
stratégie, de construction des marchés ou de construction des
demandes qui pourraient être plus directement en phase avec ce que les
interlocuteurs précédents ont évoqué, mais cela
dit, c'est ce qu'on fait le plus souvent dans les laboratoires des usages qu'on
est en train de monter dans toute la France, et particulièrement dans
celui que j'anime, à la Cité des sciences de la Villette, qui est
un laboratoire des usages en technologie d'informations numériques.
Il y en a d'ailleurs un autre à Grenoble, qui s'intéresse plus
particulièrement aux objets communicants ou ubiques, comme ils
disent.
Il existe des connexions, à mon avis, pour disons associer toutes les
sciences humaines, dans leur diversité, à ce travail d'insertion
de l'usager dans la boucle de conception qui devient effectivement un facteur
important de réduction de ces temps que vous évoquiez.
Cela dit, il me semble intéressant, à propos des
nanotechnologies, d'identifier quelques propriétés
anthropologiques qui sont plus génériques et qui posent de vrais
problèmes d'appropriation parce que - et je me centrerai principalement
là-dessus - l'infiniment petit qui a été
évoqué aboutit finalement à poser des questions sur
l'invisibilité des techniques.
Cela touche à quelque chose qui est profondément ancré
dans toute société, c'est-à-dire que nous avons des
sociétés qui fonctionnent toujours sur des régimes de
visibilité acceptables ou stables, où on a pris finalement un
certain nombre d'habitudes pour traiter de la frontière du visible et de
l'invisible.
Nous avons, les uns et les autres, des schémas sur les mondes d'en
dessus, d'en dessous, les forces qui agissent, les mondes d'avant, les
ancêtres, etc ; les sciences elles-mêmes produisent
effectivement du visible mais ce sont elles seulement qui peuvent
accéder à cet invisible de ce point de vue-là.
Petit à petit, les uns et les autres, dans toutes les
sociétés, nous acceptons de vivre avec ce que nous ne connaissons
pas, avec des choses qu'on ne peut pas maîtriser et éventuellement
qu'on ne peut pas voir.
Cela dit, ce n'est quand même pas simple. Cela ne se manipule pas comme
cela.
On a vu que les grands développements industriels ont plutôt
généré de grandes visibilités. Ce sont les grandes
infrastructures, les machines, même les machines quotidiennes
éventuellement, et on pouvait prétendre dire que cette grande
visibilité allait de pair avec une maîtrise, même si elle
était spécialisée, plus importante.
Il semble qu'on atteigne là une certaine limite actuellement dans nos
évolutions techniques, et ce, de deux points de vue :
- d'un côté, on parle des systèmes complexes qui, pour des
contraintes de sécurité, ou pour les propriétés sur
lesquelles ils travaillent - et je pense notamment à la
radioactivité - finissent nécessairement par produire de
l'invisibilité même s'ils sont massifs dans le paysage quelquefois.
On voit bien les problèmes que cela pose à travers le
nucléaire, par exemple, et les enjeux de confiance qui sont sans doute
l'un des enjeux essentiels dans cette affaire.
- deuxième volet, pour modifier ce régime d'invisibilité
ou de visibilité, ce sont effectivement les systèmes
numériques eux-mêmes qui, à travers leur puissance de
calcul, deviennent d'une certaine façon des nouvelles forces de
l'invisible.
Vous avez tous entendu partout cette ritournelle de «
c'est la
faute à l'informatique
». L'informatique telle qu'elle est
actuellement, je ne parle pas de celle qui vient.
On attribue des fautes, et on a donc nécessairement là un enjeu
de responsabilité. Confiance et responsabilité sont des enjeux
qui sont portés au coeur de la façon dont les systèmes
techniques eux-mêmes sont conçus. On ne le manipule pas, on ne le
modifie pas aussi facilement que cela.
Je pense que le cas des OGM, effectivement, doit nous amener à
réfléchir. Dans un livre, il y a trois ans, j'avais effectivement
parlé des organismes numériquement modifiés. On peut
souhaiter effectivement qu'il n'y ait pas ce type de controverse que l'on
connaît actuellement sur les OGM. Cela dit, on peut se demander quand
même s'il n'en faudrait pas un petit peu parce que,
précisément, cela risque de nous revenir dans la figure sans
qu'on s'y attende !
C'est donc ce problème que je voudrais évoquer autour de trois
points rapidement, posés par l'invisibilité : d'abord, un
problème ontologique. Il me semble que cette invisibilité finit
par remettre en cause l'extériorité des techniques. On avait des
frontières établies, des ontologies ordinaires bien pratiques,
avec la nature, des objets, des êtres vivants, des humains, et des forces
invisibles aussi, et on voit bien que dès que l'on a affaire à de
l'invisible, cela devient difficile à gérer. Cela a
été le cas notamment dans la biologie.
Dans toutes les campagnes hygiénistes, il existe des travaux en
anthropologie de la diffusion des techniques. Rogers, dont vous évoquiez
les courbes, en a fait un de ses thèmes favoris. On voyait qu'il
était très difficile de faire comprendre, quand on fait une
campagne d'éducation sanitaire au Pérou, pourquoi des êtres
si petits, les microbes, seraient si puissants et pourquoi s'ils sont si
puissants, on ne les verrait pas. Vous avez des boucles comme cela qui, sur le
plan cognitif, ne sont pas du tout évidentes à faire admettre et
qui modifient considérablement les répartitions des êtres
et les statuts dans leur façon traditionnelle de voir le monde.
Donc si on rend invisible, on déstabilise ces cadres cognitifs, on
déstabilise ces frontières et ces statuts.
Il y a trois exemples qui m'intéressent dans les nanotechnologies, qui
sont vraiment cruciaux et vraiment liés au grand public : ce sont moins
les questions liées à l'ordinateur invisible, comme on le dit,
que les matériaux intelligents, c'est-à-dire tous ces couplages
des nanotechnologies et de la physique, chimie des matériaux qui vont,
dans l'habitat par exemple, modifier des possibilités, des
propriétés thermiques, d'acceptation de la lumière, de
résistance ; les vêtements qui ont été
évoqués, mais aussi bien entendu les biopuces, que ce soit pour
le diagnostic, l'injection ou la stimulation.
Cela représente finalement des prothèses. On pourrait se dire que
tout cela est déjà bien établi. On a une habitude de vivre
avec des prothèses, et cette frontière-là n'est pas aussi
ferme qu'on peut l'imaginer mais là, ces prothèses deviennent
actives, programmables, invisibles.
Dans les trois cas, dans les trois exemples que je prenais, on a finalement une
remise en cause des frontières humains/objets en profondeur, et qui
peut, potentiellement, être menaçante.
- une invisibilité qui génère un problème
opératoire. En fait, l'extériorité avait un avantage
puisqu'elle générait des prises sur le monde, des prises pour
orienter l'action. On appelle cela aussi des
« affordances » dans certaines théories.
Effectivement, l'image même du système vous permettait d'anticiper
sur ce que vous alliez pouvoir en faire.
Ces deux éléments sont en fait des conditions d'appropriation
pour se situer dans le monde et agir. De fait, avec les nanotechnologies, dans
tous les cas, nous serons bien obligés de produire des formes
d'interface pour accéder à l'opération même, permise
par ces nanotechnologies, sauf à dire qu'effectivement on n'a plus rien
à en faire, mais qui les pilote ? On voit, à ce moment-là,
d'autres questions qui émergent ! La question de l'accès à
cette intelligence restera posée.
Dernier point : le problème de l'invisibilité
génère un problème politique puisque finalement - et cela
a été évoqué à plusieurs reprises -
l'intelligence de ces nanotechnologies, je parle de celles qui sont diffuses,
elle est distribuée, elle est en réseau, mais bien entendu cela
génère l'hypothèse spontanée pour tout un chacun
qu'il y a quand même quelqu'un qui, dans l'affaire, doit être au
centre ou doit être capable de piloter tout cela.
Qui pilote, au nom de quels principes et pour quels intérêts ? Qui
est-ce qui sait ? Est-ce que vraiment d'ailleurs ils savent ce qu'ils font ?
Ensuite - et on l'a vu d'ailleurs à propos de la
vidéosurveillance, puisque vous avez vu tous les enjeux autour de cela,
tous les enjeux autour de la traçabilité
généralisée, à travers les réseaux puisqu'on
récupère toutes les données sur ce que l'on fait, mais
aussi dans les démarches qualité dans les entreprises - on a
véritablement un enjeu de pouvoir, un enjeu de démocratie, un
enjeu de contrôle qui peut effectivement être menaçant.
Pour conclure, vous allez me dire que cette affaire-là est assez noire
et inquiétante. Est-ce qu'on ne surfe pas là sur des peurs
irrationnelles, d'apocalypse ? Effectivement, l'apocalypse, c'est de
révéler ce qui était caché et le problème
est de savoir jusqu'où on peut cacher les choses avant qu'elles ne se
révèlent malgré vous et qui, en l'occurrence, peut faire
ce travail-là ?
On est en fait dans des questions de croyances qui sont tout à fait
importantes, avec lesquelles on n'a pas beaucoup d'outils opératoires
immédiats.
Je pense, pour conclure, qu'il y a effectivement deux niveaux de traitement qui
peuvent être intéressants à prendre en compte dès
maintenant :
- au niveau technico-commercial, il y a des choix techniques qui doivent
permettre, dans la conception même des systèmes qui mobilisent ces
nanotechnologies, de redonner des prises et qui, paradoxalement, vont nous
obliger à redonner de la visibilité, d'une façon ou d'une
autre, au fait par exemple qu'il existe des matériaux avec de la
nanotechnologie associée.
- de plus, on a aussi la possibilité de positionner cette technologie et
les applications qui en dérivent vers une explicitation et des garanties
vis-à-vis du public qui auront un enjeu.
On est plus dans des campagnes d'éducation, soit de formation, soit de
marketing.
On a en même temps des opérations d'intermédiation,
c'est-à-dire que ces technologies-là génèrent aussi
des déplacements de services. C'est un des thèmes qui nous
intéressent aussi dans les laboratoires d'usage, qui feront que cela ne
sera pas forcément les mêmes producteurs, ceux qui vendent les
contenus.
Il y a donc des enjeux autour de ce déplacement avec des rôles
humains à redéfinir.
Deuxième niveau de traitement : c'est le niveau juridico-politique.
C'est la commission « informatique et libertés »
éventuellement, les débats publics, et pourquoi pas,
peut-être qu'il faut précisément prendre le temps de se
poser ces questions-là, pour éviter des syndromes OGM qui seront
absolument très ennuyeux pour l'industrie par la suite.
Finalement, pour terminer, ne suis-je pas en train de vous donner un programme
de ralentissement général de l'innovation ? Sans doute, pour une
part, mais le problème c'est qu'on risque effectivement, à ne pas
en parler avant, d'avoir des blocages durables de ce point de vue-là, et
pour reprendre la métaphore de mon directeur, quand il s'agit de
grimper, on peut choisir de grimper sans assurance, mais on tombe quand
même nettement plus bas !
(
Applaudissements
)
M. Bois -
Merci, Dominique Boullier, car ce sont des sujets que l'on
n'aborde pas souvent dans le domaine de la microélectronique, même
s'ils sont pourtant au coeur des problématiques globales de cette
microélectronique et de ses applications.
On a maintenant un bon quart d'heure, disons vingt minutes, pour le
débat avec la salle.
Je vous laisse la parole.
M. Claude Saunier, sénateur -
Je réagis d'abord pour vous
dire que ces échanges de ce matin m'ont tout à fait
conforté dans un certain nombre de découvertes et d'informations,
que pour la plupart d'entre vous, vous nous avez données dans le domaine
de la technologie.
Y aura-t-il rupture ? Non, il y aura continuité. Y aura-t-il
accélération ? Oui, il y aura accélération.
On a beaucoup parlé de la filière silicium et pas des autres
filières, et je pense notamment aux polymères ! Je veux dire par
là, que ce ne sera pas de plus en plus d'intelligence dans une puce,
mais ce seront des puces à très bon marché. Dans la vie
économique, et dans notre vie quotidienne, dans l'étiquetage,
c'est quelque chose de tout à fait nouveau. C'est une piste, entre
autres, qu'on devra aborder.
Deuxième élément de réflexion : je crois qu'il
faudra que l'on fasse passer le message auprès des décideurs,
auprès de la société, que derrière, c'est une
réponse à un certain nombre de grandes préoccupations
économiques.
Je pense en particulier au gros débat que nous avons, et que nous aurons
sur la santé. Ce que la technique nous propose sera une réponse
et aussi une question, autant dans le traitement de nos maladies que dans le
diagnostic, par rapport à notre temps de présence à
l'hôpital, par rapport à notre accès aux soins de meilleure
qualité, y compris au domicile.
Derrière tout cela, il y a bien entendu des perspectives de
maîtrise des dépenses de santé. C'est une perspective
supplémentaire et cela a été évoqué !
Je crois qu'il y a là un travail d'explication, de conviction pour que
ce soit peut-être mieux accepté par notre société.
Ma dernière réflexion porte sur le temps. Cela a
été évoqué à plusieurs reprises. Nous vivons
un temps difficile, vous vivez un temps difficile, Mesdames et Messieurs, c'est
le temps d'application de l'UMTS, concrètement, avec tous les effets un
peu rudes que l'on connaît.
La Bourse est une chose mais il y a aussi le travail. Je vis cela dans une
région de l'ouest de la France où chaque jour, chaque semaine,
nous voyons des centaines d'emplois disparaître parce qu'effectivement le
calendrier théorique des nouvelles progressions d'application n'est pas
au rendez-vous.
Ce qui me passionne au-delà de ce que vous avez dit, et qui est
extrêmement passionnant, c'est peut-être la dernière
intervention, celle de Monsieur Boullier (avec celle de Monsieur Jutand) qui
devrait nous donner envie d'aller un peu plus loin.
Je crois que nous ne devrons pas limiter nos débats entre techniciens,
quelle que soit la qualité de l'approche. Que des économistes,
des financiers interviennent, qu'il y ait des business plans, très bien,
mais au fond, l'essentiel, c'est la confrontation entre la science, la
technique, les machines et la société, les individus, les hommes
et les femmes.
Il faudra là que nous apprenions - et c'est d'ailleurs la mission qui
est la vôtre, Monsieur le directeur du STIC - à introduire
davantage de connaissances sociologiques, davantage de connaissances
psychologiques.
Je le dis très clairement : par rapport à ce qui nous freine dans
l'UMTS, a-t-on maîtrisé l'Internet ? Je ne crois pas et loin s'en
faut ! A-t-on vraiment besoin encore aujourd'hui d'avoir accès à
une foule d'informations à travers un portable ? Ce sont des questions
comme celles-là qui nous sont posées, et puis des questions
beaucoup plus graves, beaucoup plus rudes.
Je partage tout à fait ce qu'a dit Monsieur Boullier, sur la
façon calamiteuse dont nous avons abordé le débat, sans le
faire, sur les OGM. Cela me rappelle la façon aussi calamiteuse et
irrationnelle dont nous abordons et continuer à aborder le débat
sur le nucléaire.
Mais il y a quand même des espoirs. On nous a dit qu'il était
possible d'intégrer, dans nos corps, des puces. Moi je vous propose de
mettre en place une équipe qui permettra d'intégrer un peu
d'intelligence dans la tête des décideurs et éventuellement
des parlementaires. Ce ne sera pas mal !
(
Rires dans la salle
).
M. Bois -
Des questions ou des remarques ?
M. Hervé Pero -
Bonjour. Je suis Hervé Pero, je suis chef
d'unité à la DG recherche à la Commission
européenne.
On a peu parlé du coût de la recherche. On a parlé du
vertige technologique, de l'évolution vers l'infiniment petit, mais on a
moins parlé de l'évolution des coûts de la recherche.
Dans cette perspective-là, est-ce qu'on peut continuer à parler
d'une recherche purement nationale, ou est-ce qu'il y a besoin de mutualiser et
de travailler, comme c'est fait d'ailleurs par certains industriels, en
alliance et au niveau européen, sinon international ? Peut-on aborder ce
point ?
M. Claude Saunier, sénateur -
Nous allons examiner, cet
après-midi, les conditions de la réussite et le volontarisme
collectif. On aura des échanges là-dessus.
M. Laurent Gouzènes (STMicroélectronics) -
Un point sur
l'introduction des nouvelles technologies et des nouveaux usages.
Le point concerne en fait l'utilité ou l'intervention des Etats dans la
création des nouvelles technologies, ou plutôt dans leur usage...,
pas dans la création de la technologie elle-même, qui permet
l'usage, mais plutôt au niveau de l'introduction du droit public.
Lorsqu'on regarde Internet, cela a démarré par un réseau
national militaire qui a fini par s'ouvrir au grand public avec le temps et
quelques années.
Si on regarde la télévision, on s'aperçoit en fait que la
télévision a fonctionné à partir du moment
où on a pu définir un système de normes et de standards
qui permet d'ouvrir un marché avec la livraison d'images qui sont
compatibles entre les producteurs, ceux qui transportent l'image, ceux qui
regardent la télévision, etc. C'est le même système
et c'est compatible tout au long de la chaîne de traitement de
l'information.
Pour en revenir sur l'image, parce que c'est illustratif d'autres secteurs
également, on voit que l'image d'aujourd'hui est exactement la
même depuis 40 ans, c'est-à-dire que la définition de
l'image n'a pas bougé.
On attend avec impatience les progrès de la télévision
haute définition qui est en train de démarrer aux Etats-Unis et
au Japon. C'est un exemple de cet impact que peuvent avoir les Etats. L'impact
très réussi, on le trouve dans le GSM. L'UMTS a été
une réussite mais ce qui n'a pas été réussi, c'est
le système des enchères ! La normalisation de l'UMTS en
elle-même est une réussite.
Je voulais donc dire que les Etats ont un impact extrêmement grand sur
l'introduction des nouveaux produits et des nouveaux services au niveau des
usagers.
M. Bois -
Merci.
D'autres questions ou commentaires ?
M. Jean Fourmentin-Guilbert -
Je suis président d'une
association qui se donne comme objectif le rayonnement de la biologie.
Je voudrais insister sur les paroles de Monsieur le Sénateur, qui a
parlé des applications à la santé et au biomédical
parce qu'on en a vraiment peu parlé.
Personnellement, je considère que ce domaine sera le moteur, avec
l'électronique, des nanotechnologies. Non seulement les besoins au
niveau de la santé sont de plus en plus importants, mais le
vieillissement de la population entraîne une demande croissante. Le point
le plus important, c'est que toutes les nouvelles technologies du
biomédical, la transgénèse, les opérations que l'on
peut mener sur les cellules, que nous avons réalisées sur les
animaux et sur les plantes de manière tout à fait artisanale, on
ne pourra pas les appliquer à l'homme si on n'a pas d'outils nouveaux,
si on n'a pas des procédés nouveaux que seules les
nanotechnologies vont pouvoir nous donner.
Voilà simplement le point sur lequel je voulais insister.
M. Bois -
Francis Jutand avait demandé la parole.
M. Jutand -
Je voudrais tout d'abord remercier le Sénateur
Saunier et son équipe, parce que je pense que les politiques disent
qu'il faudrait les aider, mais ils nous situent bien et nous aident à
prendre du recul - parce qu'on a aussi la tête dans le guidon - sur tous
les développements scientifiques et technologiques ainsi que sur les
impacts qu'ils ont.
Je crois qu'il ne faut surtout pas opposer les choses. On a besoin de
s'investir à fond dans la science fondamentale qui nous permet de
progresser au niveau de tous les développements technologiques, qui sont
des facteurs très importants pour le développement de cette
société de l'information, de la communication et de la
connaissance.
Cela a aussi des effets dans beaucoup d'autres domaines. On parlait tout
à l'heure de l'environnement. On a effectivement aussi
développé un réseau qui s'appelle « STIC et
Santé » dans lequel on réunit des gens d'horizons
très variés puisque cela va des nanotechnologies jusqu'à
des gens qui se préoccupent effectivement de l'information
médicale, de son extraction, de la santé à domicile, etc.
On a, je pense, des éléments puissants.
En même temps, l'intervention de Dominique Boullier nous montre bien
qu'il faut réintroduire dans chaque rupture fondamentale toutes les
dimensions du savoir et de la connaissance.
Si on peut effectivement avoir des points de vue importants et si on peut les
traduire concrètement, parce que ce qui va s'ouvrir à la
Villette, à Grenoble, est très concret, c'est aussi parce qu'on a
notamment au CNRS et à l'université, des chercheurs en sciences
humaines et sociales qui labourent depuis très longtemps tous ces
terrains, qui observent et qui nous réinjectent les problèmes au
bon moment.
Ceci est capital pour l'ensemble parce que si jamais, effectivement, on
ralentit le flux d'utilisation de ce ship, c'est toute la filière qui
va s'écrouler. On perçoit par là toute
l'interdépendance... de temps en temps, on a tendance à dire
qu'on a comme cela un courant ascendant, on le prend, on y va, on fonce et il
faut le faire aussi.
Il faut voir que toutes les grandes ruptures sociétales nous obligent
à mettre toute notre intelligence au niveau recherche, au niveau
industriel. J'insiste sur le rôle des politiques. Vous n'êtes pas
seulement importants pour nous donner des moyens, car c'est vous qui nous
légitimez, nous donnez les moyens ! Vous êtes importants aussi
pour agir sur la combinaison totale de la science, de la société
et de l'économie.
M. Claude Saunier, sénateur -
Très juste.
Simplement un mot pour vous répondre, Monsieur Jutand, et
répondre à l'intervenant précédent, l'Office
Parlementaire d'évaluation des choix scientifiques et technologiques
vient de missionner deux de nos collègues - dont l'un est dans la salle,
M. Lorrain, ainsi que Monsieur Raoul - pour donner un prolongement à la
première réflexion que nous venons d'avoir : microtechnologies,
nanotechnologies, biologie et santé.
Là, les politiques, s'ils peuvent éclairer le chemin, essaient de
jouer leur rôle.
M. Martinez -
Je voudrais faire un commentaire : je pense qu'on n'a pas
suffisamment insisté sur le fait que lorsqu'on veut se lancer dans les
nanotechnologies, il y a la matière grise mais il y a aussi
l'équipement.
L'équipement devient de plus en plus sophistiqué, nous l'avons
dit, et souvent, ce qui se passe, c'est que dans nos laboratoires, on voit
apparaître des équipementiers étrangers qui viennent nous
proposer leurs équipements.
Nous travaillons sur ces équipements, tout en leur donnant un peu de
valeur ajoutée.
Je pense que le moment serait venu, avec le réseau des centrales
technologiques, avec l'avènement des nanotechnologies qui vont prendre
de plus en plus d'essor, de pousser les feux sur les équipementiers
français, que ce soit au niveau de la fabrication comme au niveau du
nettoyage. La propreté des nano-objets à fabriquer est quelque
chose de très important.
J'en veux pour preuve le fait qu'il existe des méthodes qui sont
utilisées dans l'industrie pharmaceutique, qui actuellement viennent
dans l'industrie de la microélectronique et de la
nanoélectronique.
Monsieur le Sénateur, ce commentaire, j'aimerais bien que vous en
preniez note, il faut que cela rejaillisse sur les laboratoires bien entendu !
M. Claude Saunier, sénateur -
C'est déjà fait,
Monsieur Martinez. J'y répondrai.
Avant, je vais donner la parole au Président d'un groupement
d'équipements, JEMI.
M. Gaël Schmidt -
Je suis le Président de JEMI France.
Merci, Augustin, de nous l'amener sur un plateau.
En fait je comptais dire deux mots, mais plutôt dans l'après-midi
parce que la thématique me semblait appropriée. Il existe en
France une association type 1901 qui regroupe à peu près une
cinquantaine de fabricants d'équipements et également de
matériaux et de services pour l'industrie de la microélectronique
et nanoélectronique, puisque pour nous, c'est le même
périmètre.
Il est vrai qu'on a parlé beaucoup de nouvelles technologies, de
nouveaux moyens mais tout cela n'est possible que grâce à des
équipements bien évidemment ou des matériaux qui
permettent d'avancer, et donc de produire de nouveaux dispositifs, toujours
plus performants.
Ces équipements sont dominés notamment par les Américains,
entre autres. Donc non seulement il y a besoin de nouveaux équipements
pour construire de nouveaux dispositifs mais il existe aussi une notion de
stratégie très importante. En effet, si on doit toujours attendre
les intervenants français pour acheter des équipements qui ne
seront pas forcément la dernière génération
outre-Atlantique ou au Japon, non seulement on ne sera pas à la pointe
de la recherche mais on sera également toujours relativement
dépendants, d'où l'importance d'avoir une industrie des
équipements forte avec un grand pouvoir de recherche, de façon
à donner à nos industriels français ou européens
des outils tout à fait adaptés pour pouvoir continuer
d'être à la pointe dans ce domaine.
M. Claude Saunier, sénateur -
Je réponds à
Monsieur Martinez parce que c'est l'une des neuf propositions dont je vous
parlerai en fin de colloque, mais j'avais bien noté ce que Monsieur
Schmidt m'avait dit.
J'avais bien noté aussi quelques difficultés que j'avais
rencontrées dans la visite des laboratoires dans deux domaines :
- j'ai le souvenir d'une microsalle blanche qui était
équipée avec du matériel allemand, mis à
disposition d'une équipe de chercheurs, rodé et mis au point par
cette équipe de chercheurs, et évidemment le savoir-faire
était au propriétaire du matériel, c'est-à-dire en
l'occurrence, une firme allemande.
- l'autre exemple au moins aussi grave : on sait que dans le secteur industriel
qui est le vôtre, tout ce qui relève de la conception
assistée par ordinateur est quelque chose de véritablement
déterminant. Or c'est un marché de logiciel qui est
complètement dépendant des Etats-Unis, en l'occurrence, d'une
firme ou deux, et j'ai vu un laboratoire qui n'avait pas les moyens de se payer
ou d'acheter la licence, qui avait obtenu la mise à disposition de la
licence, à condition de continuer à travailler sur le produit,
à condition d'enrichir la base de données et par
conséquent, nous avons continué à payer des chercheurs
français pour enrichir un produit vendu par les Américains.
C'est donc une disposition très concrète que je propose au
Ministre. Je crois qu'il faudra que nous réfléchissions aux
conditions concrètes de mise à disposition et des logiciels et
des matériels de nos centres de recherches.
M. Bois -
Une question ?
M. Pascal Chenais -
Bonjour, je suis Pascal Chenais, je suis le
Directeur général de Cadence France. Vous pouvez l'entendre, je
suis français, je suis européen, et si je participe à ces
colloques, c'est parce que je suis intimement convaincu d'un certain nombre de
choses et que je souhaite participer au développement d'un certain
nombre de sociétés dans notre pays. A ce titre-là, je le
reconnais.
On souhaite aussi s'inscrire, de façon plus intime, dans le
développement de sociétés en tant que jeunes pousses, et
participer de la façon la plus étroite à un certain nombre
d'universités.
On ne connaît pas tout le monde. Ceci dit, et certains présents
dans la salle peuvent en témoigner, on essaie d'être le plus
proche possible d'eux, que ce soit au niveau universitaire, que ce soit au
niveau du développement des PME-PMI et parfois, de manière
extrêmement désintéressée.
C'est ce message que nous aimerions faire passer. Même si on vient d'une
industrie américaine, on souhaite également participer et
soutenir le développement de la recherche mais aussi le
développement des sociétés quelles qu'elles soient pour
pousser la mise en oeuvre d'un certain nombre d'idées qui viennent
d'Europe, et notamment de France.
Il y a quand même un certain nombre de choses qui viennent de notre pays
: le spatial, le train, l'automobile, etc. Si on peut participer à ce
moteur, il y a certaines personnes ici qui peuvent témoigner qu'on le
fait avec grand plaisir ! Le tout est d'avoir assez de bras pour couvrir tout
le monde.
M. Bernard Faure -
J'avais un certain nombre de questions à
poser, compte tenu de la qualité des exposés qui ont
été faits.
J'en retiendrai peut-être juste une : compte tenu de la diversité
des applications que nous allons développer dans tous les secteurs
d'activités, il me semble que, vu des pouvoirs publics, un des
problèmes qui risque de se poser est de déterminer - pour
éviter un saupoudrage de l'ensemble des aides publiques - quelles
seront les technologies qu'il faudra retenir, je parle des technologies
clés ?
Il me semble qu'à ce niveau-là, cela impliquera du
côté des pouvoirs publics une démarche d'orientation
globale des efforts. Ils ne pourront pas être développés
partout, et il faudra donc définir les critères de
sélection qui permettront de déterminer, tant du point de vue des
utilisateurs que des consommateurs et de l'économie, vers quels secteurs
probablement il faudra faire des grands choix. Ces grands choix,
peut-être qu'on aura l'occasion d'y revenir cet après-midi !
M. Claude Saunier, sénateur -
Monsieur Faure, là aussi
j'ai bien entendu votre message au cours des multiples rencontres que nous
avons eues.
L'une des réponses a été transmise à la ministre,
c'est qu'il appartient aux pouvoirs publics de ne pas se substituer ni aux
centres de recherche, ni
a fortiori
aux industriels, mais il appartient
aux pouvoirs publics de baliser la voie.
La proposition que je fais, c'est effectivement l'organisation d'un vaste
débat débouchant sur l'élaboration d'une loi programme
parce que ce n'est pas année après année qu'on
définit les choses, c'est sur plusieurs années.
Le temps est une donnée intéressante, avec derrière une
loi de programmation financière. Il ne suffit pas d'annoncer des
objectifs. Il faut aussi prendre des engagements dans la durée sur les
moyens.
Comme les choses évoluent très vite, je pense qu'il faudra aussi
se donner les moyens d'un ajustement annuel sous la forme par exemple d'une
conférence qui réunirait les principaux partenaires et les
pouvoirs publics pour ajuster le tir en fonction des évolutions.
M. Bois -
Il nous reste environ 5 minutes... nous pouvons encore passer
une ou deux questions.
M. Pierre Gentil -
Je voudrais réagir, Monsieur le
Sénateur, à un point que vous avez évoqué en ce qui
concerne les moyens dont on dispose et les moyens qui peuvent être mis
à notre disposition.
Je suis Pierre Gentil, je dirige un réseau national qui s'appelle le
Comité national de la formation microélectronique et qui, entre
autres, regroupe et met à disposition des moyens de l'ensemble des
partenaires, universitaires, écoles d'ingénieurs, pour la
formation mais également pour la recherche.
Par rapport à ce que vous avez dit, je voudrais simplement rectifier un
point : avec notre partenaire Cadence, on a un accord à un niveau
mondial et on dispose, je dirai, de toutes les licences d'utilisation des
logiciels Cadence, bien entendu, dans des conditions extrêmement
avantageuses, pour un usage pédagogique et de recherche amont. Il ne
s'agit pas de détourner le marché de notre partenaire Cadence
mais il s'agit de l'utiliser. Il n'y a aucune restriction en ce qui concerne la
recherche amont.
Pour les laboratoires qui ne seraient pas pourvus, on a les moyens par
l'intermédiaire du CNFM - et le responsable Michel Robert, des services
nationaux, est présent ici - de les équiper.
Par contre, il y a des problèmes généraux, je dirai, pour
notre organisation : on manque de moyens, et cela fait partie des points que
vous avez soulevés dans votre rapport. J'espère que cela sera
entendu parce qu'aujourd'hui nous ne sommes pas du tout dans la situation
d'augmentation des moyens. Nous avons eu une réduction des moyens qui
sont tombés à zéro pour l'année 2002. Par
conséquent notre action est susceptible de s'arrêter très
prochainement s'il n'y a pas une action des pouvoirs publics entreprise, et ce
de manière importante.
M. Claude Saunier, sénateur-
Merci de votre intervention.
On en reparlera cet après-midi.
En deux mots, comme un certain nombre d'entre vous, j'ai eu, au travers de ce
rapport, l'occasion de rencontrer plusieurs partenaires à
l'extérieur, à l'étranger.
Je crois qu'entre nous, nous pouvons dire que l'un des points forts de ce
secteur industriel, c'est la qualité des systèmes
éducatifs. On nous envie cette qualité à
l'extérieur.
Deuxième élément : je l'ai dit dans mes propos
introductifs, nous sommes dans un secteur qui est hypermondialisé,
où la matière première principale est l'intelligence et
où nos partenaires n'hésitent pas à nous acheter cette
intelligence.
Il faut, par conséquent, que nous soyons extrêmement vigilants.
J'ai un certain nombre de propositions ici. Parmi les problèmes
évoqués, il y a en effet le soutien à votre réseau,
le soutien à la formation spécifique dédiée aux
micros de la microélectronique.
Cinq millions d'euros, c'est dérisoire par rapport aux enjeux
économiques généraux et donc, je pense que j'aurai
l'occasion de replaider, de façon un peu plus explicite, auprès
du ministre et des ministres - en l'occurrence, ce n'est pas la ministre de la
recherche qui est directement concernée, c'est un autre ministère
- votre cause.
Cela renvoie aussi à la nécessité de décloisonner
un petit peu le mode de fonctionnement de notre administration.
M. Claude Saunier, sénateur -
Merci et bon appétit. La
séance est suspendue.
(
Applaudissements
)
(
La séance est suspendue à 12 h 45
).