ACTES DU COLLOQUE

MICROÉLECTRONIQUE ET NANOTECHNOLOGIES :
UNE CHANCE À SAISIR

I. PROGRAMME DE LA MATINÉE

A. PROGRAMME

Ouverture du colloque par M. Claude SAUNIER , sénateur, rapporteur de l'Office parlementaire d'évaluation des choix scientifiques et technologiques

Introduction de Mme Claudie HAIGNERÉ , ministre déléguée à la recherche et aux nouvelles technologies.

LA RÉVOLUTION DE L'INFINIMENT PETIT

1. Les perspectives scientifiques : vertige et réalité

Francis JUTAND , Directeur du département des sciences et technologies de l'information et de la communication, CNRS

TABLE RONDE :

Modérateur : Augustin MARTINEZ , Directeur-adjoint, LAAS Toulouse

Intervenants : Jean-Claude LAPRIE , Directeur, LAAS Toulouse,

Christian JOACHIM , Directeur du groupe nanosciences et technologies, CEMES Toulouse,

Philippe MAGARSHACK , Directeur CAO, STMicroelectronics,

Jean-Yves MARZIN , Directeur, Laboratoire photonique et nanostructures, CNRS

2. De la découverte à l'application : la révolution du quotidien

Denis GRIOT , Vice-président, MOTOROLA

TABLE RONDE :

Modérateur : Daniel BOIS , Directeur scientifique, Centre de microélectronique de Provence, École des Mines de Saint-Étienne

Intervenants : Guy CARRÈRE , Directeur R&D, France Telecom ,

Guy LABRUNIE , Directeur général, CEA Valorisation

Dominique BOULLIER , Professeur en sciences de l'information et de la communication, UTC Compiègne,

François de CHARENTENAY , ancien Directeur de recherche, PSA

Francis LEPAGE , Directeur du centre de recherche en automatique, université de Nancy

B. EXPOSÉS-DÉBATS

La séance est ouverte à 9 h 30 par M. Claude Saunier , Sénateur des Côtes d'Armor.

M. Claude Saunier, sénateur - Mesdames, Messieurs, Madame la Ministre - je ne sais pas si vous souhaitez que ce soit Madame le ou la Ministre - de la recherche et des nouvelles technologies, je voulais tout d'abord vous remercier personnellement et très sincèrement pour votre présence. Je sais quelles sont vos obligations, mais votre présence, ici, est le signe à la fois de votre capacité d'écoute, que j'ai eu l'occasion d'apprécier à plusieurs reprises, et de votre volonté de marquer votre intérêt, pour le secteur de la microélectronique qui est notre passion commune, à vous Mesdames et Messieurs, un peu plus que moi qui arrive ici, totalement en amateur.

Je voulais remercier les présents à ce colloque. Ils viennent des quatre coins de France, des universités, des laboratoires, des entreprises. Ils ont pris sur leur temps professionnel le soin de distraire une journée pour échanger, et je crois que l'on peut considérer que cette journée va être l'occasion, pour les uns et pour les autres, de faire le point sur l'état de la science et d'ouvrir quelques perspectives également sur un secteur qui n'en manque pas.

Je voudrais remercier ceux et celles qui sont à l'origine de ce rapport et en particulier une organisation professionnelle, le SITELESC, Syndicat Interprofessionnel qui réunit l'ensemble des professionnels du secteur de la microélectronique et en particulier Monsieur FAURE, Président du SITELESC, qui est juste en face de nous et qui a interpellé l'Office parlementaire d'évaluation des choix scientifiques, il y a maintenant un peu plus d'un an, pour souhaiter que cet office s'empare du sujet et donne l'occasion, aux uns et aux autres, de faire le point sur la situation.

Je voudrais aussi remercier l'ensemble des membres du Comité de pilotage scientifique - je ne suis pas du tout scientifique, j'étais professeur d'histoire-géographie et j'ai découvert ce monde de la microélectronique - car ils m'ont appris beaucoup. Ce sont eux qui m'ont permis, je l'espère, de ne pas faire trop d'erreurs dans l'approche de ce secteur.

Je voudrais remercier aussi les 110 personnes qui ont accepté de prendre une heure, deux heures, une demi-journée, parfois plus, et qui au cours d'un an et demi environ d'enquêtes, de rencontres, nous ont accueillis, nous ont donné toutes les explications qui nous ont permis de mieux connaître ce secteur.

Le sujet du colloque, vous le savez, c'est : « Microélectronique et nanotechnologies : « une chance à saisir ».

Vous le voyez, Madame, notre état d'esprit aux uns et aux autres, ce n'est pas le défaitisme, ce n'est pas l'abandon, ce n'est pas l'alarme, c'est simplement la conscience qu'il existe une grande opportunité pour notre pays, pour l'Europe, que nous devons servir.

L'objectif de ce colloque, est, à la fois, non pas de reprendre le contenu du rapport, vous en savez, les uns et les autres, infiniment plus que moi sur la question, mais c'est l'occasion de donner un coup de projecteur devant l'opinion publique.

Dans mon propos liminaire, je me contenterai d'aborder trois points mais pour aller vers l'essentiel : quelles sont les idées que nous avons pu dégager au travers de ces auditions qui charpentent le rapport ?

D'abord je voudrais exprimer une idée générale, qui est une découverte pour quelqu'un qui n'est pas un spécialiste, mais qui me semble refléter l'état de l'opinion publique par rapport à la microélectronique et aux nanotechnologies.

Ce secteur est un secteur - et c'est tout son paradoxe - qui est déterminant, qui joue un rôle majeur dans notre économie, qui a été depuis trente ans le moteur ou l'un des moteurs du développement et de la croissance et qui n'est pas perçu à sa juste mesure, et dont l'opinion publique ne mesure pas clairement les enjeux.

La deuxième idée, c'est que si nous voyons bien - en faisant un petit effort de mémoire - ce que la microélectronique nous a apporté au cours des quelques décennies précédentes, dans notre vie quotidienne et surtout dans notre vie professionnelle, ce qui nous attend est infiniment plus fort, infiniment plus important que ce que nous avons connu et donc les perspectives offertes par ce secteur constituent une perspective véritablement révolutionnaire dans l'organisation de notre société et l'organisation des modes de production dans notre vie quotidienne.

C'est donc là un secteur qui est au coeur de la recherche et du développement économique et sociétal.

Trois constats dans le rapport :

1 - prendre la mesure de la révolution des puces, mais je crois l'avoir évoquée, de leur place dans l'économie, de leur effet levier fabuleux.

On a eu du mal à retrouver les chiffres, à les compiler, et les mettre en perspective, mais en fusionnant les sources, au niveau mondial, on peut considérer que ce secteur de la microélectronique avec tous les secteurs périphériques consolidés, regroupent sur un PIB mondial de l'ordre de 30.000 milliards de dollars, des activités qui pèsent environ 5.000 milliards de dollars.

Cela donne une idée de l'importance économique du secteur.

Je voudrais vous dire aussi que notre sentiment, sentiment qui n'est que le résultat d'une expression collective, c'est que cette industrie, qui est une industrie géante, est une industrie géante aux pieds d'argile.

Elle est fragile parce qu'elle est soumise à une concurrence mondiale qui est extrêmement brutale.

2 - la révolution économique que nous avons connue, repose sur une révolution scientifique et technologique majeure qui résulte elle-même de la conquête de l'infiniment petit.

Là nous retrouvons la fameuse loi de Moore, qui n'en est pas une, mais une sorte de prophétie qui continue à se réaliser, à notre surprise, parfois à notre émerveillement, et peut-être aussi parfois à notre effroi.

Aujourd'hui, il y a accord pour dire que la filière silicium, sur laquelle est fondé l'essentiel de notre technologie actuelle, va continuer à se développer et à respecter la loi de Moore en gros pendant dix à quinze ans.

Au-delà, on sait aussi qu'il existe d'autres réponses et d'autres perspectives.

3 - cette industrie se situe dans un environnement totalement mondialisé, à la fois au niveau de la recherche et au niveau de la production.

L'une des observations faites au cours de cette enquête, c'est que la France et l'Europe ne sont pas dans une situation marginale par rapport au paysage mondial mais qu'elles ont en face d'elles des Etats qui ont considéré qu'il y avait là un enjeu véritablement stratégique pour leur avenir et qui mobilisent des moyens qui n'ont rien à voir avec ce que nous mobilisons ici en France et aussi au niveau européen pour soutenir ce secteur stratégique.

C'est l'objet des quelques préconisations que j'ai formulées et que je vous ai adressées, Madame la Ministre, parce que je tenais à ce que vous en soyiez informée.

Elles n'ont pas pour prétention d'apporter des réponses à tout, simplement elles alertent sur deux ou trois points :

- comment améliorer l'efficacité globale du dispositif de la filière ?

- comment donner à la filière française le poids nécessaire pour prendre sa place dans l'environnement mondial ? Il n'y a que l'échelon européen, bien à l'évidence, qui le lui permettra.

- comment s'emparer aussi de ce qui est le moteur de cette filière, c'est-à-dire la connaissance et la promotion de l'intelligence ?

- dernier élément, qui n'est pas secondaire : comment prendre quelques dispositions d'ordre fiscal qui permettent à nos industriels d'avoir des armes à peu près égales par rapport à la concurrence internationale ?

Voilà, Madame, les quelques pistes du rapport et les quelques préconisations qui ont été approuvées par l'Office parlementaire, il y a deux jours.

Encore une fois, mes remerciements les plus sincères pour votre présence.

Je vous passe la parole pour ouvrir notre colloque.

Mme Claudie Haigneré - Merci beaucoup, Monsieur le Sénateur Saunier.

Mesdames et Messieurs les Sénateurs, Mesdames et Messieurs, il est vrai que ces propos introductifs montrent que l'initiative qui nous réunit aujourd'hui est de celles qui traduisent une vision, une vision importante pour un avenir proche et puis surtout un avenir un peu lointain qu'il faut que nous construisions ensemble.

Le simple titre de ce colloque, comme vous l'avez signalé, sonne réellement comme un défi : « Microélectronique, et nanotechnologies : une chance à saisir ».

Nous en sommes tous conscients et ma présence ici montre à quel point je vous accompagne sur cette réflexion.

Je suis donc tout à fait heureuse de pouvoir adresser mes remerciements au Sénateur Saunier, rapporteur de l'Office, qui a conçu et organisé cet événement, qui a beaucoup travaillé pour nous donner des éléments de réflexion et de progression.

C'est tout à fait notre conviction. Nous avions eu l'occasion d'en parler précédemment : microélectronique et nanotechnologies sont réellement cette chance à saisir.

Je crois que tous ensemble nous pouvons essayer de saisir cette chance et de nous orienter.

Il est vrai que depuis cinquante ans, les microtechnologies ont joué un rôle tout à fait capital dans le développement des technologies de l'information et de la communication, et une nouvelle ère s'ouvre aujourd'hui avec le franchissement des 100 nanomètres, qui symbolisent cette entrée de l'industrie du semi-conducteur dans le domaine des nanotechnologies.

A n'en pas douter, bien sûr, ce sera une source d'application nouvelle dans les secteurs de la santé - et je pense que c'est un thème sur lequel vous allez travailler beaucoup - dans le secteur du spatial, des matériaux, mais aussi - car ce sont des problématiques qui nous sont proches actuellement - dans le secteur de l'énergie, des transports et bien entendu de l'environnement.

C'est véritablement une révolution avec l'introduction de ces nano-objets dont on prend conscience mais dont on n'a peut-être pas encore effectivement imaginé tous les impacts.

Vous avez parlé de révolution, c'est un véritable saut technologique bien sûr, un saut quantique pourrait-on dire, avec ses propriétés quantiques de la matière, connues depuis maintenant de nombreuses années, depuis le début du siècle dernier mais qui deviennent maintenant des objets de recherche appliquée, et des objets de technologies naissantes.

Vous l'avez rappelé : les grands pays, comme les Etats-Unis, le Japon, ont pris pleinement conscience de cet enjeu, avec en particulier aux Etats-Unis, depuis 1999, le financement à un très haut niveau dans le cadre de « la national nanotechnology initiative », avec 700 millions de dollars pour l'année 2003, donc une prise de conscience et la mise en place de moyens tout à fait considérables.

C'est vrai, vous l'avez rappelé, c'est un enjeu bien sûr européen et l'Europe affiche tout à fait sa volonté de placer les nanotechnologies comme une priorité dans le cadre du 6 e PCRD en particulier, avec, vous le savez :

- un budget de 1,3 milliard d'euros sur le thème des nanotechnologies et des moyens de production nouveaux concernant les matériaux perfectionnés,

- et puis le financement aussi, sous le thème des technologies pour la société de l'information, le domaine de la micro et de la nanoélectronique, avec un budget, dans ce cadre européen, de 3,6 milliards d'euros.

Ce sont donc des moyens européens qui se mobilisent.

La France, quant à elle, était déjà très présente dans le domaine de la microélectronique et j'ai eu l'occasion de saluer, en arrivant, trop brièvement, quelques-uns des représentants qui ont déjà montré à quel point la France est présente, et brillamment : la recherche bien sûr, à travers le CEA-LETI, mais aussi l'industrie, via STMicroelectronics.

J'avais eu, à cette occasion, au tout début de mon arrivée dans mes fonctions, de pouvoir passer à Grenoble et d'avoir cette présentation tout à fait magistrale de notre positionnement dans ce domaine.

J'en avais été très impressionnée.

Je citerai bien sûr les industriels de la carte à puce et puis des PMI de haute technologie dans ce secteur, encore à Grenoble, et je pense à SOITEC par exemple.

La France se doit de renforcer ce pôle d'excellence en s'appuyant sur ces points forts bien sûr, pour mettre en place un plan, encore plus ambitieux, qui lui permet justement d'occuper en Europe toute la place qui est la sienne, et au-delà de l'Europe, d'occuper cette place dans le monde.

Au ministère délégué à la recherche, nous avons essayé, avec déjà beaucoup d'actions mises en place en 2003, de structurer, de lancer un nouveau programme national, « Nanosciences », avec un financement beaucoup plus significatif par rapport à ce que nous avions fait précédemment, de l'ordre de 12 millions d'euros, en associant les différents partenaires qui étaient déjà présents sur ces activités et en y associant de nouveaux partenaires : l'INSERM et la Délégation Générale à l'Armement.

Les thèmes retenus dans l'appel à projet de recherche amont concernent les objets individuels et composants élémentaires, l'information quantique, l'organisation et l'assemblage des nano-objets, ainsi que les architectures de circuits, les nanomatériaux, et les nanobiosciences.

Outre l'aide apportée par ces fonds aux actions structurantes dans le domaine des nanosciences et à la formation, point important sur lequel nous insistons beaucoup, une part de ce financement servira à la constitution de ces réseaux d'excellence et la préparation des projets intégrés pour pouvoir les porter avec toute leur ampleur au niveau européen.

Dans le cadre du partenariat entre recherche publique et industrie, dès 1999, le ministère en charge de la recherche et le ministère délégué à l'industrie ont constitué le réseau : « réseau micro et nanotechnologique », que vous connaissez tous, je pense, et qui soutient ces projets coopératifs entre les industriels et les laboratoires de recherche publique.

Depuis son lancement, 51 projets ont été labellisés avec un soutien total de 42 millions d'euros financés sur quatre ans par le ministère chargé de la recherche, le ministère délégué à l'industrie et l'ANVAR.

La moitié de ces projets, dans le cadre de ce réseau, concernent les nanostructures, les nanomatériaux, et la nanoélectronique.

Pendant l'année 2002, nous avons consacré du temps à l'élaboration d'un livre blanc destiné à préciser la délimitation du domaine industriel, scientifique, technique pour bien définir le positionnement de ce réseau, définir ses objectifs et sa stratégie, pour atteindre les objectifs ambitieux que nous partageons.

Vous l'avez signalé, Monsieur le sénateur, et c'est vrai que l'Office le sait, grâce à ces études approfondies que vous avez menées depuis quelques mois : une mission de scientifiques américains a analysé au début de 2002, en toute transparence, le potentiel des laboratoires européens dans les nanotechnologies, et en a conclu que l'écart entre l'Europe et les Etats-Unis se creusait au profit de ces derniers.

C'est un élément que vous avez tout à fait intégré et présenté dans vos conclusions. Cependant, j'ai quand même lu un article récent, en décembre 2002, dans « Institute of Physics Publishing » qui montre que la France est en première position des dépôts de brevets en nanotechnologies aux Etats-Unis. C'est quand même une bonne nouvelle que nous devons aussi intégrer !

Il est vrai qu'il y a quelques mois, lors de mon arrivée au ministère, j'ai demandé qu'un effort particulier soit porté sur la constitution de plates-formes technologiques au meilleur niveau, pour concevoir les procédés technologiques élémentaires du futur et mettre au point les filières d'assemblage autour d'un réseau de quatre grandes centrales technologiques qui puissent être compétitives au niveau mondial.

J'avais eu l'occasion, en octobre dernier, d'annoncer la mise en place de ce réseau compétitif, lors de l'inauguration du Salon international de l'innovation et de la prospective, et je suis heureuse aujourd'hui de pouvoir revenir plus en détail sur la constitution de ce réseau ambitieux qui vous concerne.

Ce réseau est organisé autour d'un nombre très limité de sites qui bénéficient de fortes capacités de recherches, le CEA, le CNRS, et les universités ; ceci afin de concentrer les efforts, et de faire bénéficier ces sites d'un équipement adéquat, tout en assurant des moyens convenables en fonctionnement et en personnel.

Les sites de Grenoble, de Lille, de Toulouse, de Paris-sud ont été choisis.

Grenoble, j'ai eu l'occasion d'y passer déjà. Je serai lundi à Lille, au CNRS et à l'IEMN, pour voir un petit peu l'organisation.

L'ensemble de ces quatre sites représentent un effectif proche d'un millier de personnes, des chercheurs, des ingénieurs, des techniciens, des administratifs, qui au-delà des équipements, équipements lourds, nécessaires à assurer la présence de la France sur la scène internationale, possèdent cette compétence, l'expertise sans laquelle bien entendu aucune avancée scientifique et technologique ne serait possible.

L'effort nécessaire que nous porterons vis-à-vis de cette mise en place peut être estimé sur trois ans à 100 millions d'euros.

Je crois que cette durée répond aux souhaits que vous avez formulés dans votre rapport, que les actions menées soient lisibles dans la durée.

Le ministère délégué à la recherche et aux nouvelles technologies a donc programmé pour 2003 le fonds de la recherche technologique, le FRT, géré par la direction de la technologie, avec un financement de 32 millions d'euros, avec cette prévision de 100 millions d'euros sur trois ans.

L'objectif est d'accroître les moyens des laboratoires français, ceux qui sont les mieux armés dans ce domaine, et de les encourager à travailler en réseau pour renforcer le positionnement de la France dans l'espace européen de la recherche.

Ces grandes centrales, c'est notre ambition, sont appelées à devenir un point d'attractivité du territoire national, en matière de micro et nanotechnologies au service de l'avancée des technologies, de l'économie nationale, et bien sûr de la formation.

A côté du réseau de ces quatre grandes centrales technologiques, il y a 8 centrales dites spécifiques qui viennent compléter ce dispositif : Grenoble, Lyon, Marseille, Montpellier, Limoges-Bordeaux, Rennes, Nancy-Strasbourg, et Besançon.

Ces centrales permettront également d'assurer une mission essentielle de formation en nanotechnologies en liaison avec le Centre national de formation en microélectronique.

Si on récapitule un petit peu ces diverses actions que je viens de vous présenter, les budgets consacrés sur 2003, on arrive à 50 millions d'euros pour notre ministère aux diverses étapes de la chaîne des nanotechnologies, sans compter les fonds des autres ministères et les fonds des organismes.

J'ajouterai aussi que le ministère délégué à l'industrie a des fonds spécifiques mis en place sur des programmes plus applicatifs, comme JESSI ou MEDEA par exemple.

Ce sont des éléments de structuration, de renforcement, de financement, qui sont accompagnés par des éléments développés par Mme Nicole FONTAINE et moi-même, dans le cadre d'une politique de l'innovation, avec un cadre fiscal, législatif, et administratif qui puisse permettre que ce désir d'attractivité soit effectivement mis en place par des mesures qui permettront de s'engager avec plus de facilité dans ces activités, par la création de statuts nouveaux, de la jeune entreprise innovante, tout ce dont vous avez entendu parler, de ce plan de l'innovation avec des mesures tout à fait concrètes qui sont en train d'être déclinées sur le plan législatif très rapidement au cours du premier semestre 2003.

Je crois que ce large dispositif doit donner à la France les moyens nécessaires pour faire face aux formidables enjeux dont vous avez rappelé les éléments qui s'offrent à nous, et que nous devons absolument relever dans ce contexte de grande concurrence mondiale.

Un élément concret pour essayer aussi de concentrer un petit peu la source d'informations dont vous pourriez avoir besoin, pour faciliter l'accès à ce dispositif : sur le site du ministère, très prochainement, sera mis en place un portail « nanomicro.net » qui devrait vous permettre d'accéder aux informations.

Voilà, Mesdames et Messieurs, voilà décrit à grands traits, parce que vous avez une longue journée de travail (et j'ai une longue journée de travail également) le dispositif des actions que nous souhaitons mettre en place.

Je crois qu'elle traduit tout à fait cette volonté d'accompagner votre excellence, votre expertise et vos visions d'avenir.

Je ne peux malheureusement pas rester avec vous pour entendre les réflexions que vous allez mener, qui seront très fructueuses mais bien évidemment beaucoup de personnes des services du cabinet sont ici, auprès de vous, pour écouter recommandations et analyses, au-delà du rapport tout à fait exemplaire qui nous a été remis.

Tout cela est d'une acuité tout à fait particulière pour nous tous. Je vais donc vous souhaiter une très fructueuse journée de travail. Je crois que ces interactions sont toujours très riches et je voudrais vous remercier pour cette volonté que vous affichez.

Je voudrais aussi en profiter, puisque nous sommes encore en janvier, pour vous présenter mes voeux, mes voeux personnels et mes voeux de réussite dans vos grands projets. Merci.

( Applaudissements )

M. Claude Saunier, sénateur - Merci, Madame, pour vos propos ; merci, Madame, pour vos annonces, merci, Madame, pour vos voeux. Recevez également les nôtres en cette circonstance.

Je sais qu'à cette heure vous devriez déjà être sur le perron de Matignon. Donc, faites attention, la police est là, elle veille au grain. En tout cas, nous essaierons de suivre votre conseil et de faire de cette journée, une journée fructueuse.

Nos débats ne sont pas l'occasion d'un simple échange. Ils seront enregistrés et constitueront le deuxième volet du rapport que vous recevrez dans quelques semaines.

Mme la Ministre - Merci.

M. Claude Saunier, sénateur - Merci encore.

Avant de passer la parole à Monsieur Francis JUTAND , directeur du département des sciences et technologies de l'information et de la communication au CNRS, merci d'avoir pris place à un restaurant qui vous offre un menu si copieux.

Nous avons été très ambitieux, n'est-ce pas, Monsieur Faure, dans cette affaire-là. Cela va nous contraindre à un respect strict des horaires avec trois grandes plages de réflexions et d'échanges.

La première sur la révolution de l'infiniment petit. La deuxième, sur les conditions de la réussite, et la troisième sur le volontarisme collectif.

Ces titres-là indiquent la philosophie qui nous anime. Je voudrais inviter les différents intervenants à faire preuve de la plus grande liberté d'expression, mais je crois qu'elle est la règle, à la fois pour les industriels et pour les universitaires, dont c'est une des prérogatives, pour qu'effectivement, au-delà du rapport qui se contente de poser quelques jalons, il y ait un véritable approfondissement de notre réflexion sur ces questions.

Il ne faut pas que ce colloque soit simplement un colloque un peu formel, mais qu'il nous permette de dire, ce soir, effectivement : « nous avons fait le point sur ce que nous croyons savoir sur la situation, et sur les perspectives, aussi bien dans le domaine technologique que dans le domaine économique ».

Merci, Monsieur Jutand. Je vous laisse la parole pour lancer le débat.

LA RÉVOLUTION DE L'INFINIMENT PETIT

1. Les perspectives scientifiques : vertige et réalité

M. Francis Jutand - Monsieur le Sénateur, Mesdames et Messieurs les Sénateurs, chers Collègues, Mesdames et Messieurs, j'ai accepté, avec grand plaisir, cette invitation d'ouvrir la partie plus scientifique sur le thème : « les perspectives scientifiques : vertige et réalité. »

Rêve et vertige, c'est comme cela que j'ai compris le titre, et je vais commencer en vous montrant ce qu'était le vertige des années 1980.

Le vertige des années 1980 était une surface de mémorisation à un micron carré, et dix ans plus tard cela a donné ce circuit avec un cheveu qui est positionné pour donner la dimension.

Ensuite, je vais vous parler du vertige du début des années 1990 qui était, avec la microscopie, la possibilité de commencer à toucher la matière, à toucher l'atome, à pouvoir commencer à mesurer des efforts de nature atomique, et à commencer à avoir une vision, une représentation des images de ces atomes, de ces molécules.

C'est important parce que lorsqu'on commence à pouvoir toucher, voir, mesurer, cela veut dire qu'on peut commencer à agir et effectivement à rentrer dans cette ère des nanotechnologies.

Pour aller très vite dans ce balayage, ce qui était aussi ce vertige de ces années 1990, et qui est maintenant une réalité, c'est toute cette chimie particulière du carbone, qui est d'abord extrêmement intéressante pour les chimistes et qui nous donne des matériaux du futur que l'on fait pousser d'un tas de façons, comme cette forêt de ces nanotubes.

On commence à savoir toucher, et agir à des dimensions nanométriques. Que va-t-on en faire ?

J'ai voulu situer d'abord cette descente qu'on est en train de faire vers les nanotechnologies - on en parlera tout à l'heure - avec une iconographie.

On a situé, sur ce transparent, les dimensions du vivant. Il y a toujours, quelque part - ce sera un élément de conclusion - une réflexion sur des organisations, des machines de traitement de l'information extrêmement performantes et vous avez, à gauche, les atomes et les molécules, l'ADN, des protéines et ensuite des organismes vivants comme sont les bactéries, et à droite une grosse cellule qui atteint des dimensions entre 10 et 100 microns pour les plus grosses.

Que va-t-on faire de tout cela ?

Il y a une première tentation, qui va être d'essayer de refaire, avec d'autres principes, des résistances commandables. Vous avez là, par exemple, une voie moléculaire. Comment faire des résistances, des interrupteurs ?

On peut aussi essayer de construire l'équivalent de transistors avec ces nanotubes.

On peut aussi, dans des visions un peu plus futuristes, commencer à voir comment des micromouvements peuvent s'opérer, en étudiant des molécules, des molécules de tissu cellulaire, etc.

On peut aussi essayer de faire des moteurs cellulaires, c'est l'illustration de droite, pour commencer à avoir des micromécanismes agissant à ces échelles moléculaires, à ces échelles nanométriques.

On peut aussi commencer à travailler sur les molécules. On a des illustrations un peu plus longues avec de l'animation qui montrent comment on sait, d'ores et déjà, immobiliser des molécules, y faire entrer un certain nombre de corps étrangers, donc les traiter de différentes façons, pour les canaliser.

On sait commencer à travailler sur ces microsystèmes au niveau des molécules elles-mêmes.

On peut également travailler à l'affichage avec le papier électronique, toujours à partir de ces nanotechnologies en développant tous les éléments très importants pour le développement de l'information, et des échanges d'informations avec les afficheurs, avec la possibilité, s'agissant du papier électronique, d'avoir de la très faible consommation et de la souplesse pour tous les interfaces.

On produit aujourd'hui 100 milliards de transistors dans le monde. Ce chiffre est naturellement approximatif.

On sait, d'ores et déjà, qu'on va faire beaucoup mieux. On a la capacité de multiplier ce nombre par 1.000 dans les 12 à 15 ans qui se présentent.

Ce sont des vertiges qui sont devenus des réalités. Tout cela s'appuie bien sûr sur la recherche scientifique dans ce domaine, mais essentiellement sur tout le développement technologique qui permet de traduire ces rêves en réalité.

Le mouvement de la technologie sera assez constant vers le toujours plus petit. La micromécanique a permis d'aller jusqu'au dixième de millimètre.

La microélectronique s'arrête là où commencent les nanotechnologies, c'est-à-dire au 1/10 e de micron, et la nanoélectronique devrait nous permettre de travailler des objectifs jusqu'au dixième de nanomètre.

Cela devient toujours plus complexe. Le nombre d'étapes dans les procédés technologiques s'accroît et se traduit en plusieurs centaines aujourd'hui - on parle même, à terme, de milliers d'étapes.

Le nombre d'éléments à assembler sur une puce, est évidemment toujours de plus en plus grand, ce qui pose des problèmes de complexité évidents.

Se pose aussi le problème des niveaux d'intégration parce qu'il faut sortir de ces dimensions nanotechnologiques. On assemble, dans un circuit, dans des boîtiers, des micro-boîtiers. On a donc toujours de plus en plus de complexité dans l'ensemble du processus qui va utiliser ces technologies pour faire des systèmes de traitement de l'information.

Il y a aussi la recherche du moins cher, qui est masquée ici : automatiser la production, automatiser le montage, automatiser le test, parce que les équations économiques sont toujours très fortes dans ce domaine.

Où en sommes-nous aujourd'hui ?

Comme Madame la ministre l'a dit, nous sommes entrés industriellement dans le nanomonde si on considère qu'il y a des offres industrielles de circuits dans des dimensions qui sont de l'ordre de 100 nanomètres, et s'ouvrent à nous deux voies de recherches qui sont en forte synergie :

- la première est celle qu'on pourrait appeler la voie de la « road map », en accord avec cette loi de Moore. Jusque-là, tous les acteurs continuent de se mettre d'accord pour la suivre, avec toute la tension, la pression et l'innovation que cela amène parce que les calendriers sont extrêmement tendus.

On parle de ce fameux « mur de briques » comme une illustration claire, du fait que l'on peut dire qu'à un horizon de 6 ou 7 ans les choix de technologie industrielle n'ont pas encore été faits. Il y a beaucoup d'inconnues, il y a beaucoup de recherches qui sont faites et on a une assez grande confiance dans le fait qu'on veut y arriver ou qu'on arrivera à faire de bons compromis.

Ce qui hélas ne se voit pas, ni à votre vue, ni sur mon écran, ce sont effectivement tous les paradigmes alternatifs - on va passer à l'oral - tous les paradigmes alternatifs de traitement de l'information qui sont en voie de maturation très forte et pour lesquels il va nous falloir dérouler un certain nombre d'opérations, mais je vais revenir dessus.

Si on regarde cette voie de la road map, il faut bien voir que l'on s'adosse à plus de 50 ans de progrès continu de technologie avec une filière technologique mère qui est de plus en plus volumineuse en connaissances accumulées, ce qui a permis de faire les premiers transistors intégrés. Puis, la microélectronique a permis ensuite à l'optoélectronique de se développer en s'appuyant sur ces technologies, ces machines, cette compréhension des semi-conducteurs et leur traitement.

Ensuite, on en a tiré des outils. Les Japonais ont commencé à bâtir des outils de visualisation. On a ensuite développé la filière des microsystèmes. On va dans le développement de l'optoélectronique vers des voies photoniques avec la nanophotonique. On rentre dans la nanoélectronique dont on parlait, et puis on ajoute la nanobiologie et, toujours en s'appuyant sur ces technologies-là, on va commencer à travailler les paradigmes alternatifs que sont le moléculaire et le quantique.

Tout cela se fait avec des road maps, comme je l'ai dit, extrêmement tendues.

Voici une sorte de road map générique avec une fréquence de trois ans. La profession est allée plus vite ces dernières années, en raccourcissant le cycle de Moore. Mais des régulateurs économiques vont probablement faire qu'on va peut-être revenir à cette loi de trois ans.

Ce qu'il est très important de souligner, c'est qu'entre les premières étapes où on essaie le dispositif qui ira aux alentours d'une dizaine de nanos, celles où l'on commence à en faire une étape d'un procédé technologique, la façon dont on va assembler le procédé technologique et la façon dont on va réaliser et produire des circuits réellement commercialisables, il peut se dérouler entre 9 et 12 ans.

Cette industrie est la seule qui a la chance de bénéficier d'une road map aussi longue, ce qui permet en fait de paralléliser les efforts et de tenir ce rythme puisque, d'ores et déjà, dans les laboratoires on a des gens qui travaillent sur les courbes violettes et vertes, et ensuite les relais sont pris par de grands laboratoires intégrateurs comme le LETI ou les industriels eux-mêmes pour faire ces dernières étapes, capitales pour la performance, que sont l'intégration des procédés et leur industrialisation.

Ici c'est un transparent pour lequel, s'il y avait des droits d'auteur, je pense que l'auteur aurait gagné beaucoup d'argent : c'est effectivement ce mur de briques que l'on constitue aux environs de 2007 et qui nous dit : tout ce qui est en rouge, ce sont des éléments pour lesquels on a peu de solutions, pour lesquels on n'est pas sûr des solutions, et on cherche et on fera les choix au dernier moment pour que cela devienne le meilleur choix possible !

Il faut bien voir que dans la micro, dans la façon de mener cette recherche, poussés par la technologie et des calendriers très serrés, on fait appel à énormément de sciences et on a une très grande motivation pour notre recherche fondamentale qui se confronte à des problèmes tout à fait essentiels.

On a donc là aussi une accélération des recherches dont vont bénéficier, j'en suis persuadé, tous les paradigmes alternatifs de la nanoélectronique et de la nanophotonique.

Quand on veut développer un nouveau paradigme, de quoi a-t-on besoin ?

Pour faire du traitement de l'information - parce que c'est notre sujet essentiel d'aujourd'hui - on a besoin d'une grandeur physique mesurable qui va porter l'information et d'un support à cette grandeur physique.

Cela peut être un électron. On a aussi besoin d'un opérateur de transformations, c'est-à-dire un opérateur qui va être capable de manier ces états pour faire du traitement de l'information. On a des molécules qui peuvent le faire, des transistors, un certain nombre de boîtes quantiques, un certain nombre d'approches pour faire des résistances commandables.

Ensuite il nous faut définir - pour avoir une filière technologique - toutes les fonctions élémentaires du traitement de l'information sans quoi une filière de traitement n'est pas harmonieuse.

Il faut être capable de générer, avoir des sources, il faut être capable de stocker, il faut être capable de faire de la mémoire, il faut être capable de transmettre, de communiquer l'information et il faut être capable de mélanger, c'est-à-dire de calculer !

Dans les trois ou quatre technologies alternatives qui vous sont présentées, on est dans cette phase-là.

Ensuite, il faut construire une véritable filière technologique. Pour cela, il faut travailler à des technologies d'assemblage. On peut avoir des dispositifs mais il faut pouvoir les assembler en très grand nombre : connexions, isolations, etc, empilement. Il faut être capable de définir des opérateurs de traitement qui vont utiliser au mieux cet effet et ce n'est pas toujours la recherche de la reproduction de l'ancien effet qui est la bonne façon de prendre les choses.

Ensuite, si on a des ruptures dans ces traitements, il faut travailler sur toute l'algorithmie de traitement, c'est le domaine du traitement de l'information, de l'informatique. Par exemple, pour être capables, à grande échelle, d'avoir à utiliser ces opérateurs et d'enchaîner les actions pour faire des traitements de grande complexité.

Et puis il faut également des architectures pour trouver les bonnes projections sur les supports technologiques. Et également mettre au point une équation économique.

Il ne faut évidemment pas comparer ce que l'on sait faire aujourd'hui et ce que dix ans, douze ans de travail vont nous permettre de faire sur ces filières alternatives.

Ceci était un transparent pour Madame la ministre et ses représentants en disant que derrière tout cela, il faut des moyens. Nos compétiteurs en mettent beaucoup. La France, je pense, a marqué une rupture cette année avec ce développement des grandes centrales technologiques, avec le développement soutenu par la direction de la technologie, avec ce grand programme sur les nanosciences soutenu par la direction de la recherche.

Donc, il y a beaucoup d'argent qui est effectivement injecté. Si on regarde au niveau européen, on commence à être dans les ordres de grandeur mais il ne faut pas oublier que derrière on a une partie cachée très importante : nos chercheurs, et qu'il faut trouver effectivement les équilibres entre les moyens et les ressources, les bras et les cerveaux, en l'occurrence, pour le faire !

Je m'achemine vers la conclusion en disant : quelle vision a-t-on, au CNRS ?

Il faut savoir que le CNRS a posé cinq priorités interdisciplinaires impliquant tous les départements : la physique, la chimie, les sciences du vivant, et puis bien entendu, les STIC, à savoir les sciences et technologies de l'information et de la communication, pour l'utilisation des nanotechnologies dans le traitement de l'information.

C'est une des priorités du CNRS. C'est aussi une de nos priorités de notre département des STIC.

Nous avons 4 grandes priorités :

- les nanotechnologies

- le pendant, qui est le domaine de la complexité, donc la maîtrise de tous les systèmes, matériels et logiciels, que l'on pourra faire avec cette puissance de traitement.

- enfin, les deux défis que constituent la compréhension des phénomènes cognitifs, et le développement de l'ergonomie et des usages, dans ces mondes virtuels que l'on crée.

Ce sont nos quatre grandes priorités. Les nanotechnologies mobilisent au moins un sixième des forces de ce département.

Sur ces bases, il nous faut poursuivre la voie vertueuse de la road map. Pourquoi je l'appelle la voie vertueuse ? Parce que c'est toute son équation économique qui nous permet, à la fois, de fournir des outils de traitement et des systèmes de traitement de plus en plus performants mais aussi qui fournit les équipements, l'instrumentation, le savoir-faire et les méthodes pour aller travailler sur des technologies de plus en plus fines.

C'est une voie vertueuse qu'il faut absolument poursuivre et en temps, il faut anticiper sur ces nano-objets, sur ces nanodispositifs et travailler avec eux pour savoir comment construire une filière alternative de traitement de l'information.

Ces études qui sont faites ont de l'intérêt en elles-mêmes et en même temps elles génèrent de nouveaux matériaux, de nouvelles réponses que l'on va aussi absorber dans cette voie de la road map.

Il y aura donc des contributions assez importantes à l'avancée et à la réalisation sur les voies de la road map, issues des recherches menées en physique-chimie sur les nanodispositifs.

Il faut travailler, comme je l'ai dit, cette maturation des autres paradigmes.

Deux questions peut-être... On va avancer sur la voie de la road map, il y aura beaucoup de difficultés, mais on va avancer.

Une première question scientifique : y aura-t-il une convergence, y aura-t-il des synergies entre les technologies du vivant et les technologies de l'artificiel ?

Nous sommes effectivement dans des ordres de grandeur, dans des dimensions qui commencent à être assez semblables et il n'est pas du tout sûr que la bonne voie, avec nos technologies, soit d'utiliser celle du vivant, mais il y a des paradigmes du traitement de l'information dans le vivant qui sont intéressants et qui nous posent question.

Ensuite, une deuxième question, qui est une question scientifique très forte - et je pense qu'il y aura des interventions lors des tables rondes là-dessus - : est-ce que l'on va réussir à maîtriser les comportements atomiques et subatomiques pour le traitement de l'information, auquel cas on aura encore une rupture très forte par rapport à un certain nombre d'autres paradigmes plus classiques du traitement de l'information qui travaillent plutôt au niveau moléculaire ou équivalent.

Je crois qu'il ne faut pas oublier deux choses également :

- on a des objets de plus en plus complexes et la vertu de la voie de la road map, c'est qu'effectivement, en aval, on sache utiliser les puces que l'on va faire avec des milliards de transistors.

Il ne faut pas oublier de travailler sur tous les outils de conception de systèmes et circuits très complexes, sinon, quelque part, notre rêve va s'arrêter.

- le dernier point c'est que, dans nos laboratoires, nos spécialistes du traitement de l'information réfléchissent aux alternatives pour faire du traitement de l'information autrement qu'on ne le fait aujourd'hui.

D'ores et déjà, c'est vrai pour le quantique mais il faut pousser sur d'autres recherches, il faut qu'on ait une vision du traitement de l'information utilisant notamment les paradigmes du vivant pour voir quelles sont les possibilités, avec des problèmes d'apprentissage d'évolution intéressante à ce niveau.

Conclusion de la conclusion - et c'est une métaphore que j'ai un peu adaptée - : la réalité d'aujourd'hui dépasse les vertiges d'hier. On peut être confiant par rapport à la question qui était présentée.

Deuxième aphorisme un peu bricolé : pour grimper haut, il faut des points d'appui.

Dans le domaine de la technologie, on peut bien entendu rêver mais il faut aussi imaginer. C'est comme quand on est face à une paroi, il faut imaginer la façon dont on va avoir des prises pour monter et avoir un peu de recul pour les voir, parce qu'il ne faut pas non plus se lancer dans des voies qui seront des culs-de-sac.

Dernière remarque : pour construire le futur, le meilleur des futurs, il faut explorer tous les avenirs, il faut explorer les avenirs qui ne seront pas le futur de maintenant, mais il faut les explorer à coup sûr, et donc explorer toutes les voies offertes par les paradigmes alternatifs pour construire un futur tel qu'on le souhaite.

Je vous remercie.

( Applaudissements )

M. Claude Saunier, sénateur - Merci, Monsieur Jutand, de ces propos qui nous introduisent vraiment dans le vif du débat.

Je reviens sur votre propos, qui est une confirmation de ce que nous avons senti au cours de la bonne centaine d'auditions de la dernière année.

Je retiens aussi de votre propos une perspective, quelque chose par rapport à quoi nous devons commencer à nous préparer intellectuellement, c'est la grande convergence du vivant et du physique. Dans combien de temps ? Je n'en sais rien, mais là, ce sera un peu une révolution, un peu terrifiante d'ailleurs au point de vue éthique.

Un point d'interrogation, Monsieur le Directeur, sur les crédits. Vous l'avez bien compris, mon état d'esprit n'est pas du tout d'ouvrir la moindre polémique sur les crédits engagés. J'ai quand même le sentiment qu'il existe un écart terrifiant entre les crédits publics engagés chez un certain nombre de nos partenaires et chez nous. Je confirme tout à fait d'ailleurs le chiffre qui a été donné par Madame la Ministre, il y a un instant. J'avais le chiffre de 40 millions, elle annonce 50 millions... il n'y a pas de raison de mettre ce chiffre en cause !

Un ordre de grandeur : à ma connaissance, et compte tenu de ce que nous avons appris sur les crédits allemands, et les politiques allemandes, c'est de l'ordre de 150 millions d'euros. Cela donne un ordre de grandeur.

Sur les Etats-Unis, d'après ce que l'on sait, et compte tenu de l'opacité qui caractérise en particulier les crédits de la DARPA, c'est de l'ordre de 2 milliards de dollars pour les seuls fonds fédéraux. Il y a encore de la marge.

Je cède la parole maintenant à Monsieur Augustin MARTINEZ , Directeur-adjoint du Laboratoire d'architecture et d'analyse des systèmes (LAAS) à Toulouse, qui va être l'animateur de la table ronde qui réunit :

- Monsieur Jean-Claude LAPRIE , Directeur du LAAS à Toulouse.

- Monsieur Christian JOACHIM , Directeur du groupe Nanosciences et technologies au CEMES de Toulouse.

- Monsieur Philippe MAGARSHACK , Directeur de CAO, à STMicroélectronics.

- et M. Jean-Yves MARZIN , Directeur au Laboratoire photononique et nanostructures au CNRS.

Messieurs, vous avez la parole.

M. Augustin Martinez - Merci, Monsieur Saunier.

Mon animation est vraiment simplifiée par l'introduction que vient de faire M. Francis Jutand.

En effet, il a posé deux points principaux :

1 - pour l'infiniment petit et son évolution, il faut regarder la loi de Moore ou bien il faut examiner les ruptures technologiques.

2 - quand on va vers l'infiniment petit, on augmente de plus en plus la complexité. Complexité des technologies, complexité des circuits, mais aussi complexité des systèmes.

A partir de ces pôles importants, je pense qu'on doit effectivement examiner l'évolution de la recherche, non plus au niveau du composant peut-être élémentaire, et il en faudra toujours, mais examiner la recherche au niveau plus général du système complexe.

A partir de là, on voit que cette recherche devient de plus en plus interdisciplinaire, car pour aller vers cette complexité, pour aller vers ces systèmes complexes, il faudra des physiciens bien évidemment pour étudier les différents matériaux. Si on peut penser que le silicium restera le matériau roi pour l'avenir, il n'empêche qu'il sera allié à d'autres matériaux et en même temps, ces matériaux devront avoir des structures différentes, ou peut-être ce qu'on appelle actuellement la nanostructuration des surfaces, et dont la physique est de plus en plus importante.

Cela fera appel à toutes les notions de chimie. Actuellement, les chimistes sont peut-être les plus novateurs pour la création de nouveaux objets. A côté des physiciens et des chimistes, les microélectroniciens sont au coeur de la problématique. Je ne les écarte pas parce que j'en suis !

Lorsqu'on a regardé les matériaux, qu'on a regardé les objets et les nouveaux procédés, il a aussi fallu regarder de quelle façon on concevait les systèmes. Et là, à nouveau, les concepteurs devront se poser d'autres questions et notamment dans les simulations, ils devront étudier comment, à côté des simulateurs globaux, on va utiliser de plus en plus des simulateurs excessivement fins, en physique !

Il y a donc tout cela, mais en même temps, il faudra examiner les couplages qui peuvent exister et les prendre en compte dès la conception du futur nanosystème.

Les concepteurs ont un rôle important et enfin, quand on crée un système il faut qu'on soit sûr qu'il fonctionne. Et plus vous êtes nanotechnologique, plus vous devrez regarder les défaillances qu'il peut y avoir, vous devez regarder la propagation des signaux, vous devez regarder comment le protéger !

Les représentants à cette table ronde appartiennent à toutes ces disciplines.

On va donc commencer par Monsieur Marzin . On va lui demander quel est son point de vue - puisqu'il est physicien - par rapport à l'évolution des matériaux.

M. Jean-Yves Marzin - Bonjour. Je suis Directeur du laboratoire de photonique et de nanostructures du CNRS, situé à Marcoussis, et qui est l'une des centrales de technologie que Madame la Ministre a évoquées dans son discours introductif.

Je suis aussi membre du Comité scientifique de l'action concertée nanosciences et nanotechnologies, lancée par le ministère de la recherche l'année dernière.

Je voudrais vous en dire un petit mot parce que l'analyse de ce qui a été fait dans le cadre de cette action concertée permet d'avoir une vision de la communauté scientifique au moins dans le monde académique, dans ce domaine important que constituent les nanosciences et les nanotechnologies.

Au passage, j'ai aussi essayé de réfléchir un petit peu à la raison pour laquelle ce domaine est aussi important pour la communauté des scientifiques et pourquoi maintenant ?

J'ai un certain nombre d'éléments de réponse qui ont été, au passage, aussi évoqués par Francis Jutand.

Les nanotechnologies, c'est ce domaine où, a priori , on étudie des systèmes dans une des dimensions qui est inférieure à la centaine de nanomètres.

Un premier élément de réponse nous est donné par le monde du vivant : on sait très bien qu'à chaque fois qu'on a gagné un ordre de grandeur dans nos moyens d'observation, cela a bouleversé notre vision du monde vivant et la compréhension que l'on pouvait en avoir.

La deuxième raison, au-delà de cela, c'est que lorsqu'on arrive dans le domaine de la centaine de nanomètres ou en-dessous, eh bien pratiquement tous les objets deviennent quantiques. Ils ne sont plus décrits par la physique classique du monde macroscopique, mais par la physique quantique.

C'est un plus par rapport à cette simple réduction de l'échelle d'observation.

Il y a une troisième raison qui me semble importante, et qui se traduit par la très forte interdisciplinarité de ce domaine, c'est que les objets à l'échelle nanométrique, les objets de la biologie, les objets que sont capables maintenant de fabriquer les chimistes, avec les macromolécules, et puis les objets que les physiciens sont capables de fabriquer, eux aussi, sont, pour nombre d'entre eux, tous dans cette échelle de dimension.

Il y a une raison un peu plus circonstancielle, qui est la convergence des deux grandes méthodes de fabrication des nano-objets :

- la méthode qui part du bas, qui assemble des atomes pour faire des macromolécules, disons des objets nanométriques chimiques.

- les méthodes qui sont celles de la microélectronique qui consistent, à partir d'objets macroscopiques, à réduire progressivement les dimensions.

Un autre point que j'aimerais mentionner : les nanosciences et les nanotechnologies sont un trépied. Un trépied qui part souvent de la curiosité des scientifiques qui veulent voir, manipuler, fabriquer les objets et comprendre les objets à des échelles de plus en plus petites, à l'échelle nanométrique.

Pour faire cela, ils ont besoin de nouveaux outils, et j'essaierai d'illustrer le fait que de nombreux outils ont été développés avec ce genre de démarche. Cela permet de fabriquer de nouveaux objets et puis, pour les comprendre, il faudra de nouveaux concepts !

Dans le meilleur des cas, cela se traduit aussi par des applications et par des ruptures technologiques. Je voudrais simplement dire que les ruptures technologiques, en général, n'arrivent pas là où on les attend. Il est donc très important de garder les trois pattes de ce trépied.

Quelques illustrations de ce propos : Francis Jutand a déjà montré un schéma de microscope à effet de tunnel - qui fonctionne sur un mécanisme purement quantique -. En fait, il a été réalisé par des physiciens qui ont reçu le prix Nobel pour cela en 1986, pour répondre à une question très simple : peut-on manipuler les atomes ?

Et puis, de cette question a émergé un outil, un outil fabuleux qui permet à la fois de voir les surfaces et de manipuler les atomes.

Les outils correspondent à des outils lourds... ce microscope tunnel, ultravide à haute température, eh bien il faut des choses très stables pour manipuler les atomes et en gros, il fait ma taille en hauteur. Cela a déclenché la genèse d'un grand nombre d'outils, de microscopie à pointe comme cela, pas seulement électronique, mais aussi optique, ce qui permet de voir par exemple ici les modes dans une fibre complexe, de microscopie à force atomique. Cela permet de voir de nouvelles choses, et par exemple, ici, la gravure d'un morceau de silicium.

Si on regarde cela dans un microscope électronique, c'est la petite photo qui est là, et on a l'impression que la surface est parfaite, mais quand on va regarder à une plus petite échelle, il en est tout autrement !

C'est un exemple mais il y en a beaucoup d'autres au-delà de la microélectronique. Je vais en prendre un deuxième peut-être, qui est celui de l'optoélectronique.

Dans l'encadré qui est ici, j'ai représenté une quantité qui est importante pour les lasers, les petits lasers solides que vous trouvez dans vos compact discs ou dans les pointeurs. C'est le courant qu'il faut faire passer dedans pour déclencher l'émission du laser.

Ce qu'on voit dans ce graphe, ce sont les meilleurs points au fur et à mesure du temps, depuis les années 1960, jusqu'aux années 2000.

On voit une évolution comme cela avec des ruptures. Ces ruptures, elles entraînent un facteur 10 dans ce courant, c'est très important, parce que cela veut dire fabriquer des lasers portables, des lasers qui sont intégrables en grande quantité pour des consommations de courant raisonnable. Toutes ces ruptures, en fait, ont été liées à l'utilisation de structures quantiques de dimensions de plus en plus petites, d'abord de type quantique, et de boîte quantique, et cela concerne les objets que l'on peut fabriquer avec des technologies de fabrication de semiconducteurs qui sont des objets nanométriques qui émettent de la lumière dans ces structures-là.

Une autre question simple, une autre problématique scientifique simple : comment se propage la lumière dans un milieu qui est structuré à l'échelle de sa longueur d'ondes ?

Question reformulée autrement pour un physicien : peut-on faire à la lumière ce qu'on fait avec un cristal dans lequel on a un réseau périodique d'ions qui le constituent, réseau qui modifie profondément la structure des électrons et la manière dont les électrons se promènent dans ce cristal ?

On peut faire des structures artificielles, des structures qui sont à l'échelle du nanomètre. La période de ce petit réseau ici est de l'ordre de 500 nanomètres environ. On peut fabriquer des matériaux artificiels comme ceux-là, où la lumière ne peut pas se propager, et du coup on peut faire des guides, etc.

C'était une question scientifique simple. Les applications potentielles de tout cela sont là aussi un peu vertigineuses. Cela permettra sans doute de faire des circuits intégrés optiques de dimensions cent fois plus petites par rapport à ce que l'on sait faire actuellement.

C'est une rupture technologique sans doute inattendue.

Je voudrais juste dire un mot de l'action concertée nanosciences et nanotechnologies pour finir : cette action concertée, on peut dire qu'elle est limitée en volume financier mais je crois qu'elle est extrêmement importante pour structurer la communauté scientifique dans le domaine des nanosciences et des nanotechnologies.

Elle a été mise en place conjointement par le ministère de la recherche, la CNRS, et le CEA, la direction des sciences et de la matière, en s'appuyant sur un comité de coordination.

En 2002, il y a eu un certain nombre de modes d'actions, ainsi que des appels à projet, avec les thèmes qui sont indiqués ici, sur les objets individuels, les circuits, les systèmes, l'information quantique, l'approche à partir du bas dont je parlais tout à l'heure, et puis les nanotechnologies d'interfaces avec le monde du vivant, les actions intégrées qui ont plutôt soutenu des projets avec les industriels, les actions amont de laboratoires universitaires nécessitant de plus gros moyens, et puis un soutien au réseau central de technologies.

Je voudrais juste vous montrer un état des lieux des réponses à ces appels d'offres. Si on regarde le nombre de laboratoires répartis dans ces différents thèmes, qui ont répondu à cet appel d'offres, on trouve 270 laboratoires au total. C'est un chiffre qui me laisse perplexe. Cela veut dire qu'il y a un grand nombre de laboratoires publics qui sont actifs dans ces champs.

On a retenu environ une quarantaine de projets sur les 125 qui avaient été soumis.

Un autre élément qui me paraît important, c'est la répartition géographique de tout ceci. Je suis sûr que les sénateurs présents dans la salle y seront sensibles. Là, nous avons la simple analyse des réponses par région. On constate effectivement qu'on a deux grandes régions assez dominantes dans ce secteur de la science, comme dans d'autres, qui sont l'Ile-de-France et Rhône-Alpes.

Mais la plupart des régions sont concernées. J'ai mis, ici, à côté, la couverture par des moyens de technologie. C'est quelque chose d'important que les chercheurs disposent des outils pour fabriquer ces nano-objets et de les étudier.

Vous avez les centrales de technologie dites du premier cercle, dont vous a parlé Mme la Ministre tout à l'heure, et puis les centrales spécifiques qu'elle a également évoquées qui couvrent assez correctement, je crois, le territoire national. C'est aussi, de ce point de vue-là, qu'il était important que le ministère de la recherche se préoccupe de la structuration.

Cela continuera en 2003. Pour ce qui est de l'action concertée, on a changé un petit peu les thèmes. Ici, on retrouve un certain nombre des thèmes qui ont été soutenus l'année dernière, auxquels on a rajouté un thème spécifique qui n'y figurait pas mais qui est pourtant très important, qui est celui des nanomatériaux, c'est-à-dire l'utilisation de la structuration des matériaux à l'échelle nanométrique pour changer leurs propriétés.

Voilà ce que je voulais vous dire.

M. Martinez - Merci.

Après avoir vu les objets, après avoir vu la physique qui sous-tend la réflexion sur les objets, il faut savoir que lorsqu'on conçoit un système, jusqu'à présent, il y avait des modèles, il y avait des simulateurs mais il y avait aussi des bibliothèques. Mais, lorsqu'on réduit les dimensions, et lorsqu'on complexifie, ces outils sont-ils toujours pertinents ?

J'aimerais que Monsieur Magarshack nous donne son point de vue quant à l'évolution des problèmes qui se posent en CAO (conception assistée par ordinateur).

M. Philippe Magarshack - Bonjour. Je suis chez STMicroelectronics, à Crolles, en charge des équipes qui mettent en place les moyens de conception de ces circuits intégrés.

Jusqu'à présent, on a beaucoup parlé - et M. Francis Jutand en particulier - des problèmes de physique qui permettaient d'intégrer beaucoup de composants élémentaires sur les mêmes puces.

On a moins parlé de ce qu'on allait faire avec ces centaines de millions de transistors que l'on sait intégrer sur ces puces. Finalement le problème se pose aussi. A chaque fois qu'on gagne une décade dans la complexité, il faut imaginer qu'on construit un niveau de hiérarchie supplémentaire dans la conception, que l'on construit une cuisine, de la cuisine on construit la maison, et de la maison on construit le village, du village on construit la ville. On en est au niveau du pays, et il faudra construire le continent et la planète.

A chaque fois, on imagine le niveau de complexité qu'il faut simplement pour utiliser tous ces instruments que sont les transistors pour réaliser des applications qui vont ensuite être utilisables dans la vie de tous les jours et j'en donnerai quelques exemples.

Tout d'abord, je voudrais simplement revenir à la fameuse loi de Moore qui a été longuement évoquée. On a effectivement franchi le seuil psychologique des nanotechnologies puisque les technologies qu'on est en train d'industrialiser ont une épaisseur de gravure de 90 nanomètres. C'est en particulier l'effort qui est fait en commun à Crolles où je travaille avec l'alliance ST-Philips et Motorola.

Juste pour donner un ordre de grandeur, on peut mettre 1,2 million de transistors dans un millimètre carré. Il y a 5 ans, 1,2 million de transistors, c'était la complexité d'une dizaine de processeurs Intel. Vous pouvez imaginer que vous avez une dizaine de processeurs Intel dans ce millimètre carré ! C'est un produit qui fait maintenant de façon routinière entre 50 et 100 mm². Que va-t-on pouvoir faire de toute cette fonctionnalité disponible ?

J'en profite pour rappeler un petit peu la difficulté dans laquelle on est, si on extrapole, je dirai linéairement, la fameuse road map. C'est un transparent qui est fourni par Intel. A chaque nouvelle génération du Pentium, la puissance est multipliée par un facteur 2 ou 3, et si on continue sur cette échelle, d'ici quelques années la puissance développée par votre ordinateur, votre PC, sera du même ordre que celle d'un réacteur nucléaire.

Evidemment il y a une absurdité quelque part. Il faut qu'on arrive à utiliser ces transistors différemment, à être plus intelligents dans l'utilisation de ces transistors.

Quelle est la manière dont on réfléchit, on produit des solutions chez ST-Philips ou chez Motorola ? On utilise ces transistors pour intégrer ensemble plusieurs domaines d'applications qui étaient à l'origine différents.

Dans cet exemple, on rassemble les technologies du traitement de l'image avec les technologies du traitement de la parole, de la transmission par téléphone sans fil, qui peuvent également être intégrées avec des ordinateurs, des note books ou des assistants personnels.

Ce qu'il faut comprendre, c'est que toutes ces applications potentiellement peuvent être réunies sur une seule et même puce à l'échelle du 90 nanomètre.

Il faut qu'on ait des moyens pour concevoir ces puces et pour bien entendu faire en sorte qu'elles fonctionnent et qu'on puisse en vendre à des millions et des millions d'exemplaires pour rentabiliser toutes les unités de production que l'on est en train de construire.

C'est ce qu'on appelle, dans notre jargon, le système sur puce, en anglais, « système sur puces » qui est au carrefour de beaucoup de tendances. Je pense qu'il est inutile de rappeler la road map due à la loi de Moore.

Il faut aussi mentionner une conséquence : c'est que ces centaines de millions de transistors font qu'individuellement un circuit va coûter quelques dizaines, quelques vingtaines d'euros à fabriquer, et cela doit être son prix final.

Donc, pour rentabiliser tous ces moyens de fabrication, il faut que le nombre de puces produites soit, dans les dizaines de millions ou dans les centaines de millions, ce qui veut dire des marchés grand public.

Les marchés grand public sont, malheureusement, soumis à des effets de mode, à des effets d'évolution rapide des tendances, ce qui veut dire que les fenêtres de marchés sont de plus en plus courtes.

En même temps, ces systèmes sont, à la fois, du matériel, des transistors et également du logiciel. C'est vraiment une tendance très forte. A titre d'exemple, on développe actuellement, pour les nouvelles puces que l'on sort, en traitement télévision numérique par exemple, 1 million de lignes de code logiciel par produit.

L'effort en ressources humaines, pour concevoir ces produits, est supérieur, pour le développement du logiciel, à ce qu'il est pour le développement du matériel et pour la conception et l'utilisation des transistors.

Enfin, et je terminerai peut-être par ce point, à chaque nouvelle étape technologique, des effets électriques et physiques qui étaient du second ordre, qui étaient ignorés dans la technologie précédente, deviennent prépondérants, ce qui rend la tâche de concevoir les mêmes transistors plus difficile.

En particulier, on pouvait ignorer le temps de transition, dans les connexions, entre transistors, il y a quelques années. Maintenant ce temps de connexion, entre transistors, est prépondérant et on peut, à la limite, quasiment ignorer le temps de commutation de ces transistors.

Cela remet donc en cause, de manière fondamentale, la manière de concevoir ces circuits.

Merci de votre attention.

M. Martinez - Merci.

On a fait des circuits, on voit maintenant la problématique, et on a dit « il faut regarder un petit peu ces systèmes complexes qui sont soumis à plusieurs agressions et donc ils peuvent être défaillants ».

Là, c'est souvent le domaine des informaticiens.

J'aimerais que Monsieur Laprie nous dise ce qu'il pense, compte tenu des dimensions, quelles sont là aussi les évolutions dans la mise en place des méthodes et des moyens pour prévenir un petit peu ces différentes attaques.

En même temps, je souhaiterais, s'il peut le faire en deux mots, dire le rôle que le CNRS joue dans la mise en place d'une recherche en informatique dans les nanosystèmes et, si ce n'est pas possible, je poserai la question à Monsieur Jutand.

M. Jean-Claude Laprie - Bonjour à toutes et à tous.

Indépendamment de la question que vient de me poser Augustin Martinez à brûle-pourpoint, j'avais l'intention de vous parler d'un autre sujet qui est commun finalement à toutes les relations sciences-technologies, vers des objets qui sont les nôtres.

En effet, on peut rêver, mais il faut que cela fonctionne et donc ne sont utilisés que les objets dont les taux de défaillance sont acceptables pour une utilisation sociale.

Dans le domaine qui est en discussion aujourd'hui, de la microélectronique, les causes de défaillance sont nombreuses, ont évolué et continuent à évoluer significativement au cours du temps.

Bien sûr vous me pardonnerez, pour les experts fins du domaine, le caractère schématique de la présentation. Je pense que nous en sommes tous réduits à cela compte tenu des contraintes temporelles.

Le premier point c'est que les défaillances physiques permanentes, pour schématiser, dues aux phénomènes d'usure, sont en baisse continuelle et ce n'est plus vraiment le problème actuel.

Par contre les défaillances physiques temporaires, en particulier les défauts résiduels de production dus à la miniaturisation et à l'augmentation de la complexité, augmentent.

L'orateur précédent a mentionné le problème des interconnexions. Le problème des interconnexions est clairement central là, à savoir que non seulement il est vrai qu'il y a des problèmes de temporisation, mais aussi des phénomènes extrêmement subtils, comme les courants qui se développent à la surface des interconnexions.

Il y a donc un écart très faible dans la reproductivité du processus de production, ce qui peut amener à des difficultés intermittentes de fonctionnement.

Autre chose qui est vraiment spécifique à la microélectronique : c'est l'action des radiations, c'est-à-dire les radiations dans lesquelles nous vivons fort bien, qui nous entourent, dans lesquelles nous baignons, et qui posent des problèmes à la microélectronique.

Dans les années 1970, on a découvert que les particules alpha qui sont présentes en quantité infinitésimale dans tous les matériaux, qui peuvent provenir de l'eau, qui est elle-même un véhicule de ces particules, conduisaient à des problèmes qui ont été bien sûr résolus depuis et encore plus intriguant, si je puis dire, à l'heure actuelle, nous sommes confrontés aux problèmes des neutrons qui viennent de l'espace lointain après décomposition des rayonnements probablement galactiques, dans les couches de l'atmosphère, ce qui fait qu'on récupère des neutrons et des psions, des psions ayant des durées de vie de l'ordre d'une vingtaine de picosecondes, et sont moins susceptibles d'être affectés, encore qu'il a été démontré que cela pouvait affecter des circuits intégrés.

Il est clair que la miniaturisation fait que l'ambiance dans laquelle nous vivons a une influence sur leur fonctionnement.

Enfin, et elles sont souvent oubliées, on a les erreurs de conception au sens logique du terme, c'est-à-dire l'équivalent des bugs du logiciel, qui affectent le matériel.

L'orateur précédent a aussi rappelé le nombre faramineux de transistors, de millions de transistors qui sont sur les puces ; à l'heure actuelle, dans les millions de logiciels dont nous nous servons tous les jours, il y a un nombre de bugs résiduels considérables et il y a aussi des bugs résiduels dans les circuits intégrés.

Ceci est une conséquence de l'augmentation de la complexité.

Avant de parler de : comment se protéger de cela, quelques transparents pour illustrer ce que je viens de dire.

La partie gauche montre l'accroissement considérable, plus de deux ordres de grandeur, dans les taux de défaillances permanentes pour les circuits SMOS et ceci, en l'espace d'une dizaine d'années. Cela aboutit donc à un accroissement considérable.

Intéressante mais pas toujours faite, la relation ou la corrélation très forte qu'il y a avec les rendements de fabrication, courbe de droite. Cette courbe de droite illustre les taux de défaillance pour les losanges et pour les carrés, les défauts par millions, donc le nombre de transistors qui sont déclarés non utilisables en rendement de fabrication.

Cela va de pair et donc tout cela s'améliore.

Illustration du mécanisme à partir de rayons cosmiques : on a une cascade qui va jusqu'au niveau de la terre. Une fois que les primaires ont disparu, par l'effet de cascade, après, au contraire, on a une très forte augmentation des particules. Ensuite tout cela est absorbé par toutes les couches de l'atmosphère, mais il en reste encore, au niveau de la mer, qui peuvent provoquer des basculements.

Le point commun à tous ces problèmes intermittents, c'est qu'ils affectent essentiellement l'information et qu' a priori , sauf si cela persiste, cela n'affecte pas durablement le matériel et donc, par conséquent, on peut, par des moyens de recouvrement, s'en protéger !

J'ai parlé des particules et des neutrons. Quel est le plus important des deux ? Cela dépend des technologies.

Sur cette planche, on voit que selon la technologie utilisée, ce sont les neutrons qui prennent la main, ou au contraire ce sont les particules alpha qui dominent. Par conséquent, il faut vivre avec les deux !

Enfin les erreurs de conception résiduelle. Cela figure sur les processeurs Intel. On voit que pour une série de gammes de processeurs, le nombre de fautes résiduelles - ce sont des données disponibles sur le site de Web Intel - se comptent par dizaines, par centaines, d'autant qu'elles sont appelées de façon politiquement correcte des « errata », et non pas des erreurs ou des fautes.

Plus le processeur est ancien, plus le rapport entre fautes annoncées et fautes encore présentes - puisqu'il y a des versions successives pour les corriger - est important. Sur les processeurs plus récents, il n'y a pas beaucoup de fautes qui ont été corrigées. Il est dit, dans les mises à jour, qui paraissent tous les trimestres, qu'il y a un certain nombre de fautes qui ne seront jamais corrigées. Il faut donc vivre avec !

Tout cela se propage, part du matériel, se propage dans le logiciel, va à l'utilisateur, provoque donc des défaillances du système et il importe donc de s'en protéger. On peut s'en protéger par une panoplie de moyens et de protections qui existent, depuis la technologie des procédés - et sur la partie droite, j'ai cité quelques exemples, « technologie du silicium sur isolant », etc - jusqu'à la conception fine des circuits.

On sait faire des bascules qui sont insensibles aux erreurs et puis après, il y a tout l'arsenal de la tolérance aux fautes avec les traitements d'erreurs fins que procure le codage sous toutes ses formes.

Là aussi, il y a une course poursuite. Par exemple les neutrons, les particules alpha provoquaient des erreurs sur 1 bit, alors que les neutrons provoquent des erreurs sur plusieurs bits, ce qui veut dire qu'il faut faire appel à des codes correcteurs d'erreurs qui sont beaucoup plus performants que ceux qu'on avait l'habitude d'utiliser !

Enfin vous avez aussi toutes les solutions architecturales. La plupart du temps, il faut les implanter au niveau des logiciels mais aussi au niveau des matériels, en particulier quand on parle de réplication, tout ce qui est traitement d'exception et puis lorsque la criticité le demande, eh bien la diversification, c'est-à-dire l'utilisation de systèmes différents, peut être mise en oeuvre.

Par exemple, lorsque vous prenez un avion, que ce soit un Airbus ou un Boeing, je suppose que vous ne regrettez pas que le système de contrôle de vol soit basé sur ce principe de diversification, soit matérielle, soit logicielle, soit les deux !

Une observation par rapport aux rêves et aux vertiges qui nous ont été présentés par les deux premiers orateurs : comment tout cela va-t-il se comporter vis-à-vis des nanotechnologies ? Pour l'instant, on nous a parlé de fonctionnalités mais il y a aussi tout l'aspect protection contre les défaillances qui interviennent.

Au niveau des mécanismes fins, je pense que c'est un champ encore ouvert. Par contre, c'est un gisement fantastique au point de vue des solutions architecturales. En particulier compte tenu du nombre d'éléments, il n'y aura pas besoin qu'ils soient tous fonctionnels et donc, il va y avoir une redondance naturelle énorme qui permettra peut-être de mettre en oeuvre tous les rêves que nous pouvons faire sur l'auto-organisation des systèmes pour permettre de fonctionner de façon satisfaisante.

Merci.

Je me garderai bien de répondre à l'autre question qui, je pense, ne devait pas m'être destinée.

M. Martinez - Elle n'était effectivement pas prévue.

Je voulais passer la parole à Monsieur Joachim , pour que lui, effectivement, nous fasse rêver.

Pour lui, une molécule, ce peut être un composant ou un système extrêmement complexe.

Voilà jusqu'où il a poussé les lois de la physique, et est-ce qu'il n'est pas maintenant aux limites de la thermodynamique?

M. Christian Joachim - Merci, Augustin.

Bonjour. Je suis Directeur de recherches au CNRS dans un laboratoire qui s'appelle le CEMES. Je suis responsable d'un groupe qui s'appelle « nanosciences et picotechnologies » pour faire mode !

Je vais essayer, rapidement, de traiter la question d'Augustin d'une autre manière.

Ce qui nous intéresse à Toulouse, et qui intéresse d'autres laboratoires en Europe, avec lesquels on travaille ardemment, c'est de répondre à une question très simple : quel est le nombre minimal d'atomes dont on a besoin pour faire une machine !

Ce n'est pas vraiment, je dirai, dans la perspective de produire demain ou après-demain, un gros ordinateur avec une seule molécule, mais c'est en fait pour pouvoir éclairer et explorer !

Au point de vue financier, cela peut être tout à fait intéressant d'avoir une road map et différentes road maps, autres que la loi de Moore.

Un exemple tout bête : si vous voulez faire une brouette ou une charrette à bras, une seule molécule peut-elle remplir cette fonction ? C'est un exemple concret puisque cette molécule existe. Elle est en train d'être finalisée à Toulouse et va être envoyée par Airbus à Berlin.

Vous avez ici, sur cette molécule, deux roues avant, deux pieds arrière et on essaie de comprendre la physique et la mécanique à cette échelle-là. Vous voyez effectivement que les éléments les plus simples des systèmes sont, par exemple, une roue qui fait ici 0,6 nanomètre de diamètre.

C'est un exemple de machine mécanique. On pourrait aussi rêver de faire un ampère dans une molécule, etc. On pourrait essayer tout type de machine à l'échelle d'une seule molécule.

Ce qui nous intéresse ici, c'est plutôt la microélectronique et la suite de la microélectronique.

On a trois zones d'exploration actuellement.

Là vous avez les circuits traditionnels. Ici, vous avez des circuits où chaque composant serait remplacé par une molécule. On peut aussi essayer de faire tout le circuit, c'est-à-dire les interconnexions et les molécules à l'intérieur d'une seule molécule, et on peut aussi essayer de supprimer cette typologie qui date finalement des années 1840, avec un circuit élémentaire, pour perdre un peu cela, et bénéficier au maximum du comportement quantique d'une molécule.

Il y a donc ces trois éléments qui sont explorés. On en connaît un peu plus maintenant sur cette voie-là, c'est-à-dire sur les avantages et les désavantages.

Avantages : les composants sont effectivement très petits. L'énergie de dissipation est très faible dans une seule molécule, on l'a mesurée récemment !

Désavantage : par rapport à l'intégration, vous pouvez voir qu'entre chaque composant, il y a un petit fil, et ce petit fil métallique, on ne peut pas le réduire en dimension jusqu'à la dimension d'une molécule puisqu'on a besoin, si on veut faire des circuits de ce type-là, de mettre en oeuvre des lois standards de conception des circuits.

On a besoin d'une petite distance entre les deux et cela ne permettra pas, sur ce type d'électronique, qu'on appelle hybride maintenant, de descendre en taille complètement.

On a ici, en effet, une réserve. De plus, ces composants ont un autre problème, c'est qu'ils n'ont pas trop de gains et comme ils n'ont pas trop de gains, si on commence à les mettre en cascade la bande passante devient catastrophique.

Or, on sait très bien qu'à l'intérieur d'une seule et même molécule, sans en sortir, il y a plein de comportements quantiques qui sont très rapides à l'intérieur de la molécule.

La question est de savoir si ces comportements quantiques, on va pouvoir les utiliser dans une structure classique, ou dans une structure complètement quantique ! Le débat, en ce moment, se situe entre ces deux zones-là : faut-il aller complètement ici, rester ici, ou marier les deux ?

Pour vous montrer un exemple d'énergie de dissipation qui concerne plutôt ce domaine, voici une courbe. Vous avez en abscisse les années, et en ordonnée, les énergies consommées par un commutateur élémentaire.

Vous avez un petit composant d'Intel qui descend ici, et la loi de la thermodynamique nous montre que l'énergie minimale dissipée est ici. Et avec des molécules de transistors C60 - et plus récemment, on a mesuré cela avec un switch avec un seul pied, sur une seule molécule - on descend à 5 ordres de grandeur en dessous du meilleur transistor actuel en production.

Si vous faites le calcul, 10 9 molécules, comme cela, avec un terahertz de bande passante, et 10 - 8 picojoules, vous obtenez un watt.

Il y a donc de la réserve au niveau moléculaire pour le petit composant moléculaire élémentaire. Le problème n'est pas là, le problème se pose en fait du côté de l'architecture ; pour compenser les bandes passantes catastrophiques de ces systèmes-là, on est obligé de faire des architectures un peu compliquées.

Là, vous avez une architecture que nous avons testée, en utilisant des caractéristiques exactes et expérimentales des composants moléculaires que nous avons injectées dans un simulateur space, qui est un haut standard, et on a fait tourner jusqu'à obtenir un processeur, et on a observé pour voir si cela fonctionnait ou pas !

Cela fonctionne, il y a beaucoup de défauts. En fait, là, il faut 4 fois plus de transistors que pour une technologie non moléculaire, et pour la bande passante, on n'arrive pas à dépasser les 10 MHz.

Enfin, pour montrer qu'on travaille maintenant beaucoup sur la partie monomoléculaire, voici une molécule compliquée. Celle-ci ne fonctionnera pas du tout comme les auteurs du dessin l'ont proposé. Mais on commence maintenant à avoir, à notre disposition, dans les laboratoires, des logiciels de simulation de circuits moléculaires, qui tournent pour complètement évaluer ce genre de nouvelle architecture.

On voit par exemple que la loi des noeuds, des mailles standards, que tout le monde connaît, n'est plus valable à l'intérieur d'une seule molécule, et qu'il faut donc passer à autre chose. Cette autre chose, c'est l'exploration entre le mode quantique et le mode classique.

M. Martinez - On peut peut-être prendre cinq minutes s'il y a des questions dans la salle à poser aux orateurs ?

M. Claude Saunier, sénateur - Des réactions ou des contestations ? Des rêves qui se convertissent en cauchemars ?

Est-ce qu'on peut dire que la science nous ouvre des perspectives, Messieurs, pour rester simple ? On va revenir encore plus vers la terre. Est-ce que les perspectives scientifiques que vous venez d'esquisser vont se traduire par des concrétisations dans notre vie quotidienne, parce qu'il faut redescendre sur terre ?

Merci, Monsieur Martinez.

2. De la découverte à l'application : la révolution du quotidien

Nous allons passer à la deuxième table ronde, avec un changement d'acteurs.

Monsieur GRIOT , vous, vous lancez la grande fresque, et ensuite M. Daniel BOIS, Directeur scientifique à l'école des Mines de Gardanne, va être l'animateur du groupe.

Les intervenants seront :

- M.Guy CARRÈRE , directeur à France Télécom.

- M. Guy LABRUNIE , directeur au CEA.

- M. Dominique BOULLIER , professeur en sciences de l'information et de la communication à l'UTC de Compiègne.

- M. François de CHARENTENAY , qui est ancien directeur de recherche chez PSA.

- M. Francis LEPAGE , du CRA de Nancy.

Messieurs, vous pouvez prendre place.

M. Denis Griot, vice-président, MOTOROLA - Monsieur le Sénateur, Mesdames, Messieurs, merci de nous donner la possibilité de passer de la recherche, des possibilités de la technologie pour aller voir ce qui se passe du côté des applications, en particulier des applications du quotidien, comme vous le disiez, Monsieur le Sénateur.

Qu'il soit question d'informatique, ou de télécommunications 3G, tout le monde, en fait, recherche l'application miracle - les américains disent la « killing application » - c'est-à-dire celle qui va pouvoir porter la croissance dans notre industrie, comme en son temps l'ont été le PC, ou le téléphone portable.

J'aimerais, d'abord, partager avec vous une analyse des tendances je dirai lourdes, à long terme, qui se passent du côté des applications, du côté du marché.

A la fin des années 1990, on a vu des modèles économiques évoluer, ce qu'on appelle la « nouvelle économie » qui, en fait, pousse à la valorisation de la technologie.

Vous voyez, le pendule est montré très haut de ce côté-là. L'impression que nous avons, c'est que le pendule revient. Le pendule revient du côté du concret, des applications, du court terme et l'équilibre s'établit entre d'un côté la poussée de ces innovations technologiques, qui ouvrent définitivement des portes, et aussi de l'autre côté, l'appel qui provient des besoins réels des applications qui vont satisfaire ces besoins. J'ai donc placé le pendule au milieu, en équilibre en quelque sorte. J'aimerais, avec vous, revenir un petit peu en arrière pour regarder le problème du temps qui s'écoule entre une innovation et son utilisation à grande échelle.

Sur ce diagramme, ici, on montre des exemples historiques. En fait, il s'agit du siècle dernier, voire du 19ème siècle, mais voyez qu'il a fallu peut-être en fait entre 50 et 100 ans pour passer d'une découverte comme la pile de Volta, à l'utilisation domestique de la lampe à incandescence. Cela représente plus de 80 ans de toute façon. Il a fallu encore 30 ans, au siècle dernier, pour passer de l'invention de la radio à son utilisation domestique généralisée.

Si vous prenez la même transition pour des technologies beaucoup plus récentes comme l'Internet ou le téléphone portable, voyez que les durées sont considérablement réduites puisque là, on parle de 5 à 10 ans.

Dans l'entreprise à laquelle j'appartiens, il y a des exemples qui prouvent aussi que de grandes inventions, de grandes innovations sont capables, presque en elles-mêmes, de créer des marchés.

Si on prend ici des exemples qui nous sont chers - et Motorola est née de l'invention de l'autoradio en fait - vous voyez que l'autoradio s'est développé de lui-même. Il n'y a pas eu d'immenses efforts de marketing. Les talkies-walkies se sont développés comme des instruments de communication radio, pratiquement sans effort marketing. Le téléphone cellulaire, dont nous avons évidemment beaucoup de brevets de base, a aussi été capable d'exploser de lui-même !

Il est d'autres inventions, d'autres technologies avec lesquelles nous avons été impliqués, qui n'ont pas percé le marché. Prenez l'exemple d'Iridium, téléphone satellitaire, qui n'a pas réussi à percer !

J'aimerais regarder avec vous, mais de façon très rapide, vu les contraintes de temps, quels sont les facteurs-clés qui nous permettent de raccourcir - excusez l'anglicisme - ce « time to volume ».

Si on part ici du côté droit de ce transparent, du besoin de l'utilisateur, en termes de fonctionnalités nouvelles, coût, qualité, comme le disait M. Laprie, fiabilité, et flexibilité, et que l'on remonte vers les fournisseurs de services et les fournisseurs de systèmes, le point-clé, et le point-clé quand on parle des modèles économiques, évoqués tout à l'heure, c'est la rapidité ou la contraction du délai, qui va s'écouler entre la mise au point de la technologie, et sa production en grand volume. C'est cela, le facteur clé de réussite d'un modèle industriel, d'un modèle de nouvelle technologie.

Remontons spécifiquement sur la microélectronique et regardons le rôle d'accélérateur qu'a joué la microélectronique pour les systèmes électroniques.

Là, vous avez un transparent qui remonte sur une trentaine, voire une quarantaine d'années. Comme vous le savez tous, la microélectronique a vraiment pénétré - c'est ce qu'on appelle la première vague - dans les grands systèmes informatiques.

Puis, le PC a repris un formidable relais de croissance. Dans les dix dernières années, on a assisté à l'essoufflement du PC, et à l'émergence des communications de réseau, de la téléphonie mobile et du multimédia qui, elles, ont déclenché une nouvelle explosion.

Là aussi, vous allez voir des vagues mais dans un domaine qui est moins connu, mes collègues de la table ronde vont y revenir, qui est celui de l'automobile, qui m'est très cher. Cela montre qu'une industrie, comme l'industrie automobile européenne, a su exploiter la potentialité de la microélectronique non seulement pour survivre mais aussi pour se développer.

Aujourd'hui, et mon collègue de PSA peut me contredire, 90 % ou plus des nouvelles fonctionnalités dans l'automobile sont directement ou indirectement créées par la microélectronique.

La microélectronique, ici, en Europe, a permis à beaucoup de constructeurs de prendre un leadership mondial. On y reviendra après, je ne vais pas entrer dans ces détails, mais voyez, la pénétration des semi-conducteurs, depuis le contrôle moteur jusqu'à bien sûr la télématique, représente ce qu'on appelle la cinquième vague, qui est la vague de mécatronique, c'est-à-dire le mélange intime de l'électronique et de la mécanique pour des fonctions qui n'existent pas aujourd'hui mais qui sont déjà en développement comme le pilotage, le freinage à fil, etc.

Ce sont des systèmes qui vont permettre un niveau de sécurisation, au niveau de la voiture, bien supérieur à ce que l'on connaît aujourd'hui.

Si vous me permettez, l'exemple phare est celui de la téléphonie mobile pour la microélectronique. Je veux parler des téléphones cellulaires qui, dans leur première génération, ne disposaient que de la voix, qui maintenant bien sûr, se sont enrichis de nouvelles fonctionnalités, le texte, le SMS, des possibilités effectivement ouvertes par les écrans couleur et bien entendu la transmission des données et de l'image, mais ceci n'est qu'un début. La troisième génération va permettre d'accéder à un plus grand nombre de services : bien sûr les téléchargements de programmes vidéo et audio, l'e-mail, etc. Ce développement, aujourd'hui, il ne se construit plus en Europe, je dirai même qu'il se construit hors de l'Europe.

Si vous regardez les courbes qui sont à gauche, et que vous suivez ici, sur quelques années - il s'agit d'une huitaine d'années - l'évolution de l'utilisation des semi-conducteurs, c'est-à-dire de la vente de semi-conducteurs, chez l'équipementier, au niveau de l'utilisateur, vous voyez qu'on divise le monde en 4 grandes régions, l'Asie étant la courbe verte.

Voyez que depuis deux ans maintenant, l'envol de l'Asie est absolument irréfutable, irrémédiable. L'Asie, à elle seule, dépasse toutes les autres régions, comme l'Amérique du Nord, l'Europe et le Japon, de manière absolument massive et prend la tête de cette compétition mondiale.

Quoi faire ?

L'une des solutions que nous avons proposées, qui est aujourd'hui offerte à nos clients, ici en Europe en particulier, c'est d'offrir, pour justement saisir ce défi du « time to volume », non seulement du silicium, c'est-à-dire des puces, mais aussi d'offrir des solutions logicielles, des démonstrateurs, c'est-à-dire des téléphones sur circuits imprimés ou sur maquettes, qui ont les fonctionnalités de base et à partir desquels le client, fabricant de téléphone européen, si je prends un exemple, ici, en France, Alcatel ou Sagem, vont pouvoir, dans un délai très court, beaucoup plus court que les temps de développement habituels, et à un coût réduit, compléter leur gamme.

Ils vont par exemple amener, sur le marché, un téléphone de type GPRS en six mois, de la décision à la production en volume.

C'est ce qu'on appelle une offre plate-forme. Ceci leur permet de réaliser des téléphones de milieu ou de bas de gamme sans avoir recours aux sous-traitants, comme vous l'avez vu, qui se développent à grande allure à Taïwan mais aussi en Chine maintenant.

Voilà une réponse que j'aimerais partager avec vous.

Ceci est un exemple qui s'appelle ID 150, pour la génération 2,5 G. Mais de la même façon, pour les téléphones 3G, une offre plate-forme est offerte aux fabricants de téléphone, ce qui leur permet de passer à un produit final à moindre coût, sans faire ces investissements énormes de développement. Au-delà du 3G, bien sûr, car il ne faut pas s'arrêter là.

Vous avez ici un exemple de démonstration, de transmission et de réception 4G, technologie qui, comme vous le savez, permettra des débits de plusieurs centaines de mégabits/seconde, démonstration faite entre notre siège à Chicago et notre laboratoire de recherche telecoms, sur le plateau de Saclay, tout près d'ici.

Francis Jutand et mes prédécesseurs ont parlé de road map et de l'accélération technologique de la road map. Cette accélération se fait vraiment au quotidien, si je puis dire, puisque - et je suis désolé d'avoir empilé des images là-dessus - pour vous donner un exemple et un point sur cette road map : en 1994-1995, on prévoyait le 130 nanomètres en production pour 2004. Nous sommes en production depuis plus d'un an sur ce 130 nanomètres. Cette accélération est donc bien réelle ! L'accélération a lieu au niveau de l'arrivée de ces nouvelles plates-formes, de ces nouvelles technologies, et ce de plus en plus rapidement.

L'accélération est aussi vraie au niveau des coûts de développement et des investissements pour fabriquer ces plates-formes technologiques.

C'est la raison pour laquelle, en ce qui concerne notre société, nous avons choisi la France pour développer nos technologies nanométriques, si je puis dire, et de le faire en collaboration avec nos partenaires.

Deux raisons à cela : il faut trouver ici deux partenaires stratégiques, STMicroélectronics et Philips, avec lesquels nous partageons totalement la vision, la stratégie des technologies CMOS.

Ce partenariat est donc totalement focalisé sur les technologies CMOS.

Ensuite, nous avons trouvé, en France, le meilleur tissu de centres de recherches appliquées et de laboratoires d'intégration, dont le CEA-LETI, il faut le dire, est la pièce maîtresse pour notre Centre de Crolles.

L'alliance de Crolles n'a pas d'autre objectif que de relever le défi asiatique. Monsieur le Sénateur vous parlait du défi mondial ce matin. Relever le défi asiatique, c'est être le premier à briser le mur de 2007, et devenir effectivement, dans les technologies CMOS, particulièrement dédiées aux systèmes monopuces mentionnés par Philippe Magarshack, le leader mondial dans ce domaine.

Avant de terminer, je voudrais vous parler d'un sujet qui me passionne et pour lequel il faut aussi qu'on réagisse en tant que Français et Européens. C'est ce que j'appelle la désagrégation de la chaîne de la valeur.

Vous savez que ces dernières années, les fabricants de semi-conducteurs prenaient tout en charge, des opérations de conception jusqu'à la livraison du circuit intégré à l'équipementier. L'équipementier, lui, allait de la puce jusqu'au client final ; le client final pouvait, dans certains cas, être un fabricant d'équipements, comme un fabricant automobile.

C'est donc une maîtrise totale de tous les maillons de la chaîne et un contrôle de ce processus à travers tous les maillons. En fait, dans les 5 à 7 dernières années, cette chaîne s'est désintégrée du fait que de nombreux acteurs ont réussi à extraire de la valeur à partir d'un seul maillon, un maillon ou une activité qu'ils ont parfaitement maîtrisés.

C'est, comme on dit, un nouveau business model. Ils ont créé une force industrielle. L'exemple clé, ce sont les Fonderies taïwanaises qui ont trouvé la maîtrise de la fabrication pour un certain nombre de technologies.

Ceci pose des problèmes.

Par exemple, sur la partie haute de ce transparent, vous avez le nombre d'acteurs avec lequel le client final doit jouer, pour mettre ses solutions sur le marché.

Ce qui est apparu en parallèle, c'est la nécessité de standardiser chaque maillon de la chaîne, standardisation qui touche les architectures de corps de microprocesseurs par exemple, les processus de fabrication mentionnés tout à l'heure, mais aussi la logistique et les logiciels d'exploitation.

Je vais résumer mon propos : très clairement, notre industrie, pour se développer en France et en Europe, et prendre la position qu'elle mérite, doit continuer l'effort de recherche et de développement.

Nous apprécions en particulier, en France, le soutien public significatif dans ce domaine.

Les initiatives de standardisation, les mesures incitatives appropriées pour le développement sont importantes. Je veux parler, en fait, des marchés télécoms. L'Europe est vraiment la terre du GSM, elle doit devenir la terre de l'UMTS et du 4G. On ne peut pas laisser les autres régions du monde prendre le leadership là-dessus !

Je ne pourrai pas terminer sans souligner le rôle de la microélectronique comme source - cela a été mentionné ce matin - de sécurité, de santé, de confort, de protection de l'environnement, mais aussi, nous le croyons au moins, un moyen possible pour rendre notre société plus ouverte et plus solidaire.

J'en ai terminé, merci beaucoup.

( Applaudissements )

M. Claude Saunier, sénateur - Monsieur Daniel BOIS est directeur scientifique au centre de microélectronique de Provence, en cours d'installation à Gardanne.

Il va animer le débat.

M. Daniel Bois - Quelques mots pour introduire le débat - Nous n'aurons pas de transparents, on en a décidé ainsi pour cette table ronde - autour de ce thème qui a été intitulé « de la découverte à l'application ».

En fait, on devrait beaucoup plus dire « de la découverte aux applications », tant il est vrai que si la technologie progresse d'une manière linéaire avec cette road map, dont on a entendu parler, les applications progressent d'une manière extrêmement foisonnante.

Cela rend la présentation et la discussion, autour de ces applications, et je dirai également les actions de soutien aux applications, beaucoup plus difficiles.

Il faut bien voir que ce foisonnement est une source de richesses fantastiques pour le progrès de la microélectronique et Denis Griot l'a très bien illustré puisqu'il y a, grâce à ce foisonnement, en permanence, création de nouvelles chaînes de valeur qui prennent leurs racines dans le silicium et, plus exactement aujourd'hui, qui s'enracinent dans cette révolution sur laquelle on reviendra, que constitue le système sur la puce, qui est une révolution méthodologique extrêmement importante au niveau du travail dans ce secteur-là.

C'est autour de ce thème-là que nous allons débattre. Nous avons décidé de prendre, comme fil conducteur de ce débat, au travers de ce foisonnement, le temps.

Denis Griot l'a dit : il faut réduire les temps. C'est bien connu. En plus de les réduire, il faut être capable de les maîtriser, de prévoir les temps de mise en application des nouvelles technologies.

Ceci est d'autant plus important qu'aujourd'hui, les technologues font des efforts considérables et réussissent à réduire les temps de développement et les temps de montée en production.

Il est clair que si, d'une manière concomitante, on ne réduit pas les temps de mise en application, on arrive à des désaccords entre l'offre de production et le marché, et c'est un peu la cause des difficultés que l'on connaît périodiquement dans le domaine de la microélectronique, et ceci est une problématique qu'il nous faut absolument aborder, dont on parlera probablement au cours de cette table ronde : comment travailler sur ce que j'appelle cette chaîne du temps, qui va de l'idée à l'usage véritablement d'un produit, en passant par la chaîne, spécification/conception/validation/tests, etc. ?

Il y a une chaîne ici, et une question que l'on doit traiter au cours de cette table ronde, c'est : comment, dans les différents secteurs dont on va parler, travailler au niveau national et comment améliorer cette maîtrise du temps ? Et ceci est d'autant plus difficile aujourd'hui que, comme l'a dit Denis Griot, il y a une révolution importante qui est cette désagrégation de la chaîne de la valeur, multiplication du nombre des acteurs pour aboutir à un seul système sur une seule puce, puisqu'il faut de plus en plus d'intervenants.

Ceci crée des interfaces entre les intervenants avec de nouvelles méthodes de travail. Par conséquent, que faisons-nous actuellement, dans notre pays, pour rapprocher les acteurs et avoir des actions du type centrales technologiques?

Y a-t-il des centrales d'application et comment peut-on travailler pour mieux maîtriser cette chaîne du temps ? C'est une problématique qu'il faut, je crois, adresser, en tout cas, au cours de cette journée, et voir comment on peut faire de la R et D à ce niveau-là.

Pour traiter du sujet, nous avons donc 5 intervenants, extrêmement divers bien entendu puisqu'on va parler de domaines d'applications variés.

Pour gagner un peu de temps, je vais demander à chaque intervenant de dire d'où il vient et de se présenter rapidement en 5 minutes, et puis ensuite, nous aurons une demi-heure pour débattre entre les intervenants s'ils le souhaitent, et avec la salle.

Pour commencer, je voudrais passer la parole à Guy Carrère pour qu'il nous parle des télécoms. Les télécoms sont - et Denis Griot l'a dit - un des moteurs extrêmement puissants de la microélectronique aujourd'hui.

Il y a eu un peu de chaos. J'aimerais qu'il nous dise où sont les perspectives d'avenir et puis que, d'une certaine manière, il nous explique comment la désagrégation de la chaîne de la valeur conduit, dans ce domaine des télécommunications, à rendre plus difficile la fluidité nécessaire entre la technologie et l'application et comment France Télécom traite le sujet ?

M. Guy Carrère - Merci et bonjour.

Je m'appelle Guy Carrère, je suis le directeur scientifique de France Télécom, plus exactement de France Télécom R et D, qui, pour beaucoup, pendant 50 ans, s'est appelé le CNET.

Je voudrais apporter le point de vue d'un opérateur de télécommunications, aujourd'hui, sur l'impact de ces nouvelles technologies de plus en plus petites, de ces nanotechnologies sur les différents services que nous pouvons amener.

En effet, le rôle d'un opérateur de télécommunications, aujourd'hui, est essentiellement de fournir :

1 - des moyens d'interconnexion entre les individus et puis de plus en plus, entre individus et machines, et dans quelques mois ou années (l'échelle de temps est extrêmement variable dans ce domaine) entre machines et machines, allant des grosses machines industrielles à la machine à laver au domicile, à la puce que l'on pourra implanter dans le corps et qui communiquera à l'extérieur un certain nombre d'informations, jusqu'à ce qu'on appelle aujourd'hui les « smart dust » c'est-à-dire les grains de sable qui, en fait, seront à la fois des capteurs et des transmetteurs d'informations.

2 - des services. Ces besoins de services, ces nouveaux services sont là pour répondre à un certain nombre de nouveaux usages qui sont apparus ces dernières années, que l'on voit de plus en plus se développer.

Ces usages sont essentiellement : on veut des informations, l'individu veut des informations de plus en plus nombreuses, dans des situations de plus en plus différentes en mobilité, en fixe, mais également des informations de plus en plus riches, avec une quantité d'informations par individu qui augmente de façon exponentielle.

Ces informations, il les veut de manière ubique, c'est-à-dire qu'il veut pouvoir, dans ce que nous appelons les différentes sphères de vie, la sphère privée, la sphère publique, la sphère professionnelle, en bénéficier. Il les veut dans les différents endroits où il va se trouver, mais il veut quand même pouvoir discerner ces différentes informations. Il veut pouvoir les recevoir en permanence. Il veut des moyens de connexion, évidemment de préférence sans fil, à tout moment.

Et puis il veut, de plus en plus, d'interfaces. Des interfaces de plus en plus humaines, c'est-à-dire des interfaces de plus en plus multisensorielles.

Si je veux résumer, je vois que nous avons besoin, dans les nouveaux services de télécommunications, d'abord de plus en plus de puissance de calcul, ce n'est pas exclusif à notre domaine, nous avons besoin de plus en plus de puissance de stockage, nous avons besoin également - et c'est un besoin particulier - de puissance d'aiguillage, c'est-à-dire des systèmes capables, de plus en plus, d'aiguiller les différentes informations qui deviennent de plus en plus volumineuses, vers le particulier.

Ces puissances d'aiguillage, il faut simplement savoir que nous véhiculons aujourd'hui des cheveux, dans des fibres optiques de la taille d'un cheveu, avec des débits qui vont dépasser le terabit. Ce sont donc des choses assez considérables qu'il faut pouvoir effectivement être capable d'aiguiller extrêmement rapidement.

Et puis nous avons également une contrainte de protection de l'information. Il faut qu'on soit capable de protéger ces informations, que ce soit des informations que l'on transmet, ou que ce soit des informations que l'on stocke, et de plus en plus, on aura besoin de stocker des informations personnelles. Et dans ce cas, il faut prendre en compte la notion de la protection de la vie privée qui doit être aussi assurée par ces opérateurs.

Je vous disais tout à l'heure qu'on a de plus en plus besoin d'interfaces humaines, de plus en plus humaines. Cela veut dire qu'on a besoin d'écrans pour visualiser, pour la partie vision. On a besoin également de systèmes qui vont pouvoir permettre de transmettre d'autres sens en particulier le toucher, avec les systèmes tactiles, et puis quelques expérimentations autour de la transmission des odeurs.

On va de plus en plus vers des systèmes qui vont permettre de transmettre les 5 sens.

Quels liens avec les nanotechnologies ?

Précisément, j'ai essayé de regarder aujourd'hui tout ce qui pouvait avroir un impact sur ces tendances très fortes du domaine des télécommunications, qui étaient en train d'apparaître dans les nanotechnologies !

Le premier point, c'était dans le domaine du traitement de l'information et du stockage de l'information. Dans le domaine du stockage de l'information, on voit les premières annonces de systèmes comme ceux d'IBM, qui ont des capacités de l'ordre de 10 milliards de bits, sur une surface de 9 mm², ce qui ne veut pas dire grand-chose.

Si je ramène cela à quelque chose d'un petit peu plus concret, cela veut dire que sur un timbre poste, on est capable de stocker, de mémoriser le contenu de 100.000 livres, ou sur une carte de crédit, on peut stocker l'équivalent de 50 DVD. Donc voyez des capacités de stockage de plus en plus importantes grâce aux nanotechnologies.

Cela va répondre à des besoins très forts que nous allons avoir dans les années à venir.

Et puis, on a évoqué depuis ce matin tout ce qui concerne ce que j'appelle les « nanopuces », qui vont nous permettre en particulier de pouvoir réaliser des écrans avec les technologies des nanotubes : des écrans plats, des écrans facilement intégrables dans notre environnement, et allant jusqu'à des possibilités qui aujourd'hui sont concrètes.

Un certain nombre de laboratoires, dont le MIT, ont développé du papier électronique avec le même type de visibilité que sur un papier ordinaire et une rémanence de l'information sans modification par un courant électrique de ce contenu.

Nous voyons également arriver, au niveau de ces nanopuces, quelque chose qui va impacter assez fortement le « toujours connecté », c'est-à-dire l'intégration, dans le silicium, d'émetteurs-récepteurs.

Chaque processeur sera probablement intégré d'une puce qui sera capable de communiquer par radio avec son environnement et ceci, avec des standards complètement différents : UMTS, Hyperlane, Blue tooth, disons tous les standards dont on entend parler aujourd'hui.

Tout ceci devait être facilité également pour la partie terminaux, pour les parties 3G, 4G. En fait, le problème majeur concerne le stockage de l'énergie. On a fait beaucoup de progrès là-dessus mais les nanotechnologies devraient nous amener des approches assez différentes de piles à combustibles. Ces piles à combustibles, compatibles avec la taille d'un téléphone portable devraient nous permettre :

1 - d'obtenir des autonomies de plusieurs dizaines de semaines,

2 - d'avoir un mode de fonctionnement de type station-service. Ce n'est plus la prise de courant qu'il faut brancher tous les soirs, mais on fait le plein de son téléphone portable, comme dans une station-service, avec une ampoule d'éthanol, ou une ampoule de liquide, et ce plein va durer un certain nombre de semaines.

Il doit exister une adéquation très forte entre nos besoins dans le domaine des télécoms, des nouveaux usages de télécommunications, et des technologies qui aujourd'hui émergent dans le domaine des nanotechnologies, ce qui va nous aider à réussir ces challenges.

M. Bois - Merci, Guy.

Je vais passer tout de suite la parole à François de Charentenay , qui représente ici un domaine différent, qui a une dynamique de progression extrêmement différente puisqu'il va nous parler du monde de l'automobile.

M. François de Charentenay - Merci.

Je suis ancien directeur de la recherche du groupe PSA, Peugeot-Citroën, que j'ai quitté en 2001. Maintenant, je suis consultant. J'ai donc pu vivre, au centre PSA, de 1986 à 2001, l'évolution extrêmement importante de l'électronique à l'intérieur d'une industrie automobile en la modifiant très profondément. C'est une sorte d'intégration et de mutation interne qui a été importante.

Je remercie donc M. le sénateur et les organisateurs d'avoir inclus l'industrie automobile dans ce colloque, ainsi que dans le rapport où elle est citée à plusieurs reprises.

J'aborderai cette question d'autant plus que l'industrie automobile ne fait pas partie des valeurs technologiques ni de la nouvelle économie, mais c'est une industrie qui a quand même absorbé une quantité d'électronique absolument considérable.

Je vais aborder cette question en trois parties :

1 - comment ont évolué les fonctions automobiles grâce et avec l'électronique ?

2 - la mutation - et je n'ai pas eu le temps de lire ce point dans le rapport - complète du fonctionnement de l'entreprise et en particulier de son processus de développement à cause des nouvelles technologies de calcul, d'imagerie et de simulation.

Je pense que c'est un secteur très important.

3 - reprendre un peu la discussion sur les chaînes de valeur dont on a parlé tout à l'heure pour voir comment l'automobile se situe.

Sur la première partie, je ne vais pas vous faire une liste - elle ne serait sûrement pas exhaustive - de l'ensemble des fonctions qui ont été :

- d'une part, les fonctions classiques qui ont été profondément modifiées.

- et d'autre part, les nouvelles fonctions qui sont arrivées.

Je crois qu'il est très important de dire qu'en majorité ce sont quand même des fonctions qui existaient. Le moteur existait, il tournait avec une magnéto, une bobine, et des choses comme cela, mais il existait. Il y avait même, au début du siècle, un autoradio Motorola aux Etats-Unis. Il y avait très peu d'électronique dedans, mais il tournait sans électronique !

Ensuite est arrivée l'électronique.

Et puis il y a des nouvelles fonctions qui sont apparues. Il faut partir, non pas des composants de la voiture, mais des fonctionnalités, car c'est cela le plus intéressant.

En fait, la voiture c'est d'abord un objet qui doit avoir un certain nombre de performances, d'agréments de conduite. C'est tout ce qui concerne le moteur. Le moteur a été, je pense, complètement révolutionné.

Je me souviens de mon arrivée chez PSA, en 1986 où, à ce moment-là, il y avait déjà un certain nombre d'électronique dans le moteur, mais on se posait déjà des questions en disant : quel sera le moteur du futur ? Il y avait, disons, un certain scepticisme sur des grandes évolutions.

Et puis, en dix ans, il y a eu une explosion de nouvelles solutions qui étaient quelquefois d'anciennes solutions mais revisitées grâce à l'électronique, qui n'avaient pas été possibles pendant 20 ou 30 ans, comme les soupapes électromécaniques par exemple, et qui ont été revisitées par l'électronique et qui se sont ou vont se développer. Toute cette partie est donc tout à fait importante.

Il y a la partie sécurité, qui était un des grands chantiers que l'électronique a pu faire évoluer considérablement. L'exemple de l'air bag est le plus illustratif, et c'est celui que je prendrai. L'air bag est intéressant. Il a un microsystème, qui est un micro-accéléromètre, qui permet, avec un calcul, de mesurer le niveau d'accélération pendant un certain temps, ce qui représente le seuil de déclenchement de l'air bag. Il mesure non seulement le seuil de déclenchement de l'air bag maintenant, mais aussi les modalités de déclenchement de l'air bag ou des autres air bags.

Cela devient de plus en plus complexe avec une sorte de sécurité, quasiment à la carte, et dans l'avenir, des progrès très importants seront faits notamment avec la détection des obstacles, et éventuellement des procédures d'aide à la conduite, pour éventuellement prendre la place du conducteur, au cas où il ne pourrait pas se sortir d'une situation accidentogène. Cette partie est aussi très importante.

Une autre fonctionnalité : le confort. Toute la partie « confort du véhicule » a été profondément modifiée par des petits équipements qui ne semblent pas de très haute technologie, comme un essuie-glace automatique ou la climatisation, mais qui contiennent de l'électronique et du logiciel pour tourner correctement.

Toutes ces fonctions classiques de l'automobile ont évolué de façon tout à fait considérable et vous en retrouvez un tableau, à la page 11 du rapport du sénateur Saunier.

Pourquoi ceci a-t-il pu se faire ? C'est parce qu'il existe un ensemble de systèmes avec la chaîne capteurs-processeurs-actionneurs avec, à l'intérieur, une boucle - puisque c'est un système contrôlé - automatique.

Je crois qu'il est important de dire qu'on a beaucoup parlé de logiciels, mais sur ces systèmes automatiques, il y a un logiciel de contrôle, qui est un secteur tout à fait important.

Comme l'a dit Monsieur Griot - il a prononcé le mot dans son introduction - : l'automobile est devenue un objet mécatronique, c'est-à-dire un objet qui est à base de mécanique, de thermique mais qui est contrôlé par des superviseurs, et des contrôleurs à base de microélectronique et à base de microsystèmes.

Le développement des capteurs est donc un domaine extrêmement important. Il ne faut jamais se focaliser seulement sur la puce qui calcule. C'est toujours la tendance, on se précipite sur la puce qui calcule ! Or, quand on dit qu'il y a 20 % d'électronique dans un véhicule, ce n'est certainement pas 20 % de puce. La puce doit représenter 2 ou 3 % du coût, mais tout le reste concernera les microsystèmes, les logiciels que l'on met, un certain nombre d'actionneurs. Toutes ces choses-là sont beaucoup plus larges qu'on ne le pense.

Pour vous donner une idée sur l'évolution, et pour vous donner un chiffre, le logiciel de la 607 est au niveau du logiciel que l'on trouvait sur l'Airbus A 310, au début des années 1980. C'est intéressant à savoir.

Cela fait un delta entre l'aéronautique, très haute technologie, et l'automobile, d'une vingtaine d'années de glissements et de mutations.

Ce qu'il faut savoir, c'est que ce delta est en rétrécissement extrêmement rapide. On va arriver probablement, dans certains cas, à voir les militaires revenir chez les constructeurs automobiles pour pouvoir reprendre un certain nombre de fonctions et en particulier, pour voir abaisser les coûts qui sont devenus beaucoup trop considérables.

Je voudrais terminer sur cette partie du produit automobile en disant que l'automobile, ce n'est pas seulement un objet isolé, c'est aussi un objet communicant. Il communique maintenant de plus en plus avec l'extérieur, non seulement il reçoit des messages par l'autoradio, mais il peut émettre un certain nombre de messages et toute cette interactivité prend une place considérable.

Pour tout ce qui est informations de trafic, guidages, alerte pour la sécurité, et je pense par exemple au fait d'avertir les gens qu'il y a une nappe de brouillard sur l'autoroute, c'est quelque chose d'intéressant, et cela va devenir possible par le développement de toutes ces technologies.

Je passe au deuxième point rapidement. Le processus de conception de l'industrie automobile a été complètement bouleversé en 15 ans, je ne parle pas seulement de la CAO, mais surtout des calculs et de la simulation qui permettent de construire un véhicule virtuel jusqu'à une étape assez avancée du développement avant de passer à un produit réel et à des prototypes. C'est une partie très importante, y compris la simulation et l'imagerie, toute l'imagerie, c'est-à-dire que cela consiste à plonger le futur client - cela concerne les gens du marketing qui l'utilisent beaucoup - dans l'utilisation d'un véhicule qui n'existe pas.

La troisième partie, sur la chaîne de la valeur, et c'est important de le dire, c'est que dans ce domaine de l'électronique, 75 % d'un véhicule est acheté chez un fournisseur et des équipementiers, et ces équipementiers font de la conception et de la fabrication. Eux-mêmes ont leur propre fournisseur de sous-systèmes ou de systèmes électroniques.

On a vu que dans l'amont il y avait cette désagrégation, comme il a été dit, mais dans l'aval il est évident que le constructeur n'a pas de rapports directs marchands avec le fournisseur d'électronique de base, de microélectronique mais il a des rapports importants, comme le soulignait Monsieur Griot, qui voit régulièrement des responsables de PSA. Il faut donc avoir une vision commune sur ce qui va se produire !

En résumé, le constructeur est responsable de l'architecture électronique de son système, il est responsable aussi de la fiabilité du système et en particulier de toutes les contraintes électromagnétiques qui sont des contraintes très fortes sur ces systèmes électroniques.

Voilà, Monsieur le Président et animateur, et excusez-moi d'avoir dépassé mon temps.

M. Bois - Oui, merci, et excusez-moi de vous avoir un peu coupé la parole. Je voudrais que tout le monde puisse s'exprimer et qu'ensuite on ait un débat avec la salle.

Le troisième intervenant est Francis Lepage , directeur du centre de recherches en automatique de Nancy.

On a parlé de mastodonte industriel, pour les télécoms et l'automobile. Je pense qu'il y a des domaines plus émergents. D'abord, qu'est-ce que la microélectronique peut apporter par exemple à l'environnement ?

M. Francis Lepage - Merci, Monsieur Bois.

Je vais commencer par me présenter rapidement. Je suis Francis Lepage. Je dirige le centre de recherches en automatique de Nancy, qui est une unité mixte de recherche du CNRS, du département STIC, de l'université Poincaré et de l'Institut national polytechnique de Lorraine.

Ce laboratoire anime un réseau thématique pluridisciplinaire mis en place par le département STIC du CNRS, ce qu'on appelle un RTP, STIC et environnement, qui montre la volonté du département STIC d'impliquer tout de suite les relations entre les nouvelles technologies et des applications telles que l'environnement.

Je commencerai par parler de l'implication des nanotechnologies dans certains produits, avec quelquefois des résultats sur l'environnement, qui sont quelquefois un objectif - on vient de parler de la voiture et là, il est clair qu'un certain nombre d'applications des nanotechnologies visent à réduire l'évolution au niveau d'un véhicule, mais quelquefois c'est tout simplement une conséquence, ce n'est pas un objectif.

Par exemple, dans le domaine du textile, nous avons rencontré des industriels qui actuellement souhaitent mettre des puces dans des draps, dans des chaussettes, dans différents produits de textile, mais souvent ils ont un impératif d'usage qui n'est pas immédiatement celui de l'environnement.

Tout de suite on voit derrière, en faisant une analyse de la valeur de ces nanotechnologies, dans les textiles, qu'on arrive à des conséquences sur l'environnement, en diminuant par exemple le nombre de lavages, en augmentant la durée d'usage du textile, etc.

On a parlé tout à l'heure du papier électronique, et je crois que ce n'est pas forcément l'environnement qui est visé en créant ce papier électronique. En tout cas, il est clair que cela aura des conséquences sur la quantité de papier, sur la quantité d'encre qui est utilisée, etc. C'est un premier point.

Un deuxième point sur lequel j'insisterai un peu plus, c'est sur les nanotechnologies dans l'observation de l'environnement.

Monsieur Carrère a parlé tout à l'heure des « smart-dust ». C'est une puce intelligente qu'on appelle en fait sous différents noms, dont celui des réseaux de capteurs. Ce sont des petites puces que l'on va disséminer dans la nature, qui ont la capacité de communiquer entre elles et qui vont nous fournir une observation en fait de leur environnement proche. Si on en met beaucoup, on peut imaginer prendre des exemples précis qu'on envisage actuellement, par exemple pour la détection d'incendie de forêts.

On sème, avec un avion, ces petites puces sur les forêts, chaque petite puce est équipée d'un tout petit capteur détecteur de température, et quand ils voient une élévation de température au-dessus d'un certain seuil autour de lui, mais aussi dans son environnement extrêmement immédiat, de quelques millimètres autour de lui, il le signale à la puce ou aux puces qui sont autour de lui, et comme cela on arrive jusqu'au système d'observation.

C'est là la détection du défaut, mais pour nous, automaticiens qui créons des modèles, en fait, cela nous sert beaucoup à enrichir notre connaissance des modèles. Actuellement, on a des modèles sur des inondations de certains territoires ou encore des modèles sur des pollutions de l'air qui sont relativement imprécis parce qu'il existe des phénomènes qui sont encore mal compris. En fait, si on arrivait à avoir des mesures beaucoup plus fines, on arriverait à avoir des modèles beaucoup plus fiables et ces modèles, bien sûr, ce qui est important, c'est d'en faire un usage.

Le but, c'est de faire de la prédiction. Il est clair que les catastrophes dont nous sommes victimes en ce moment, puisque la nature nous arrose abondamment, pourraient être certainement un peu mieux prévues.

Je voudrais terminer - puisque le fil conducteur était le temps - en disant que dans le domaine de l'environnement, en général, on n'a pas de périodes courtes, ce sont plutôt des réflexions à long terme.

Je crois que malheureusement ce sont les catastrophes qui peuvent, elles, être un moteur, un déclencheur pour raccourcir la chaîne du temps dans les applications des nanotechnologies dans l'environnement.

Je crois qu'il faut, à ce moment-là, réagir très vite et être capables de fournir les éléments de réponse parce qu'on sait bien aussi, et vous le savez bien, Monsieur le Sénateur, parce que cela arrive souvent au niveau politique, qu'une fois la catastrophe passée, il reste un phénomène de mémoire et c'est la raison pour laquelle il faut réagir très vite.

Voilà donc la remarque que je voulais faire sur la chaîne du temps.

M. Bois - Merci d'avoir été très bref.

On va passer peut-être à une deuxième partie d'exposé. Jusqu'à maintenant on regardait les secteurs. Il y a des thématiques qui sont un peu transverses aux différents secteurs.

Je vais donc demander à Guy Labrunie de nous dire comment les start-up, comment la création d'entreprise peut aider à mieux maîtriser le temps, réduire les temps de cycle, de mise des applications sur le marché et d'illustrer cela avec un secteur qu'il connaît bien, je crois, qu'on n'a pas encore abordé, qui est le domaine de la santé.

M. Guy Labrunie - Merci.

Je m'appelle Guy Labrunie, j'ai passé de nombreuses années au LETI, notamment comme responsable dans les domaines de l'électronique, puis de la microtechnologie et après un passage dans l'industrie de la santé chez Mérieux, pendant quelques années, je suis maintenant responsable de CEA Valorisation qui est une filiale du CEA, qui a pour objectif de faciliter la création de nouvelles sociétés en investissant, en amorçage, dans ces sociétés.

Je souhaiterais revenir un petit peu sur le domaine des microtechnologies et dire quelques mots, en enchaînant sur ce qui a été dit tout à l'heure par les représentants des grosses industries sur le potentiel et sur les limitations des jeunes pousses, comme on dit en français et en canadien, dans ce domaine.

Je crois qu'il est bien connu que les microtechnologies représentent un potentiel dont le volume financier est de l'ordre de quelques milliards de dollars, selon la façon dont on compte. Cela est représenté encore aujourd'hui en majorité par quelques gros marchés de très grands volumes, qui sont occupés par quelques gros industriels : ST, Motorola, IBM, ou Bosch, pour n'en citer que quelques-uns.

Ces marchés sont des marchés qui sont très segmentés, à la fois en domaines d'application, en types de produits, en technologie de fabrication, en technologie de montage, en technologie d'interconnexion, parce qu'on a affaire à une très grande variété de grandeurs à mesurer et de grandeurs avec lesquelles on souhaite interfacer.

Par conséquent, c'est un domaine qui est déjà assez naturellement à la portée des start-up dans la mesure où ce sont notamment des sociétés qui sont en principe dévolues avec une grande souplesse, avec une grande agilité, qui mettent en évidence de nouveaux secteurs industriels et commerciaux, et qui dégagent de l'intérêt de ces secteurs.

Je n'en voudrais pour preuve que, dans la période 2000-2002, la réduction des investissements en amorçage et en premier tour, comme on dit, dans le jargon professionnel, s'est faite par un facteur 20 à 30 pour le secteur européen.

Les microtechnologies ont vu leur part non seulement maintenue, mais légèrement augmentée, aux alentours de 20 %. Nous sommes à la fin d'un cycle probablement qui concerne les microtechnologies, qui a été un cycle avec plusieurs parties, mais dont la dernière partie, sur les 7 ou 8 dernières années, a été très importante.

Nous n'avons pas encore abordé, à quelques rares exceptions près, le cycle des nanotechnologies qui est probablement un cycle qui va démarrer à l'occasion d'une reprise que nous espérons tous prochaine.

Pourquoi est-ce que les jeunes pousses se sont bien placées ?

C'est parce que dans ces domaines, en dehors du risque représenté par la grande parcellisation des marchés, par une très grande variété de technologies, les cycles de valorisation sont relativement longs, probablement à cause des volumes dont je viens de parler et par conséquent des marges que l'on peut dégager, qui ne viennent que très progressivement.

Aujourd'hui, peut-être encore plus qu'avant, dégager du cash-flow positif prend au moins 4-5 ans, quand les choses se passent bien et d'autre part, comme cela a été dit notamment au cours de l'introduction, on se trouve aussi dans une situation où on progresse par îlot, par pôle de compétences.

Le facteur important dans le développement de ces compétences, c'est la proximité de plates-formes de compétences. On a beaucoup parlé du LETI pour la France mais on pourrait aussi parler des instituts Fraunhofer pour l'Allemagne, ainsi que d'autres pôles de compétences européens.

Il existe un deuxième facteur de proximité importante : c'est la présence d'intégrateurs, leaders mondiaux dans leur domaine.

On a parlé tout à l'heure de l'automobile et de la téléphonie, mais on pourrait parler également des télécommunications bien qu'elles soient aujourd'hui en difficulté.

Enfin un autre facteur important : ce sont les expertises traditionnelles locales. On a cité le pôle de Besançon. Je crois que la micromécanique est un des facteurs, par exemple en Suisse ou dans l'est de la France, qui permet de favoriser ces développements. Ces facteurs représentent également des difficultés.

Première difficulté pour les investisseurs : il y a peu d'expériences réussies en matière de retour sur investissement malgré, encore une fois, les promesses.

Deuxième difficulté : il n'y a pas de main stream, contrairement à la microélectronique. On a beaucoup de technologies lourdes, souvent peu compatibles entre elles. On a des difficultés à produire avec rendement et qualité aujourd'hui encore.

D'autre part, on a une certaine difficulté à intégrer la chaîne de la valeur. On vient de parler de parcellisation ou de morcellement de cette chaîne et, dans le domaine des microtechnologies, intégrer la chaîne depuis la conception, la fabrication et le test, simplement au niveau des composants, est déjà quelque chose de très ambitieux !

La plupart des jeunes pousses n'ont pas une telle capacité !

Je rebondis sur les sciences de la vie parce que je crois que ce domaine de la santé est un domaine où, au fond, on trouve les exemples les plus marquants par rapport à tout ce que je viens de dire.

Les biopuces - nous n'en avons pas encore parlé ce matin -, disons les microsystèmes d'analyses sur des puces, que ce soit des puces en silicium ou des puces en plastique, sont des éléments essentiels de la recherche biomoléculaire, de la recherche de nouvelles molécules dans le domaine thérapeutique.

Les microsystèmes, dont on n'a pas encore parlé, sont des microsystèmes d'analyse et quelquefois même d'injection ou de mise en oeuvre de thérapie qui permettent vraiment d'ouvrir la voie à la thérapie ambulatoire.

Ceci est vraiment très porteur pour un avenir proche et moyen terme mais néanmoins, cela recouvre un très large spectre de compétences et là, de nouveau, le problème du retour sur investissement est très long, la compétition est forte, l'issue est incertaine.

Je suis convaincu que c'est dans ces domaines, en particulier, que les développements des besoins et la reprise du cycle économique devraient d'abord nous profiter.

M. Bois - Merci.

Donc à l'autre bout de la chaîne et à l'autre bout de la table, une question qui est peut-être finalement la plus critique aujourd'hui en termes de maîtrise des montées en volume, maîtrise des marchés, c'est : comment ces nouvelles technologies, ces nouvelles applications sont-elles acceptées par le client final ?

On a parlé, par exemple, de puces dans le corps humain. Comment le client, l'utilisateur va-t-il accepter cela, et comment peut-on diminuer les temps d'apprentissage des nouvelles technologies par les utilisateurs ?

C'est une question pour Dominique Boullier .

M. Dominique Boullier - Bonjour. Je suis professeur à l'université de technologie de Compiègne, je suis anthropologue, par ailleurs chargé de mission au Département STIC, où je pilote un réseau thématique pluridisciplinaire : acceptabilité, ergonomie et usage des TIC.

Je ne vais pas en fin de compte parler vraiment des questions de stratégie, de construction des marchés ou de construction des demandes qui pourraient être plus directement en phase avec ce que les interlocuteurs précédents ont évoqué, mais cela dit, c'est ce qu'on fait le plus souvent dans les laboratoires des usages qu'on est en train de monter dans toute la France, et particulièrement dans celui que j'anime, à la Cité des sciences de la Villette, qui est un laboratoire des usages en technologie d'informations numériques.

Il y en a d'ailleurs un autre à Grenoble, qui s'intéresse plus particulièrement aux objets communicants ou ubiques, comme ils disent.

Il existe des connexions, à mon avis, pour disons associer toutes les sciences humaines, dans leur diversité, à ce travail d'insertion de l'usager dans la boucle de conception qui devient effectivement un facteur important de réduction de ces temps que vous évoquiez.

Cela dit, il me semble intéressant, à propos des nanotechnologies, d'identifier quelques propriétés anthropologiques qui sont plus génériques et qui posent de vrais problèmes d'appropriation parce que - et je me centrerai principalement là-dessus - l'infiniment petit qui a été évoqué aboutit finalement à poser des questions sur l'invisibilité des techniques.

Cela touche à quelque chose qui est profondément ancré dans toute société, c'est-à-dire que nous avons des sociétés qui fonctionnent toujours sur des régimes de visibilité acceptables ou stables, où on a pris finalement un certain nombre d'habitudes pour traiter de la frontière du visible et de l'invisible.

Nous avons, les uns et les autres, des schémas sur les mondes d'en dessus, d'en dessous, les forces qui agissent, les mondes d'avant, les ancêtres, etc ; les sciences elles-mêmes produisent effectivement du visible mais ce sont elles seulement qui peuvent accéder à cet invisible de ce point de vue-là.

Petit à petit, les uns et les autres, dans toutes les sociétés, nous acceptons de vivre avec ce que nous ne connaissons pas, avec des choses qu'on ne peut pas maîtriser et éventuellement qu'on ne peut pas voir.

Cela dit, ce n'est quand même pas simple. Cela ne se manipule pas comme cela.

On a vu que les grands développements industriels ont plutôt généré de grandes visibilités. Ce sont les grandes infrastructures, les machines, même les machines quotidiennes éventuellement, et on pouvait prétendre dire que cette grande visibilité allait de pair avec une maîtrise, même si elle était spécialisée, plus importante.

Il semble qu'on atteigne là une certaine limite actuellement dans nos évolutions techniques, et ce, de deux points de vue :

- d'un côté, on parle des systèmes complexes qui, pour des contraintes de sécurité, ou pour les propriétés sur lesquelles ils travaillent - et je pense notamment à la radioactivité - finissent nécessairement par produire de l'invisibilité même s'ils sont massifs dans le paysage quelquefois.

On voit bien les problèmes que cela pose à travers le nucléaire, par exemple, et les enjeux de confiance qui sont sans doute l'un des enjeux essentiels dans cette affaire.

- deuxième volet, pour modifier ce régime d'invisibilité ou de visibilité, ce sont effectivement les systèmes numériques eux-mêmes qui, à travers leur puissance de calcul, deviennent d'une certaine façon des nouvelles forces de l'invisible.

Vous avez tous entendu partout cette ritournelle de « c'est la faute à l'informatique ». L'informatique telle qu'elle est actuellement, je ne parle pas de celle qui vient.

On attribue des fautes, et on a donc nécessairement là un enjeu de responsabilité. Confiance et responsabilité sont des enjeux qui sont portés au coeur de la façon dont les systèmes techniques eux-mêmes sont conçus. On ne le manipule pas, on ne le modifie pas aussi facilement que cela.

Je pense que le cas des OGM, effectivement, doit nous amener à réfléchir. Dans un livre, il y a trois ans, j'avais effectivement parlé des organismes numériquement modifiés. On peut souhaiter effectivement qu'il n'y ait pas ce type de controverse que l'on connaît actuellement sur les OGM. Cela dit, on peut se demander quand même s'il n'en faudrait pas un petit peu parce que, précisément, cela risque de nous revenir dans la figure sans qu'on s'y attende !

C'est donc ce problème que je voudrais évoquer autour de trois points rapidement, posés par l'invisibilité : d'abord, un problème ontologique. Il me semble que cette invisibilité finit par remettre en cause l'extériorité des techniques. On avait des frontières établies, des ontologies ordinaires bien pratiques, avec la nature, des objets, des êtres vivants, des humains, et des forces invisibles aussi, et on voit bien que dès que l'on a affaire à de l'invisible, cela devient difficile à gérer. Cela a été le cas notamment dans la biologie.

Dans toutes les campagnes hygiénistes, il existe des travaux en anthropologie de la diffusion des techniques. Rogers, dont vous évoquiez les courbes, en a fait un de ses thèmes favoris. On voyait qu'il était très difficile de faire comprendre, quand on fait une campagne d'éducation sanitaire au Pérou, pourquoi des êtres si petits, les microbes, seraient si puissants et pourquoi s'ils sont si puissants, on ne les verrait pas. Vous avez des boucles comme cela qui, sur le plan cognitif, ne sont pas du tout évidentes à faire admettre et qui modifient considérablement les répartitions des êtres et les statuts dans leur façon traditionnelle de voir le monde.

Donc si on rend invisible, on déstabilise ces cadres cognitifs, on déstabilise ces frontières et ces statuts.

Il y a trois exemples qui m'intéressent dans les nanotechnologies, qui sont vraiment cruciaux et vraiment liés au grand public : ce sont moins les questions liées à l'ordinateur invisible, comme on le dit, que les matériaux intelligents, c'est-à-dire tous ces couplages des nanotechnologies et de la physique, chimie des matériaux qui vont, dans l'habitat par exemple, modifier des possibilités, des propriétés thermiques, d'acceptation de la lumière, de résistance ; les vêtements qui ont été évoqués, mais aussi bien entendu les biopuces, que ce soit pour le diagnostic, l'injection ou la stimulation.

Cela représente finalement des prothèses. On pourrait se dire que tout cela est déjà bien établi. On a une habitude de vivre avec des prothèses, et cette frontière-là n'est pas aussi ferme qu'on peut l'imaginer mais là, ces prothèses deviennent actives, programmables, invisibles.

Dans les trois cas, dans les trois exemples que je prenais, on a finalement une remise en cause des frontières humains/objets en profondeur, et qui peut, potentiellement, être menaçante.

- une invisibilité qui génère un problème opératoire. En fait, l'extériorité avait un avantage puisqu'elle générait des prises sur le monde, des prises pour orienter l'action. On appelle cela aussi des « affordances » dans certaines théories. Effectivement, l'image même du système vous permettait d'anticiper sur ce que vous alliez pouvoir en faire.

Ces deux éléments sont en fait des conditions d'appropriation pour se situer dans le monde et agir. De fait, avec les nanotechnologies, dans tous les cas, nous serons bien obligés de produire des formes d'interface pour accéder à l'opération même, permise par ces nanotechnologies, sauf à dire qu'effectivement on n'a plus rien à en faire, mais qui les pilote ? On voit, à ce moment-là, d'autres questions qui émergent ! La question de l'accès à cette intelligence restera posée.

Dernier point : le problème de l'invisibilité génère un problème politique puisque finalement - et cela a été évoqué à plusieurs reprises - l'intelligence de ces nanotechnologies, je parle de celles qui sont diffuses, elle est distribuée, elle est en réseau, mais bien entendu cela génère l'hypothèse spontanée pour tout un chacun qu'il y a quand même quelqu'un qui, dans l'affaire, doit être au centre ou doit être capable de piloter tout cela.

Qui pilote, au nom de quels principes et pour quels intérêts ? Qui est-ce qui sait ? Est-ce que vraiment d'ailleurs ils savent ce qu'ils font ?

Ensuite - et on l'a vu d'ailleurs à propos de la vidéosurveillance, puisque vous avez vu tous les enjeux autour de cela, tous les enjeux autour de la traçabilité généralisée, à travers les réseaux puisqu'on récupère toutes les données sur ce que l'on fait, mais aussi dans les démarches qualité dans les entreprises - on a véritablement un enjeu de pouvoir, un enjeu de démocratie, un enjeu de contrôle qui peut effectivement être menaçant.

Pour conclure, vous allez me dire que cette affaire-là est assez noire et inquiétante. Est-ce qu'on ne surfe pas là sur des peurs irrationnelles, d'apocalypse ? Effectivement, l'apocalypse, c'est de révéler ce qui était caché et le problème est de savoir jusqu'où on peut cacher les choses avant qu'elles ne se révèlent malgré vous et qui, en l'occurrence, peut faire ce travail-là ?

On est en fait dans des questions de croyances qui sont tout à fait importantes, avec lesquelles on n'a pas beaucoup d'outils opératoires immédiats.

Je pense, pour conclure, qu'il y a effectivement deux niveaux de traitement qui peuvent être intéressants à prendre en compte dès maintenant :

- au niveau technico-commercial, il y a des choix techniques qui doivent permettre, dans la conception même des systèmes qui mobilisent ces nanotechnologies, de redonner des prises et qui, paradoxalement, vont nous obliger à redonner de la visibilité, d'une façon ou d'une autre, au fait par exemple qu'il existe des matériaux avec de la nanotechnologie associée.

- de plus, on a aussi la possibilité de positionner cette technologie et les applications qui en dérivent vers une explicitation et des garanties vis-à-vis du public qui auront un enjeu.

On est plus dans des campagnes d'éducation, soit de formation, soit de marketing.

On a en même temps des opérations d'intermédiation, c'est-à-dire que ces technologies-là génèrent aussi des déplacements de services. C'est un des thèmes qui nous intéressent aussi dans les laboratoires d'usage, qui feront que cela ne sera pas forcément les mêmes producteurs, ceux qui vendent les contenus.

Il y a donc des enjeux autour de ce déplacement avec des rôles humains à redéfinir.

Deuxième niveau de traitement : c'est le niveau juridico-politique. C'est la commission « informatique et libertés » éventuellement, les débats publics, et pourquoi pas, peut-être qu'il faut précisément prendre le temps de se poser ces questions-là, pour éviter des syndromes OGM qui seront absolument très ennuyeux pour l'industrie par la suite.

Finalement, pour terminer, ne suis-je pas en train de vous donner un programme de ralentissement général de l'innovation ? Sans doute, pour une part, mais le problème c'est qu'on risque effectivement, à ne pas en parler avant, d'avoir des blocages durables de ce point de vue-là, et pour reprendre la métaphore de mon directeur, quand il s'agit de grimper, on peut choisir de grimper sans assurance, mais on tombe quand même nettement plus bas !

( Applaudissements )

M. Bois - Merci, Dominique Boullier, car ce sont des sujets que l'on n'aborde pas souvent dans le domaine de la microélectronique, même s'ils sont pourtant au coeur des problématiques globales de cette microélectronique et de ses applications.

On a maintenant un bon quart d'heure, disons vingt minutes, pour le débat avec la salle.

Je vous laisse la parole.

M. Claude Saunier, sénateur - Je réagis d'abord pour vous dire que ces échanges de ce matin m'ont tout à fait conforté dans un certain nombre de découvertes et d'informations, que pour la plupart d'entre vous, vous nous avez données dans le domaine de la technologie.

Y aura-t-il rupture ? Non, il y aura continuité. Y aura-t-il accélération ? Oui, il y aura accélération.

On a beaucoup parlé de la filière silicium et pas des autres filières, et je pense notamment aux polymères ! Je veux dire par là, que ce ne sera pas de plus en plus d'intelligence dans une puce, mais ce seront des puces à très bon marché. Dans la vie économique, et dans notre vie quotidienne, dans l'étiquetage, c'est quelque chose de tout à fait nouveau. C'est une piste, entre autres, qu'on devra aborder.

Deuxième élément de réflexion : je crois qu'il faudra que l'on fasse passer le message auprès des décideurs, auprès de la société, que derrière, c'est une réponse à un certain nombre de grandes préoccupations économiques.

Je pense en particulier au gros débat que nous avons, et que nous aurons sur la santé. Ce que la technique nous propose sera une réponse et aussi une question, autant dans le traitement de nos maladies que dans le diagnostic, par rapport à notre temps de présence à l'hôpital, par rapport à notre accès aux soins de meilleure qualité, y compris au domicile.

Derrière tout cela, il y a bien entendu des perspectives de maîtrise des dépenses de santé. C'est une perspective supplémentaire et cela a été évoqué !

Je crois qu'il y a là un travail d'explication, de conviction pour que ce soit peut-être mieux accepté par notre société.

Ma dernière réflexion porte sur le temps. Cela a été évoqué à plusieurs reprises. Nous vivons un temps difficile, vous vivez un temps difficile, Mesdames et Messieurs, c'est le temps d'application de l'UMTS, concrètement, avec tous les effets un peu rudes que l'on connaît.

La Bourse est une chose mais il y a aussi le travail. Je vis cela dans une région de l'ouest de la France où chaque jour, chaque semaine, nous voyons des centaines d'emplois disparaître parce qu'effectivement le calendrier théorique des nouvelles progressions d'application n'est pas au rendez-vous.

Ce qui me passionne au-delà de ce que vous avez dit, et qui est extrêmement passionnant, c'est peut-être la dernière intervention, celle de Monsieur Boullier (avec celle de Monsieur Jutand) qui devrait nous donner envie d'aller un peu plus loin.

Je crois que nous ne devrons pas limiter nos débats entre techniciens, quelle que soit la qualité de l'approche. Que des économistes, des financiers interviennent, qu'il y ait des business plans, très bien, mais au fond, l'essentiel, c'est la confrontation entre la science, la technique, les machines et la société, les individus, les hommes et les femmes.

Il faudra là que nous apprenions - et c'est d'ailleurs la mission qui est la vôtre, Monsieur le directeur du STIC - à introduire davantage de connaissances sociologiques, davantage de connaissances psychologiques.

Je le dis très clairement : par rapport à ce qui nous freine dans l'UMTS, a-t-on maîtrisé l'Internet ? Je ne crois pas et loin s'en faut ! A-t-on vraiment besoin encore aujourd'hui d'avoir accès à une foule d'informations à travers un portable ? Ce sont des questions comme celles-là qui nous sont posées, et puis des questions beaucoup plus graves, beaucoup plus rudes.

Je partage tout à fait ce qu'a dit Monsieur Boullier, sur la façon calamiteuse dont nous avons abordé le débat, sans le faire, sur les OGM. Cela me rappelle la façon aussi calamiteuse et irrationnelle dont nous abordons et continuer à aborder le débat sur le nucléaire.

Mais il y a quand même des espoirs. On nous a dit qu'il était possible d'intégrer, dans nos corps, des puces. Moi je vous propose de mettre en place une équipe qui permettra d'intégrer un peu d'intelligence dans la tête des décideurs et éventuellement des parlementaires. Ce ne sera pas mal !

( Rires dans la salle ).

M. Bois - Des questions ou des remarques ?

M. Hervé Pero - Bonjour. Je suis Hervé Pero, je suis chef d'unité à la DG recherche à la Commission européenne.

On a peu parlé du coût de la recherche. On a parlé du vertige technologique, de l'évolution vers l'infiniment petit, mais on a moins parlé de l'évolution des coûts de la recherche.

Dans cette perspective-là, est-ce qu'on peut continuer à parler d'une recherche purement nationale, ou est-ce qu'il y a besoin de mutualiser et de travailler, comme c'est fait d'ailleurs par certains industriels, en alliance et au niveau européen, sinon international ? Peut-on aborder ce point ?

M. Claude Saunier, sénateur - Nous allons examiner, cet après-midi, les conditions de la réussite et le volontarisme collectif. On aura des échanges là-dessus.

M. Laurent Gouzènes (STMicroélectronics) - Un point sur l'introduction des nouvelles technologies et des nouveaux usages.

Le point concerne en fait l'utilité ou l'intervention des Etats dans la création des nouvelles technologies, ou plutôt dans leur usage..., pas dans la création de la technologie elle-même, qui permet l'usage, mais plutôt au niveau de l'introduction du droit public.

Lorsqu'on regarde Internet, cela a démarré par un réseau national militaire qui a fini par s'ouvrir au grand public avec le temps et quelques années.

Si on regarde la télévision, on s'aperçoit en fait que la télévision a fonctionné à partir du moment où on a pu définir un système de normes et de standards qui permet d'ouvrir un marché avec la livraison d'images qui sont compatibles entre les producteurs, ceux qui transportent l'image, ceux qui regardent la télévision, etc. C'est le même système et c'est compatible tout au long de la chaîne de traitement de l'information.

Pour en revenir sur l'image, parce que c'est illustratif d'autres secteurs également, on voit que l'image d'aujourd'hui est exactement la même depuis 40 ans, c'est-à-dire que la définition de l'image n'a pas bougé.

On attend avec impatience les progrès de la télévision haute définition qui est en train de démarrer aux Etats-Unis et au Japon. C'est un exemple de cet impact que peuvent avoir les Etats. L'impact très réussi, on le trouve dans le GSM. L'UMTS a été une réussite mais ce qui n'a pas été réussi, c'est le système des enchères ! La normalisation de l'UMTS en elle-même est une réussite.

Je voulais donc dire que les Etats ont un impact extrêmement grand sur l'introduction des nouveaux produits et des nouveaux services au niveau des usagers.

M. Bois - Merci.

D'autres questions ou commentaires ?

M. Jean Fourmentin-Guilbert - Je suis président d'une association qui se donne comme objectif le rayonnement de la biologie.

Je voudrais insister sur les paroles de Monsieur le Sénateur, qui a parlé des applications à la santé et au biomédical parce qu'on en a vraiment peu parlé.

Personnellement, je considère que ce domaine sera le moteur, avec l'électronique, des nanotechnologies. Non seulement les besoins au niveau de la santé sont de plus en plus importants, mais le vieillissement de la population entraîne une demande croissante. Le point le plus important, c'est que toutes les nouvelles technologies du biomédical, la transgénèse, les opérations que l'on peut mener sur les cellules, que nous avons réalisées sur les animaux et sur les plantes de manière tout à fait artisanale, on ne pourra pas les appliquer à l'homme si on n'a pas d'outils nouveaux, si on n'a pas des procédés nouveaux que seules les nanotechnologies vont pouvoir nous donner.

Voilà simplement le point sur lequel je voulais insister.

M. Bois - Francis Jutand avait demandé la parole.

M. Jutand - Je voudrais tout d'abord remercier le Sénateur Saunier et son équipe, parce que je pense que les politiques disent qu'il faudrait les aider, mais ils nous situent bien et nous aident à prendre du recul - parce qu'on a aussi la tête dans le guidon - sur tous les développements scientifiques et technologiques ainsi que sur les impacts qu'ils ont.

Je crois qu'il ne faut surtout pas opposer les choses. On a besoin de s'investir à fond dans la science fondamentale qui nous permet de progresser au niveau de tous les développements technologiques, qui sont des facteurs très importants pour le développement de cette société de l'information, de la communication et de la connaissance.

Cela a aussi des effets dans beaucoup d'autres domaines. On parlait tout à l'heure de l'environnement. On a effectivement aussi développé un réseau qui s'appelle « STIC et Santé » dans lequel on réunit des gens d'horizons très variés puisque cela va des nanotechnologies jusqu'à des gens qui se préoccupent effectivement de l'information médicale, de son extraction, de la santé à domicile, etc. On a, je pense, des éléments puissants.

En même temps, l'intervention de Dominique Boullier nous montre bien qu'il faut réintroduire dans chaque rupture fondamentale toutes les dimensions du savoir et de la connaissance.

Si on peut effectivement avoir des points de vue importants et si on peut les traduire concrètement, parce que ce qui va s'ouvrir à la Villette, à Grenoble, est très concret, c'est aussi parce qu'on a notamment au CNRS et à l'université, des chercheurs en sciences humaines et sociales qui labourent depuis très longtemps tous ces terrains, qui observent et qui nous réinjectent les problèmes au bon moment.

Ceci est capital pour l'ensemble parce que si jamais, effectivement, on ralentit le flux d'utilisation de ce ship, c'est toute la filière qui va s'écrouler. On perçoit par là toute l'interdépendance... de temps en temps, on a tendance à dire qu'on a comme cela un courant ascendant, on le prend, on y va, on fonce et il faut le faire aussi.

Il faut voir que toutes les grandes ruptures sociétales nous obligent à mettre toute notre intelligence au niveau recherche, au niveau industriel. J'insiste sur le rôle des politiques. Vous n'êtes pas seulement importants pour nous donner des moyens, car c'est vous qui nous légitimez, nous donnez les moyens ! Vous êtes importants aussi pour agir sur la combinaison totale de la science, de la société et de l'économie.

M. Claude Saunier, sénateur - Très juste.

Simplement un mot pour vous répondre, Monsieur Jutand, et répondre à l'intervenant précédent, l'Office Parlementaire d'évaluation des choix scientifiques et technologiques vient de missionner deux de nos collègues - dont l'un est dans la salle, M. Lorrain, ainsi que Monsieur Raoul - pour donner un prolongement à la première réflexion que nous venons d'avoir : microtechnologies, nanotechnologies, biologie et santé.

Là, les politiques, s'ils peuvent éclairer le chemin, essaient de jouer leur rôle.

M. Martinez - Je voudrais faire un commentaire : je pense qu'on n'a pas suffisamment insisté sur le fait que lorsqu'on veut se lancer dans les nanotechnologies, il y a la matière grise mais il y a aussi l'équipement.

L'équipement devient de plus en plus sophistiqué, nous l'avons dit, et souvent, ce qui se passe, c'est que dans nos laboratoires, on voit apparaître des équipementiers étrangers qui viennent nous proposer leurs équipements.

Nous travaillons sur ces équipements, tout en leur donnant un peu de valeur ajoutée.

Je pense que le moment serait venu, avec le réseau des centrales technologiques, avec l'avènement des nanotechnologies qui vont prendre de plus en plus d'essor, de pousser les feux sur les équipementiers français, que ce soit au niveau de la fabrication comme au niveau du nettoyage. La propreté des nano-objets à fabriquer est quelque chose de très important.

J'en veux pour preuve le fait qu'il existe des méthodes qui sont utilisées dans l'industrie pharmaceutique, qui actuellement viennent dans l'industrie de la microélectronique et de la nanoélectronique.

Monsieur le Sénateur, ce commentaire, j'aimerais bien que vous en preniez note, il faut que cela rejaillisse sur les laboratoires bien entendu !

M. Claude Saunier, sénateur - C'est déjà fait, Monsieur Martinez. J'y répondrai.

Avant, je vais donner la parole au Président d'un groupement d'équipements, JEMI.

M. Gaël Schmidt - Je suis le Président de JEMI France. Merci, Augustin, de nous l'amener sur un plateau.

En fait je comptais dire deux mots, mais plutôt dans l'après-midi parce que la thématique me semblait appropriée. Il existe en France une association type 1901 qui regroupe à peu près une cinquantaine de fabricants d'équipements et également de matériaux et de services pour l'industrie de la microélectronique et nanoélectronique, puisque pour nous, c'est le même périmètre.

Il est vrai qu'on a parlé beaucoup de nouvelles technologies, de nouveaux moyens mais tout cela n'est possible que grâce à des équipements bien évidemment ou des matériaux qui permettent d'avancer, et donc de produire de nouveaux dispositifs, toujours plus performants.

Ces équipements sont dominés notamment par les Américains, entre autres. Donc non seulement il y a besoin de nouveaux équipements pour construire de nouveaux dispositifs mais il existe aussi une notion de stratégie très importante. En effet, si on doit toujours attendre les intervenants français pour acheter des équipements qui ne seront pas forcément la dernière génération outre-Atlantique ou au Japon, non seulement on ne sera pas à la pointe de la recherche mais on sera également toujours relativement dépendants, d'où l'importance d'avoir une industrie des équipements forte avec un grand pouvoir de recherche, de façon à donner à nos industriels français ou européens des outils tout à fait adaptés pour pouvoir continuer d'être à la pointe dans ce domaine.

M. Claude Saunier, sénateur - Je réponds à Monsieur Martinez parce que c'est l'une des neuf propositions dont je vous parlerai en fin de colloque, mais j'avais bien noté ce que Monsieur Schmidt m'avait dit.

J'avais bien noté aussi quelques difficultés que j'avais rencontrées dans la visite des laboratoires dans deux domaines :

- j'ai le souvenir d'une microsalle blanche qui était équipée avec du matériel allemand, mis à disposition d'une équipe de chercheurs, rodé et mis au point par cette équipe de chercheurs, et évidemment le savoir-faire était au propriétaire du matériel, c'est-à-dire en l'occurrence, une firme allemande.

- l'autre exemple au moins aussi grave : on sait que dans le secteur industriel qui est le vôtre, tout ce qui relève de la conception assistée par ordinateur est quelque chose de véritablement déterminant. Or c'est un marché de logiciel qui est complètement dépendant des Etats-Unis, en l'occurrence, d'une firme ou deux, et j'ai vu un laboratoire qui n'avait pas les moyens de se payer ou d'acheter la licence, qui avait obtenu la mise à disposition de la licence, à condition de continuer à travailler sur le produit, à condition d'enrichir la base de données et par conséquent, nous avons continué à payer des chercheurs français pour enrichir un produit vendu par les Américains.

C'est donc une disposition très concrète que je propose au Ministre. Je crois qu'il faudra que nous réfléchissions aux conditions concrètes de mise à disposition et des logiciels et des matériels de nos centres de recherches.

M. Bois - Une question ?

M. Pascal Chenais - Bonjour, je suis Pascal Chenais, je suis le Directeur général de Cadence France. Vous pouvez l'entendre, je suis français, je suis européen, et si je participe à ces colloques, c'est parce que je suis intimement convaincu d'un certain nombre de choses et que je souhaite participer au développement d'un certain nombre de sociétés dans notre pays. A ce titre-là, je le reconnais.

On souhaite aussi s'inscrire, de façon plus intime, dans le développement de sociétés en tant que jeunes pousses, et participer de la façon la plus étroite à un certain nombre d'universités.

On ne connaît pas tout le monde. Ceci dit, et certains présents dans la salle peuvent en témoigner, on essaie d'être le plus proche possible d'eux, que ce soit au niveau universitaire, que ce soit au niveau du développement des PME-PMI et parfois, de manière extrêmement désintéressée.

C'est ce message que nous aimerions faire passer. Même si on vient d'une industrie américaine, on souhaite également participer et soutenir le développement de la recherche mais aussi le développement des sociétés quelles qu'elles soient pour pousser la mise en oeuvre d'un certain nombre d'idées qui viennent d'Europe, et notamment de France.

Il y a quand même un certain nombre de choses qui viennent de notre pays : le spatial, le train, l'automobile, etc. Si on peut participer à ce moteur, il y a certaines personnes ici qui peuvent témoigner qu'on le fait avec grand plaisir ! Le tout est d'avoir assez de bras pour couvrir tout le monde.

M. Bernard Faure - J'avais un certain nombre de questions à poser, compte tenu de la qualité des exposés qui ont été faits.

J'en retiendrai peut-être juste une : compte tenu de la diversité des applications que nous allons développer dans tous les secteurs d'activités, il me semble que, vu des pouvoirs publics, un des problèmes qui risque de se poser est de déterminer - pour éviter un saupoudrage de l'ensemble des aides publiques - quelles seront les technologies qu'il faudra retenir, je parle des technologies clés ?

Il me semble qu'à ce niveau-là, cela impliquera du côté des pouvoirs publics une démarche d'orientation globale des efforts. Ils ne pourront pas être développés partout, et il faudra donc définir les critères de sélection qui permettront de déterminer, tant du point de vue des utilisateurs que des consommateurs et de l'économie, vers quels secteurs probablement il faudra faire des grands choix. Ces grands choix, peut-être qu'on aura l'occasion d'y revenir cet après-midi !

M. Claude Saunier, sénateur - Monsieur Faure, là aussi j'ai bien entendu votre message au cours des multiples rencontres que nous avons eues.

L'une des réponses a été transmise à la ministre, c'est qu'il appartient aux pouvoirs publics de ne pas se substituer ni aux centres de recherche, ni a fortiori aux industriels, mais il appartient aux pouvoirs publics de baliser la voie.

La proposition que je fais, c'est effectivement l'organisation d'un vaste débat débouchant sur l'élaboration d'une loi programme parce que ce n'est pas année après année qu'on définit les choses, c'est sur plusieurs années.

Le temps est une donnée intéressante, avec derrière une loi de programmation financière. Il ne suffit pas d'annoncer des objectifs. Il faut aussi prendre des engagements dans la durée sur les moyens.

Comme les choses évoluent très vite, je pense qu'il faudra aussi se donner les moyens d'un ajustement annuel sous la forme par exemple d'une conférence qui réunirait les principaux partenaires et les pouvoirs publics pour ajuster le tir en fonction des évolutions.

M. Bois - Il nous reste environ 5 minutes... nous pouvons encore passer une ou deux questions.

M. Pierre Gentil - Je voudrais réagir, Monsieur le Sénateur, à un point que vous avez évoqué en ce qui concerne les moyens dont on dispose et les moyens qui peuvent être mis à notre disposition.

Je suis Pierre Gentil, je dirige un réseau national qui s'appelle le Comité national de la formation microélectronique et qui, entre autres, regroupe et met à disposition des moyens de l'ensemble des partenaires, universitaires, écoles d'ingénieurs, pour la formation mais également pour la recherche.

Par rapport à ce que vous avez dit, je voudrais simplement rectifier un point : avec notre partenaire Cadence, on a un accord à un niveau mondial et on dispose, je dirai, de toutes les licences d'utilisation des logiciels Cadence, bien entendu, dans des conditions extrêmement avantageuses, pour un usage pédagogique et de recherche amont. Il ne s'agit pas de détourner le marché de notre partenaire Cadence mais il s'agit de l'utiliser. Il n'y a aucune restriction en ce qui concerne la recherche amont.

Pour les laboratoires qui ne seraient pas pourvus, on a les moyens par l'intermédiaire du CNFM - et le responsable Michel Robert, des services nationaux, est présent ici - de les équiper.

Par contre, il y a des problèmes généraux, je dirai, pour notre organisation : on manque de moyens, et cela fait partie des points que vous avez soulevés dans votre rapport. J'espère que cela sera entendu parce qu'aujourd'hui nous ne sommes pas du tout dans la situation d'augmentation des moyens. Nous avons eu une réduction des moyens qui sont tombés à zéro pour l'année 2002. Par conséquent notre action est susceptible de s'arrêter très prochainement s'il n'y a pas une action des pouvoirs publics entreprise, et ce de manière importante.

M. Claude Saunier, sénateur- Merci de votre intervention.

On en reparlera cet après-midi.

En deux mots, comme un certain nombre d'entre vous, j'ai eu, au travers de ce rapport, l'occasion de rencontrer plusieurs partenaires à l'extérieur, à l'étranger.

Je crois qu'entre nous, nous pouvons dire que l'un des points forts de ce secteur industriel, c'est la qualité des systèmes éducatifs. On nous envie cette qualité à l'extérieur.

Deuxième élément : je l'ai dit dans mes propos introductifs, nous sommes dans un secteur qui est hypermondialisé, où la matière première principale est l'intelligence et où nos partenaires n'hésitent pas à nous acheter cette intelligence.

Il faut, par conséquent, que nous soyons extrêmement vigilants. J'ai un certain nombre de propositions ici. Parmi les problèmes évoqués, il y a en effet le soutien à votre réseau, le soutien à la formation spécifique dédiée aux micros de la microélectronique.

Cinq millions d'euros, c'est dérisoire par rapport aux enjeux économiques généraux et donc, je pense que j'aurai l'occasion de replaider, de façon un peu plus explicite, auprès du ministre et des ministres - en l'occurrence, ce n'est pas la ministre de la recherche qui est directement concernée, c'est un autre ministère - votre cause.

Cela renvoie aussi à la nécessité de décloisonner un petit peu le mode de fonctionnement de notre administration.

M. Claude Saunier, sénateur - Merci et bon appétit. La séance est suspendue.

( Applaudissements )

( La séance est suspendue à 12 h 45 ).

Page mise à jour le

Partager cette page