Allez au contenu, Allez à la navigation



Les nouvelles technologies de l'information

 

Rapport d'information n° 331 (1997-1998) de M. René TRÉGOUËT, fait au nom de la commission des finances, déposé le 4 mars 1998

Disponible au format Acrobat (1,2 Moctet)

INTRODUCTION

Le 7 janvier 1997, Alain JUPPÉ, Premier Ministre m'avait demandé, en me confiant une mission parlementaire, de mener une large réflexion sur les conséquences qu'auraient les Nouvelles Technologies de l'Information et de la Communication (NTIC) sur la Société Française, à l'aube du 3e millénaire.

Il m'avait demandé de lui préparer un ensemble de mesures qui seraient à mettre en oeuvre, pour que la France puisse ainsi mieux entrer dans le 21e siècle.

Je devais remettre mon rapport, au Premier Ministre, le 6 Juillet 1997...

Le Premier Ministre et son gouvernement ayant changé le 2 Juin 1997 et les usages obligeant, lors d'un changement de majorité, qu'un parlementaire, ainsi mandaté, se décharge de sa mission, j'ai rencontré, début Juin 1997, le Président du Sénat, Monsieur René MONORY, qui m'a demandé de poursuivre mon travail, et même de l'élargir.

Sous l'autorité de Monsieur Christian PONCELET, la Commission des Finances du Sénat, commission à laquelle j'ai l'honneur d'appartenir, a décidé le 3 Juillet 1997 de me confier une nouvelle et large mission sur les Nouvelles Technologies de l'Information et de la Communication.

Mes collègues, Pierre LAFFITTE, Alain GERARD et Franck SERUSCLAT, ainsi que le Député Patrice MARTIN-LALANDE et la mission : « Maîtriser la société de l'information : Quelles stratégies pour la France ? » dont les rapporteurs étaient Messieurs Alex TÜRK, Pierre HERISSON et Alain JOYANDET, ayant remis en 1997 un ensemble de rapports particulièrement bien instruits, j'ai complété mes travaux, à partir de Juillet 1997, par une nouvelle approche, pour éclairer sous un jour nouveau, la problématique posée par la montée en puissance des NTIC, dans notre Pays.

Appuyant les fondations de mon travail sur plus de cinq siècles de notre Histoire, j'ai essayé de comprendre pourquoi la France, depuis le début de la révolution industrielle, avait quasi systématiquement un comportement atypique, si nous le comparons aux démocraties anglo-saxonnes, face aux ruptures technologiques.

En me promenant ainsi sur les sentiers de l'Histoire, j'ai pu arrimer mon raisonnement sur quelques points d'ancrage forts, qui prennent appui sur la découverte de l'Imprimerie, en passant par le Concile de Trente et la Réforme, en observant l'Edit de Nantes et sa révocation avec la fuite des Huguenots, pour mieux comprendre la France Moderne qui, malgré sa volonté profonde de s'ouvrir, continue à vouloir s'abriter sous l'aile d'un Etat fort tel que l'avait conçu Colbert.

Les Nouvelles Technologies de l'Information et de la Communication permettant de tisser à une vitesse foudroyante, avec Internet, une toile mondiale qui, déjà, relie plus de 100 millions d'êtres humains, et qui devrait fondre dans une même communauté plus d'un milliard d'hommes avant 10 ans, posera inexorablement des problèmes fondamentaux à notre société pyramidale héritée de la Rome Antique et de la Rome Catholique.

Aussi, après m'être ainsi promené dans la Passé, j'ai décidé de plonger dans le Futur en allant à la rencontre des « Internautes » qui, avec un esprit de pionniers, sont en train de défricher les sentiers de l'avenir.

Comme cela se fait dans ce monde nouveau, j'ai allumé une petite lumière, qui s'appelle une page Web, pour dire à cette Communauté que j'existais. Comme la curiosité est un des traits marquants de ces aventuriers de la toile, mon site a accueilli plus de 16 000 visiteurs en un an.

Ils ont été des milliers et des milliers à répondre à mes longs questionnaires, qui m'ont permis de mieux comprendre leurs attentes, et à m'envoyer des e-mails (messages électroniques) ou à laisser souvent de longs développements sur le Livre d'Or ou dans le cadre du forum.

Ainsi, j'ai eu le privilège en faisant ce long plongeon dans l'avenir, d'être le premier parlementaire français qui aura autant appris des intervenants du réseau, que des longues et intéressantes auditions des personnalités placées au sommet de nos diverses structures pyramidales.

Je ne transcris, dans le deuxième tome de ce rapport, qu'une infime partie des remarques, souvent pertinentes, même si parfois elles étaient décapantes, des Internautes de la base.

J'ai tant appris, dans cette année écoulée sur le réseau, que je porte en moi l'intime conviction que, pour tout travail en profondeur sur des problèmes de société, les parlementaires en mission, comme les commissions d'enquêtes parlementaires, se feront un devoir, dorénavant, d'aller consulter un vaste public d'internautes, en utilisant un langage nouveau et non pas en transcrivant simplement nos documents administratifs trop souvent abscons.

Puisse ce rapport, dans les trois domaines majeurs de l'avenir, l'Education, l'Entreprise et le Citoyen, inspirer l'ensemble des hommes et des femmes qui gouvernent et administrent notre Pays, car les temps seront vite venus où une nouvelle ère va s'ouvrir pour toutes les Démocraties du Monde.

Il serait dommageable, pour notre Pays, que ses gouvernants, hauts fonctionnaires et aussi chefs d'entreprise qui se croient à l'abri, depuis des siècles, en haut de leur structure ne sentent pas que la mutation profonde portée par les réseaux est en train d'imbiber la base de nos vieilles pyramides, et ne pressentent pas la nécessité de ressourcer leur légitimité dans cette nouvelle eau de jouvence.

René TREGOUET
e-mail : tregouet@senat.fr

CHAPITRE I

IL Y A BIEN LONGTEMPS DEJA...

C'est l'imprimerie qui nous a fait entrer dans la société de l'information.

Si tout le monde s'accorde sur ce point, rien ne s'avère plus difficile que de retracer la genèse de cette société. L'histoire, on le sait, se prête mal à une lecture claire, objective et linéaire de son cours, travaillée qu'elle est par des influences aussi multiples que variées, par des mouvements de continuité aussi bien que par des moments de rupture, par des contrastes comme par des contradictions flagrantes. Les questions qu'elle nous engage à nous poser possèdent donc, elles aussi, ce caractère de complexité, en particulier lorsque nous nous penchons sur un événement de grande ampleur.

Ainsi, s'agissant de la société de l'information, certaines questions s'imposent d'emblée, au premier rang desquelles celle, fort complexe, des déterminismes. Comment, en effet, faire la part des déterminismes historiques ? géographiques ? humains ? Comment articuler, ensuite, ce qui relève d'actions individuelles et ce qui participe de champs plus collectifs ? Que faut-il imputer, enfin, aux facteurs économiques et politiques, culturels et sociaux ?

Au carrefour de multiples disciplines, toutes ces questions opposent et continueront longtemps d'opposer les chercheurs, qu'ils soient historien, géographe, sociologue ou spécialiste des média, suggérant à quel point l'appréciation des causalités historiques s'avère délicate en la matière.

Autant l'avouer d'emblée : loin de moi, la prétention de vouloir trancher ces débats. Loin de moi, également, l'idée de m'immiscer dans des polémiques qui excèdent de toute façon le cadre de cette étude.

Et pourtant, j'en ai la conviction : l'homme politique ne peut - et ne doit - pas se dispenser d'étudier le passé, afin de mieux comprendre, non seulement les évolutions inéluctables dans lesquelles l'histoire nous engage, mais aussi, et surtout, les blocages qu'elle nous lègue et qui pourraient nous empêcher de faire face aux exigences que l'avenir nous assigne si nous ne savions pas les reconnaître.

À ce nécessaire examen de nous-mêmes que l'histoire nous impose, et parfois avec brutalité, répond cependant une autre conviction. Ne sommes-nous pas également les héritiers d'atouts et de qualités indéniables ? À nous de les mettre en valeur. Il en va de l'avenir, assurément, car qu'est-ce que l'avenir, sinon le sens que nous donnons à notre passé ?

Ainsi, pour concilier cette double exigence d'engagement et de neutralité, de parti-pris et d'humilité, je me suis efforcé, autant que faire se peut, de ne retenir parmi les nombreuses analyses formulées par les spécialistes que les plus pertinentes, à coup sûr les mieux étayées, me proposant moins de la sorte de réconcilier des théories souvent opposées que de mettre en lumière ce sur quoi leurs auteurs s'accordent.

Dans ce chapitre, j'insisterai donc successivement sur les points suivants :

-- l'importance capitale de la progressive mise au point des techniques d'impression ;

-- leurs conséquences cruciales sur les questions religieuses en Europe ;

-- l'articulation complexe entre la doctrine protestante, l'esprit d'entreprise et le développement économique qui en découle et qui permet de rendre compte du déclin relatif de l'Europe méridionale à partir du XVIe siècle.

Mon souci de m'abstenir de prendre parti au sein de querelles d'experts, notamment pour ce qui concerne l'appréciation des causalités historiques, ne saurait néanmoins m'empêcher de rendre un hommage particulier à Alain Peyreffite, dont l'ouvrage, La Société de confiance, a guidé fortement ma réflexion.

En plus de ses analyses, je partage avec son auteur la conviction que les facteurs psychologiques et humains sont trop souvent sous-estimés alors même que leur importance nous apparaît chaque jour davantage.

Un autre livre, cité dans l'introduction de la présente étude, a également joué un rôle décisif dans ma réflexion. il s'agit des Nouveaux pouvoirs, d'Alvin Toffler, qui démontre avec brio dans quelle mesure la puissance du savoir tend à l'emporter de plus en plus sur la puissance de l'argent et de la violence.

1440 : GUTENBERG
INVENTE L'IMPRIMERIE

Avec la progressive mise au point des techniques d'impression, l'Occident rentre dans ce qu'il est convenu d'appeler " la civilisation des mass média ", cet autre nom de " la société de l'information ".

I. MÉDIA ET INFORMATION : DES APPROCHES COMPLEXES

Couramment employées, voire consacrées, ces expressions n'en conservent pas moins un certain flou sémantique. Marquées par une inflation de sens, elles désignent de nombreuses réalités et tendent progressivement à se substituer à de multiples concepts. Autant dire qu'un travail préalable de redéfinition de ces termes s'impose, prévenu que cette analyse de notions, pour rapide qu'elle pourra paraître, n'évitera pas de croiser des théories, sinon antagonistes dans leurs principes, du moins divergentes dans leurs conclusions.

A) " MÉDIA "

En ce qui concerne le terme de " médium ", force est de constater que ce terme renvoie à trois référents distincts (quoique, bien entendu, articulés).

En effet, il désigne tout à la fois :

-- une technique de communication (par le texte, par l'image, etc.) ;

-- un support matériel (papier, toile, écran, etc.) ;

__ un message transmis dans le processus de la communication.

Dès lors, deux conceptions se dessinent, qui distinguent et opposent les spécialistes des média.

La première accentue l'idée selon laquelle ces trois référents forment une réalité homogène. Ainsi du philosophe américain Mac Luhan affirmant triomphalement que " médium is message ", autrement dit que le canal de transmission et l'information transmise sont littéralement consubstantielles.

La seconde conception, quant à elle, accentue au contraire l'idée que la communication constitue un processus fondamentalement hétérogène. Qu'on insiste, avec Umberto Eco, sur la différence foncière des codes médiatiques (une image ne produit pas le même type de message qu'un texte) ; qu'on accentue, avec Régis Debray, le rôle capital des techniques employées (le matériau conditionne l'outil d'inscription qui, à son tour, détermine le type d'écriture) ; qu'on souligne, avec d'autres théoriciens, l'influence du contexte culturel, facteur d'un relativisme certain (" vérité en-deçà des Pyrénées, erreur au-delà " ; disait déjà Pascal), une chose est sûre : à l'image de son fonctionnement, le terme de " média " désigne une réalité plurielle, contradictoire, ambiguë, à tout le moins hétérogène.

B) " SOCIÉTÉ DE L'INFORMATION "

Autre expression, autres ambiguïtés. Faut-il parler de société de l'information ou de société de la communication ? Ces deux expressions renvoient-elles à un objet commun ? Quels liens est-il légitime d'établir entre les concepts de communication et d'échange, d'information et d'opinion ?

Pour anticiper sur quelques-uns de mes développements futurs, et pour faire l'économie de trop longs prolégomènes théoriques, j'accentuerai l'idée suivante : l'information, en soi, n'est qu'une matière première. J'emploie à dessein cette métaphore énergétique car, s'agissant de l'information, ce qui compte réside en grande part dans deux mécanismes. Sa mise en circulation, d'abord, sur laquelle je reviendrai plus longuement. Son exploitation, ensuite, au sens où il s'agit, selon moi, d'élever l'information aux statuts successifs de connaissances, puis d'expertise, enfin de culture et de sagesse. Je veux dire par là que l'information doit être inscrite dans un mécanisme de structuration progressive qui l'insère d'abord dans un système de données validées, puis dans un ensemble de connaissances éprouvées, rendant possible, enfin, la possibilité d'un savoir maîtrisé auquel l'expérience confère le nom d'expertise, la mémoire celui de culture et l'histoire celui de sagesse.

Je n'ignore pas, là encore, que chacun des termes auxquels je tente ici de donner une assise conceptuelle, se situe au carrefour de profonds débats théoriques.

Je n'entends pas les arbitrer.

Je souhaite, en revanche, et tel est le sens de ce premier chapitre, les inscrire dans une perspective historique.

À cela, deux raisons. Une raison théorique, tout d'abord : il est impossible, selon moi, de comprendre un phénomène, en particulier lorsqu'il s'agit d'un phénomène de grande ampleur, sans en retracer au préalable la genèse et le cheminement.

Une raison éthique, ensuite : de même que la politique ne se réduit pas à l'administration des choses mais repose sur le gouvernement des hommes, l'histoire appelle celui qui l'étudie à dépasser une lecture strictement objective des faits qui l'émaille et à considérer le destin de l'esprit humain.

II. L'IMPRIMERIE : ENTRE HASARD ET NÉCESSITÉ

Si l'on peut considérer que la société de l'information débute avec Gutenberg, il importe, afin de mieux mesurer la portée de l'époque qu'elle inaugure, de resituer la découverte de l'imprimerie dans son contexte historique. Cependant, rien ne s'avère plus difficile que d'étudier l'origine d'un phénomène, prisonniers que nous sommes, trop souvent, de ce que Bergson appelait " l'illusion rétrospective du vrai ".

Progrès irréversible de l'esprit humain ? Etape parmi d'autres dans la longue évolution des techniques ? Les interprétations divergent souvent : il est légitime de les considérer d'abord dans leur singularité, avant de mettre en lumière les faits sur lesquels elles s'accordent.

A) UNE RÉVOLUTION SANS PRÉCÉDENT

Pour le résumer d'une phrase : avec la découverte de l'imprimerie, on assiste au passage de la civilisation orale, qui imprègne le Moyen Âge, à la civilisation écrite, qui inaugure les Temps Modernes. Révolution considérable, irréversible, et pour ainsi dire sans précédent, comme le rappelle à juste titre Alain Peyreffite :

" Entre la découverte de l'Amérique en 1492 [qui suit de peu celle de l'imprimerie] et le partage de l'Afrique en 1882, la condition humaine, dans les pays les plus favorisés, a plus changé en quatre siècles que dans les trois ou quatre millions d'années qui ont précédé. Aucune évolution aussi radicale ne s'était effectuée en si peu de temps (...)

La " révolution néolithique " avait fait, de nomades voués à la prédation sur la flore et la faune naturelles, des cultivateurs sédentaires. mais elle s'était étalée sur plusieurs millénaires ; au XVIe siècle, quand sont apparus les premiers prodromes de la révolution du développement, les populations de la moitié des terres émergées n'avaient pas encore effectué leur révolution néolithique. Dans les siècles suivants, ces deux révolutions se sont télescopées. "

B) UNE MODESTE ORIGINE MATÉRIELLE

Changement de perspective, donc : à cette révolution considérable, Régis Debray assigne, quant à lui, une origine singulière, paradoxale, accentuant l'idée selon laquelle " au départ de l'histoire, il y a un hasard naturel ". Selon lui, pour penser la genèse de l'imprimerie, il est nécessaire de se départir d'une vision trop idéalisée de l'histoire et d'une confiance trop naïve dans son progrès. " L'histoire de la Raison, pose-t-il en guise de postulat théorique, commence comme un fait de nature. "

Et Debray de rappeler :

" Le pictogramme et la pierre vont ensemble. L'idéogramme naît avec l'argile (présent en Mésopotamie), qui permet de remplacer le poinçon ou le ciseau par le calame (en bois, os ou roseau), à la pointe taillée en biseau, d'où l'écriture cunéiforme. "

" Quand le support change, la graphie change. le papyrus (égyptien) permet l'emploi du roseau, plus simple et plus délié, comme le parchemin (en peau de bête) permettra, plus tard, la plume d'oie. passage crucial de l'angle à l'arrondi, du coin à la courbe. Ecriture syllabique qui simplifie et allège le système de notation. "

En d'autres termes, l'analyse de Debray est à la fois matérialiste dans la mesure où elle repose sur le principe selon lequel " le matériau conditionne l'outil d'inscription, qui lui-même dicte la forme d'écriture " ; mais elle est de surcroît relativiste puisqu'en l'historisant, elle considère l'imprimerie comme un procédé d'inscription parmi beaucoup d'autres.

D'où cette belle conclusion : " notre alphabet, donc notre démocratie, repose sur un roseau, et notre Raison graphique est, somme toute, un cadeau du monde végétal à l'espèce humaine ".

C) LE PASSAGE DE L'ÉCRIT À L'ORAL

Que l'on se place, à l'instar de Peyreffite, dans la perspective d'une histoire des mentalités ou dans celle d'une histoire des techniques, à l'instar de Debray, une évidence s'impose : avec l'invention de l'imprimerie, on assiste au passage d'une civilisation de l'oral à une civilisation de l'écrit.

Les conséquences d'un tel bouleversement sont incalculables et il serait vain, bien entendu, d'en prétendre faire ici le compte exhaustif, à supposer d'ailleurs que cela fut possible. Pour la suite de notre démonstration, on retiendra néanmoins, de manière très schématique, deux séries de mutations consécutives à l'invention de l'imprimerie.

Sont en effet corollaires du passage à l'écrit :

-- l'esprit analytique, les structures logiques, la distanciation critique, ainsi que certaines formes éthiques de comportement, en particulier l'individualisme ;

-- mais également la possibilité de conserver le savoir et de le substituer à la tradition orale, pré-rationnelle, fort empreinte de croyances et de superstitions.

Il importe de retenir ces deux facteurs dans la mesure où l'articulation de cette rationalité et de ces structures nouvelles s'inscrit par ailleurs dans un contexte historique, économique et politique en tout point favorable au développement de l'imprimerie.

III. UN CONTEXTE FAVORABLE

Faut-il le rappeler : le succès de l'imprimerie a été foudroyant. Etait-il pour autant inéluctable ? Rien n'est moins sûr. L'exemple de la Chine, qui avait également mis au point les techniques d'imprimerie, viendra confirmer à l'envi que la découverte de Gutenberg a profité en Europe d'un exceptionnel concours de circonstances.

A) UN PRODIGIEUX SUCCÈS

Selon l'ouvrage désormais classique de Febvre et Martin, l'imprimerie constitue d'abord un prodigieux succès. À la fin du XVe siècle, autrement dit cinquante ans à peine après l'impression du premier livre, on compte déjà 35 000 éditions, qui représentent au bas mot 15 à 20 millions d'exemplaires.

B) UNE RÉVOLUTION TECHNIQUE

Le triomphe de l'imprimerie s'explique également par la conjonction d'un ensemble de découvertes techniques, qui répondaient à l'attente d'un public avide et nombreux, d'une part, et qui, d'autre part, étaient susceptibles d'être exploitées par des entrepreneurs qu'un marché ouvert et fluide ne pouvait que motiver.

On retiendra néanmoins, en ce qui concerne la mise au point des techniques d'impression :

-- le rôle des caractères métalliques mobiles, fondus dans une matrice en creux, préalablement entaillée par un poinçon à tête dure, et, de ce fait, reproductibles à volonté.

Il s'agit là d'un aboutissement des progrès qu'avaient enregistrés les techniques de l'orfèvrerie (et, du reste, on peut se souvenir que Johannes Gensfleisch, bientôt connu sous le nom de Gutenberg, appartenait à la corporation des orfèvres de Nuremberg). Mais il était alors techniquement impossible d'utiliser ces caractères typographiques pour imprimer sur du parchemin, matière insuffisamment lisse pour supporter les nouveaux procédés, eux aussi fondamentaux, d'encrage et de presse.

-- Raison pour laquelle, acheté par les croisés aux Arabes, qui en tenaient le secret des Chinois, un autre matériau a joué un rôle crucial : le papier. Selon Régis Debray, " la révolution du livre est due, au fond, au papier plus qu'au plomb. C'est son couplage avec l'utilisation du papier de chiffon qui a donné au procédé de reproduction son essor fulgurant [...]. Même s'il n'a pas d'inventeur nominal, c'est lui le véritable multiplicateur de puissance ".

Par ailleurs, comme le rappelle Paul Chalus, préfacier de l'ouvrage de Febvre et Martin, " la vaste imagerie, surtout religieuse, qui s'était développée au XIVème et XVe siècle, n'a pas été pour peu de chose dans l'extension prise par l'industrie papetière. Celle-ci fut ainsi conduite au niveau où elle autorisait l'imprimerie ".

Ainsi l'imprimerie n'est-elle pas le résultat d'une seule technique mais d'un ensemble de techniques (orfèvrerie, papeterie, presse, encrage, etc.), parvenues de concert à maturité et agencées de façon décisive par Gutenberg et par ses associés.

Cependant, cette invention majeure n'était pas nécessairement voué au succès. Et à ce titre, l'exemple de la Chine se révèle particulièrement révélateur.

C) UN CONTRE-EXEMPLE : LA CHINE

Qu'une technique subisse des destins différents selon les cultures, voilà qui nous étonne à première vue. Ne vivons-nous pas à l'heure d'une mondialisation généralisée des techniques ? d'une certaine standardisation des modes de vie ? Il faut pourtant rappeler avec Philippe Breton et Serge Proulx que " l'existence de procédé technique n'est en rien une condition suffisante de son développement social [...]. Il lui faut des conditions sociales, culturelles et économiques propres ".

De fait, et contrairement à ce qui s'est passé en Occident, l'imprimerie s'est révélée être, en Chine, un puissant facteur de continuité et de d'immobilisme politique. En effet, elle a non seulement renforcé la diffusion des grands textes de la tradition classique, mais elle a également permis d'élargir le cercle de recrutement des mandarins.

Pourtant, les grandes étapes qui auraient pu conduire la Chine vers la conception d'une imprimerie moderne avaient été franchies assez tôt. Entre le Ier et le IIIe siècle, le papier est inventé. Au VIIIe siècle, la xylographie, procédé à base de planches en bois gravées en relief, est mise au point. Dès le XIe siècle, enfin, le principe de l'impression à caractères mobiles, en glaise ou en bois, est découvert.

Autant dire, toujours selon Breton et Proulx, que, pour développer l'imprimerie dans l'Empire du Milieu il aurait fallu " un appel de la société chinoise auquel son système de valeurs, élitistes et traditionaliste, ne la prédisposait pas ".

D) L'IMPRIMERIE EN EUROPE

Tel ne fut pas le cas en Europe.

De fait, l'impression y a d'emblée rencontré des lecteurs nombreux et motivés, d'une part, et, d'autre part, des entrepreneurs capables de fabriquer et de commercialiser leurs produits. En d'autres termes, le livre s'affirme dès le départ comme un outil de communication. Cette nouvelle fonction, qui a amplement contribué à son succès, lui a été attribuée par le vaste mouvement intellectuel contemporain de l'imprimerie. Ce courant d'idées, qui devait conduire à la Renaissance, a indéniablement été favorisé par le livre, même s'il lui était de peu antérieur. Ainsi le livre a-t-il été conjointement porteur d'idées nouvelles et porté par elles.

Autre facteur capital : il a de surcroît bénéficié, à ses débuts du moins, de la foi et de la piété traditionnelles qui marquaient en profondeur le Moyen Âge. Autrement dit, contre toute attente, ainsi que le note Régis Debray, " l'imprimerie n'a pas commencé par produire la culture humaniste mais par démultiplier l'ancienne ". D'ailleurs, observe de son côté Jacques Attali, aucune autre innovation ne sera mieux accueillie par l'Eglise.

De fait, l'un des premiers effets de l'imprimerie fut de multiplier de manière exponentielle les ouvrages de piété populaire, dont le nombre dépassait de loin celui des grands textes théologiques (classiques médiévaux et oeuvres des Pères de l'église), et cela à une époque où la majorité des lecteurs étaient des clercs. Au total, 45 % environ des incunables, autrement dit des livres publiés avant 1500, revêtaient un caractère religieux (bible, bréviaires, missels, textes mystiques, sermons, ouvrages de piété, etc.).

Rien d'étonnant, dans ces conditions, que les membres du clergé aient souvent été à l'origine de l'installation d'imprimeries dans les villes qui n'en possédaient pas.

Le nouveau procédé de reproduction d'ouvrages aura donc pour résultat d'opérer une sélection parmi les précédents manuscrits, prolongeant et amplifiant le succès des uns, plongeant les autres dans l'oubli. Mais, si près de 80 % des livres publiés sont écrits en latin, " ceux qui rencontrent le plus grand succès demeurent à coup sûr ceux qui avaient connu au Moyen Âge la plus grande vogue ». Il s'agit donc bien, au moins dans un premier temps, des textes les plus traditionnels, les plus classiques des classiques latins.

En d'autres termes, rien de vraiment novateur ni de vraiment subversif dans la majorité des premiers textes publiés.

Qu'en conclure, sinon que si on en était resté là, l'imprimerie ne serait devenue, à terme, qu'un instrument servant à perpétuer la scolastique médiévale, de même que la xylographie chinoise n'avait contribué qu'à conforter l'idéologie confucéenne et le système du mandarinat ?

E) IMPRIMERIE, RÉFORME ET HUMANISME

Cependant, peu à peu, vont se développer conjointement, en particulier à partir de l'Italie, le souci de pratiquer un latin de meilleure qualité, mais aussi l'exigence de prendre connaissance des textes originaux, et enfin une curiosité pour l'Antiquité -- toutes choses contribuant, d'une part, à exhumer certains auteurs, et d'autre part, à redécouvrir la langue hellénique.

Devenant de plus en plus accessible à tous ceux qui savent lire, le livre, en se développant, va ainsi bénéficier du courant humaniste, puis de l'essor des idées protestantes, tout en favorisant en retour leur propagation.

En d'autres termes, une véritable et profonde complicité, fondée sur une communauté d'intérêts, se crée donc entre l'imprimerie et les idées nouvelles. Cette complicité va également être stimulée par le succès d'oeuvres contemporaines (celles d'Érasme, par exemple) ainsi que par le recours accru aux langues nationales (qu'il s'agisse d'oeuvres originales ou de traductions). Ainsi, tout en restant prépondérante, la part des livres religieux régresse, tandis que s'accroît la part des textes de l'antiquité, des écrivains contemporains (les oeuvres d'Érasme sont tirées à des centaines de milliers d'exemplaires) et d'une littérature écrite en langue vulgaire, destinée au peuple (éphémérides, almanachs, recettes, etc.). Au total, Febvre et Martin situent entre 150 et 200 millions le nombre, probablement bien inférieur à la réalité, des exemplaires imprimés au XVIe siècle.

Il s'agit véritablement d'une progression fulgurante, qui inaugure de façon spectaculaire l'ère des médias de masse ainsi que l'avènement d'une société où l'information et le savoir sont désormais diffusés à une très large échelle.

Mais, à l'évidence, tout cela n'aurait sans doute pas été possible sans l'existence d'entrepreneurs motivés et d'un marché économique où pouvaient s'ajuster l'offre et la demande.

F) L'IMPRIMERIE DANS SON CONTEXTE ÉCONOMIQUE

De fait, les défis techniques et commerciaux ont été relevés dans un contexte économique en tout point favorable.

" Qu'on songe, comme nous invitent à la faire Febvre et Martin, à toutes les difficultés que posait l'organisation d'une industrie nouvelle, créée de toutes pièces, et la formation d'un réseau commercial destiné à écouler les livres reproduits désormais en série ".

" Dès la décennie 1460-1470, poursuivent-ils, l'imprimerie commence à se répandre, le commerce du livre s'organise : en Allemagne d'abord, pays de mines où existent des cités opulentes dans lesquelles on sait travailler les métaux, où les riches marchands, capables de financer la création d'ateliers sont nombreux ".

En effet, les imprimeurs allemands vont ensuite essaimer en Italie, en France et dans d'autres pays européens où se créent des ateliers typographiques. Si Venise reste, à la fin du XVe siècle, au premier rang de cette industrie naissante, deux villes françaises la suivent de peu : Paris d'abord, Lyon ensuite. Ce classement se maintient pendant le XVe siècle, période qui voit l'industrie du livre constituer progressivement une grande industrie, dominée par de puissants capitalistes, et devenir l'objet d'un grand commerce international.

La France figure ainsi parmi les pionniers de l'imprimerie.

Ainsi le livre est-il tout à la fois un outil intellectuel, un moyen de communication et une marchandise commerciale. De sorte qu'il faut accréditer la thèse de Febvre et de Martin selon laquelle " dès l'origine, les imprimeurs et les libraires travaillent essentiellement dans un but lucratif ".

En effet, contrairement à la situation chinoise, il existe en Occident "un système de valeurs à base mercantile capable de s'harmoniser avec la recherche systématique d'un accroissement des performances des systèmes techniques ". Et à cet égard, il convient de rappeler que les techniques bancaires et commerciales prennent leur essor au cours de la même période.

Ainsi, l'invention de Gutenberg s'inscrit dans une perspective lucrative. Elle mobilise des compétences financières autant que techniques, et ses acteurs sont aussi bien des banquiers que des papetiers, des marchands de manuscrits que des financiers.

Autre facteur contribuant à l'extension de l'imprimerie et à la circulation des livres : le développement des villes.

Sur un plan géographique, la diffusion s'effectue en effet à partir des villes de l'axe rhénan qui relient la France, les Etats allemands et la Suisse, au Sud ; à la Hollande et à l'Angleterre, au Nord.

La nécessité de rentabiliser les coûts élevés de l'édition conduit, d'autre part, à intensifier la promotion du livre dans toute l'Europe, son caractère portable lui ouvrant par ailleurs les grandes voies européennes de transport et de communication physiques.

Bref, le livre est ainsi intrinsèquement lié, dès ses origines, au mercantilisme et à la Renaissance : il en a bénéficié comme il les a avantagés. Il leur doit ses doubles caractéristiques d'outil de communication et de marchandise. Mais, réciproquement, il a favorisé leur pénétration dans les mentalités.

G) QUE PEUT-ON DEDUIRE DE CES DIVERSES OBSERVATIONS :

À titre de conclusion provisoire, on soulignera donc avec Chalus le fait que " si le succès de l'imprimerie fut en fin de compte, un aspect de celui de l'humanisme, à son tour, le livre a agi sur les conditions morales et sociales ". Car l'imprimeur était souvent aussi un humaniste et le libraire, un philosophe.

De sorte que les activités liées à l'esprit et celles liées à l'économie, loin de s'opposer, s'articulaient au contraire.

" La philosophie [en 1492] naît du marchand. La science naît du commerce " (J. Attali).

Autre manière de dire, cette fois avec Breton et Proulx, que la naissance de l'imprimerie s'explique essentiellement par " la convergence du mouvement de Renaissance et de l'esprit mercantile ". Car " l'innovation que fut le livre imprimé a elle-même été soutenue et rendue possible, par les multiples bouleversements sociaux et intellectuels que l'Europe a connus à partir du XVe siècle ".

En définitive, le prodigieux succès de l'imprimerie résulte donc d'une série d'interactions conjuguant des effets :

n d'évolutions techniques, économiques, intellectuelles et religieuses ;

n d'initiatives humaines émanant aussi bien de techniciens que de marchands, d'auteurs que de lecteurs ;

n d'un concours de circonstances particulièrement propices, combinant une extraordinaire soif de connaissances et de renouveau spirituel, et un contexte social rendu favorable par le repeuplement urbain, par le développement commercial de l'Europe ainsi que par la relative unité culturelle d'un continent dont les élites communiquent entre elles par le latin.

Restent, bien entendu, les différentes facettes du livre, presque contradictoires, qui ont contribué à l'imposer et à en faire tout à la fois : un objet standardisé, mais personnel ; un moyen d'expression, un outil de communication, une marchandise, mais aussi une oeuvre de l'esprit ; un produit consommable intellectuellement mais, en même temps, non fongible matériellement ; un instrument de diffusion de textes modernes comme d'oeuvres classiques.

Dans ces conditions, rien d'étonnant que les effets d'un instrument aussi polyvalent aient si profondément marqué la civilisation qui s'élaborait -- et qu'il contribuait à élaborer.

IV. DE PROFONDES CONSEQUENCES

Les effets de l'imprimerie sont considérables, multiples et complexes, qu'on les étudie à court ou à long terme ; qu'on se place sur le plan culturel ou religieux, social ou politique, voire politique ou économique.

A) HUMANISME ET DIFFUSION DU SAVOIR

Les conséquences les plus évidentes parmi celles induites par les nouvelles techniques tiennent à leur pouvoir d'amplification, de diffusion et de propagation de l'écrit, et cela dans une civilisation médiévale, encore fortement imprégnée de traditions orales.

À court terme, il va en résulter une diversification considérable des documents et des ouvrages à la disposition des lettrés.

À plus long terme, l'alphabétisation va contribuer à faciliter l'accès de tous -- du moins d'un nombre croissant -- à l'information et au savoir.

Sur un plan technique, la typographie modifie aussi en profondeur le rapport du lecteur à la chose écrite. De sorte que le travail intellectuel, tout comme la relation nouée entre l'auteur et le lecteur, vont s'en trouver radicalement transformés.

On assiste donc à l'accélération, à l'intensification et à l'extension de la pénétration de l'écrit dans la société, à commencer par la sphère restreinte des lettrés.

Si des données suffisamment fiables et complètes nous manquent, qui permettraient d'évaluer la proportion de la population sachant lire au moment de l'apparition de l'imprimerie, il est cependant évident que, dès cette époque, une demande importante d'ouvrages se manifeste..

Certains perfectionnements techniques permettent d'accélérer la cadence des copistes, et les manuscrits les plus recherchés (livres d'heures ou de piété, ouvrages d'enseignements élémentaires, etc.) sont recopiés par centaines dans certains ateliers.

Dans le même temps, les étudiants, qui constituent avec les clercs et les enseignants la majorité des liseurs, se comptent par milliers dans des universités comme celle de Paris ou celle de Cologne. Plus tard s'y adjoindront les gens de robe, dont les bibliothèques, à partir de la seconde moitié du XVIe siècle, deviendront plus nombreuses que celles des ecclésiastiques.

Ainsi, les tirages qu'atteignent relativement vite les ouvrages imprimés (20 millions d'exemplaires à la fin du XVe siècle ; 150 à 200 millions au XVIe siècle) témoignent d'un appétit de lecture et d'une avidité intellectuelle incontestables.

D'autre part, l'alphabétisation -- très inégale, comme on le verra plus loin, entre les pays catholiques du Sud et les pays réformés du Nord -- ne fera qu'accentuer cette demande et, partant, l'influence du livre.

Bref, comme le remarquent Febvre et Martin, il est indéniable que la découverte de l'imprimerie peut d'emblée être tenue " pour une étape vers l'apparition d'une civilisation de masse et de standardisation ", même si, au premier abord, " la culture du temps ou plus précisément son orientation n'en paraît guère changée ". Si bien qu' " à l'origine, les contemporains de Gutenberg purent peut-être ne voir dans la reproduction mécanique des textes, qu'une innovation technique commode, utile surtout pour la multiplication des textes les plus courants ".

" Mais bientôt, poursuivent les mêmes auteurs, se révélèrent les possibilités qu'offrait le nouveau procédé et ses effets bouleversants. Car, très vite, l'imprimerie rendant les textes plus largement accessibles, leur assura une force de pénétration bien plus puissante que celle des manuscrits ".

Force de pénétration, donc, liée à un effet démultiplicateur qui va bénéficier au courant humaniste, certes antérieur à l'imprimerie, mais dont il devient, en quelque sorte, inséparable.

Pour être plus précis, le triomphe de l'esprit humaniste, à l'évidence indissociable de celui de l'imprimerie, se manifeste par la quantité croissante de textes antiques publiés, qui s'insèrent dans une production totale explosant littéralement au XVIe siècle.

Aux effets de la diffusion croissante des auteurs classiques latins, fort prisés au XVe siècle, vont s'ajouter, au siècle suivant, ceux de la redécouverte d'auteurs moins connus, bientôt suivie par la vogue de l'hellénisme suscitée par les citations, en langue grecque, de certains auteurs latins, ainsi que par les contacts avec la Grèce. Des traductions en langue vulgaire se multiplient, tandis que certains ouvrages contemporains rencontrent une très large audience (Rabelais, bien entendu, Budé mais aussi Érasme, dont les Adages et les Colloques sont tirés, avant leur mise à l'index, à des centaines de milliers d'exemplaires).

En d'autres termes, ainsi que l'écrivent Breton et Proulx, " le livre qui avait servi jusque là à diffuser la culture médiévale allait devenir l'outil privilégié d'une redécouverte de l'Antiquité ".

B) IMPRIMERIE ET RÉFORME : L'ALLIANCE SACRÉE

Mais la Renaissance ne réside pas seulement dans cette recherche érudite, qui ne semble orientée que vers le passé. Elle constitue aussi et surtout un véritable courant intellectuel, moderne et novateur. Ainsi n'est-ce pas seulement à travers le goût de l'Antiquité que l'humanisme va favoriser les progrès de l'imprimerie, mais davantage par son système de valeur au sein duquel le livre est érigé en vecteur essentiel de la communication.

Liée dès son origine aux progrès de l'humanisme, qu'elle va en retour favoriser, l'imprimerie va se retrouver ensuite mise au service d'une cause religieuse : la Réforme.

Cependant, sur ce point, on prendra garde de ne pas se laisser prendre au piège de déterminismes naïfs, tout comme on résistera à la tentation d'établir une lecture historique fondée sur des causalités simplistes.

En d'autres termes, tout nous engage à faire nôtre la restriction formulée par Febvre et Martin : " Nous n'avons pas évidemment la ridicule prétention de montrer que la Réforme est fille de l'imprimerie : mais le livre, témoin des convictions, soutien dans les discussions, instrument de ralliement des hésitants, joue, au XVIe siècle, dans le développement du protestantisme, un rôle essentiel ".

Le 31 octobre 1517, en effet, les 95 thèses de Luther sont publiées en latin. Elles marquent les débuts de la Réforme. Et " pour la première fois se déclenche ce que nous appellerions aujourd'hui une campagne de presse. Du même coup se révèlent les possibilités que confèrent l'imprimerie à ceux qui veulent atteindre et soulever l'opinion ".

Pour le résumer d'une phrase, " toute une littérature d'information se constitue, ancêtre de notre actuel journal (1(*)) ".

De fait, dans un contexte culturel marqué par un déclin relatif de l'audience des livres humanistes (et notamment ceux d'Érasme), " Luther fait la fortune de ses imprimeurs ". Au total, Febvre et Martin estiment que " la diffusion des écrits de Luther dépasse sans doute le million d'exemplaires dans la première moitié du XVe siècle ", de sorte que " pour la première fois s'est constituée alors une littérature de masse, destinée à tous et accessible à tous ".

Dans le même temps, s'affirme en Europe, avec la propagation des textes de Luther, qui se joue de la censure, le caractère international du commerce du livre. Ainsi, Calvin, à l'instar de Luther, saura se servir de la presse pour diffuser des dogmes nouveaux, tandis que Genève deviendra, à la fin de la première partie du XVIe siècle, une capitale européenne de l'imprimerie.

Le livre apparaît donc comme un multiplicateur d'écrits, dont la force de pénétration procède du caractère massif de son pouvoir de diffusion. Rien d'étonnant, dès lors, qu'il soit tout naturellement enclin à favoriser la propagation des idées nouvelles et, en retour, à s'en nourrir.

Mais la révolution du livre n'a pas seulement été d'ordre quantitatif. Elle était aussi -- et surtout, sommes-nous tenté d'ajouter -- d'ordre qualitatif, ce qui n'a fait, bien entendu, que renforcer son succès.

C) DE LA NOUVEAUTÉ DES TECHNIQUES À LA MODERNITÉ DES USAGES

Ces évolutions qualitatives découlent en partie des caractéristiques matérielles même du livre. Mais elles résultent également de l'impact des idées de l'époque concernant ses usages.

Autrement dit, il y a donc tout à la fois une influence du livre sur l'élaboration des idées et des idées sur l'utilisation du livre.

Incidence, tout d'abord, des particularités matérielles de ce support : son caractère portable en fait un objet personnel, contribuant à développer l'individualisme et à créer une complicité particulière entre le lecteur et des auteurs jusqu'alors souvent anonymes ou associés.

Du fait qu'il est virtuellement reproductible à l'infini, le livre n'échappe pas, ensuite, à une relative banalisation, qui favorise par contrecoup une certaine désacralisation de son contenu et qui favorise, par conséquent, l'oeuvre de laïcisation vers laquelle tend, de son côté, l'humanisme.

Mais l'imprimerie permet également une diversification des tirages, qui crée des exigences intellectuelles, autant qu'elle permet de satisfaire celles qui lui préexistent (ainsi de l'accès aux versions originales, dépouillées de tout commentaire, ou de la lecture d'auteurs oubliés ou contemporains).

Enfin, parce qu'il est le produit d'un ensemble de techniques nouvelles, le livre suscite une curiosité des lecteurs pour tout ce qui concerne les questions techniques, voire technologiques, encourageant de ce fait les approches empiriques et utilitaristes.

Mais autant que ses caractéristiques matérielles et techniques, les courants de pensée de l'époque influent sur l'utilisation du livre, et cela d'autant plus que l'éveil et l'avidité intellectuels des lecteurs, comme leur niveau d'exigence, sont très développés.

Ainsi font-ils du livre, tout à la fois :

-- un vecteur de communication, orienté vers la propagation des idées et au service des échanges intellectuels ;

-- un outil pédagogique, propice à la diffusion du savoir (parmi les plus gros tirages de l'époque, on compte en effet nombre d'ouvrages didactiques : compilations médiévales, grammaires grecque et latine, traités de mnémotechnie, etc.) ;

-- un amplificateur culturel, qui accroît les connaissances disponibles et facilite, en même temps que leur diffusion, leur conservation ;

-- un agent d'émancipation, enfin, par rapport au discours de la scolastique, contribuant à dissocier la foi de la raison, à affaiblir l'emprise linguistique du latin sur les langues nationales, et à substituer à une approche théologique des connaissances une nouvelle anthropologie fondée sur les valeurs humanistes.

De l'ensemble des conséquences qui en résulte, il est impossible de faire la synthèse exhaustive.

On retiendra cependant que se développent alors : l'esprit critique, l'usage d'une rationalité davantage empirique, ainsi qu'un lien nouveau établi entre le goût de l'autonomie, d'une part, et l'aspiration à la liberté individuelle, de l'autre -- lien inédit qui s'ébauche au moment où se déclenchent certains mouvements collectifs de grande ampleur aboutissant à la constitution de nouvelles religions et à la redéfinition des États-nations.

Ne peut-on aller jusqu'à dire que ces évolutions annoncent la philosophie des Lumières et la remise en cause généralisée des absolutismes politiques ?

D) D'UN MONDE CLOS À UN MONDE INFINI : LES CONSÉQUENCES ÉPISTÉMOLOGIQUES DE L'IMPRIMERIE

Pour les évaluer, on peut recourir à la terminologie élaborée par Mac Luhan et affirmer, avec lui, qu'un abîme sépare l'homme typographique de l'homme scribal. La mémoire " était encore au Moyen Âge le pivot de la culture scribale " ; la publication avait lieu sous forme de manuscrit et, par conséquent, cette culture ne pouvait pas avoir d'auteurs ni de publics comme ceux crées par l'imprimerie.

Ainsi, les multiples influences de la typographie sur le langage amènent l'universitaire canadien à proclamer qu'" avec Gutenberg, l'Europe est entré dans la phase technologique du progrès ", en ce sens que " la portativité du livre, comme celle de la peinture de chevalet, a beaucoup contribué au culte de l'individualisme ".

Et Mac Luhan de conclure : " l'imprimé a crée l'uniformité nationale et le centralisme gouvernemental, mais aussi l'opposition au gouvernement en tant que tel ".

S'il s'avère toujours problématique, en histoire, de recourir au concept de progrès, rien n'interdit, cependant, de reprendre la thèse de Mac Luhan selon laquelle l'imprimé a provoqué un changement profond dans la pensée, en faisant de la recherche de la certitude, obtenue au moyen du doute méthodique cartésien, l'objet premier du savoir.

Et, pour étayer cette thèse, on empruntera à Régis Debray certaines de ses analyses. Selon lui, " rigueur déductive ", " fermeté des principes ", " solidité morale " et " cohérence logique " constituent les traits archaïques de l'homo typographicus, lesquels tendent aujourd'hui à s'effacer devant l'impératif de la vitesse de transmission des informations. Les valeurs de la " logosphère " (que définit le règne de l'écriture) s'opposent alors à celles de la " graphosphère " (où domine l'imprimerie). La publication, mode privilégié de la seconde, se substitue à la prédication, vecteur dominant de la première ; l'héroïsme à la sainteté ; et la loi à la foi.

De leur côté, Breton et Proulx insistent sur le rôle que la Renaissance va faire jouer au livre dans le domaine de la communication : " Le livre se révéla être un objet au service de la communication, qui se communiquait bien lui-même. Une grande partie de sa force est sans doute venue de ce redoublement ". en outre, " l'une des grandes innovations intellectuelles de la Renaissance fut de faire de l'idée" elle-même un objet de communication, voire une information ". De sorte que l'intellectuel passe du statut de commentateur de textes sacrés à celui, laïque et critique, de découvreur d'idées.

Dès lors, comme le souligne Frances Yates, les vastes constructions mentales qui permettaient de disposer les faits afin de les conserver présents en mémoire, s'avèrent brusquement frappées d'obsolescence. En effet, les procédures intellectuelles se révèlent désormais moins orientées vers la reproduction d'un savoir passé, que tournées vers l'exercice de l'esprit critique.

Autant dire que la réflexion humaine s'affirme moins strictement conservatrice. Et Breton et Proulx d'ajouter : " Les bibliothèques, les conférences et les échanges [...] vont constituer une véritable université informelle, délocalisée [...], ne vivant que de la circulation effective des idées, et, du coup, de leur constant enrichissement ".

Ne peut-on aller jusqu'à dire que Thomas More et Érasme, citoyens du monde, intellectuels ouverts au échanges, membres de réseaux informels, préfigurent l'homme de communication moderne ?

Accessoirement, Breton et Proulx insistent sur le rôle des livres techniques (1(*)), formidables amplificateurs des valeurs qui avaient si massivement contribué à la naissance de l'imprimerie, à savoir le réalisme, l'utilitarisme et l'empirisme.

Par sa forme même, le livre va ainsi favoriser les techniques et les sciences descriptives, qui trouvent en lui un support idoine à leur diffusion massive.

Gardons-nous cependant de croire que ces profondes évolutions se sont imposées du jour au lendemain. À cet égard, Régis Debray fait remarquer avec pertinence qu'il aura fallu une longue période de maturation (au total, près d'un siècle) pour qu'une nouvelle morale intellectuelle naisse, qui consacre les usages de cette nouvelle technique de communication.

Cependant, ces évolutions, tout comme leurs conséquences ramifiées, étaient irréversibles : " Gutenberg inaugure l'âge des discours de la méthode. De la calligraphie à la typographie, il n'y a pas seulement passage quantitatif de l'artisanat à l'industrie, mais qualitatif, d'un monde clos à un monde infini ".

Et Debray d'ajouter : " Toute copie manuscrite tenait peu ou prou de l'exégèse ". La composition, en rendant irrémédiable la moindre faute de composition, " instaure, en filigrane, un code du bien penser stipulant l'exigence de la preuve, la principe de non-contradiction [...] : les règles de politesse de la Raison ". Ce qui le conduit à proposer cette définition de l'esprit rationnel et critique " qui ne consiste pas à critiquer l'autorité par principe mais à vouloir l'établir sur des principes ".

Mais notre analyse, aussi sommaire soit-elle, serait incomplète si on ne mentionnait pas l'ultime conséquence épistémologique induite par la livre : la laïcisation de la pensée.

Dans un des chapitres de son ouvrage 1492, intitulé " L'éveil de la liberté ", Jacques Attali en propose l'interprétation suivante :

" En rendant possible la circulation des textes philosophiques, le livre accélère la critique religieuse [...]. La diffusion des livres de messe à bon marché [...] fait perdre de son prestige au prédicateur [...]. Le temps laïc est venu. La réflexion philosophique se sépare alors de la dévotion religieuse, la seconde relevant de l'ineffable et de la grâce, la première de la conscience et de la raison (2(*))".

Reconnaissons-le avec Breton et Proulx : " La tentation est grande, ici comme ailleurs, de voir dans la technique la cause du changement social ". Mais, comme l'illustre l'exemple de la Chine, il est nécessaire de répéter que " l'existence du procédé technique n'est en rien une condition suffisante à son développement social. Il lui faut non seulement des conditions sociales, culturelles et économiques propices, mais il semble en plus que ces conditions multiples jouent un rôle non négligeable dans le processus d'invention lui-même ".

Étape décisive et changement irréversible, conclut Attali : " le pouvoir vient du savoir ". La modernité -- notre modernité -- est en marche.

" Plus qu'aucune autre pratique, la lecture va désormais bouleverser la pensée du temps ".

" Et la pensée va aider à l'explosion de l'économie ".

Reconnaissons-le avec Breton et Proulx : " La tentation est grande, ici comme ailleurs, de voir dans la technique la cause du changement social ". Mais, comme l'illustre l'exemple de la Chine, il est nécessaire de répéter que " l'existence du procédé technique n'est en rien une condition suffisante à son développement social. Il lui faut non seulement des conditions sociales, culturelles et économiques propices, mais il semble en plus que ces conditions multiples jouent un rôle non négligeable dans le processus d'invention lui-même ".

De sorte qu'en guise de synthèse, il convient de s'accorder sur un point : " Le livre imprimé, support de nouvelles pratiques d'échanges intellectuels, préfigurant des formes modernes de communication sociale, a été véritablement au point de convergence des nouvelles techniques, du développement de l'esprit mercantile et de la mise en mouvement des idées avancées par les humanistes ".

Il n'était donc pas indifférent de se pencher sur ce passé qui a tant contribué à modeler notre avenir.

" L'avenir vient de loin ", pour reprendre une formule de Jean-Noël Jeanneney.

Aujourd'hui encore, nous subissons les influences de ce lointain passé. À nous d'en tirer des leçons pour construire, dès à présent, notre futur.

Premier véritable média de masse et précurseur de la société de l'information, le livre a permis la diffusion du savoir, nouveau fondement du pouvoir. Il a contribué au triomphe d'idéaux modernes, qu'ils soient individuels, comme la liberté, ou collectifs, comme la nation. Il a favorisé, enfin, le mouvement religieux de la Réforme, dont les valeurs, nous le verrons, ont profondément marqué l'Europe.

En ce sens, tout a en effet commencé avec Gutenberg.

Mais, pour autant, aucun nouveau médium ne surgit du néant. De sorte que nous faisons nôtre cette remarque de Régis Debray : " Chaque innovation ampute et ajoute, les comptabilités varient avec les partis pris philosophiques, un seul point sûr : pas d'additions sans restes ".

Autant dire qu'un certain nombre de questions se posent maintenant, auxquelles il nous faudra répondre.

La typographie s'appuie sur l'alphabet et sur l'écriture : a-t-elle aujourd'hui été détrônée par l'image qui semble imposer le règne sans partage de ce que Debray appelle la " vidéosphère " ? Ou bien faut-il admettre, avec Umberto Eco, que " grâce à l'informatique, nous sommes revenus à l'époque de l'écriture " ?

L'histoire bégaye-t-elle ? Procède-t-elle par cycles, en se retournant sur elle-même ?

Quoi qu'il en soit, l'exemple de l'imprimerie prouve s'il en était besoin que l'instauration d'un nouveau médium suppose à la fois une offre de nouvelles techniques et de nouveaux contenus, mais aussi une demande correspondante.

Une chose est sûre : la technique est aujourd'hui au rendez-vous. Mais la richesse des contenus et l'avidité intellectuelle des utilisateurs sont-elles en mesure de supporter la comparaison avec celles qui se manifestaient au cours de la Renaissance ?

Pour formuler autrement la question : comment, aujourd'hui, mieux articuler les évolutions techniques et les nécessaires évolutions qu'elles impliquent aussi bien dans le registre des comportements sociaux que dans celui des habitudes intellectuelles ?

V. LA REFORME ET LA « DIVERGENCE » :

A) DES APPROCHES DIFFERENTES ENTRE LE NORD ET LE SUD DE L'EUROPE

Autant faire preuve d'une certaine humilité : de même que les liens de l'imprimerie avec l'humanisme, ou la réforme, on ne saurait résumer les relations entre la réforme et le développement économique en une simple filiation.

En ce qui concerne les effets de l'imprimerie, l'écheveau des causes et des conséquences s'avère, on l'a vu, particulièrement complexe. S'agissant des conséquences de la réforme, les choses sont encore plus complexes. Tout un faisceau de facteurs agissent de concert, qu'ils soient géographiques, historiques, humains, structurels ou circonstanciels, individuels ou collectifs. Et, de surcroît, on ne saurait assez souligner ce fait. La part du seul élément confessionnel est particulièrement difficile à évaluer.

Devant un tel enchevêtrement d'explications possibles, se prêtant, ici plus que jamais, à de féroces controverses, mieux vaut s'en tenir, comme le font avec pertinence Alain Peyrefitte et Pierre Chaunu, à des rapprochements aussi incontestables que possible.

Selon Alain Peyrefitte : « en rapprochant systématiquement la carte religieuse de l'Europe et les cartes des phénomènes économiques, sociaux et culturels, on constate qu'elles se recouvrent à peu près exactement ; et qu'en termes statistiques, ces recouvrements sont significatifs ».

Pierre Chaunu, de son côté, corrobore cette analyse : « On pourrait parler... d'une corrélation positive entre l'histoire de la chrétienté protestante et dynamique économique, d'une part ; corrélation négative, d'autre part, entre la ligne de la chrétienté catholique et les schémas éprouvés d'une histoire dynamique et quantitative de moins en moins économique et de plus en plus totale ». Et plus loin : « On ne peut guère, présentement, que constater l'accord. Il est grossier, vrai dans ses grandes lignes seulement, mais il se place en dehors de toute polémique possible ».

Pourtant, Alain Peyrefitte affirme par ailleurs que « les corrélations... restent trop isolées pour ne pas prêter à contestation... » et que « le lien entre la confession religieuse et le comportement économique reste sujet à caution ».

Pourquoi ? Parce que l'on manque d'études suffisamment systématiques. Chaunu incline, en effet, à penser, d'une part, que « le concept de mentalité économique reste encore à construire » et que, d'autre part, la fécondité de l'analyse de la longue imprégnation religieuse des sociétés européennes « a été sans doute largement sous-estimée ».

« Ce n'est pas seulement au XVIe siècle et au XVIIe siècle - ose-t-il affirmer - que la géographie religieuse est pertinente. C'est encore le cas à la fin du XXe siècle ». Il faudra, en effet, s'en souvenir. Comme il faudra avoir sans cesse présent à l'esprit ceci : « Ce critère religieux hérité du XVIe siècle demeure un discriminant topique ».

B) L'INFLUENCE DU FACTEUR CONFESSIONNEL
SUR LE DEVELOPPEMENT EST DIFFICILE A METTRE EN EVIDENCE

Dans « La société de confiance », essai consacré aux origines et à la nature du développement, Alain Peyrefitte joue sur le terme « divergence » pour évoquer, à la fois, ce que d'autres ont préféré désigner par le terme de décollage économique, et le fossé qui s'est creusé, en la matière, à partir du XVIIe siècle, entre les pays protestants du Nord et les pays catholiques du Sud.

A la traditionnelle métaphore aéronautique qui se réfère à la résultante des forces de pression qui s'exercent sur l'aile d'un avion, l'académicien substitue une image empruntée à la physique nucléaire : celle de l'enclenchement de réactions en chaîne au sein d'une pile atomique, image qui lui semble mieux rendre compte de la combinaison complexe de causes et de conditions en question.

Cette complexité explique qu'« il est temps d'en finir avec une explication mécanique, en termes de causalité pure et simple : protestant, donc économiquement avancé ; catholique, donc économiquement retardé. Cette alternative est une caricature, à laquelle il nous faut substituer des traits réels ».

C'est ainsi une erreur, à ses yeux « que de vouloir aligner, comme des facteurs homogènes, confession religieuse et comportement économique ».

Cependant ce serait une erreur que de dénier à la foi religieuse tout rôle d'influence dans l'activité économique.

« Le facteur confessionnel peut entrer en ligne de compte dans l'appréciation de la distorsion économique et culturelle dont la chrétienté d'Europe occidentale constitue une remarquable occurrence. D'ailleurs, le recoupement des zones dynamiques avec la culture réformée, celui des zones ankylosées avec le maintien du catholicisme et surtout avec son durcissement lors de la " Contre-Réforme " peuvent-ils être le fruit du seul hasard ? ».

Il n'en demeure pas moins, comme le souligne Pierre Chaunu, que cette coïncidence n'est que « grossière » (voir plus haut) et souffre d'assez nombreuses exceptions (la forte alphabétisation des Alpes catholiques germaniques, par exemple ; ou celle, à un degré moindre, de la France du Nord de la Loire ; ou encore le caractère relativement tardif du décollage industriel de l'Allemagne, etc...).

Une certaine correspondance donc, peut être mise en évidence, mais elle reste difficile à analyser.

C) LES AFFINITES DU PROTESTANTISME

« Les sociétés qui sont entrées en Réforme n'en sont pas sorties. Ce sont elles aussi qui sont entrées les premières en développement », écrit Alain Peyrefitte, résumant les conclusions de Pierre Chaunu.

Ce dernier observe en effet que « ce qui a été fait n'a jamais été défait. Tout s'est joué de 1520 à 1550. Une fois marquées, les frontières entre Réforme et Contre-Réforme n'oscilleront plus ».

« Ordonnons - poursuit-il - les pays et les régions par ordre de date d'entrée, suivant les classifications aujourd'hui classiques de W. W. Rostow dans les étapes du décollage et de la croissance soutenue. Nous retrouvons toujours en tête, à plus de 80 %, des pays en majorité protestants ou à culture dominante protestante, et, aux places en flèche, de tradition calviniste ».

Comme l'a montré Fernand Braudel, l'Europe bascule sur elle-même, vers 1600, au bénéfice du Nord. Mis à part un bref intermède génois, Anvers, Amsterdam puis Londres vont supplanter Venise, et s'affirmer comme les principaux centres économiques et commerciaux, consacrant de ce fait le déclin de la Méditerranée.

Les annexes de La société de confiance confirment sur certains points cette constatation globale, qu'il s'agisse de l'évolution des rendements céréaliers, dans des conditions géographiques comparables, du franchissement du seuil de densité de 40 habitants au kilomètre carré, du niveau des taux d'intérêt, etc.

Mais l'explication de cette divergence demeure délicate, comme en témoignent la discordance des interprétations avancées, les exceptions à la règle générale constatées, ainsi que la diversité des facteurs autres que confessionnels ou indirectement liés à la religion, comme l'émigration, susceptibles d'être pris en considération.

La variété, enfin, des expressions du mouvement de la réforme, en dehors des deux principaux courants, luthérien et calviniste - plus différents qu'opposés, selon Chaunu - ne facilite pas la tâche.

Ces divisions du protestantisme jouent un rôle important dans les analyses développées par Max Weber dans Ethique protestante et esprit du capitalisme, les premieres à être entièrement consacrées à ce sujet.

Avant Weber, Marx s'était contenté, comme le rappelle Alain Peyrefitte, d'opposer incidemment une mentalité catholique, orientée, par le salut et par les oeuvres, vers le concret (donc vers les espèces monétaires métalliques, en or ou argent) à un esprit protestant que le salut par la foi prédisposait à faire confiance aux systèmes fondés sur la monnaie fiduciaire et sur le crédit.

Rejetant le déterminisme énoncé par Marx, Weber considère qu'un « arrière plan d'idées » a préexisté à l'apparition du capitalisme. L'esprit capitaliste, antérieur à l'instauration des infrastructures correspondantes, aurait été favorisé par la morale protestante. Et la réforme aurait ainsi offert au capitalisme une idéologie d'élection :

- en contribuant, d'une part, à un progrès de la rationalité des comportements (par rapport à l'influence des religions traditionnelles) ;

- et, d'autre part, en consacrant, d'un point de vue moral, les activités temporelles.

Mais, et c'est là où la diversité du protestantisme intervient, la mentalité capitaliste se serait affirmée par réaction à l'intégrisme calviniste et l'importance primordiale attachée aux activités terrestres découlerait en particulier du Luthéranisme.

En outre, Weber estime que c'est l'esprit de religiosité ascétique, propre au puritanisme, qui aurait donné naissance au rationalisme économique.

Aux explications weberiennes, Alain Peyrefitte reproche, entre autres, leur manque de simplicité.

De fait, les paradoxes qui l'émaillent sont nombreux :

- le fatalisme devrait être ainsi la conséquence logique de la prédestination alors que c'est l'inverse qui se produit, d'un point de vue psychologique : pourquoi ?

Parce que les oeuvres, si elles n'ont plus un rôle de justification, comme dans le catholicisme, n'en conservent pas moins un caractère probatoire (preuve de l'élection divine) ainsi qu'une signification de louange et d'action de grâce.

Quant à l'ascétisme puritain, il aboutit au rationalisme par souci d'éviter tout gaspillage de biens matériels et de temps (notamment pour éviter d'entrer en tentation, l'oisiveté étant - comme chacun sait - la mère de tous les vices). Pour Weber, le cloître a été la première entreprise économique rationnelle d'Occident.

Paradoxe donc : on voit ainsi une religion opposée à la richesse (le puritanisme) être considérée, comme un des fondements psychosociologiques du capitalisme.

Cependant, il faut le reconnaître : l'approche weberienne a au moins le mérite d'éviter tout simplisme : l'auteur se défend ainsi d'établir une causalité unilatérale entre éthique religieuse et activité économique et rappelle la « complexité innombrable des facteurs » et « l'énorme enchevêtrement d'influences réciproques » en jeu.

Du reste, il n'invoque, la sociologie religieuse que pour expliquer le capitalisme originel, considérant la question du facteur religieux comme n'étant plus, à son époque, d'actualité.

Alain Peyrefitte reproche à Weber, outre la sophistication déjà évoquée, de ses explications, de ne pas insister suffisamment sur l'importance de la « vertu de confiance » en tant que ressort du capitalisme. Il observe aussi que si le philosophe allemand se livre à beaucoup de comparaisons entre religions protestantes, il en effectue peu, en revanche, entre le protestantisme dans son ensemble et le catholicisme de la Contre-Réforme.

Ce n'est que dans un ouvrage postérieur Economie et société que Weber accordera toute l'importance qui - selon Peyrefitte - lui revient, en mettant en lumière l'émancipation individuelle fondamentale que provoque la Réforme, et qui aboutit à reconnaître à chacun la capacité de conduire sa vie comme il l'entend.

Mais plutôt que des effets du protestantisme, la confiance et l'autonomie intellectuelle apparaissent davantage comme des valeurs communes à l'éthique réformée et à l'esprit de capitalisme.

Ces vertus, Peyrefitte en attribue le mérite surtout au calvinisme, voyant en Calvin l'auteur d'une distinction libératrice entre le spirituel et le temporel, la religion et l'argent. Formé à l'école de la vie économique et juridique avant de se consacrer à la prédication de la réforme, il serait le premier à avoir interprété la Bible en affirmant que la loi divine n'interdit pas l'usure (« Dieu n'a pas défendu tout gain ») et que la loi naturelle le permet. Son attitude reste néanmoins ambivalente, conciliant condamnation morale de principe et pragmatisme, à la recherche d'un juste milieu entre prohibition et abus. De sorte, la règle morale conserve ainsi son exigence tout en se conciliant avec l'ordre de l'économie. Evolution capitale : le tabou de l'église catholique sur le prêt de l'argent (qui supportait cependant certains accommodements) se trouve par là-même levé.

Plus généralement, - soutient Alain Peyrefitte - soutient que le calvinisme « libère l'homme de l'angoisse des décrets divins en appelant au dépassement de soi sur terre ».

Pourtant, la confrontation, de ce point de vue, avec certaines analyses de Pierre Chaunu ont de quoi susciter quelque perplexité.

Le luthéranisme s'accompagne ainsi, selon Chaunu, d'une plus grande liberté à l'égard de l'écriture. Ne favorise-t-il pas dès lors davantage l'autonomie de l'individu et son esprit critique.

Mais comment s'expliquer alors, la relative infériorité des performances économiques des pays luthériens ?

Le calvinisme s'avère, en comparaison, plus dogmatique, rigoureux et organisé. « Le calvinisme - écrit Chaunu - ne peut rester dans la ligne de maximale orthodoxie réalisée par Calvin sans la lourde carcasse ecclésiastique par lui conçue ».

Ailleurs, il affirme que « toute théologie fidèle à la Réforme est nécessairement impérialiste, puisqu'elle a regard sur tout ce qu'éclaire la Parole de Dieu, la totalité en fait de la pensée et de la connaissance ». Dès lors, ne risque-t-il pas d'en résulter certaines inhibitions, un peu analogues à celles parfois imputées à l'Eglise catholique ?

En outre, - selon Chaunu - c'est à tort que l'« on a cru que le libéralisme sortait de la Réforme et, plus paradoxalement encore, qu'il était l'avenir de la Réforme ».

De fait, les arminiens, libéraux avant la lettre, furent écrasés, aux Pays-Bas, par les calvinistes orthodoxes de la maison d'Orange. Le sort de Michel Servet, brûlé vif à Genève, pour avoir remis en cause le dogme de la trinité, montre, par ailleurs, le souci de Calvin « d'empêcher la Réforme de faire mûrir son fruit le plus dangereux, la libre pensée ».

« Le courant libéral, poursuit l'historien et théologien protestant français, n'appartient pas à la Réforme. Il est aux sources du rationalisme ».

« Le protestantisme en majesté du XVIIIe siècle exclut l'apostasie libérale ».

De plus, l'humanisme d'inspiration chrétienne prélibéral est étranger à la Réforme : « rien de plus antihumaniste que le christianisme sans compromission tel que Luther (qui rompra d'ailleurs avec Erasme) l'entend avec Saint-Paul ».

« Dans la confusion entretenue par le paradoxal protestantisme libéral c'est en réalité, le siècle des Lumières de la Raison qui pointe ».

Deux rationalismes vont ainsi coexister, précise Chaunu : un rationalisme d'élite, plus radical, prémarxiste, dans les pays catholiques et, dans les pays protestants, un rationalisme de masse, coloré de moralisme et de religiosité, issu d'un humanisme d'inspiration chrétienne et de l'arminianisme.

Pour Chaunu, le protestantisme libéral constitue ainsi la forme la plus ambiguë, donc la plus pernicieuse, de l'apostasie et « la résistance du protestantisme aux hérésies issues d'elle, mais qui lui sont opposées, s'inscrit dans un combat entre la pensée chrétienne et la mise en place dès la fin du XVIIe siècle des rationalismes de masse du XVIIIe siècle ».

Par ailleurs, la floraison sectaire de la Révolution anglaise et ses prolongements aux Etats-Unis procèdent - selon lui - d'un calvinisme mal entendu.

Quelle est, dans ces conditions, la part exacte du protestantisme dans le développement économique, social et culturel des différents pays occidentaux, par rapport à celle d'autres facteurs ?

Il convient, pour tenter de répondre à cette difficile question, de revenir tout d'abord sur le rôle du facteur confessionnel et sur ses relations avec d'autres attitudes mentales.

En premier lieu, même si le rigorisme et le dogmatisme des courants majoritaires, calvinistes et luthériens, paraissent constituer, sous certains aspects, un retour en arrière par rapport à l'humanisme de la Renaissance, ils n'en représentent pas moins un progrès par rapport au catholicisme, du strict point de vue de l'impact de l'éthique religieuse sur l'activité économique.

De ce point de vue, la levée du tabou sur le prêt de l'argent, en particulier, est incontestablement positive.

D'autre part, même si le protestantisme, essentiellement théocentrique, ne se confond pas avec le rationalisme, il y a une part de vérité dans le lien établi par Weber entre rationalité et réforme. En effet, la rigueur logique de la doctrine calviniste de la parole de Dieu, « splendide construction de l'esprit » (Chaunu) contraste avec l'ésotérisme de la scolastique décadente du haut Moyen Age.

L'émigration illustre l'influence conjointe de facteurs psychiques autres que strictement confessionnels sur le développement économique.

Plusieurs auteurs, cités par Alain Peyrefitte, soulignent ainsi le rôle joué par les migrants dans le développement de certains pays protestants : « Ni la Hollande, ni l'Ecosse, ni le Palatinat ne produisirent eux-mêmes leurs propres entrepreneurs » - note ainsi Trevor Roper - qui apparaissaient donc comme « plus émigrés que calvinistes ».

Le développement de l'Angleterre, note par ailleurs Peyrefitte, a bénéficié du concours d'écossais presbytériens.

Quant aux conséquences de l'émigration des Huguenots français, elles seront étudiées plus loin dans ce chapitre.

Or, quelles que soient leur confession ou leurs origines, la condition des immigrés leur confère un dynamisme particulier et les conduit à donner le meilleur d'eux-mêmes dans leurs activités (les catholiques venant s'installer à Amsterdam depuis la Flandre du Sud, ou ayant rejoint plus tard les Etats-Unis, n'échappent pas à cette règle, même s'il est vrai qu'elle concerne, pour des raisons historiques, en très grande majorité des protestants).

Pour Emile G. Léonard, éminent historien du protestantisme, la réforme est d'abord invention, novation, rupture avec le passé. Elle s'accomplit pleinement dans le non-conformisme des dernières années du XVIe siècle et du XVIIe siècle. N'était-elle pas, dans ces conditions, en quelque sorte prédisposée à rencontrer l'adhésion de ce que l'Europe pouvait compter d'individus inventifs et entreprenants ?

De fait, selon une étude britannique citée par Alain Peyrefitte, les protestants « non-conformistes » (presbytériens ou dissidents) auraient fourni plus de 46 % des innovateurs industriels d'Angleterre alors qu'ils ne représentaient que 7 % de sa population.

Sans doute des facteurs variés, non exclusivement confessionnels, se conjuguent-ils pour expliquer les différentes mentalités des divers peuples européens : dynamisme, tolérance, esprit commerçant des Hollandais, pragmatisme et opiniâtreté des Anglais, application sérieuse au travail des Allemands, etc.

Sans doute aussi les mentalités subissent-elles l'influence de données géographiques ou sont-elles marquées par des événements historiques particuliers.

Il en résulte une série d'interactions qui contribuent à expliquer également la divergence entre pays du Nord et du Sud de l'Europe.

Ces autres déterminants possibles sont mentionnés, de façon très objective, par Alain Peyrefitte, dans son ouvrage précité, même s'il estime personnellement que « le ressort du développement réside en définitive dans la confiance accordée à l'initiative personnelle, à la liberté exploratrice et inventive (liées pour lui au protestantisme...) ».

Sans cette confiance fondamentale, le développement né « là et alors » aurait pu apparaître ailleurs et à un autre moment, avant ou après.

Mais, reconnaît-il, « la catalyse s'est effectuée... par un mélange indébrouillable des circonstances et des permanences, de l'histoire et de l'anthropologie... sous l'effet de conjonctures où l'événement a d'ailleurs sa vaste part ».

Permanences et anthropologie : Peyrefitte rappelle les principes de la fameuse « théorie des climats » de Montesquieu, plus subtile et nuancée que les présentations simplifiées qui en sont parfois faites. Ainsi, l'invocation du « climat » a trait non seulement à l'environnement physique mais aussi à la logique interne de chaque type d'organisation humaine. Selon les sociétés, les mêmes causes n'ont pas toujours les mêmes effets. Plus une nation est développée, plus les causes morales l'emportent sur les causes physiques. Il n'y a donc de déterminisme climatologique que pour ceux qui ne parviennent pas à acquérir l'autonomie morale caractéristique du développement.

Sir William Temple, ambassadeur d'Angleterre à La Haye au XVIIIe siècle, cité également par Peyrefitte, fait appel à la notion intéressante de « désavantage initial », que l'on pourrait aussi appeler « contrainte stimulante », pour expliquer la réussite économique hollandaise (terres rares et inondables, forte densité de population...). Le même type d'argument pourrait être invoqué en ce qui concerne l'insularité de l'Angleterre.

Cependant, ce qui semble, en l'occurrence, avoir joué en faveur de ce pays, paraît, au contraire, en avoir désavantagé d'autres comme l'Irlande ou la Corse, preuve que l'explication ne se suffit pas à elle-même.

Pour Braudel, cité mais en même temps récusé par Alain Peyrefitte, l'économique précède le social, qui devance, à son tour, le mental.

Selon lui, le centre de gravité des activités européennes s'est déplacé du Sud au Nord de l'Europe pour des raisons économiques qui n'ont rien de psychique ou de confessionnel et ne touchent pas à la nature du capitalisme.

« Tout capitalisme - écrit-il - est à la mesure, en premier lieu, des économies qui lui sont sous-jacentes ».

Cependant, l'économique ne se comprend pour lui qu'en liaison avec les autres « ensembles » (le politique, le culturel et le social) avec lesquels « il y a action, interaction ». Et Braudel de résumer sa pensée : « Le capitalisme est forcément une réalité de l'ordre social ».

Braudel soutient ainsi la thèse selon laquelle « il y a des conditions sociales à la poussée et à la réussite du capitalisme. Celui-ci exige une certaine tranquillité de l'ordre social, ainsi qu'une certaine neutralité, ou faiblesse, ou complaisance de l'État. Et, en Occident même, il y a des degrés à cette complaisance : c'est pour des raisons largement sociales et incrustées dans son passé que la France a toujours été un pays moins favorable au capitalisme que, disons, l'Angleterre ».

Pour l'académicien, la thèse de Max Weber apparentant le capitalisme originel au puritanisme, est « manifestement fausse ».

« Les pays du Nord - fait-il valoir - n'ont fait que prendre la place occupée longtemps et brillamment avant eux par les vieux centres capitalistes de la Méditerranée. Ils n'ont rien inventé, ni dans la technique, ni dans le maniement des affaires... »

« Ce qui est en jeu, chaque fois, c'est le déplacement du centre de gravité de l'économie mondiale, pour des raisons économiques, et qui ne touchent pas à la nature propre ou secrète du capitalisme ».

« A la faveur de la montée nouvelle de l'Atlantique, il y a élargissement de l'économie en général, des échanges, du stock monétaire et, là encore, c'est le progrès vif de l'économie de marché qui, fidèle au rendez-vous d'Amsterdam, portera sur son dos les constructions amplifiées du capitalisme ».

Peyrefitte reproche à Braudel de faire trop de géographie et trop peu d'histoire, et surtout une histoire sans acteurs.

Pourtant ce dernier fait appel à des circonstances d'ordre événementiel pour expliquer le triomphe des Nordiques qui, selon lui « n'aurait pas tenu à une meilleure conception des affaires ni au jeu naturel de la concurrence industrielle, ni au fait de leur passage à la Réforme ».

Ils n'auraient pas, selon lui, construit leur première fortune grâce aux compagnies des Indes et à l'exploration des océans, mais à partir d'un véritable pillage de la Méditerranée dont ils auraient copié les meilleurs produits et qu'ils auraient inondé de marchandises à bas prix. En d'autres termes, « Leur politique a été simplement de prendre la place des anciens gagnants, la violence étant de la partie ».

Ces hasards de la guerre, Chaunu leur accorde, de son côté, une certaine importance, en rappelant par exemple les troubles de l'époque des origines du luthéranisme (révolte des chevaliers et des paysans), puis l'écrasement militaire de ses adeptes par la Maison de Habsbourg, de 1620 à 1630, avant le redressement final et inespéré de l'Allemagne protestante dont les intérêts triomphèrent en 1648 aux traités de Westphalie.

Pierre Chaunu évoque aussi, par ailleurs, l'épisode qui a permis de sauver de l'effondrement les Pays-Bas en 1629 (à savoir l'arrivée des 80 tonnes d'argent prises à la flotte de la Nouvelle Espagne).

De sorte que, selon lui, il convient d'accréditer la thèse selon laquelle « La géographie de la Réformation incorpore aussi, à vue humaine, une large part d'accidentel ».

Car y introduire la dimension conjoncturelle, « c'est tout simplement accepter l'histoire dans sa large complexité ».

Mais la notion de conjoncture ne doit pas demeurer exclusivement économique : « elle est tout aussi bien dans une histoire globale, la preuve tangible de l'action du psychisme sur le monde extérieur. La conjoncture économique elle-même est, en fait, conjoncturelle dans la mesure où elle est humaine... ».

*

* *

Devant une telle complexité et un tel enchevêtrement de causes et des conséquences susceptibles d'interférer, de se conjuguer ou de s'influencer, il convient, là encore, de s'en tenir à des évidences fortes.

La corrélation la plus incontestable et la plus vigoureuse existant entre la Réforme et le développement des sociétés a trait, sans nul doute, à l'alphabétisation.

Le graphique ci-après, extrait de l'annexe consacrée à « L'école en divergence » de l'ouvrage précité d'Alain Peyrefitte, est d'une éloquence qui rend presque tout commentaire superflu (3(*)).













Coller le graphique "alphabétisme..."











Les théologies protestantes sont des théologies de la parole de Dieu dont l'interprétation repose à la fois sur une inspiration historique et sur la voix intérieure divine qui s'adresse à chaque fidèle en particulier. L'adhésion aux religions réformées suppose par conséquent la lecture et la compréhension individuelles des textes de la Bible.

Le succès de la Réforme doit beaucoup, on l'a vu, à l'imprimerie. Celle-ci le lui a ensuite bien rendu.

L'une des contributions les plus manifestes des pays réformés à un développement économique de plus en plus fondé sur la diffusion du savoir réside ainsi dans l'effort d'alphabétisation.

Dans leur « Histoire des médias de Diderot à Internet » Frédéric Barbier et Catherine Bertho-Lavenir insistent sur le rapport étroit et précis qui se noue dans les colonies anglaises d'Amérique « entre la majorité de la population et le monde du livre et de l'imprimerie ». En nouvelle Angleterre, où l'enseignement est obligatoire, 95 % des habitants sont alphabétisés à la fin du XVIIIe siècle. Aux Etats-Unis - observent les mêmes auteurs - l'enseignement bénéficie à la fois de la place privilégiée qui lui est réservée dans l'éthique du protestantisme (religion de 99 % de la population en 1774), de son rôle favorisant l'intégration et l'ascension sociale des immigrés, et de l'inexistence des cloisonnements sociaux européens (liés à l'aristocratie...).

Faut-il y voir les prémices de l'actuelle prédominance américaine pour tout ce qui touche à la société de l'information ?

La deuxième corrélation, signalée en début de cette partie de chapitre, entre réforme et développement, est plus difficile à expliquer.

Il y a certes un recoupement entre les zones où ont lieu respectivement les échanges commerciaux (axe rhénan, villes de foire, grands ports et centres commerciaux), la diffusion de l'imprimerie, l'adoption des religions réformées et celles où seront ensuite réalisées les meilleures performances économiques.

L'esprit mercantile, facteur primordial du développement est antérieur à la réforme. Il s'est d'abord épanoui en terre catholique (l'Italie du Nord), bénéficiant, semble-t-il, d'une certaine tolérance de la part de l'Eglise, malgré la fermeté de ses positions de principe sur les questions d'argent.

L'autonomie intellectuelle et les idées libérales, sur lesquelles Peyrefitte insiste à juste titre ne sont-elles pas surtout issues de l'humanisme et de la Renaissance, qui précèdent, eux-aussi, l'apparition du protestantisme, (même si certains amalgames, dont Chaunu souligne l'hétérodoxie, se sont ensuite produits) ?

N'était-il pas assez logique, dès lors, comme le fait observer Braudel, que la Méditerranée ne soit plus qu'un espace secondaire, du fait des Grandes Découvertes et de l'essor des échanges transatlantiques ?

A la vérité, il semble y avoir eu ce qu'Alain Peyrefitte appelle des « affinités électives » entre le protestantisme et le développement économique, soit une prédisposition des personnes les plus entreprenantes et habitant les zones les plus commerçantes à adopter la religion réformée. Le facteur confessionnel cependant, interfère, se conjugue, interagit avec d'autres facteurs, d'ordre géographique, historique ou psychique. De plus, il y a, par ailleurs, des exceptions.

La contre-réforme, enfin, peut contribuer à expliquer en même temps que les considérations avancées par Braudel, le déclin relatif de l'Europe du Sud en général, de la Méditerranée et de l'Italie du Nord en particulier.

Toutes ces considérations ne font que confirmer l'importance du rôle des hommes et de leur mentalité -qui l'emportent en définitive sur les déterminismes (ou, du moins, les infléchissent) dans le développement des sociétés.

D) LE RAIDISSEMENT DE LA CONTRE-RÉFORME

L'influence confessionnelle sur le développement social est - on l'a vu - particulièrement difficile à isoler de celle d'autres déterminants et à mettre en évidence.

Il en va ainsi pour l'impact inhibiteur de la contre-réforme sur les pays catholique du Sud comme pour ce qui concerne les effets stimulants du protestantisme sur les pays du Nord.

Toutefois, la relative unité doctrinale du catholicisme, qui contraste avec la diversité des églises et des sectes protestantes, rend la tâche peut-être un peu moins difficile dans l'appréciation de la situation des pays du Sud.

Se considérant comme dépositaire exclusive du message évangélique, gardienne de son orthodoxie et de son intégrité, responsable de sa transmission, dans la fidélité à la tradition de l'enseignement des pères de l'Eglise, et garante de l'unité des chrétiens, l'institution catholique sort très ébranlée des guerres de Religion. « Jusque là -observent Febvre et Martin- l'Eglise avait connu bien d'autres hérésies et en avait -en occident du moins- toujours triomphé ».

L'imprimerie -on l'a vu- a sans doute contribué à ce qu'il en aille autrement du protestantisme.

Il va s'en suivre un raidissement que traduisent les conclusions du Concile de Trente, en 1563.

« Le catholicisme d'après Luther et Calvin n'est pas le même qu'avant » - souligne Alain Peyrefitte - qui estime par ailleurs que « rien ne destinait l'Eglise catholique au durcissement de la contre-réforme ».

En mettant Erasme à l'index, après avoir failli le nommer cardinal, l'Eglise a fait manquer de peu à la chrétienté occidentale l'occasion d'une émancipation en douceur et d'un passage, librement choisi, à la modernité intellectuelle.

Il faudra attendre le vingtième siècle, et l'encyclique quadragesimoanno de 1931, pour que soient progressivement levées des inhibitions pluriséculaires ayant trait notamment à l'argent, aux oeuvres et à l'initiative individuelle.

Avant la réforme, le tabou catholique de principe sur le prêt d'argent s'était accompagné de tolérances ponctuelles et n'avait pas empêché, par exemple, le développement en Italie du Nord, des techniques bancaires, ni la prospérité, fondée sur le commerce, de Venise.

Certes, des conceptions quelque peu archaïques de la vie économique prévalaient encore souvent à l'époque, les activités concernées étant considérées comme un jeu à somme nulle, et l'argent, non comme un outil, mais comme un bien consommable stérile, tout cela sans que soit perçu le rôle fondamental du crédit.

Mais, comme le souligne très justement Alain Peyrefitte, « la doctrine de l'Eglise en matière de commerce n'a inhibé que ceux dont la mentalité économique était vulnérable ».

En effet, l'ingéniosité des acteurs de la vie économique leur servait à contourner la lettre des préceptes de l'Eglise. Et, de toute façon, Saint-Thomas, dans ses écrits, s'était toujours placé dans un univers où la liberté du commerce demeurait la règle. Il admettait le prêt sur gage, l'usufruit... Saint-Antonin, quant à lui, reconnaîtra plus tard le principe du paiement d'un intérêt raisonnable (l'usure demeurant condamnée) en compensation du gain que l'investissement de la somme prêtée aurait pu procurer. Ainsi, dès le XIVe siècle, la scolastique s'était ingéniée à rendre possible le prêt à intérêt.

Mais les guerres de religion vont entraîner un durcissement de la prohibition de l'usure qui culmine, en France, avec l'ordonnance de Blois (1579), mettant fin à la distinction médiévale entre usures excessives et modérées. Confirmées en 1629, certaines dispositions de ce texte qui s'appliquait même aux intérêts de retard, demeureront en vigueur jusqu'en 1789.

La question, à la vérité, ne se situe pas au centre des débats du Concile de Trente qui vont porter plutôt sur le caractère des oeuvres et le renforcement de l'autorité hiérarchique ecclésiastique. Mais l'inhibition susceptible d'en résulter est de nature à affecter l'esprit d'initiative individuelle, en général plus que les conditions précises d'exercice des activités temporelles. Il s'agit donc d'effets psychiques indirects. S'il ne faut en exagérer la portée, la rigueur des positions doctrinales de l'Eglise se conciliant avec la miséricorde manifestée aux fidèles dans les confessionnaux (4(*)), il convient, de ne pas non plus la sous-estimer.

La théologie protestante, selon Chaunu, « a regard sur la totalité de la pensée et de la connaissance » et Calvin a mis en place, aux dires du même auteur, « une lourde carcasse ecclésiastique » pour défendre l'orthodoxie telle qu'il la concevait. Mais la Réforme distingue plus clairement le temporel du spirituel, fait moins appel à la soumission hiérarchique des fidèles et des clercs et leur laisse par conséquent une liberté d'interprétation plus grande de la parole de Dieu qui favorise ainsi l'autonomie intellectuelle. « Les protestants - résume Peyrefitte - veulent une puissance ecclésiastique bornée à l'Ecriture et par elle ».

L'Eglise catholique, pour sa part, a toujours considéré qu'il relevait de sa mission de porter un jugement sur les activités terrestres dans la mesure où le salut des âmes et le témoignage du message évangélique étaient concernés. De là à revendiquer un droit à diriger spirituellement la société dans son ensemble, il n'y a qu'un pas qu'Alain Peyrefitte estime avoir été franchi par Rome, dans sa longue condamnation de la modernité économique.

Pour en revenir au Concile de Trente, il consacre, selon Peyrefitte :

- le monopole ecclésiastique sur l'interprétation de l'écriture et la parole de Dieu ;

- la soumission, qui l'accompagne, à une hiérarchie intangible, instituée par Dieu et dont le rejet entraîne l'anathème ;

- la justification, enfin, d'une inquiétude du salut, recherché à travers les « oeuvres ».

Il en résulte, selon l'auteur de la Société de confiance, une spiritualité marquée par la défiance de soi.

L'espoir d'une récompense par les oeuvres paralyse - d'après lui - l'activité économique, la sphère des activités humaines devant, pour que son exercice soit le plus efficace possible, être abandonnée à ses propres lois.

Et de fait, la piété catholique qui repose sur l'inquiétude du salut, s'oppose à la confiance protestante, comme la valeur « méritoire » des oeuvres des premiers au caractère « probatoire » de celles des seconds.

Pourtant, la confiance en Dieu jouait pourtant un rôle important dans la doctrine de Saint-Thomas, faisant dire à Peyrefitte qu'« il fallait la sacrifier à la soumission, à l'époque de Trente ». Ce qui n'enlève rien, par ailleurs, aux résultats positifs de ce concile sur le plan religieux (redressement des abus à l'origine du mouvement protestant, regain de foi, progrès de l'instruction religieuse et des oeuvres charitables...)

Tout cela nous engage à nous poser une série de questions : quels ont été les effets de la contre-réforme sur le développement de l'Europe catholique du Sud ? Ont-ils été uniquement négatifs et symétriques de ceux, positifs, de la Réforme ?

Là encore, la réponse ne peut être que nuancée et circonspecte.

Cependant, il convient de prendre en considération des facteurs autres que religieux, qui font dès lors apparaître des exceptions amenant à conclure que les conséquences de la réaction catholique n'ont pas toutes été nécessairement néfastes.

Influence de facteurs non confessionnels tout d'abord : « Il ne s'agit en aucun cas - écrit Alain Peyrefitte - de faire grief à Rome des résistances au progrès ou des retards de développement qu'ont connus les nations latines : elles ne peuvent s'en prendre qu'à elles-mêmes ».

Certains épisodes déplorables (l'Inquisition espagnole ou la révocation de l'Edit de Nantes) peuvent inspirer le même type de réflexion. Ils se sont produits davantage « parce que l'esprit public l'exigeait », comme le note Alain Peyrefitte à propos de la situation ibérique- qu'à l'initiative de l'Eglise. Pierre Chaunu s'étonne même, quant à lui, de la date « anormalement tardive » de la révocation de l'Edit de Nantes, due à la reconnaissance gardée par Louis XIV « au milieu d'un corps social déchaîné », envers la communauté protestante, en raison de son loyalisme à l'époque de la Fronde.

« La flétrissure, d'autre part, du prêt à intérêt n'est pas née de l'autorité des théologiens rigides, ils n'ont que contribué à étendre cette opinion largement répandue ».

D'où, là encore, une série de questions :

- Certains traits de la mentalité espagnole soulignés par Alain Peyrefitte (sens de l'honneur exacerbé, arrogance, mépris des activités manuelles et marchandes, oisiveté des élites...) proviennent-ils de l'héritage catholique ou de celui du passé particulier de l'Espagne, de son caractère méditerranéen, de ses contacts avec le monde arabe ?

- Les pays méditerranéens, jadis occupés par les romains et ensuite envahis par les barbares, n'ont-ils pas gardé la nostalgie d'un Etat fort ?

- Le caractère hiérarchique et organisé de l'église lui vient-il d'un goût inné pour la bureaucratie (l'esprit bureaucratique provenant - selon Marx - d'un esprit foncièrement jésuitique et théologique) ou du souci de préserver son unité et du modèle de l'empire romain (les diocèses correspondant, par exemple, à d'anciennes circonscriptions administratives latines) ?

- La France, fille aînée de l'église, selon l'expression qui avait cours, a-t-elle hérité de Rome le colbertisme et la maniaquerie réglementaire qui la caractérise ou bien faut-il en chercher la cause en partie ailleurs ?

- D'un point de vue historique et géographique, notre pays présente plus d'une singularité : à la fois continental et marin atlantique et méditerranéen, aux confins du Sud et du Nord, ethniquement et culturellement varié, doit-il à sa diversité la précocité de son unité nationale et son caractère centralisé ? L'avance de sa cohésion explique-t-elle celle, jusqu'au XVIIIe siècle, de sa démographie, par rapport aux autres pays européens ?

Face à ces différentes questions, on s'en tiendra donc à quelques éléments incontestables : l'Etatisme français, peu propice au capitalisme, comme le souligne Braudel, est, en vérité, une tradition nationale séculaire qui n'est pas imputable, loin s'en faut, au seul catholicisme. Comment expliquer, sinon, le contre exemple de la soeur latine italienne ?

Comme en ce qui concerne l'influence de la Réforme, on retrouve donc, s'agissant de mesurer celle du mouvement opposé, la nécessité de prendre en compte une multitude d'autres facteurs.

- Ainsi, on l'a vu, le déplacement du Sud vers le Nord de l'Europe, du centre de gravité économique ne s'explique pas pour Braudel, par des raisons religieuses.

Les efforts présumés inhibiteurs de la contre-réforme ont relativement épargné Venise et n'ont pas empêché vers 1550-1560, pendant le Concile de Trente, un intermède génois, noté par Braudel, aboutissant à une redistribution, au détriment d'Anvers, du trafic du métal blanc originaire des colonies espagnoles d'Amérique.

Le clivage Nord-Sud rencontre par ailleurs certaines exceptions, notamment dans les « frontières de catholicité » comme les Alpes germaniques et l'Est de la France, où les taux d'alphabétisation sont plus élevés (du fait d'une émulation avec les populations protestantes ou bien d'une cohabitation dans des espaces dynamiques de communication ?) on ne tranchera pas.

Les catholiques, d'origine méridionale, forment la partie la plus riche de la population d'Amsterdam au début du XVIIe siècle, note par ailleurs Trevor-Roper, et ils sont par ailleurs les inspirateurs de l'organisation du système bancaire puis de la bourse du grand port hollandais.

Encore une fois, le cas de la France est particulier : au XVIIIe siècle, c'est un pays relativement prospère (qui l'aurait sans doute été davantage encore sans l'émigration des Huguenots), démographiquement avancé, qui tend à rattraper son retard industriel par rapport à l'Angleterre, mais qui se laisse finalement distancer par elle sur le plan technique, (bien que demeurant relativement évolué, à cet égard, par rapport aux autres pays d'Europe continentale).

S'agissant de l'alphabétisation, et pour s'en tenir au critère du pourcentage des mariés pouvant signer les registres de leur nom, on peut rappeler que la France avait presque rejoint l'Angleterre à la fin du XVIIIe siècle.

La contre-réforme n'a-t-elle eu que des effets négatifs ? On peut objecter le fait que le progrès de l'instruction religieuse chez les populations catholiques, dont témoignent les efforts des jésuites et le renouveau de l'édition catholique à partir de 1570, n'a peut-être bénéficié qu'à une élite. Il n'en a pas moins été réel, contribuant à relever le niveau général d'éducation dans les Etats considérés.

Autre argument : le développement de l'action des institutions charitables n'a-t-il pas évité l'aggravation de certaines crises économiques, structurelles ou conjoncturelles, aux effets déjà trop cruels ?

Keynes, enfin, estime que la prohibition de l'usure a pu contribuer au maintien de niveaux de taux d'intérêt suffisamment faibles pour inciter à investir.

Aussi préjudiciable qu'il ait pu être au développement de l'économie, le mépris de l'argent a souvent constitué au départ, la contrepartie de valeurs respectables (générosité, esprit de sacrifice, sens de la solidarité).

De même, on peut expliquer ce que Peyrefitte appelle « l'obsession de la dérogeance » par le souci des aristocrates de ne pas ajouter à leurs privilèges (justifiés par « l'impôt du sang » ou l'achat de charges) l'exercice de fonctions rémunérées au détriment de personnes n'ayant pas droit aux mêmes faveurs.

Leur appréciation de la belle ouvrage et leur mode de vie souvent campagnard à l'exception, de la noblesse de cour qui se constitue à partir du règne de Louis XIV rendaient par ailleurs peu probable un quelconque mépris de leur part pour les métiers liés à l'artisanat ou à la terre.

Il n'en demeure pas moins regrettable que ce système de valeurs, concevable à l'origine, soit resté figé alors qu'il devenait archaïque et que l'exemplarité des élites jouant un rôle capital, l'humanisme marchand n'ait pas pénétré, comme en Angleterre, à quelques exceptions près, l'esprit de l'honnête homme français.

*

* *

Au décollage des pays protestants correspond donc, indéniablement, un déclin, une stagnation, en tout cas un moindre développement des pays catholiques. A cela, de multiples raisons s'offrent à l'analyse parmi lesquelles le facteur religieux, qui intervient, certes, mais dans une mesure pour le moins difficile à évaluer.

Des différences surgissent dans chaque camp avec, en ce qui concerne les pays de la Réforme, un retard relatif de l'Allemagne continentale par rapport aux puissances maritimes et coloniales que sont les Pays-Bas et l'Angleterre.

Du côté catholique, l'Espagne subit le recul le plus marqué et la France apparaît comme le pays le plus avancé.

Ces écarts montrent à l'envi qu'il n'y a pas de déterminisme absolu d'ordre confessionnel en matière économique.

Mais concernant notre pays, ses problèmes de développement semblent à l'évidence liés, à un rôle excessif de l'État et des corporations dans l'économie.

L'origine en est peut-être indirectement religieuse, et c'est à bon droit qu'on évoque une intériorisation de certains préceptes de l'église catholique. Mais on ne saurait soutenir qu'elle résulte d'une influence directe et transitive des encycliques pontificales ou des conclusions du Concile de Trente.

Mais peut-être le colbertisme et le corporatisme constituent-ils le moyen de pallier une certaine carence d'initiative privée, en partie imputable au catholicisme ? Ils ne font en tout cas qu'entretenir cette déficience sans y remédier et pour des résultats, somme toute, peu probants.

Sur ce point, bien entendu, les avis divergent.

Trevor-Roper ne voit rien qui tienne à la confession dans les « restrictions corporatives ». En revanche, Alain Peyrefitte pense que « les habitudes et les talents de la bureaucratie civile (dans les pays catholiques) trouvent leur origine dans une imitation de la bureaucratie cléricale » (y compris en ce qui concerne les corporations liées aux structures des confréries). Ce mimétisme inclut, selon lui « une attitude peu propice au milieu commercial » et, plus généralement, un désintérêt de la vie économique.

Quoi qu'il en soit, Alain Peyrefitte a une nouvelle fois raison d'insister sur l'importance primordiale des facteurs humains dans le développement économique et sur la persistance, parfois inconsciente, dans ce domaine, d'idées et de comportements hérités du passé.

Peut-être subissons-nous encore aujourd'hui les conséquences d'erreurs passées, telles que la révocation de l'Edit de Nantes en 1685, manifestation d'intolérance et de rejet qui conduisit à l'exode des Huguenots ?

E) LA FUITE DES HUGUENOTS

Pour Trevor-Roper, on l'a vu, l'esprit d'entreprise est davantage lié à la propension à émigrer qu'à la religion calviniste.

A condition que la société d'accueil soit ouverte, tolérante et stimulante - note Alain Peyrefitte - « La migration crée une dynamique de rupture ; elle libère ».

Car, « Par elle-même la situation du migrant le contraint à déployer son pouvoir d'adaptation, à valoriser ses talents, ses ressources mentales, son courage... Le migrant est un entrepreneur obligé, un innovateur qui doit justifier sa nouvelle place au soleil ».

Cependant, pour le pays d'accueil, l'essentiel réside dans la composante qualitative de l'émigration. L'émigrant qualifié est ainsi « un vecteur de développement technique », et cela d'autant plus que son effort d'intégration renforce son aptitude à propager ses connaissances.

« Au total parce que l'émigration est une innovation géographique et que l'innovation est une émigration mentale, les migrations qui, à partir des guerres de religion, ont parcouru l'Europe du XVIe siècle au XVIIIe siècle ont fourni un appoint décisif au renouvellement des pays d'accueil ».

En outre, l'émigration, qui, historiquement concernait presque quasi exclusivement des protestants, a permis aux calvinistes de s'affranchir de ce que les dogmes de leur religion pouvaient avoir, eux aussi, d'inhibiteur.

« Retrempé dans l'émigration - observe Peyrefitte - le calvinisme n'est plus une société close. Par gré ou par force, il devient individualiste, plus porteur encore d'innovation, d'adaptation, d'effort, que le protestantisme dont il est issu ».

A l'enrichissement, dans certaines conditions, du pays d'accueil des émigrés, ne devrait-il pas logiquement correspondre un appauvrissement de leur pays d'origine ?

C'est la question que suscite l'examen du cas des Huguenots français.

Malgré son apparente simplicité, elle réussit pourtant à diviser, elle aussi, les historiens.

Warren C. Scovielle, le premier, a ainsi réfuté la thèse fort répandue selon laquelle la fuite des Huguenots aurait porté un coup fatal au développement économique français. D'autres lui ont emboîté le pas pour dénoncer ce qu'ils estimaient « n'être finalement qu'un mythe aussi persistant qu'ancien ».

A cet égard, Pierre Chaunu développe même un point de vue paradoxal en estimant que le protestantisme français a été sauvé in extremis par la révocation de l'Edit de Nantes. « On peut se demander, en effet, - écrit-il - ce qui en aurait subsisté si la politique d'étouffement des années 1679-1682 avait été poursuivie méthodiquement ».

Ces objections inspirent à Alain Peyrefitte une certaine prudence : il se fonde sur l'évidence selon laquelle « vu de la France, le dommage de la Révocation n'est pas énorme, mais vu de l'étranger, l'apport du Refuge est immense ».

En somme, si « la France n'a sans doute pas perdu autant que ses voisins ont gagné », il n'en demeure pas moins que la politique de Louis XIV a abouti à mettre le dynamisme huguenot au service de l'étranger.

L'impact de la Révocation est d'autant plus difficile à mesurer avec précision que l'événement n'inaugure pas les persécutions qui suivent (reprises par Richelieu en 1624 et accentuées sous Louis XIV de 1679 à 1682) et que d'autre part, il est précédé et suivi de diverses crises conjoncturelles (famines, disettes, hivers rigoureux ; crise, plus longue, des années 1680-1690).

Succédant donc à cinquante années de brimade, la Révocation témoigne -selon Peyrefitte- du triomphe dans notre pays d'un esprit d'intolérance, synonyme de fermeture à l'innovation et de refus de la compétition. De sorte qu'« il n'y aurait pas, entre la Révocation et le déclin économique et social de 1680-1690, une relations immédiate de cause à effet, mais une relation différée, de crise durable à symptôme soudain ».

L'exil est interdit aux protestants, sanctionné (par l'annulation des ventes des biens des émigrants) et sa dénonciation récompensée.

Bien qu'il s'agisse donc d'un acte de rébellion, 12 % environ des réformés français prendront le chemin de l'exode. Il ne s'agit certes que d'une faible partie (moins de 1 %) de la population du royaume mais cette fraction s'avère nettement plus importante parmi ses élites.

Les effets du refuge vus de France sont inégaux : le trafic du port de La Rochelle est évidemment touché ainsi que certains secteurs manufacturiers (beaucoup de libraires et d'imprimeurs protestants français avaient déjà pris, au XVIe siècle, le chemin de la Suisse ou de la Hollande) ; à son tour, la papeterie est affectée, l'imprimerie française étant soumise à un régime corporatiste de numerus clausus ; la chapellerie souffre aussi.

Mais c'est surtout à l'aune du succès des Huguenots à l'étranger que la perte représentée par leur départ pour la France peut être estimée. Ainsi, ils contribuent au développement de la soierie, des toiles de lin, de la tapisserie, du papier et de l'horlogerie en Grande-Bretagne et en Irlande et jouent - selon François Crouzet - un rôle décisif dans la révolution financière anglaise en participant notamment, à la naissance de la Banque d'Angleterre.

A Francfort, ils sont fortement représentés dans les secteurs avancés (industrie textile, médecine). Ils auraient, selon un témoin de l'époque, cité par Rudolf von Thadden, hâté d'un demi siècle les progrès économiques de la Prusse. A tout le moins, ils ont contribué à reconstruire l'économie des Allemagnes, ruinée par la guerre de trente ans.

Bon nombre se sont réfugiés en Hollande où ils ont facilement trouvé leur place.

On les retrouve jusqu'en Amérique où ils fondent notamment, New Rochelle, près de New York.

Ainsi donc la France, incapable de peupler et de développer ses propres colonies, s'est privée, au profit de l'étranger, d'une partie appréciable des éléments les plus dynamiques de sa population, et cela par son manque d'ouverture d'esprit.

F) DE FÂCHEUSES RÉMINISCENCES

Autant l'admettre : l'influence, plus ou moins consciente, d'idées ou d'attitudes passées continue à peser sur nos comportements.

C'est ce qu'Alain Peyrefitte appelle la « rémanence de la divergence ».

Pour preuve, la répartition géographique actuelle du développement continue à reproduire la carte religieuse du XVIe siècle et la fracture entre l'Europe de la Réforme et de la contre-réforme à diviser les sociétés de notre continent.

Et toujours, selon Peyrefitte, les différences entre l'Europe et l'Amérique y trouvent, en grande partie, leur origine. Soulignant ainsi « l'extraordinaire rémanence de la distorsion religieuse, il constate que la géographie du développement correspond à une géographie des comportements fondés sur la confiance, libérée dans certaines contrées par la Réforme, inhibée dans d'autres par la Contre-Réforme ».

Il est vrai que l'Eglise catholique, qui « vit à l'échelle des millénaires » a mis plusieurs siècles à reconnaître une valeur positive à la modernité ainsi qu'aux principes de l'économie de marché. « Il lui fallait - écrit-il - du temps pour séparer le bon grain et la liberté créatrice de l'ivraie de la liberté corruptrice ».

Même l'encyclique « sociale » Rerum novarum persistait à condamner (en 1891!) l'innovation, jugée responsable des maux qui accablaient les ouvriers, et prêchait au contraire la résignation, recommandant à l'homme de prendre en patience sa condition, dans l'attente que son travail trouve dans l'au-delà son ultime signification.

Mais quelle était la portée réelle des positions de l'Église dans une société de plus en plus sécularisée, sinon déchristianisée, où l'Église allait perdre progressivement l'essentiel de ses pouvoirs temporels ?

Quelle influence pouvait encore exercer l'Église dans une France de tradition gallicane, soumise aux lois de séparation de l'Église et de l'Etat ?

Une chose est sûre : le centralisme, le dirigisme et le corporatisme ont la vie dure dans notre pays, témoignant de l'imprégnation persistante des mentalités par des conceptions économiques archaïques.

La querelle des 35 heures, dans laquelle certains considèrent le travail comme un gâteau à partager plus que comme le résultat d'une dynamique de créations d'emplois, en est une illustration. En France, plus qu'ailleurs, les élites, qui ont le culte de la hiérarchie, demeurent attirées par la fonction publique ou par l'industrie étatique.

Bien que quatrième exportateur mondial, notre pays éprouve des difficultés à conquérir de nouveaux marchés et à commercialiser de nouveaux produits. Dans l'économie et la recherche, le poids du secteur public, demeure plus important chez nous que chez nos concurrents.

Si on ne peut y voir qu'une influence très indirecte et très ancienne de l'Eglise, cela témoigne, en tout cas, de la persistance d'un « mal français » dont les racines plongent fort avant dans notre histoire.

Alain Peyrefitte les a magistralement analysés dans son ouvrage, montrant que les problèmes avaient pourtant souvent été perçus, à travers les différentes époques par nos dirigeants ou leurs contemporains, mais sans qu'ils puissent pour autant infléchir le cours des choses de façon suffisamment significatives.

1. Concernant le commerce

Louis XI essaie ainsi, sans succès, de court-circuiter l'axe Savoie-Genève-Bourgogne-Pays-Bas. Il préconise la suppression des péages ou octrois intérieurs, tente d'autoriser les aristocrates et les gens d'église à faire du commerce et affranchit de nombreuses villes. Il tente enfin, comme vont le faire plus tard les Britanniques avec le Navigation Act, d'assurer à la flotte marchande française un monopole de desserte du territoire national.

Richelieu suggère qu'il faut « donner prix au trafic et rang au marchand ».

Colbert, lui-même, ne reconnaissait-il pas que « la liberté est l'âme du commerce » et que « tout ce qui tend à restreindre la liberté et le nombre des marchands ne vaut rien ». ?

Mais l'État demeure omniprésent, y compris dans les tentatives de promotion des activités concernées.

La campagne française des Indes créée par Colbert en 1663 n'est, selon Peyrefitte, qu'un « ersatz étatique des compagnies de négociants de type anglais et hollandais ». Quant à la nouvelle France, après que la liberté générale du commerce y fut supprimée en 1672, il ne lui reste que deux activités essentielles - selon son gouverneur de l'époque - : « la conversion des âmes et la chasse des castors ».

« Dans sa finalité, le mercantilisme français est ordonné à l'État même si les moyens qu'il prescrit sont propres à développer l'industrie et le commerce ».

En Angleterre et en Hollande, en revanche, l'État garantit le commerce mais ne le gère ni ne le gêne. Et Peyrefitte de conclure : « Le commerce y est l'affaire des commerçants ».

2. Concernant l'industrie

« L'Angleterre s'était débarrassée du système corporatif. Colbert veut, au contraire, débarrasser la France de tout ce qui n'est pas incorporé au système des jurandes ».

C'est ainsi dans le domaine manufacturier que l'obsession réglementaire française s'oppose le plus nettement à la libéralisation progressive britannique.

L'instruction pour la teinture des laines ne comprend pas moins de 317 articles. Quant aux 150 règlements, des soieries à la quincaillerie, tous aussi détaillés, ils constituent ensemble une véritable encyclopédie des arts et métiers.

Certes, l'Etat veut ainsi garantir le bien, mais ce perfectionnisme dirigiste « fige, selon Peyrefitte, les forces vives de l'innovation dans un carcan étatique ».

Selon des considérations, anonymes, sur le commerce, publiées en 1758 et citées par Alain Peyrefitte : « le vice caché, le mal intérieur à l'administration et à la législation économique, ce sont les monopoles, qu'ils soient détenus par les compagnies, les maîtrises ou les jurandes ».

« Laissez-les faire, voilà le grand, l'unique principe » disait Turgot, qui tentera, vainement, d'abroger le corporatisme.

Depuis la divergence qui a suivi la Réforme, bien des pays catholiques, comme la France (dont le PIB dépasse désormais celui de la Grande-Bretagne), l'Italie du Nord ou l'Espagne, (depuis son entrée dans le marché commun) ont effectué un certain rattrapage (malgré l'Eglise ou à cause de son aggiornamento ?).

Mais si l'on regarde l'évolution récente de la croissance et du taux de chômage britanniques (ou hollandais), n'a-t-on pas l'impression que l'histoire se répète ?

N'en va-t-il pas de même pour l'entrée dans la société de l'information comme on se le demandera plus loin ?

Qui pourrait affirmer avec certitude que le principe de Turgot cité plus haut (« laissez-les faire... ») n'est plus d'actualité ou que notre pays est débarrassé à jamais du dirigisme, du corporatisme, de la peur de la libre-concurrence ?

Que l'origine en soit ou non religieuse, la persistance, dans les esprits, de conceptions économiques archaïques traduit, encore une fois, l'importance du rôle des facteurs psychiques dans le développement.

G) POURQUOI TANT INSISTER SUR LE PASSE ?

Parce que le passé a de l'avenir ; que ses leçons demeurent actuelles, et singulièrement dans le domaine de la société de l'information ; et, enfin, parce que notre histoire continue à influencer notre présent, surtout à travers nos mentalités.

Or, le psychisme est, en définitive, ce qui permet de transformer un handicap en stimulation, de muer le fatalisme en volonté de relever victorieusement des défis ; bref, de faire en sorte, pour reprendre un mot de Montesquieu, que « les causes morales l'emportent sur les causes physiques ».

L'exemple de l'imprimerie démontre à l'envi que le succès d'un nouveau média suppose la rencontre simultanée d'une offre de techniques et de contenus et d'une demande reposant sur l'éducation et la volonté de communiquer.

L'esprit d'entreprise, dont la confiance constitue le ressort fondamental, est ce qui permet cet ajustement.

L'exemple des pays réformés nous a prouvé, par ailleurs, que la diffusion du savoir, par l'instruction, est un facteur important, lui aussi, non seulement de la réussite des nouvelles techniques mais surtout, plus généralement, du développement des sociétés (or, comment n'en pas convenir, la croissance est, de nos jours, ce qui nous importe le plus ?).

Enfin, pour qu'un media s'impose, il doit trouver un système de valeurs qui lui corresponde.

Notre entrée dans la société d'information nécessite que nous sachions nous inspirer des leçons du passé ; que nous développions en nous-mêmes, comme à la Renaissance ou dans les sociétés réformées, le goût de la communication et de l'échange intellectuel, la volonté d'instruire et la soif de savoir, et l'esprit d'entreprise, enfin, qui permet aux techniques nouvelles de satisfaire ces besoins.

Il nous faut ainsi lever nos inhibitions mentales, héritées de notre histoire, qu'elles soient directement ou non, en tout ou partie, d'origine religieuse, pour nous adapter aux valeurs de cette nouvelle société.

Ces valeurs sont fondées sur la confiance qui suppose la prise d'initiatives innovantes ainsi qu'une ouverture d'esprit propice à l'échange d'informations et au partage du savoir.

Or, la société française souffre à la fois, paradoxalement de trop de centralisme et d'un excès de cloisonnements (hiérarchiques notamment) qui tendent à paralyser les initiatives et à freiner la communication.

A bien des égards et notamment, par la crainte que lui inspire les effets des techniques nouvelles, la France apparaît encore comme une « société bloquée », (Michel Crozier) ou comme une « société de défiance », (Alain Peyrefitte).

Notre passé troublé (par les guerres, les invasions, les révolutions de toutes sortes) et nos divisions, sociales et culturelles, au moins autant que religieuses, en sont probablement la cause, en même temps qu'un certain archaïsme de notre mentalité économique.

Notre entrée dans la société de l'information exige de nous un effort initial, en un sens décisif pour surmonter ces blocages. Mais, n'en doutons pas, elle peut en retour contribuer à accélérer cette évolution, une fois que nous nous y serons engagés.

CHAPITRE II

UNE SUITE DE RUPTURES ET DE CONTINUITES

Progressivité ou recommencement ?

De l'imprimerie à Internet, l'histoire des médias peut être étudiée de deux façons qui ne sont pas exclusives l'une de l'autre.

On peut, en effet, y voir :

- soit une succession d'inventions et de découvertes, qui semble constituer une progression linéaire dont la vitesse tend à s'accélérer ;

- soit une évolution plus cyclique, plus heurtée, marquée par la résurgence et par la répétition de certains phénomènes.

Cependant, autant le préciser d'emblée : même la première approche, qui tend à prendre du recul historique pour discerner les grandes tendances de long terme, laisse apparaître la coexistence de ruptures et de continuités.

De son côté, la seconde approche, plus événementielle, à tout le moins orientée vers l'étude de périodes moins longues, met en évidence des analogies entre différents faits, des constantes dans les évolutions, mais qui ne correspondent pas, le plus souvent, à de réels retours en arrière ou à la reproduction, à l'identique, de cycles (comme il peut en exister, par exemple, en économie).

I. LA PROGRESSION ACCELEREE DES TECHNIQUES D'INFORMATION ET DE COMMUNICATION :
NOUVEAUTES ET CONTINUITE

Dans l'évolution des techniques d'information et de communication, ce qui frappe tout d'abord, c'est son extraordinaire accélération.

Les découvertes, qui se succèdent et qui débouchent sur l'apparition de nouveaux médias, peuvent sembler constituer, à première vue, autant de points de ruptures, caractéristiques d'un mouvement heurté.

Mais, en réalité, il y a dans l'histoire des médias, malgré la succession d'innovations qui lui l'émaille, une continuité et une harmonie plus grandes que celles auxquelles on pourrait à bon droit s'attendre.

A) UNE PROGRESSION ACCELEREE

Le tableau ci-après tente d'établir une chronologie de l'apparition des principaux médias de masse ainsi que des composants, des équipements, et des moyens de transmission et d'enregistrement correspondants.

CHRONOLOGIE DE L'EVOLUTION
DES TECHNIQUES D'INFORMATION
ET DE COMMUNICATION

coller tableau

L'interprétation de ce tableau nécessite quelques observations préalables :

- les dates, tout d'abord, sont par définition approximatives et ne correspondent, le plus souvent qu'aux premières expérimentations probantes effectuées (et non pas à une exploitation opérationnelle des inventions concernées) ;

- le classement des médias par rapport à l'écrit, d'une part, et aux différentes catégories sensorielles d'autre part (ouïe, vue...) ne correspond pas, ensuite, à un enchaînement chronologique rigoureux. Ainsi, la télégraphie sans fil, postérieure au téléphone, qui va donner naissance à la radio, ne permet à ses débuts, que la transmission de messages écrits. On passera, par la suite, et de manière progressive, de la télégraphie à la téléphonie (réservée d'abord à des professionnels), puis à la radiodiffusion.

De même, le cinéma, qui peut être considéré, non seulement comme le septième art, mais aussi comme un média, précède la radiodiffusion sonore alors qu'il permet la reproduction d'images animées. La xylographie avait d'ailleurs devancé l'imprimerie, et la photographie, le télégraphe ; mais il est difficile de comparer des moyens de reproduction à des moyens de transmission qui, s'agissant de l'image, n'apparaîtront qu'avec la télévision.

L'impression d'ensemble qui se dégage de l'examen des dates de ces différentes découvertes est sans conteste celle d'une accélération.

Il faut d'abord se placer à l'échelle des millénaires en ce qui concerne le passage de l'écrit à l'imprimerie, puis à celle des siècles en ce qui concerne la période séparant l'invention de l'imprimerie de celle du télégraphe.

Il faut ensuite se placer dans l'ordre des décennies pour mesurer le temps qui sépare les grandes découvertes ultérieures : (40 ans environ entre le télégraphe et le téléphone, puis 20 ans, à peu près, pour passer aux liaisons sans fil et de la TSF à la radio, 15 ans de la radio à la télévision, et 10, de la télévision à l'ordinateur).

L'accélération concerne non seulement l'enchaînement des inventions, mais aussi la vitesse de transmission des informations correspondantes, puisque l'on quitte l'ère de la communication en différé (de l'écrit, de l'image ou du son) pour entrer dans celle de l'instantané.

L'informatique, enfin, et la généralisation du codage numérique binaire accélèrent ces tendances, jusque-là partielles et limitées aux regroupements et aux combinaisons des différents médias.

Cependant, cette vue globale laisse toutefois persister des disparités bien réelles.

Après le foisonnement de la fin du XIXe siècle, un ralentissement semble s'opérer dans la première moitié du XXe siècle, sans qu'il soit possible de dire s'il procède des effets des conflits mondiaux ou des difficultés de mise au point de certaines technologies nouvelles.

Par ailleurs, un certain décalage peut parfois se manifester entre l'apparition d'un nouveau média et la mise à la disposition du grand public des moyens d'enregistrement correspondants (les magnétophones à cassette sont ainsi commercialisés 40 ans après la radio, et les magnétoscopes 35 ans après la télévision, peut-être autant en raison d'appréhensions liées à la perception des droits d'auteurs que pour des motifs d'ordre technique).

D'autre part, les périodes s'écoulant, entre une invention et son exploitation à large échelle sont variables. Ainsi peut-on opposer la mise en application presque immédiate du télégraphe au développement plus lent des réseaux téléphoniques faisant appel à des techniques plus complexes (commutation...).

La TSF démarre en trombe (6 ans seulement séparent, en effet, la première expérience de Marconi, à Bologne, de la première liaison transatlantique) mais le passage à la radiodiffusion se révèle plus lent, de nombreuses difficultés techniques devant être résolues : la production d'ondes entretenues, stables et propices aux modulations nécessite, tout d'abord, des courants de haute fréquence. Puis l'électronique, sobre en énergie, naît en 1904, de l'idée de Fleming d'appliquer à la détection des ondes radio la découverte d'Edison concernant l'émission d'électrons par les métaux incandescents. Lee de Forest, deux ans plus tard, va ajouter à la première lampe de radio de Fleming, ou « diode », une troisième électrode. Il en résulte une nouvelle lampe révolutionnaire, ou « triode », capable non seulement de détecter des ondes, mais d'amplifier des courants (5(*)). De nouveaux montages, facilitant, au niveau de l'émission comme à celui de la réception, les oscillations électriques et modulations recherchées, deviennent possibles.

De façon analogue, on n'obtiendra, par la suite, que de faibles variations de courant entre l'émetteur et la base d'un transistor entraînent de fortes variations du courant entre l'émetteur et le collecteur. Mis au point, en 1948, par trois chercheurs américains des Bell Labs (Bardeen, Shockley et Brattain), ce nouveau composant à semi-conducteurs permet donc de réaliser les fonctions essentielles de l'électronique (génération de signaux, amplification, modulation-démodulation, commutation, etc.) et cela dans des conditions plus avantageuses que les tubes précédents, car ils se mettent en action immédiatement, sans dégager de chaleur. Leur durée de vie est en outre beaucoup plus longue et leur encombrement des plus réduits.

Le cas de la télévision se révèle également intéressant. Son démarrage commercial intervient en effet relativement longtemps après les premières expériences, en raison de difficultés techniques (liées à la mise au point de l'analyse électronique des images, préalable à l'abandon des procédés électromécaniques), et par conséquent d'un prix de vente, initialement élevé et du fait, peut-être aussi, des effets économiques liés à la Deuxième Guerre mondiale. Par la suite, le lancement aux Etats-Unis en 1951, par CBS, de la télévision en couleur, mais aussi incompatible avec le parc existant de récepteurs en noir et blanc, se solde par un échec.

L'accélération des découvertes ne signifie donc pas que les nouveaux produits techniques, qui en sont issus, aussi évolués et maîtrisés soient-ils, rencontrent nécessairement le succès. Il y faut, le plus souvent, des conditions économiques, sociales et culturelles propices, mais aussi la rencontre, grâce à des entrepreneurs motivés et audacieux, entre une offre technique et commerciale ainsi que l'élaboration préalable de contenus si nécessaire (notamment dans le cas de médias de diffusion) pour répondre à l'attente du public.

On notera d'autre part que, même si le rythme des inventions s'intensifie, l'apparition d'un nouveau média n'en nécessite pas moins, comme à l'époque de l'imprimerie, la maîtrise non pas d'une seule mais de plusieurs techniques, lesquelles doivent, dès lors se trouver disponibles simultanément ; tout cela exigeant en retour, bien entendu, certains délais.

B) DIVERSIFICATION, PERFORMANCES, CONVERGENCES

Diversité, performances, convergences : tels sont les concepts susceptibles de caractériser l'évolution en longue période des techniques d'information et de communication.

1. Diversification

La diversification la plus évidente qui se produit se manifeste sous la forme de la création de nouveaux médias avec, dans la foulée de l'invention de l'imprimerie, la naissance de la presse écrite, puis la floraison de nouveaux moyens issus des techniques électriques, électroniques et informatiques.

Après les placards luthériens de l'époque des guerres de religion commence à s'organiser, au XVIIe siècle, une presse artisanale. L'apparition de ce nouveau moyen d'information et d'expression est d'abord liée à l'amélioration des transports et des services postaux qui facilitent sa diffusion. Elle est aussi le résultat d'un phénomène jusqu'alors inédit : la naissance d'une « opinion publique ». Tandis qu'en France la gazette, créée en 1634 par Théophraste Renaudot, demeure un organe pseudo-officiel, et que les premiers journalistes se heurtent au XVIIIe siècle au mépris des Encyclopédistes et des philosophes, la presse se nourrit en Angleterre du débat démocratique.

L'existence d'un public nombreux (le taux d'analphabétisation y est, on l'a vu, beaucoup plus faible qu'en France), la vigueur des luttes politiques, la floraison de talents exceptionnels qui n'hésitent pas à braver les interdits de la censure pour rendre compte des débats de la chambre des communes, tout cela explique sans doute le fait que ce soit en Grande-Bretagne que naisse, en 1702, le premier quotidien du monde occidental : Le Daily Currant.

Le passage d'une presse artisanale à une presse de masse résulte de l'essor de la lecture, du progrès des libertés publiques et d'un certain nombre d'avancées techniques qui permettent à la fois de recueillir plus rapidement les nouvelles (par le biais du télégraphe et du téléphone) et d'augmenter les tirages en diminuant le coût de chaque exemplaire (par l'invention, comme on le verra, de la presse rotative, de l'héliogravure ou « offset », puis de la Linotype, en attendant la photocomposition et le traitement de texte par ordinateur).

Après être devenue un nouveau média de masse, qui participe d'une multiplication des moyens d'information, la presse franchit alors une nouvelle étape de son développement et tend à se diversifier avec l'apparition de magazines illustrés, puis de titres spécialisés autour de thèmes particuliers. Dans ce mouvement d'ensemble, elle bénéficie, bien entendu, de l'agrément de présentation que lui confèrent les moyens modernes d'illustration et, notamment, l'insertion de photographies.

A cette diversification de l'écrit s'ajoutent les effets autonomes de l'apparition des moyens de télétransmissions et de télécommu-nications, d'abord électriques puis électroniques, avec, on l'a vu, la télégraphie, suivie du téléphone, de la radio, de la télévision, et des réseaux de données.

Néanmoins, de nombreuses dualités techniques apparaissent (liaisons avec ou sans fil, utilisant les courants électriques ou les ondes hertziennes ; moyens électroniques ou optiques de transmission et de stockage (avec l'invention de la fibre, des lasers et des disques optiques) ; enfin, méthodes analogiques ou numériques de traitement des signaux représentatifs des messages échangés ou diffusés).

Les types de relations entre émetteurs et destinataires d'informations, deviennent également plus variés. Ainsi, à la traditionnelle distinction entre liaisons point à point (autrement dit communications bilatérales) ou point-multipoint (autrement dit radio ou télédiffusion) viennent s'ajouter de nouveaux modes d'échange :

- Les liens entre clients et serveurs, d'abord, (avec variantes « pull » ou « push ») ;

- Les téléconférences, ensuite, (communications multilatérales interactives) ;

- Les messageries électroniques, enfin.

Tandis que les terminaux se multiplient (télégraphe, téléphone, radio, télévision, ordinateurs...), le numérique permet d'envisager leur hybridation (Web TV, téléphones mobiles ou consoles de jeux avec certaines fonctionnalités d'Internet...), sinon leur fusion (PC-TV) souhaitée par certaines entreprises informatiques.

Enfin, les techniques utilisées par les réseaux, et par conséquent, les possibilités de ces derniers, foisonnent également : à côté des réseaux téléphoniques classiques à commutation de circuits se créent, à partir des années 60-70, des réseaux d'échanges de données informatiques, à commutation de paquets.

De son côté, la télévision n'est plus, quant à elle, diffusée seulement par voie hertzienne, mais aussi à partir de la création, dans les années 50, de réseaux en câble co-axial aux Etats-Unis. Par ailleurs, les relais hertziens ne sont plus uniquement terrestres dès lors que, dans les années 60, les satellites commencent à être utilisés pour toutes sortes de liaisons (téléphone, radio, télévision, trafic de données...). De nos jours, des systèmes de communications téléphoniques ou d'échange de données entièrement satellitaires sont même actuellement mis en place (Iridium) ou projetés (Skybridge, Télédesic, etc.).

Les moyens de monter en débit se multiplient : à côté de la fibre optique, aux très grosses capacités mais encore chère à déployer jusqu'à l'abonné, il est possible de recourir aux ondes millimétriques (techniques MMDS) ou, grâce aux techniques DSL, d'emprunter les terminaisons (en paires de fils de cuivre) des réseaux téléphoniques traditionnels.

Ainsi, sans attendre les futurs réseaux universels ATM, multimédia et interactifs, les possibilités d'utilisation des réseaux actuels se multiplient avec, notamment les projets concernant :

- la téléphonie sur le câble ;

- la télévision sur les réseaux téléphoniques (ADSL) ;

- la télévision ou le multimédia en onde millimétrique (MMDS ou LMDS).

D'autres techniques, également très variées, tendent à optimiser, autant que possible, les moyens de transmissions utilisés (multiplexage, modulations, transport hiérarchique synchrone, compression de données à la source...).

Ces différents moyens, fort nombreux, ne s'excluent pas mutuellement. Les données échangées sur Internet peuvent ainsi, par exemple, emprunter successivement différents supports filaires (fibre optique, coaxial, fil de cuivre) ou passer par un ou plusieurs satellites avant d'arriver à leur destination.

A cette prolifération des offres de techniques correspond, comme dans la presse écrite, une diversification des contenus avec, d'un côté, une « segmentation » de la clientèle (à laquelle correspond la création de chaînes de télévision thématiques) et de l'autre côté, l'exploitation des possibilités offertes par le multimédia et l'interactivité des réseaux (notamment dans le domaine des jeux éducatifs ou distrayants, ou avec le développement sur Internet de nouveaux services et de formes inédites de programmes ou de publicité audiovisuels...).

On soulignera par ailleurs le fait que la diversification qui vient d'être présentée s'accompagne, dans tous les domaines, de la recherche de performances améliorées.

2. Performances

Les gains de performances recherchés sont d'ordre à la fois quantitatif et qualitatif. Autrement dit, il s'agit de mettre à la disposition du plus grand nombre de personnes possible davantage d'informations et de capacités de communication, dans de meilleures conditions, en allant plus vite et plus loin.

La tendance est double : on assiste à la fois à une augmentation spectaculaire de la diffusion des médias et à un allégement des moyens de réception correspondants (réduction des formats des imprimés, miniaturisation et portabilité des appareils électroniques, des téléphones et des ordinateurs), en attendant la personnalisation de la satisfaction des besoins facilitée par l'interactivité.

De sorte qu'il s'avère légitime de se demander s'il y a une amélioration corrélée des contenus, autres que les messages échangés entre particuliers (articles de presse, programmes radiodiffusés ou télévisés).

Si la réponse à cette question est loin d'être évidente, il faut accréditer l'idée que la diversification que l'on vient d'évoquer touchant ce qu'il est possible de transmettre (musiques, images...) ainsi que l'amélioration de la qualité de certaines émissions (avec, par exemple, la modulation de fréquence, pour le son, et les images télévisées numériques), constituent en soi un indéniable progrès.

Ainsi, c'est l'accroissement des performances des techniques concernées qui va permettre, en tout cas, l'avènement d'une presse de masse au XIXe siècle, avec la création en Amérique des premiers grands quotidiens à faible prix (Le New York Sun et le New York Herald, fondés en 1833 et 1835 et vendus, à l'exemplaire, au prix de un cent).

Comme toujours, il est difficile de savoir si le progrès technique est ici la cause ou la conséquence de l'expression du besoin social nouveau qui se manifeste. Quoi qu'il en soit, le développement de la presse de masse coïncide avec la révolution industrielle du XIXe siècle.

Ses conséquences sont nombreuses :

n Le changement atteint d'abord la fabrication du papier qui se mécanise et remplace la chiffe par une pâte à base de fibre de bois.

n Dans le même temps, les presses s'automatisent et font de plus en plus appel au cylindre, pour l'impression comme pour l'encrage, jusqu'à la mise au point aux Etats-Unis, vers 1846, de la rotative, vingt-cinq fois plus rapide que tous les procédés existants.

n Les rendements de la composition, dont les techniques n'avaient pratiquement pas évolué depuis Gutenberg , augmentent considérablement grâce à l'invention, en 1886, de la linotype (6(*)).

n Issu de la lithographie, l'offset, inventé en 1904 et généralisé après 1930, représente ensuite un progrès tout aussi important. Un cylindre de caoutchouc sert d'intermédiaire entre le papier et le zinc (enroulé autour d'un autre cylindre porteur auparavant du papier). Il en résulte une meilleure adhérence et un rendement supérieur pour un moindre prix (le papier utilisé pouvant être de moindre qualité).

En outre ce procédé permet d'introduire la photographie dans l'imprimerie, même si, auparavant, les illustrations pouvaient cependant déjà être reproduites grâce, notamment, à la mise au point des techniques de la photogravure (7(*)), en 1876, puis de l'héliogravure (8(*)) en 1895.

L'ultime innovation apparaît à notre époque avec l'emploi de l'informatique (qui permet le traitement de texte par ordinateur) et de la photocomposition numérisée.

Bref, on le voit, l'apparition de nouveaux mass média électroniques n'a donc pas empêché les techniques d'impression de se moderniser en même temps que les techniques de transmission.

Récapitulatif des principaux perfectionnements

des techniques d'impression

1796 : Lithographie (1)

1822 : Photogravure (1)

1845 : Presse rotative

1872 : Héliogravure (2)

1884 : Linotype

1904 : Offset (impression sur feuille de zinc) (2)

1954 : Début de la photocomposition (lumitype) (2)

1960 : Premiers traitements de textes par ordinateur

1970 : Début de l'informatisation des imprimeries et des rédactions. Généralisation de l'offset et de la photocomposition

(1) Concerne surtout l'illustration.

(2) Textes et images

De leur côté, les performances des médias électroniques, sous l'effet conjugué des progrès que connaissent les techniques les plus récentes d'information et de communication, dont ils sont issus, vont s'accroître, très rapidement.

Les équipements correspondants incorporent des composants dont certains connaissent un essor continu et impressionnant. Ainsi en va-t-il des semi-conducteurs : on citera ainsi la fameuse loi de Moore selon laquelle le nombre de transistors intégrés dans une puce double environ tous les 18 mois, qui ne s'est pas trouvée démentie depuis 25 ans.

Ainsi, depuis son invention en 1971, le microprocesseur qui est à l'informatique, un peu ce que l'imprimerie a été à l'écrit, connaît une croissance exponentielle. Le nombre de transistors qu'il contient a été mis au carré en un quart de siècle et pourrait être compris entre 50 et 100 millions en l'an 2000. Quant au nombre d'instructions par seconde qu'il est capable d'effectuer, il aura été multiplié par 10.000 entre 1971 et l'an 2000. En 1971, le premier microprocesseur Intel , le 4004 était cadencé à une fréquence de 108 Khz, le processeur IBM comme le processeur Intel auront une fréquence atteignant 1,1 Ghz en l'an 2000.

Bien que la capacité des mémoires progresse, elle aussi, de façon exponentielle (on est passé de 1 kilobit, en 1970, à 256 mégabits aujourd'hui), celles-ci restent plus lentes que les microprocesseurs ; d'où le succès de nouvelles DRAM (9(*)) synchrones (dont le temps de cycle est calé sur l'horloge du microprocesseur) qui évitent d'abuser des mémoires « cache » très onéreuses.

L'intégration croissante des semi-conducteurs s'accompagne également d'une miniaturisation elle aussi forte et rapide : ainsi, la finesse de gravure s'améliore d'environ 12 % par an (on est passé de 5 microns en 1980, à 0,5 en 1996 ; la limite, en lithographie optique de 0,1 micron devant être atteinte en 2002).

L'augmentation des performances des semi-conducteurs constitue ainsi un bel exemple de progression linéaire. Ce phénomène est d'autant plus remarquable qu'il s'accompagne d'une baisse de prix (pour un résultat donné) et, le plus souvent, d'une moindre consommation d'énergie, l'électronique pouvant en effet être définie comme la science de la maîtrise des faibles courants.

Dans le domaine des transmissions et du stockage des informations, des améliorations notables sont également enregistrées.

S'agissant des transmissions, des progrès réalisés découlent soit de l'offre de nouvelles capacités, soit d'une meilleure utilisation de celles qui existent, soit, enfin, d'une compression efficace des données à la source.

Il est ainsi possible de mieux répondre par des moyens, on l'a vu, de plus en plus diversifiés, à des demandes, variées elles aussi, même si elles tendent généralement vers l'exigence de débits plus élevés.

Offre de capacités nouvelles, tout d'abord : celles de la fibre optique paraissent actuellement quasi-illimitées (plusieurs dizaines de terabits par seconde sur une seule fibre) et permettent d'envisager, dans un futur proche, des « réseaux gigabit ».

Dans le domaine hertzien, on a cru longtemps que seules les ondes longues permettaient les communications à grandes distances ; puis les longueurs d'ondes diminuèrent au fur et à mesure que se développaient des techniques spécifiques correspondantes.

L'occupation d'espaces jusque-là inexploités a ainsi toujours été un moyen naturel de rechercher de nouvelles possibilités de diffusion et de communications. En général, ce phénomène s'accompagne d'une montée en fréquences ce qui induit un raccourcissement des longueurs d'ondes :

n On l'a vu récemment avec l'exploitation des ondes millimétriques (faisceaux hertziens actuels, systèmes MMDS en cours d'expérimentation) qui permet, en outre, des débits relativement élevés (10(*)).

n Cela avait été le cas également en télévision au moment du passage de la bande VHF (Fréquences très hautes) à la bande UHF (Fréquences ultra hautes).

n C'est également ce qui se produit dans le domaine des satellites (où une relative saturation de la bande C peut conduire à recourir aux bandes Ku et Ka).

A côté de la création de nouvelles capacités (par le déploiement de fibres optiques ou par la montée en fréquences), des solutions existent, qui consistent à mieux utiliser les ressources existantes : au premier rang desquelles celle qui permet d'obtenir les résultats les plus impressionnants ayant trait à la compression de données.

En effet, le nombre de chaînes de télévision transmis par un répéteur de satellites ou un canal de réseau câblé peut s'en trouver multiplié par un facteur de 10 à 12 .

Des possibilités moindres (du fait de l'encombrement des ondes), mais toutefois réelles, existent également dans le domaine hertzien terrestre. La compression numérique peut y permettre de multiplier les émissions que les progrès de la directivité et de la sensibilité des matériels d'émission et de réception rendent possibles, dans les interstices de la planification actuelle des fréquences. Plusieurs chaînes numériques hertziennes terrestres sont ainsi déjà opérationnelles en Grande-Bretagne.

La compression, qui facilite également l'enregistrement des données au stade de la production vidéo, correspond à ce qu'on appelle le codage « de source » (qui tend, dès l'origine, à éliminer les redondances et à anticiper les mouvements des images animées à transmettre, afin de réduire la quantité de données nécessaires).

Des gains de performances ont également été obtenus au stade suivant qui concerne le codage dit de canal. Des techniques de modulation (11(*)) plus efficaces permettent, en effet, de maximiser le ratio bits/hertz, et d'obtenir par conséquent des débits plus élevés pour une meilleure occupation de la bande passante.

De son côté, l'occupation des voies des réseaux filaires peut, être optimisée par des techniques performantes de multiplexage et de transport (organisation des trames numériques) ainsi que par voie logicielle (notion de circuit virtuel...).

A l'avenir, les techniques ATM, en conjuguant les meilleurs effets des commutations de paquets et de circuits, et en raccourcissant la taille des cellules numériques de base, permettront de transporter, dans le même réseau, tout type de données correspondant à toute sorte de débits, des plus faibles (téléphone), aux plus élevés (vidéo, calculs informatisés...).

S'agissant, enfin, du stockage ou de l'enregistrement des informations, des progrès spectaculaires ont également été effectués.

Qu'on en juge :

Depuis son invention en 1956, le disque dur des ordinateurs a sans cesse vu ses capacités de stockage augmenter, tandis que baissaient ses dimensions et son prix.

n En quarante ans, la quantité d'informations qu'il peut enregistrer a ainsi été multipliée par 600, passant de 5 millions à 10 milliards d'octets.

n Sa densité, imprimée en bits par pouce carré, s'est accrue encore bien davantage, à tel point qu'il sera bientôt intégré, par exemple, dans un radiotéléphone.

n Dans le même temps, son prix chutait de 50.000 francs à 2 francs l'unité d'information.

n L'équivalent de 1,6 million de pages tiennent ainsi aujourd'hui dans le volume d'une cassette audio alors qu'il fallait, à l'origine, 50 plateaux de 60 cm de diamètre pour stocker seulement 2.500 pages.

n En outre, la vitesse de rotation des disques et surtout le débit d'information transmis (passant de 1 à 18 millions d'octets par seconde entre 1989 et 1997), ont également considérablement progressé.

- Quant au futur DVD, sa capacité maximale (4 couches sur 2 faces) devrait correspondre à 18 Giga octets, (soit neuf heures de vidéo de qualité MPEG2 alors que les 650 millions d'octets des CD actuels permettent de n'en visionner que 72 minutes)

Sur le plan qualitatif, les améliorations portent sur le son et sur l'image ; de nouvelles possibilités sont par ailleurs offertes à l'usager :

n Le perfectionnement de la qualité du son, grâce à la modulation de fréquence (12(*)), en radiodiffusion, puis à la stéréophonie et à la numérisation des enregistrements (CD) et des transmissions (DAB, son stéréo NICAM en télévision) ;

n Le progrès de la qualité de l'image, avec l'introduction de la couleur, les recherches relatives à la haute définition (qui n'a peut-être pas dit son dernier mot) et les effets de la numérisation des transmissions (moindre dégradation, nouveau format 16 :9).

n Enfin, de nouvelles possibilités sont offertes aux utilisateurs qui bénéficient d'un plus grand choix de programmes ainsi que d'avantages liés à l'interactivité (passage d'une télévision au menu à une télévision à la carte, accès à de nouveaux services de communication ou à caractère transactionnel, jeux, etc...).

Dans cet ensemble de performances, les progrès réalisés dans le domaine de la compression ont joué un rôle déterminant. Ils ont permis de maîtriser le flot impressionnant de données afférent au traitement d'images animées, ouvrant ainsi la voie à l'informatique multimédia et à la généralisation du numérique, désormais étendu à la transmission, dans le domaine de la communication audiovisuelle.

Or, le numérique importe à la fois à l'amélioration quantitative (nombre de programmes et de services) et qualitative (images et son, interactivité) des moyens d'information et de communication.

Cependant, force est de reconnaître que les performances techniques venant d'être décrites se sont accompagnées de certaines défaillances : qu'il s'agisse de la lente mise au point des écrans plats, en passe d'aboutir maintenant très prochainement avec les techniques à plasma ; des échecs essuyés par des expériences de télévision interactive en raison de coûts trop élevés ou d'une complexité logicielle excessive, etc.

Malgré tout, ces performances techniques n'en demeurent pas moins impressionnantes et permettent l'amorce de mouvements de convergence importants.

3. Convergences

Sans attendre le déclenchement du mouvement actuel de convergence, qui sera examiné plus loin, entre les télécommunications, l'audiovisuel et l'informatique, des rapprochements entre ces techniques relatives aux différents médias se sont déjà produits par le passé, qui aboutissent à la création de synergies.

C'est ainsi, tout d'abord, que les techniques d'impression ont tenté, dès l'origine, de marier l'image et l'écrit (la xylographie ayant d'ailleurs précédé les caractères mobiles). Et les plus grands services rendus à la science par l'imprimerie l'ont été, notent Febvre et Martin « par le biais de l'illustration, dans le domaine des sciences descriptives » (sciences naturelles, anatomie).

Des techniques comme la lithographie, puis la photogravure, l'héliogravure et l'offset ont ensuite facilité, on l'a vu en particulier dans la presse écrite, les combinaisons de textes et d'images.

Le cinéma va également constituer une synthèse de la photographie (dont il fait défiler des séries à un rythme de 16 puis 24 images par seconde) et des techniques d'enregistrement sonore.

La télévision, de même, bénéficiera plus tard des acquis du cinéma et de la radiodiffusion tout en étant capable de transmettre également du texte (procédés de télétexte comme Antiope...).

La presse écrite, on l'a vu, a pour sa part tiré profit du télégramme et du téléphone (elle utilisera ensuite le Bélinographe, inventé en 1907, qui permet la transmission de photos).

S'agissant du télégraphe, très vite lui ont été adjoints des procédés permettant d'imprimer directement les messages expédiés.

Qu'en déduire, sinon que les anciens et les nouveaux médias, loin de s'exclure ou de s'annuler mutuellement, tendent souvent à conjuguer leurs effets les plus favorables, créant par là même des synergies qui leur sont profitables à tous ?

Ainsi, la télévision, dont on a pu craindre qu'elle tue le cinéma, en représente aujourd'hui l'une des principales sources de financement (13(*)). La vidéo enregistrée, malgré les risques d'évasion qu'elle comporte du point de vue de la perception des droits d'auteur, procure, elle aussi, au septième art des recettes non négligeables et en constitue un moyen important de diffusion.

La convergence actuelle entre les télécommunications, l'audiovisuel et l'informatique consacre la suprématie de cette dernière (qui domine déjà par ailleurs, on l'a vu, le secteur de l'imprimerie) et de son langage, le numérique.

n Concernant les télécommunications, ce sont des ordinateurs qui contrôlent les noeuds des différents réseaux, dans la gestion desquels les logiciels jouent un rôle de plus en plus important. Grâce aux modems, une proportion croissante des terminaux branchés sur le réseau téléphonique commuté sont des ordinateurs personnels, clients des serveurs d'Internet. Sans attendre l'ATM, un rapprochement entre différents types de services et de données transportées se manifeste d'ores et déjà avec, depuis la fin des années 80, la mise en place de RNIS (réseaux numériques à intégration de services), qui permettent des applications telles que la visioconférence. Numéris, en France, a été, en 1987, un des premiers réseaux de ce type créés dans le monde.

n S'agissant de l'audiovisuel, plusieurs sortes de rapprochements coexistent :

· Avec les télécommunications, tout d'abord, puisqu'il est possible, on l'a vu, d'utiliser les mêmes infrastructures (câble ou réseaux téléphoniques) ou de recourir aux techniques hertziennes, qu'elles soient terrestres ou satellitaires, pour transmettre les différents types de communications existantes (téléphone, vidéo, données informatiques...).

C'est ainsi que, sans attendre les futurs réseaux multimédia, on peut envisager de diffuser des images télévisées sur le réseau téléphonique ou de faire de la téléphonie sur les réseaux câblés audiovisuels.

· L'informatique, d'autre part, joue un rôle croissant dans les techniques de télévision. Elle est apparue, dès les années 70, dans le montage vidéo. Depuis 1993, des micro-ordinateurs peuvent faire office de consoles de montage et permettent même, outre le pilotage des magnétoscopes, de générer des effets spéciaux.

L'informatique a introduit ce qu'on appelle le montage « virtuel » qui allie les avantages des techniques cinématographiques (non linéarité) à ceux des techniques vidéo (possibilités de modification à partir d'éléments puisés directement dans des stocks de données enregistrées).

L'industrie de la post-production est ainsi passée de l'utilisation d'équipements spécifiques vidéo dédiés à celle d'ordinateurs plus ou moins polyvalents ou puissants (de la station de travail au simple PC).

Dans le même temps, la manipulation de bandes vidéo cède la place à la manipulation de fichiers. Le concept de studio construit en réseau d'équipements informatiques (plusieurs stations de travail reliées à un serveur central) devient particulièrement attractif car il permet un accès partagé, instantané et souple aux différentes données enregistrées quel qu'en soit le format.

De son côté, le disque dur constitue, par ses qualités de rapidité d'accès et de débits de transfert, un excellent support de montage virtuel, même si le recours à d'autres moyens de stockage intermédiaire, (moins onéreux mais plus lents tels que les disques optiques), peut s'avérer nécessaire.

S'agissant de traitement de l'actualité, des camescopes à disques (disques durs amovibles ou disques optiques), dont l'utilisation ne peut que faciliter le montage des reportages prennent une place de plus en plus importante sur le marché.

Les avantages des solutions informatiques conduisent à ne plus les cantonner exclusivement dans le domaine de la production, mais à les employer également au stade de la diffusion. Des serveurs remplacent ainsi les robots qui effectuaient auparavant les enchaînements entre programmes préenregistrés. Et le montage (grâce aux techniques « virtuelles » précédemment évoquées) peut être composé au moment même de la diffusion.

Les technologies informatiques vont ainsi logiquement favoriser l'émergence de petites stations de télévision très automatisées (à l'instar des radios locales), à la gestion souple et économique. Les micro-ordinateurs, utilisés pour les montages et permettant des productions en 3 dimensions, commencent, en effet, à devenir des éléments essentiels de la programmation et de la diffusion.

S'agissant de la télévision interactive, les serveurs y jouent un rôle prépondérant comme les équipements spécifiques mis à la disposition des usagers (décodeurs et télécommandes), qui se mettent à ressembler de plus en plus à des ordinateurs, et au coeur desquels on trouve le même composant fondamental : le microprocesseur.

L'informatique est devenue ainsi le moteur de l'évolution de l'audiovisuel, preuve s'il en est du rapprochement des deux univers.

Elle tend à fédérer (on l'a vu pour le montage) les techniques du cinéma et de la télévision.

Elle a, ensuite, l'immense avantage de permettre de s'affranchir de la diversité des formats et des résolutions d'images, utilisés pour l'enregistrement, la transmission et la diffusion.

Ainsi, on se rangera à l'avis d'Olivier Landau et de Gilles de Peslouan concernant la révolution du numérique dans la production audiovisuelle et cinématographique : « l'informatique bouscule les clivages et propose des passerelles entre différents supports. L'image numérique permet d'échanger de manière totalement transparente pour l'utilisateur des images entre le cinéma, la vidéo et l'informatique... Il s'agit désormais d'une informatique de plein exercice capable d'imposer le pixel comme une sorte de tronc commun à tous les formats d'images (cinéma, vidéo, dessins animés, écran d'ordinateur...) ».

Par sa souplesse, l'informatique représente ainsi un moyen particulièrement adapté à la production, au stockage et à la diffusion d'images désormais numérisées et comprimables à souhait.

Cependant, la transmission et la diffusion, en temps réel, de la vidéo, même compressée, continuent à nécessiter des débits relativement élevés. Cela est particulièrement vrai pour ce qui concerne les liaisons dites « de contribution » (entre studios ou entre studios et émetteurs) mais aussi pour ce qui concerne la distribution, par le réseau téléphonique, d'images animées d'un bon niveau de qualité, que des supports ou des techniques comme l'optique et l'ADSL - on l'a vu - pourraient permettre.

S'agissant de la réception, plusieurs stratégies se dessinent. L'une, offensive, qui tend à fusionner l'ordinateur personnel et le téléviseur (PC-TV). L'autre, défensive, qui s'efforce de permettre au téléviseur d'offrir tout ou partie des avantages d'Internet (Web TV).

Des programmes de télévision, même diffusés par voie hertzienne, et des cassettes vidéo enregistrées, peuvent ainsi, moyennant certains équipements, être regardés sur un écran d'ordinateur. Et dans le cas, probable, d'un multi-équipement des foyers, le PC pourrait faire office de régie, orientant vers les différents écrans familiaux les programmes de différentes sources.

Il est possible, d'autre part, de fabriquer des téléviseurs connectables à Internet (Web TV) ou d'entremêler sur un écran de télévision des pages Web avec les images en cours de diffusion des différentes chaînes (procédé Intercast).

Tandis que la télévision permet dorénavant d'accéder à des services interactifs autres que la vidéo à la demande, des programmes à base d'images animées et à caractère distrayant sont diffusés sur Internet et de nouvelles formes de publicité s'y développent, ainsi que des modes de diffusion de l'information (push), plus proches de ceux des anciens médias, même s'ils répondent, théoriquement à une demande préalable des intéressés. Vidéo à la demande et récolte volontaire d'informations (pull) d'un côté, diffusion plus ou moins ciblée de programmes et de messages publicitaires de l'autre : la convergence entre Internet (qui préfigure les télécommunications multimédia de demain) et la télévision ne concerne donc pas seulement les types de récepteurs, elle affecte aussi les contenus.

Cependant, il semble probable que ces derniers demeureront variés, même si une certaine unification de leurs modalités de transport et de réception se produit. On ne conçoit pas de la même façon un programme destiné à être regardé de loin ou de près, individuellement ou à plusieurs, en vue de travailler et de s'éduquer ou de se reposer en se distrayant...

Il paraît donc également vraisemblable que subsisteront plusieurs types d'équipements correspondant à ces différents modes de visualisation, et résultant d'une certaine hybridation des usages du téléviseur traditionnel, d'une part, et de l'ordinateur communiquant d'autre part.

Chacun aurait ainsi une fonction principale (travailler, jouer, regarder, communiquer) et des fonctions secondaires empruntées aux autres.

Certains seront fixes, d'autres portables.

Concernant le stockage et l'enregistrement, l'avènement des nouveaux vidéodisques numériques optiques (DVD) devait également constituer un facteur de convergence. En effet, les principaux groupes mondiaux d'électronique de loisirs (autrement dit, les grands électroniciens japonais, plus Philips et Thomson ), s'étaient mis d'accord, à la fin de 1995, sur une norme mondiale tendant à faire la synthèse des deux projets en présence : celui de Sony et Philips d'un côté, de Toshiba , Matsushita et Time Warner , de l'autre.

L'avènement du DVD enregistrable donnait à l'industrie de l'électronique grand public l'espoir de renouveler le parc des magnétoscopes, et à l'industrie de l'informatique, celui d'augmenter sa pénétration dans les foyers, en améliorant très nettement la qualité de la vidéo susceptible d'être visualisée sur les écrans des ordinateurs personnels. Sans prétendre remplacer les disques durs magnétiques, le nouveau disque pouvait espérer succéder à la disquette informatique, accueillir de nombreuses applications actuelles et futures des ordinateurs personnels (traitement de texte, archivage, etc...) et unifier les supports amovibles de stockage de données dont la variété est aujourd'hui déroutante.

Malheureusement, Sony et Philips ont déterré, il y a quelques mois, la hache de guerre en proposant une nouvelle norme différente de celle qui résultait du compromis obtenu.

Le bon sens devrait toutefois l'emporter rapidement. Nous l'espérons.

D'une façon générale, la normalisation apparaît comme une des conditions à la fois la plus importante, mais aussi la plus difficile à réaliser, de la convergence des techniques d'information et de communication. L'adoption de la norme de compression vidéo MPEG représente, à cet égard, un succès particulièrement appréciable.

Le métissage, si l'on peut dire, des techniques de l'audiovisuel, des télécommunications et de l'informatique, sous l'emprise de cette dernière, apparaît ainsi comme l'aboutissement ultime de ces tentatives de rapprochements, cependant beaucoup plus limités et partiels, entre différents médias. Il en résulte de formidables bouleversements, non seulement techniques, mais culturels, sociaux, économiques et juridiques, et d'immenses possibilités de communication et de création (d'images de synthèse, notamment).

Cependant, des techniques de transmission à très haut débit devront parallèlement être développées pour permettre l'échange des données et l'interconnexion des réseaux.

De sorte que la fibroptisation des réseaux et le développement des technologies ATM apparaissent donc comme les conditions indispensables à la poursuite et à l'accentuation des convergences qui viennent d'être présentées. Lesquelles devant par ailleurs contrebalancer l'influence d'effets éventuellement déstabilisateurs du processus de diversification des techniques précédemment évoqué.

*

* *

Considérée d'un point de vue essentiellement technique, l'histoire des médias semble ainsi marquée par une progression accélérée du rythme des découvertes, orientée vers la recherche constante d'une diversification des moyens d'information et de communication, rendus plus performants, et tendant à converger dans leur utilisation.

Cette impression semble confirmée par le fantastique essor d'Internet, dont le nombre d'utilisateurs et de serveurs double environ chaque année, le trafic s'accroissant encore plus vite et tendant à comporter, en plus du texte, davantage d'images et de sons.

Mais tout ne progresse pas au rythme de la loi de Moore ou du développement du réseau des réseaux.

Même sur le plan technique, l'évolution n'est pas toujours, aussi régulière, rapide et harmonieuse qu'il y paraît.

C) DES FACTEURS DE BLOCAGE

Les blocages susceptibles de freiner la progression des techniques d'information et de communication et leur utilisation tiennent :

n à des difficultés ponctuelles de mise au point de certains procédés ou produits ;

n aux défis techniques que représentent :

· l'exploitation logicielle des capacités exponenti ellement croissantes des composants électroniques ;

· l'hétérogénéité des techniques, des matériels et des réseaux ;

· le traitement, le stockage et l'accessibilité de la masse considérable d'informations produites.

n à des problèmes de normalisation, d'inadaptation éventuelle du cadre législatif et réglementaire concerné, et d'aléas commerciaux.

1. Des difficultés ponctuelles de mise au point :

En ce qui concerne ces difficultés ponctuelles de mise au point, tout d'abord, force est de reconnaître que la numérisation complète de la chaîne de l'image a longtemps buté sur l'obstacle de la surabondance de données correspondantes à stocker et à transmettre. Il a fallu attendre les années 90 pour que la mise au point de puissants algorithmes de compression permettent de résoudre ce problème.

Mieux : ce qui semblait ainsi constituer au départ un des principaux inconvénients du numérique (qui s'était déjà cependant imposé au stade de la post-production et du traitement des images dans la réception) en est devenu, sur le plan économique, le principal atout, avec la multiplication des programmes susceptibles d'être diffusés dans un même canal de transmission. La mise au point des techniques de compression avait été facilitée par l'informatique, celle-ci en a ensuite bénéficié, puisque ce sont ces algorithmes qui ont permis, avec l'augmentation de la puissance des microprocesseurs, de rendre les ordinateurs personnels multimédia.

Autre obstacle qui vient d'être surmonté : celui des écrans plats. La mise au point de ces composants stratégiques, communs à un grand nombre d'équipements (TV, PC, radios, visiophones...), a été beaucoup plus lente et difficile que celle, par exemple, des semi-conducteurs. La technique des cristaux liquides domine le marché des ordinateurs portables ; celle du plasma, qui a beaucoup progressé, devrait s'imposer pour les téléviseurs grand écran auxquels elle est mieux adaptée.

Dernier exemple : la fibre optique, inventée en 1966, n'a commencé à être utilisée à large échelle qu'à la fin des années 80, après qu'eurent été suffisamment baissés ses coûts de production et résolus différents problèmes liés à la dispersion et à la régénération du signal et de la conversion optoélectronique.

Cela illustre bien les délais souvent nécessaires pour passer du stade de la découverte en laboratoire à celui de l'exploitation opérationnelle ou pour l'arrivée à maturité de procédés résultant de la mise au point, non pas d'une seule, mais de plusieurs techniques.

2. Des défis techniques à relever :

Outre la résolution de problèmes ponctuels, la progression des techniques d'information et de communication nécessite en effet de relever un certain nombre de défis d'ordre plus général :

n La capacité de certains semi-conducteurs (micro-processeurs, mémoires) croit, on l'a vu, de façon exponentielle. Est-il certain que l'esprit humain parvienne à exploiter au même rythme le surcroît de possibilités qui en résulte ?

Certes, le multimédia requiert de lui-même des puces de plus en plus puissantes (des « média processeurs »), mais encore faut-il être en mesure de les concevoir.

L'intelligence peut être mobilisée de façon optimale, dès la conception des circuits imprimés, ou intervenir dans une certaine mesure, par la suite seulement, de façon logicielle, dans la programmation des puces et de l'utilisation des équipements correspondants.

La mise sur le marché de consoles ludiques de plus en plus puissantes s'est accompagnée parfois d'une relative pénurie de logiciels correspondants, entraînant un choix initial restreint de jeux offert au consommateur.

n Un autre défi lancé aux capacités intellectuelles humaines résulte de l'hétérogénéité des techniques, des matériels et des réseaux. La diversification des moyens d'information et de communication n'exclut pas, on l'a vu, certaines convergences. Mais les deux tendances n'en demeurent pas moins souvent difficiles à concilier.

On s'en doute : la coexistence de l'analogique et du numérique, de l'électronique et de l'optique, pose certains problèmes.

La partie terminale des réseaux téléphoniques commutés n'est souvent pas encore numérisée, ce qui rend nécessaire des conversions, notamment par des modems, pour les communications entre ordinateurs. Il en ira toujours ainsi du son, que les exigences de l'oreille et les lois de l'acoustique obligent à restituer de façon analogique.

En revanche, l'image peut être saisie sous la forme d'un ensemble de pixels, prêts à numériser, dont le cerveau au travers de l'oeil est capable, au moment de l'affichage, d'effectuer la synthèse.

De même, des conversions optique-électronique demeurent indispensables en l'état actuel des réseaux, en attendant, d'une part, leur « fibroptisation » totale éventuelle jusqu'à l'abonné et, d'autre part, la généralisation d'amplificateurs optiques. Elles continueront à s'imposer, de toute façon, pour les équipements d'extrémité, à moins que des ordinateurs optiques ne se répandent, et même, dans cette dernière hypothèse, pour les liaisons avec les mobiles.

S'agissant des réseaux, la coexistence d'utilisations privatives et communes, intégrées ou spécialisées, de différents types de commutation (par produits ou par circuits, fixes ou virtuels), de liaisons non commutées (brassées et multiplexées), de débits variables, de nouveaux services diversifiés, pose des problèmes d'une redoutable complexité. Pour les résoudre, il est fait appel aux logiciels, de façon croissante, à des techniques telles que la hiérarchie numérique synchrone (SDH) ou encore, au concept de réseau intelligent.

Les succès d'un protocole comme celui d'Internet (TCP/IP), ou celui d'un langage comme java, tiennent précisément à leur capacité à transcender l'hétérogénéité des réseaux et des matériels informatiques (la plus redoutable d'entre toutes), de sorte que toutes les machines puissent communiquer ou exécuter certaines instructions.

Pour Michel Feynerol, directeur du CNET, le degré de complexité atteint par les systèmes actuels est, cependant si élevé, que son augmentation comporte des risques : « L'homme sera-t-il capable - s'interroge-t-il dans son dernier ouvrage (14(*)) - socialement ou collectivement, de gérer les fabuleuses possibilités qu'offrent les nouvelles techniques logicielles associées aux nouvelles techniques de communication et aux architectures réparties ». Et plus loin : « La complexité même des structures - poursuit-il - et l'autonomie accrue des acteurs augmenteront les risques d'incohérence et de perturbation du fonctionnement global des réseaux, ou de comportement aberrant du trafic ».

Autant dire que « Les spécifications sont devenues si complexes et si rapidement évolutives que plus personne ne les maîtrise dans leur ensemble ».

· Le traitement, le stockage et l'accessibilité d'une quantité surabondante d'informations produites constitue un dernier défi, et non des moindres à relever.

Force est de constater que les oracles des oiseaux de mauvais augure, prédisant « l'implosion » d'Internet, ne se sont pas réalisés, bien que les difficultés rencontrées par les internautes dans certaines circonstances soient bien réelles.

Les deux principaux dangers potentiels (saturation complète des infrastructures et submersion de l'usager par le flot de données accessibles) ont été, évités dans la mesure du possible.

Le langage multimédia HTML, les navigateurs et moteurs de recherche, les agents intelligents, enfin, ont permis à l'utilisateur de ne pas se perdre dans le labyrinthe des serveurs de la toile, ni de se noyer dans l'océan d'informations qu'ils charrient.

Mais dans les métiers audiovisuels où beaucoup de données sont aussi enregistrées, stockées et manipulées, la multiplicité des standards et des formats (15(*)) utilisés par les magnétoscopes (maillon essentiel de la chaîne de production de programmes) demeure cependant source de difficultés et conduit à un suréquipement qu'on ne peut que regretter.

S'agissant du transfert d'images vidéo sur ordinateur, il existe (en attendant les DVD) plus d'une cinquantaine de cartes différentes, et les fréquences ainsi que les modes de balayage ne sont pas identiques. Cette disparité crée des problèmes de synchronisation et des incompatibilités d'affichage qui compliquent les liaisons entre équipements informatiques et vidéo.

· Les derniers obstacles susceptibles de freiner les progrès des moyens d'information et de communication ont trait aux conditions qui leur sont nécessaires pour s'implanter : il s'agit de leur environnement normatif, législatif et réglementaire, économique et commercial.

A la frontière de la technique et du droit, la normalisation, est en même temps particulièrement nécessaire et concrètement difficile.

Nécessaire à la pénétration des équipements et à la diffusion des contenus : car l'incompatibilité des produits et des services est l'une des meilleures façons de décourager l'acheteur éventuel.

Et on peut à bon droit se demander si les ordinateurs personnels ne se seraient pas davantage répandus si, en plus de certaines difficultés d'usage, ne s'était pas posé le problème du dualisme de l'univers Macintosh et de celui du PC ?

Mais la normalisation est un exercice difficile. Quand elle est diligentée par des instances officielles, elle risque, d'une part, de s'effectuer trop lentement et donc de se trouver en retard sur l'évolution des techniques, très rapide dans certains secteurs, comme l'informatique.

Mais s'en remettre entièrement aux industriels comporte, par ailleurs, deux autres types de dangers : soit celui de l'imposition de facto d'une norme qui n'est pas nécessairement la meilleure possible pour l'usager (ainsi du format VHS pour les cassettes vidéo ou de ce qui a failli se produire avec le système japonais Muse de diffusion de la TVHD) ; soit celui de l'échec, partiel ou total, des tentatives de compromis effectuées, étant donné l'importance des enjeux pour les différentes catégories d'acteurs concernés (fabricants de matériels, producteurs et distributeurs de contenus...). C'est ainsi, par exemple, que des menaces planent sur l'adoption d'un standard commun en ce qui concerne la version enregistrable du DVD.

C'est pour les mêmes raisons également que le groupe européen DVB de normalisation de la télévision numérique, après avoir atteint rapidement des résultats remarquables, bute sur le problème de l'adoption d'un système commun de contrôle d'accès (simulcrypt ou multicrypt), tandis que ses recommandations peuvent laisser à désirer sur d'autres points (harmonisation des guides électroniques de programmes et entre les normes relatives aux différents modes de diffusion : câble, satellite, hertzien terrestre).

La mise au point d'une norme unique de télévision haute définition, aux Etats-Unis, s'est heurtée également à d'ultimes difficultés (l'accent a finalement été mis, par la FCC, sur la compatibilité entre la réception des images numériques sur les téléviseurs et sur les ordinateurs, bien davantage que sur la haute définition elle-même qui, contrairement à ce qui avait été prévu à l'origine, ne semble même plus correspondre aujourd'hui à une obligation...).

Aujourd'hui le problème du Minitel est en partie lié à celui de sa norme vidéotex qui n'a pas été adoptée par d'autres pays et qui, de surcroît, n'est pas directement compatible avec le multimédia et Internet (même si des passerelles peuvent être mises en place).

En revanche, d'incontestables succès ont été obtenus, par exemple, à l'échelle européenne, avec la norme de téléphone mobile numérique GSM (qui devra cependant bientôt affronter une technique américaine rivale dite CDMA) et surtout, à l'échelle mondiale, avec les spécifications MPEG2 relatives au codage d'images animées à la source (16(*)).

Les difficultés de normalisation (auxquelles n'échappe pas l'ATM) sont loin d'être nouvelles et peuvent laisser à penser qu'il s'agit d'un domaine dans lequel l'histoire se répète, comme nous le verrons plus loin.

D'autres problèmes, posés également à la frontière de la technique et du droit, ont trait à l'élaboration d'un cadre législatif et réglementaire, aux niveaux national et international, qui, à tout le moins n'entrave pas, sinon favorise le développement des applications des nouvelles techniques d'information et de communication.

Ce sont, par exemple, les règles relatives aux techniques de cryptage, dont dépendent la « sécurisation » des transactions ainsi que le maintien de la confidentialité des échanges, mais aussi à leurs modalités d'utilisation et d'exportation, aux conditions dans lesquelles le décryptage de messages par les autorités peut s'imposer pour des raisons de sécurité, etc.

Le commerce électronique sur Internet, la mise en conformité de ses contenus avec les règles juridiques nationales (protection des mineurs, des droits de la personne, de la vie privée...), la manière d'assurer le respect des droits d'auteurs, tout cela pose des problèmes nouveaux, même quand il n'existe pas, à proprement parler, de vide juridique.

La simple transposition de règles préexistantes, sans adaptation ni concertation avec les intéressés, notamment au niveau international, risque de s'avérer pire qu'inopérante : elle peut constituer un frein à la diffusion des nouvelles techniques et de leurs effets créateurs d'emplois.

· Mais la création d'un environnement juridique favorable (y compris sur le plan fiscal) ne suffit pas à prémunir des promoteurs de nouveaux systèmes d'information et de communication contre tout aléa commercial.

La situation des investisseurs potentiels est, en effet, on ne peut plus contrastée.

Par certains côtés, les coûts diminuent. Le prix de revient d'un titre multimédia est, par exemple, nettement inférieur à celui d'un film. L'informatisation de la production et de la diffusion audiovisuelles entraîne la baisse de divers postes de dépenses (en particulier les frais d'exploitation...) ; la diminution du prix de certains composants entraîne celle des équipements correspondants (par exemple les caméras à CCD, les micro-ordinateurs utilisés par de petits producteurs et diffuseurs) ; la compression numérique, quant à elle, divise de façon spectaculaire les coûts de transmission par satellite et par câble.

Mais d'autres éléments d'appréciation sont nettement moins favorables : dans des pays où la dette publique est lourde et la conjoncture difficile, les pouvoirs publics diminuent, voire suppriment la part qui était habituellement consacrée au financement d'infrastructures, en en laissant la charge au seul secteur privé. En outre, la demande vis-à-vis de nouveaux équipements ou de services d'informations et de communications risque de s'y trouver plus ou moins mal disposée, quand bien même il s'agit d'outils indispensables à la compétitivité.

D'autre part, dans le secteur audiovisuel, la profusion des capacités de diffusion qu'entraîne la compression de données, a tendance à faire monter les enchères en ce qui concerne l'accès aux contenus. L'escalade dans le secteur des effets spéciaux nécessite, par exemple, l'acquisition, par les producteurs audiovisuels, des derniers modèles de stations de travail, les plus puissants et les plus onéreux, et le recours à une main-d'oeuvre très qualifiée et très onéreuse.

Enfin, l'achat de certains équipements lourds (comme les serveurs vidéo de forte capacité ou les encodeurs MPEG) n'est pas encore à la portée de toutes les bourses, même si ces matériels permettent par la suite de réduire certains frais fixes d'exploitation et de diffusion. Tout le monde n'a pas non plus les moyens d'acquérir un parc de décodeurs pour offrir aux consommateurs le choix entre la solution de la location et celle de l'achat.

Dans ces conditions, le budget et le temps consacrés par les consommateurs à leurs différents écrans (TV, PC, consoles de jeux...) n'étant que modérément extensibles, certains retours sur investissement sont loin d'être assurés.

C'est sans doute l'une des principales raisons (avec des motifs liés à des difficultés techniques) pour lesquelles il ne semble plus envisagé, actuellement, de construire des réseaux du type de celui expérimenté par Time Warner à Orlando, en Floride (17(*)).

De ce point de vue, même l'entrée pleine et entière d'Internet dans la sphère de l'économie marchande comporte, de nombreuses inconnues. Il pourrait en effet en résulter un accroissement des exigences des utilisateurs, nécessitant des investissements, dont ceux-ci seront d'autant moins enclins à subir ensuite les conséquences, s'ils n'ont pas été habitués à payer à leur vrai prix les services rendus par le réseau des réseaux.

*

* *

Même considérée ainsi d'un point de vue essentiellement technique, l'évolution des médias s'avère donc moins linéaire et moins uniformément accélérée qu'il n'y paraît.

Si elle se révèle de plus en plus rapide, elle ne fait pas table rase du passé, d'une part ; et ne connaît pas partout, d'autre part, le rythme de la loi de Moore ou celui de l'essor d'Internet.

De sorte que s'il est incontestable que l'histoire des techniques se renouvelle sans cesse, des traces du passé y subsistent et des répétitions, on le verra, n'y sont pas impossibles.

Certains récepteurs (postes à galène ou à lampes, télévisions en noir et blanc) ou dispositifs de lecture et d'enregistrement (microsillons...) peuvent disparaître, mais les médias, eux, généralement, demeurent. Des normes des supports ou des techniques obsolètes peuvent « faire de la résistance », (comme le NTSC, qui date de 1941 ; le tube cathodique, inventé en 1929 ; ou la paire de cuivre téléphonique) et cela en raison, soit de blocages ou de considérations commerciales (effets de parc...) qui rendent difficile leur remplacement, soit de la mise au point de procédés (ADSL) permettant de « faire du neuf avec du vieux ». Enfin, les impératifs du maintien de la continuité d'un service considéré comme public, les aléas du recours à des technologies inédites, la vitalité propre à tout moyen de communication bien implanté, conduisent généralement à ménager les transitions (par exemple, entre l'analogique et le numérique) et, comme le fait remarquer Régis Debray « à ne pas faire d'additions sans reste ».

De fait, considérée du point de vue technologique, l'histoire des médias est marquée, certes, par des ruptures mais aussi par une certaine sédimentation ainsi que par une remarquable continuité.

La quête de nouveaux moyens d'informations et de communication, due à un insatiable appétit des nourritures correspondantes est une constante de l'humanité.

Les médias contemporains demeurent plus que jamais des « mass média » permettant l'accès d'un nombre de plus en plus important de personnes à une quantité croissante de données. Mais ils ont évolué, sur un plan qualitatif, en offrant non seulement l'instantanéité, mais aussi l'ubiquité, la variété des combinaisons multimédia possibles, mais aussi l'individualisation de l'accès à l'information. Bref, ils sont devenus non seulement « de masse » mais aussi intelligents et personnalisés.

La diversification des techniques a été telle qu'elle permet pratiquement de diffuser n'importe quel contenu sur n'importe quel support, vers toutes sortes de terminaux, universels (PC) ou hybrides. Dans ces conditions, pourquoi ne permettrait-elle pas aussi certains recommencements ?

En outre, la technique n'est pas tout, même si elle tend à devenir de plus en plus performante. Elle dépend des usages sociaux qui en sont faits qu'elle peut, en retour influencer.

Même si se sont créés, depuis, des médias qui permettent aux personnes non seulement de recevoir mais de créer des contenus échangés en temps réel, les règles dont le respect a permis le succès de l'imprimerie demeurent valables à notre époque : il faut que des entrepreneurs en ayant l'envie et les moyens, permettent la rencontre de la demande et de l'offre d'un ensemble de techniques et de contenus. Cet ajustement suppose l'adhésion de la société à un système de valeurs privilégiant le partage de l'information et du savoir, le désir de l'échange intellectuel et culturel et le goût de la communication.

C'est dans cette permanence des conditions du succès que l'histoire des moyens d'information peut donner l'impression de se répéter, quand elle est considérée d'un point de vue non seulement technologique mais aussi médiologique, en prenant en compte le rôle de tous les facteurs (psychiques, sociaux, économiques, culturels) susceptibles d'intervenir.

D) DES SIGNES VARIES DE RECOMMENCEMENT...

Finalement, l'histoire des moyens d'information et de communication, malgré sa dynamique de progrès, en apparence, linéaire semble donner des signes variés de recommencements, de résurgences, de répétitions, et cela y compris sur le plan technique.

Mais ces phénomènes se manifestent avec le plus d'acuité lorsqu'on les observe d'un point de vue médiologique ou lorsqu'on examine les conditions psychosociales, économiques ou culturelles, nécessaires au succès des nouveaux médias.

1. Sur le plan technique

Même la technique, domaine en apparence marqué par un perpétuel renouvellement, accuse parfois, elle aussi, certains recommencements.

C'est ainsi, par exemple, que le montage virtuel, permis par l'informatique, qui est au montage vidéo classique ce que le traitement de texte représente par rapport à la dactylographie d'antan, représente, selon Olivier Landau et Gilles de Peslouan, un « retour aux sources » : « il consacre, en effet, les gestes traditionnels du montage cinéma ».

Les circonstances de la naissance, au milieu du XXe siècle, de l'informatique elle-même, peuvent d'ailleurs se prêter à un parallèle avec celles de l'apparition de l'écriture, aux confins du Moyen-Orient, il y a cinq millénaires.

« Dans les deux cas - observent Philippe Breton et Serge Proulx - une nouvelle technique de communication naît du calcul et s'en détache progressivement ».

« Dans les deux cas, la nouvelle technique passe d'abord par une phase presque exclusivement consacrée à la mémorisation des données et au traitement passif de l'information ; dans les deux cas, cette technique va se mettre en mouvement pour devenir le support d'une intense activité de circulation des idées et des informations entre les hommes.

Concernant, ensuite, les normes, on pourrait espérer que les conclusions des leçons du passé ont été tirées. Or, à quelques exceptions près (MPEG2...) les guerres de standard se suivent et se ressemblent.

Après le MAC et le PC, les affrontements entre les standards de TVHD analogiques japonais et européens, les formats de cassette vidéo JVC et VHS, voici que l'histoire semble se répéter avec le DVD. D'ores et déjà, en ce qui concerne le lecteur, le codage européen du son en MPEG2 n'est pas compatible avec d'autres procédés (tels que Dolby Digital) ; Hollywood a obtenu le découpage de la planète en six zones géographiques pourvues de codes informatiques différents (pour protéger ses droits d'auteurs et conserver la maîtrise des dates de sortie des films en salle et sur disque). Et s'agissant du DVD enregistrable, Sony et Philips sont revenus, on l'a vu, sur l'accord prévu avec les autres fabricants japonais (Toshiba et Matsushita ).

La querelle sur l'intelligence dans le réseau ou dans le terminal qui jusque là opposait essentiellement les spécialistes des réseaux de télécommunications et de données (informatiques) a rebondi, de façon spectaculaire, avec l'irruption du langage Java (18(*)) qui permet d'envisager des logiciels « portables » sur n'importe quelle machine, serveur ou client. La question divise donc désormais aussi le monde de l'informatique lui-même, après avoir resurgi là où on ne l'attendait pas.

2. Sur le plan médiologique

Les médias parviennent le plus souvent à se succéder, non seulement sans se détruire, mais en développant même parfois, entre eux, des synergies. Cela n'empêche pas leurs relations de s'apparenter à des formes d'émulation, voire de rivalité, à des formes de concurrence, de rapports de force ou de domination.

Certaines craintes, on l'a vu pour les relations de la télévision et du cinéma, ne sont pas fondées. La télévision n'a pas tué le cinéma et celle-ci devrait survivre à l'ordinateur multimédia, en s'en démarquant par la qualité du son et de l'image ainsi que par le recours au grand écran (concept de cinéma à domicile).

Ainsi, la haute définition, que l'on a peut-être enterrée trop vite dans ses habits analogiques, pourrait resurgir parée de nouveaux vêtements numériques, dans le contexte d'une concurrence entre la télévision et l'ordinateur, d'autant qu'elle se prête, quel que soit l'écran, à des applications professionnelles (télémédecine).

D'autres types de résurgences méritent d'être mentionnés.

Ainsi, pour Mac Luhan , les époques de Gutenberg et de Marconi sont antithétiques car la civilisation, qui transporte l'homme barbare de l'univers de l'ouïe à celui de la vue, fait mauvais ménage avec celui de l'électronique. De sorte que « L'interdépendance nouvelle qu'impose l'électronique - affirme-t-il - recrée le monde à l'image d'un village global ». L'intellectuel canadien insiste beaucoup sur les perturbations que provoquent chez l'homme la modification, par les médias, de ses modes de perception sensoriels et sur les conséquences culturelles qui en résultent. Il évoque ainsi « la vision prophétique qu'a eue Pope du retour de la conscience tribale ou collective » ou « le dilemme de l'individu occidental face aux conséquences collectives ou tribales de ses technologies ».

La coexistence de technologies et de conscience, caractéristique de la nouvelle galaxie électrique, « traumatise - selon lui - toutes les personnes vivantes et les soumet à une tension. Elle a déjà pénétré profondément la galaxie Gutenberg ».

En bref, l'électronique consacre pour Mac Luhan le retour de l'oral et du collectif mais dans un contexte marqué par une coexistence de technologies, de média et de perceptions sensorielles correspondantes.

Pour Umberto Eco , en revanche, « nous ne vivons plus à l'époque de l'image : nous sommes revenus à l'époque de l'écriture... une époque de nouvelle alphabétisation accélérée... la plus grande part de ce que nous serons amenés toujours davantage à voir sur l'écran, dans les années à venir, sera parole écrite plutôt qu'image ; une parole qu'il nous faudra lire à une vitesse considérable ».

3. Comment trancher ?

Sans doute chacun de ces auteurs amène-t-il sa part de vérité. L'ère d'Internet a d'abord été celle de la navigation dans des bases de données, certes illustrées, mais essentiellement textuelles. Cependant, les progrès techniques et la tendance à la montée en débit vont dans le sens d'une circulation de plus en plus importante d'images animées sur les réseaux. Ainsi, l'idée selon laquelle nous sommes entrés dans une civilisation de l'image, popularisée à contre temps (- selon Eco -) par « la mass médiologie académique » risque de redevenir d'actualité. Et dans ce cas, le procès intenté par certains intellectuels à l'image qui, parce qu'elle ne laisserait pas le temps à le réflexion, s'opposerait à l'écrit, seul véhicule de la pensée, pourrait être rouvert.

Mais pour Francis Balle, l'idée selon laquelle l'image serait un obstacle à la pensée est fausse.

Nous le rappelions : Febvre et Martin avaient déjà insisté en leur temps sur l'importance des illustrations dans la contribution des premiers ouvrages imprimés à la diffusion des sciences « descriptives » (médecine, botanique...).

Et Balle souligne, à son tour, que « l'image est capable de produire du savoir et de la culture et que son apport devient de plus en plus essentiel... Les nouvelles technologies renouvellent ses atouts... Elle est devenue, en se mariant à l'informatique, le meilleur allié de la science (grâce à des représentations de la réalité en deux ou trois dimensions) et de la création ».

Autant dire qu'« elle jette un pont entre le sensible et l'intelligible ».

Consacrant une partie de ses « manifestes médiologiques » à la défense de l'image, R. Debray oppose au langage, qui signifie sans représenter, la force de l'image dont la signification s'épanouit dans sa valeur représentative.

L'image a en effet sur l'écrit une supériorité médiologique liée à sa charge émotive, au mouvement d'adhésion qu'elle suscite, à son caractère éminemment suggestif.

De sorte qu'on aboutit au paradoxe suivant : malgré son ambiguïté sémantique et son équivoque intrinsèques, l'image peut, par là-même, prétendre à l'universalité.

Comme le résume Debray : « Je ne peux pas lire toutes les écritures, je peux regarder, mal ou bien toutes les images, sans traducteur ou dictionnaire ».

Evoquant par ailleurs, plus généralement, l'influence de l'audiovisuel sur la déroute du communisme, il estime que ce qui a « coupé les jambes » à ce dernier « c'est l'obsolescence de ses usines à rêves, non compétitives avec Hollywood, les soap-opéras et les clips télévisés » autant que « son inaptitude à remplir les rayons de magasins de marchandises ». Et plus loin : « L'éternelle jeunesse des belles buveuses de Coca-Cola - poursuit-il - et la virilité du cow-boy fumeur de Marlboro, sans même parler de la musique rock, déstabilisation fondamentale car sensorielle, ont peut-être plus fait pour renverser le communisme en Europe de l'Est que les samizdats de Soljenitsyne ou les manifestes de Havel ».

Mais, en réalité, comme l'écrit Francis Balle, « l'écrit et l'image sont complémentaires et la construction du savoir et de la culture se nourrit de cette complémentarité ». En effet, derrière des apparences de répétitions, d'alternances, de domination de tel ou tel média, se dissimule une situation rendue entièrement nouvelle par la possibilité de combiner à volonté, et cela grâce au numérique, l'image, le texte et le son. Il devrait en résulter des interactions, des associations, des créations radicalement inédites.

Quoi qu'il en soit, on peut se poser, à l'égard de ces nouveaux modes combinatoires d'expression et d'accès au savoir, l'éternelle question de la formation et du niveau de maîtrise de ceux qui les utilisent.

Eternelle car, on s'en souvient, Platon s'exclamait déjà à propos de l'écriture : « toi, père de l'écriture - fait-il dire par le dieu roi Thamous à Theuth - tu lui attribues une efficacité contraire à celle dont elle est capable ».

Et plus loin : « Quand tes disciples auront beaucoup lu sans apprendre, ils se croiront très savants, et ils ne seront le plus souvent que des ignorants de commerce incommode, parce qu'ils se croiront savants sans l'être ».

En son temps déjà, Platon craignait en effet que « l'écriture produise l'oubli dans les âmes en leur faisant négliger la mémoire ».

A des siècles de distance, on s'interroge toujours sur la conservation de la mémoire, preuve s'il en est que si le débat est ancien, il n'en reste pas moins d'une actualité brûlante.

Avec l'allégement et la miniaturisation des supports de stockage, l'archive a trouvé les solutions techniques susceptibles de la faire échapper à l'étouffement par encombrement. Mais, note, à juste titre, Debray : « la mémoire va devenir une faculté coûteuse ». Car, on en conviendra : « L'industrie est un accélérateur d'obsolescence et la culture une sauvegarde de permanence ».

Paradoxe de la notion d'industrie culturelle, donc « l'industrie détruit ce que la culture doit stocker. Asservir l'oeuvre au produit c'est subordonner une chance de permanence à une certitude d'obsolescence ».

De sorte que la question se pose : « Comment donner longévité à l'éphémère ? ».

Au moment même où la technique permet d'accéder à distance aux documents d'archives, une culture doit-elle accepter d'oublier, de perdre ? Ne peut elle plus avancer qu'en effaçant ses traces ou certaines d'entre elles ?

La réponse à ces questions n'est pas seulement médiologique. Elle est aussi économique et politique.

E) SUR LES PLANS CULTURELS ET ECONOMIQUES
1. Toujours le clivage Nord-Sud

Jamais le développement de nos sociétés, sous tous ses aspects (économique, social, culturel), n'a autant dépendu de celui des nouvelles technologies en général et de celles relatives aux moyens d'information et de communication en particulier.

Jamais, par conséquent, ce développement n'a été autant tributaire de facteurs psychiques, culturels ou sociaux, susceptibles d'influer fortement sur l'utilisation de ces nouveaux moyens de communication.

Jamais, enfin, l'histoire n'a semblé autant se répéter, si on se réfère aux pourcentages de connections à Internet, aux taux de croissance et de chômage, qui laissent apparaître des clivages particulièrement nets entre pays du Nord et du Sud, protestants et catholiques (y compris l'Amérique).

coller graphique + tableau

 

Certes, il est impossible d'établir un lien de cause à effet entre passé catholique ou protestant, utilisation d'Internet et performances économiques d'un pays.

Certes, il y a aussi des exceptions (faible croissance suédoise, fort chômage finlandais).

Mais la coïncidence n'en est pas moins troublante.

La corrélation apparaît particulièrement forte dans le cas des Etats-Unis ou de la Norvège. Elle n'affecte pas l'emploi en ce qui concerne la Finlande.

Le clivage est très net entre pays protestants du Nord et catholiques du Sud en ce qui concerne :

· les raccordements à Internet ;

· les performances économiques, en matière de croissance et, surtout, d'emploi.

Mais le lien entre raccordements à Internet et résultats économiques n'est pas particulièrement évident à mettre en lumière, dans le cas de la Grande-Bretagne, et les performances de l'Allemagne, pays en partie protestant, apparaissent médiocres sur tous les plans (du fait probablement d'un « effet réunification »).

De façon générale, les pays de la communauté européenne connaissent souvent une croissance modeste (à l'exception de la Grande-Bretagne et des Pays-Bas), même lorsque, comme la Suède et le Danemark, ils ont relativement réussi à juguler le chômage.

2. La suprématie américaine

La suprématie des Etats-Unis (où le tiers de la croissance du PIB est lié à l'essor des nouvelles techniques d'information et de communication) est encore plus marquée que ne le laissent apparaître les statistiques rassemblées ci-dessus.

Les Etats-Unis sont en effet en position de monopole absolu en ce qui concerne les microprocesseurs, les logiciels d'exploitation des micro-ordinateurs et ils dominent de façon écrasante d'autres secteurs stratégiques tels que les équipements de réseaux.

Leur situation est également très favorable, on le sait, dans le domaine de la production audiovisuelle.

Enfin, leurs projets très ambitieux de constellations de satellites de téléphonie (Iridium) ou de transmission de données (Télédesic) peuvent déstabiliser le monde des télécommunications où les positions européennes (et françaises) sont encore assez fortes.

Les Etats-Unis ont, dans l'ensemble, joué un rôle éminent dans l'histoire des découvertes techniques qui ont jalonné l'évolution des télécommunications (avec, notamment, l'invention du télégraphe par Morse, celle du téléphone par Bell, puis la mise au point de la triode, du transistor...).

Peut-être est-ce sous la contrainte de la nécessité d'unifier un très vaste territoire, peuplé de population d'immigrants d'origine très diverses ?

Au fossé qui s'était creusé entre les Etats-Unis et l'Europe s'est donc ajouté récemment un écart, au sein même de notre continent, entre pays du Nord et du Sud (très net en matière de connections à Internet), et pays plus ou moins libéraux sur le plan économique (au bénéfice de la Grande-Bretagne et des Pays-Bas).

3. La persistance d'un mal français ?

Concernant la France, les résultats d'une enquête publiée à l'occasion de la dernière conférence interparlementaire des Etats membres d'Eurêka, qui s'est tenue à Londres, en mai 1997, semblent particulièrement préoccupants : cette étude réalisée auprès d'un échantillon de responsables d'entreprises et de consommateurs de cinq pays (Allemagne, Japon, Etats-Unis, Royaume-Uni, France) nous place systématiquement en dernière position, loin derrière nos concurrents, pour les réponses à toutes les questions posées : pourcentages de PC avec modems, avec lecteur de CD-ROM, équipement en portables, utilisation de l'informatique en réseaux sous toutes ses formes (courrier électronique, vidéoconférence, sites web, Intranet, et même échange de données informatisées).

La France est aussi, selon cette même enquête, le pays où la proportion de sociétés qui perçoivent l'importance, en matière de compétitivité, des technologies de l'information et de la communication, est la plus faible (même si, heureusement, elle est néanmoins largement majoritaire).

Faut-il y voir l'illustration de la persistance d'un mal français ?

En fait, nos faiblesses actuelles ne tiennent pas tant au niveau d'ensemble de l'équipement informatique de nos entreprises, qu'aux modes d'utilisation du matériel correspondant. En effet, l'ordinateur est encore souvent cantonné à des tâches de gestion administrative, employé selon une logique d'organisation centralisée et pyramidale. Et les personnes placées au sommet de la hiérarchie ne s'en servent souvent pas elles-mêmes.

De façon générale, la culture informatique des élites demeure beaucoup moins développée en France qu'aux Etats-Unis.

Trop souvent, l'ordinateur n'est pas encore devenu dans notre pays un moyen de communication, d'échange de l'information, d'accès au savoir et de conquête de nouveaux marchés.

C'est véritablement un problème de mentalité et de culture (lié, peut-être, à nos schémas d'organisation très centralisés et très hiérarchisés, hérités des siècles ; lié également à un traditionnel mépris pour les tâches manuelles auxquelles seraient assimilées les manipulations de claviers, etc.).

S'agissant de notre participation, non seulement à l'utilisation mais à la création de nouvelles techniques d'information et de communication, la France, patrie de Branly , des frères Lumière et pays de naissance de l'ATM, ne manque ni de capacités intellectuelles ni de talents d'innovation.

Le problème qui se pose à nous est bien plutôt celui d'une valorisation déficiente de nos recherches, d'une difficulté à exploiter nos découvertes pour des raisons variées, financières (insuffisances du capital risque, du crédit à l'innovation, d'incitations fiscales appropriées) ou mentales (cloisonnements entre recherche et industrie, réticences vis-à-vis du passage de la théorie à la pratique...).

Dans son ouvrage précité « la société de confiance », Alain Peyrefitte s'intéresse aux racines d'un mal français, qu'il analyse en comparant les caractères de l'innovation en Angleterre et dans notre pays.

L'innovation britannique lui paraît marquée par un passage beaucoup plus rapide de la théorie à la pratique, et par un plus grand intérêt pour les applications industrielles et commerciales.

En France, la science a un caractère plus désintéressé, tandis que les innovateurs sont le plus souvent, en Grande-Bretagne, les industriels eux-mêmes, stimulés par les défis de la concurrence.

La résistance au changement n'est pas plus forte chez nous que chez nos voisins britanniques, mais tandis que le progrès passe en force, dans un pays débarrassé du corporatisme, ce dernier, en France, « va figer - selon Peyrefitte - les forces vives de l'innovation dans un carcan étatique ». De sorte que les règlements, par leur caractère fixiste, entravent l'innovation.

« Combien d'industries étouffées - s'exclame l'auteur d'un ouvrage anonyme du XVIIIe siècle - combien d'inventions perdues par les entraves dans lesquelles nous avons enchaîné les talents ! ».

De fait, Peyrefitte cite plusieurs exemples montrant que la France néglige souvent de jouer ses propres atouts (il s'agit d'inventions d'aristocrates, coupables d'avoir dérogé, telles la machine à tisser le lin de Philippe de Girard ou le bateau à vapeur de Claude de Jouffroy).

Notre pays se trouve ainsi souvent « écartelé - selon l'auteur de la « Société de confiance » - entre son dynamisme et ses paralysies ».

De façon plus générale, l'histoire économique de la France est atypique : absence de décollage vraiment marqué, baisse précoce de la natalité, spécialisation dans les produits élaborés de haute qualité.

« La France, qui se situait en tête des puissances vers la fin du XVIIIe siècle, ne l'est manifestement plus vers 1913 », constate Jean-Charles Asselain . « Elle fait encore figure, au début du XXe siècle de nation semi-agricole, semi-industrialisée ».

Certains spécialistes ont ainsi développé une vision pessimiste de l'histoire de l'économie française, caractérisée - selon eux - par une croissance sans accélération exceptionnelle mais ponctuée par des phases de ralentissement marqué. Certains insistent sur le handicap charbonnier (qui n'en est plus un aujourd'hui) et le manque de matières premières ; d'autres sur des éléments sociologiques et culturels, dont certains peuvent avoir subsisté : manque d'esprit d'entreprise, déclin de l'élan vital français, fléchissement démographique, conservatisme de la petite entreprise familiale française, mépris traditionnel pour les métiers d'affaires, au profit des carrières intellectuelles ou administratives...

D'autres facteurs explicatifs sont encore invoqués, tels le caractère peu évolué des structures bancaires, leurs faibles liens avec l'industrie, l'exportation de capitaux, le protectionnisme, la centralisation, ou même, un Etat libéral dont l'interventionnisme serait selon F. Caron « empreint de mauvaise conscience ».

Jean-Charles Asselain estime pour sa part que « la plupart des explications traditionnelles du "retard français" paraissent médiocrement convaincantes ».

Pour lui, « l'évolution économique française se caractérise non par une médiocrité uniforme, mais plutôt par l'alternance de phases bien contrastées », notre pays se classant, sur l'ensemble du XIXe siècle, à un rang honorable, pratiquement à parité avec l'Allemagne.

Quelles leçons retenir alors de notre histoire économique pour aujourd'hui ?

Remettant en cause « le stéréotype de l'État libéral », Asselain note au contraire le développement dans notre histoire d'une tendance à l'accroissement des dépenses publiques qui s'exprime, notamment, à travers des subventions permanentes aux réseaux ferroviaires déficitaires, assortis d'une tutelle et d'un droit de regard sur la fixation des tarifs.

Il observe également la permanence d'un problème du financement des investissements industriels et des liaisons banque-industrie ; l'accumulation du capital industriel s'effectue en marge d'un système bancaire qui n'exerce que rarement un rôle d'impulsion en matière d'industrialisation (même s'il s'est globalement adapté aux exigences d'une économie moderne).

L'encadrement légal des activités bancaires freine en effet toute innovation dans ce domaine.

Enfin, la France a connu au XIXe siècle une dépendance à l'égard des techniques anglaises qui n'est pas sans rappeler celle que nous subissons aujourd'hui vis-à-vis des Etats-Unis.

Notre histoire économique montre donc la permanence dans notre pays de tendances au dirigisme et d'un problème de financement des activités nouvelles. Elle prouve aussi que nous sommes capables de nous ressaisir et de connaître des périodes fastes (fin de l'ancien régime, empire libéral de 1850 à 1860, années 1890 à 1913 précédant la grande guerre et, plus près de nous, « les trente glorieuses » d'après la deuxième guerre mondiale).

La France a connu, notamment au début du XXe siècle - selon F. Caron -, une innovation « structurelle », c'est-à-dire permanente et affectant l'ensemble de l'industrie.

Après avoir été le pays du 22 à Asnières, ne nous sommes nous pas dotés, plus récemment, en quelques années, d'un des réseaux de télécommunications les plus modernes du monde ?

L'invention de l'ATM et de la carte à puce, le savoir faire de France Télécom, le classement d'Alcatel parmi les tout premiers groupes mondiaux de télécommunications illustrent la valeur de notre potentiel technologique et industriel.

Et l'exemple du Minitel, précurseur en matière de système de relations client-serveur et de commerce électronique, montre de son côté que nous sommes capables d'innover, non seulement techniquement, mais aussi sur le plan des usages sociaux des techniques nouvelles.

Mais la médaille du Minitel a ses revers : celui d'une norme isolée et figée, devenue retardataire et aussi celui d'un modèle, en fin de compte, colbertiste, dont le succès a reposé sur l'impulsion et l'intervention d'un monopole public, France Télécom. C'est, en effet, l'opérateur national qui assure la fonction kiosque, essentielle à la sécurisation des transactions, et qui est, à ce titre, le responsable unique du transport et de la distribution des données, ainsi que de la gestion de la clientèle et du paiement des services.

Aujourd'hui, le développement d'Internet et des techniques d'information et de communications représente, pour les nouvelles entreprises innovantes, de formidables opportunités de croissance.

D'où vient alors le fait que beaucoup de jeunes talents français préfèrent aller tenter leur chance ailleurs que dans leur pays ? S'agit-il, là encore, d'une répétition de l'histoire, de la mise en évidence de la fatalité d'un mal français ?

4. De nouveaux huguenots ?

Selon certaines personnes que j'ai auditionnées, le nombre, difficile à vérifier, des français expatriés serait de 35.000 environ dans la Silicon Valley, et de 50.000 à Londres.

Tous ne sont pas des créateurs d'entreprises, ni des spécialistes des techniques d'information et de communication.

Il serait donc sans doute exagéré d'établir un parallèle entre les huguenots, contraints à l'exode par les persécutions religieuses, et ces compatriotes, dont on tenterait de montrer qu'ils ont été, pour leur part, victimes de tracasseries fiscales et administratives qui les a poussés à émigrer.

Mais des analogies ne peuvent pas néanmoins ne pas venir à l'esprit.

Il s'agit, en effet, comme dans le cas des huguenots, d'une faible part, certes, de notre population, mais d'une proportion sans doute beaucoup plus importante de nos élites entreprenantes et innovantes.

Ainsi, le dommage que représente leur départ pour l'économie française est, comme autrefois pour celui des huguenots, difficile à évaluer, mais l'importance de leur contribution au développement de leur pays d'accueil est, quant à elle, manifeste.

Eric Benhamou , par exemple, a créé en 1981 une société américaine Bridge Communications qui a fusionné en 1987 avec 3 Com, lequel vient de s'unir, à son tour, avec US Robotics . Le nouvel ensemble, constitué par les deux entreprises qui n'existaient pas il y a dix ans, pèse aujourd'hui autant que Bull en terme de chiffre d'affaires (25 milliards de francs) !

Un autre de nos compatriotes, Bernard Lacroute fait partie de l'équipe dirigeante de Sun Micro systems qui, depuis sa création en 1983, a embauché dix mille personnes et réalise 2 milliards de dollars de chiffre d'affaires.

On pourrait multiplier de tels exemples. Il n'en demeure pas moins qu'une question se pose : qu'est-ce qui manque à de jeunes entrepreneurs innovants français dans leur pays et qu'ils vont chercher aux Etats-Unis ? Un accès plus facile à des sources de financement plus abondantes (capital risque notamment), la proximité d'un véritable marché (qui contraint parfois des PME créées en France à s'exiler aux Etats-Unis pour venir au contact de la clientèle), un environnement administratif et fiscal plus favorable (régime des stock-options) et aussi, en même temps, plus stimulant.

Le désir légitime d'enrichissement n'est pas la seule motivation : il semble que joue aussi un besoin d'accomplissement personnel, plus facile à assouvir aux Etats-Unis car le succès y est, socialement, davantage accepté.

En même temps, un certain droit à l'échec y est aussi plus largement reconnu, ce qui facilite la prise de risque.

Une page du quotidien Le Monde consacrée, en septembre 1997, aux aventuriers français de la Silicon Valley publie des propos recueillis auprès de certains d'entre eux selon lesquels :

« Ici, (en Californie) on ne fait pas de quartier » mais « il y a de l'argent et l'argent attire les bonnes idées ». « Le système français est fait pour l'artillerie lourde... La lourdeur du cadre législatif des sociétés françaises et nos rigidités empêchent de restructurer facilement, de réajuster le tir technologique ».

Ou encore : « La formation scientifique est excellente en France. Nous avons un capital intellectuel de très grande valeur, mais pas les mécanismes financiers correspondants pour l'exploiter ».

La valeur des ingénieurs français, même s'ils ne sont pas sortis de Polytechnique ou de l'Ecole des Mines, est effectivement largement reconnue en Californie.

Dans le domaine de la production audiovisuelle, les talents français sont également très prisés, à tel point que les sociétés américaines viennent recruter à la sortie des écoles parisiennes des graphistes et des animateurs, spécialistes d'effets spéciaux.

La taille des prestataires européens est malheureusement encore trop faible, malgré leur savoir-faire, pour leur permettre d'absorber la charge de travail d'une superproduction hollywoodienne.

L'entrepreneur est le résultat, selon Michel Serres, d'une extraordinaire fusion du capital et de l'esprit d'aventure. L'un et l'autre font trop souvent cruellement défaut en France, on va donc les chercher en Amérique.

Combien d'emplois perdus, combien de dépenses d'éducation gaspillées, quelle perte de croissance résulte-t-il de ce processus ?

Le départ de France de créateurs d'entreprises est d'autant plus regrettable pour nous et profitable à leur pays d'accueil que leur situation d'émigré va les obliger à ajouter à leur savoir-faire, un art du faire savoir, de plus en plus essentiel à la diffusion de l'innovation aujourd'hui.

En outre, ce phénomène est loin d'être compensé par une immigration dans notre pays de personnes autant qualifiées.

« Alors que les français les plus habiles - note l'auteur d'un ouvrage anonyme précité du XVIIIe siècle - sont nombreux à s'installer à l'étranger (pas seulement à cause de la révocation de l'Edit de Nantes), les étrangers de talent équivalent ont beaucoup de mal à venir travailler en France... double abus dans notre législation qui tend, d'un côté, à dépeupler l'Etat et nous prive, de l'autre, des moyens de réparer nos pertes ».

5. Médias et pouvoir

La réflexion sur la répétition, à travers l'histoire, d'un phénomène de migration de nos élites, amène à méditer sur les relations entre les nouvelles technologies d'information et de communication et les Etats, ou le pouvoir en général.

La technologie est, à première vue, apatride et ne connaît pas la notion de frontières.

· Au niveau de ceux qui la maîtrisent tout d'abord ou qui veulent en profiter pour entreprendre : l'essaimage, dans toute l'Europe, des imprimeurs allemands à la fin du XVe siècle et au début du XVIe siècle n'est pas sans rappeler celui des spécialistes huguenots de l'industrie textile, de l'orfèvrerie ou de l'horlogerie un siècle plus tard, ou de nos spécialistes de l'informatique, des télécommunications ou de l'audiovisuel aujourd'hui.

· Au niveau des contenus, ensuite, l'imprimerie, comme plus tard Internet, a semblé à ses origines déjouer la censure. Des circuits se sont organisés pour la distribution des ouvrages interdits. Il est très difficile aujourd'hui, à l'époque des satellites de télécommunications et de la télévision interactive, de faire respecter une règle comme celle des quotas de diffusion d'oeuvres européennes ou nationales.

Les pouvoirs des gouvernants et ceux des médias peuvent s'affronter, comme en témoignent certaines campagnes de presse, mais les relations entre les technologies d'information et de communication et les différentes autorités sont subtiles et complexes.

Elles paraissent caractérisées par un certain nombre de dualismes, comme celui déjà étudié, qui voit coexister une diversification et une convergence des techniques concernées : depuis l'imprimerie, les nouveaux médias s'adressent à la fois à l'individu et aux collectivités (on a vu l'influence du livre sur l'utilisation des différentes langues européennes et l'émergence d'Etats nation). Aujourd'hui, leur impact peut être à la fois mondial et local, global ou spécifique. L'identité des minorités peut s'en trouver renforcée, les diaspora rassemblées.

En outre, comme le note Régis Debray , l'évolution technique n'oppose pas seulement les médias à l'Etat, elle modifie aussi l'équilibre des forces entre anciens et nouveaux moyens de communication : « chaque medium nouveau - écrit-il - court-circuite la classe des médiateurs issus du medium précédent » (ainsi de la remise en cause du pouvoir des prêtres par l'imprimerie ou de celui des écrivains et des intellectuels par l'audiovisuel...).

Ainsi, les techniques modernes d'information et de communication, comme jadis l'imprimerie, peuvent cultiver les particularismes aussi bien que tendre à imposer une culture dominante, sinon une pensée unique (l'anglais aujourd'hui, comme le latin à la Renaissance, est le langage véhiculaire qui facilite la communication à travers les réseaux et la diffusion des produits culturels américains s'accroît).

La notion de frontière peut resurgir dans le domaine technologique sous la forme de la création de normes incompatibles. Mais le succès aujourd'hui, du protocole Internet (TCP/IP) ou du codage binaire numérique, comme jadis celui des caractères d'imprimerie romains, substitués à toute une série de caractères gothiques manuscrits, démontre que le besoin de standardisation des moyens de communication de l'humanité est plus fort que les réflexes protectionnistes des industriels.

*

* *

L'impression que l'histoire se répète, sur de nombreux plans, conduit à tempérer les jugements qui pourraient se fonder sur l'apparent constat d'un renouvellement permanent et accéléré des techniques d'information et de communication.

Certes, leur évolution s'accélère, mais pas uniformément. Leur tendance à la diversification, à une efficience accrue, à une convergence est constante, mais justement, elle n'est pas nouvelle. Leur capacité à s'adresser à la fois aux masses et à l'individu, non plus, même si elle est renforcée par l'interactivité.

Cette dernière aussi, si on n'y réfléchit bien, ne constitue pas une entière nouveauté.

Elle s'exprimait auparavant sous la forme de courrier des lecteurs, de la publication de critiques littéraires ou musicales, de la participation à des jeux radiophoniques ou télévisés. Des messages pouvaient être échangés par le télégraphe, le téléphone, puis par la télécopie... cependant pas simultanément, à plusieurs, comme aujourd'hui.

Les médias, par ailleurs, - on l'a vu - ont toujours cherché à se combiner, avec le mariage du texte et de l'illustration, puis de l'image et du son ; le multimédia parachève aujourd'hui cette évolution, et l'avènement du numérique a représenté, de ce point de vue, pour les techniques de l'information et de communication, quelque chose d'un peu comparable à la découverte de la greffe en horticulture ou du croisement d'espèces en biologie : il est devenu ainsi possible d'apporter l'interactivité à l'audiovisuel, l'image au téléphone, le multimédia à l'informatique. Différentes sortes de terminaux offrant tout ou partie de ces possibilités avec, en prime, l'accès à Internet peuvent être envisagés (consoles de jeux, télévision, téléphone ou assistants numériques mobiles enrichis de fonctionnalités supplémentaires, ordinateurs personnels simplifiés...).

L'avènement du numérique, du multimédia, de l'interactif, permis par la compression de données, les progrès de l'information et la montée en débits constitue ainsi un point d'orgue (mais pas le dernier accord !) dans une évolution constamment orientée vers les mêmes objectifs : améliorer les moyens d'information et de communication à la fois quantitativement (ouverture à un plus grand nombre de davantage de données sur une plus grande distance) et qualitativement (un plus beau son, de plus belles images, des textes plus accessibles, transmis ou échangés multilatéralement partout, plus facilement).

Multilatéralisation simultanée des échanges (avec les vidéoconférences ou les forums de discussion ouverts à tous) et possibilités d'hybridation des divers types de récepteurs (plus ou moins interactifs) : tels paraissent être, en définitive, les acquis les plus inédits de la période récente.

De sorte qu'il est nécessaire à notre pays de participer plus activement à ce processus global, non seulement en tant qu'utilisateur des techniques concernées mais aussi en tant que créateur. Mais, pour ce faire, il est également nécessaire de méditer les leçons de notre passé et d'en surmonter les inhibitions séculaires.

CHAPITRE III

IL EST NECESSAIRE DE DEFINIR
UN SYSTEME DE VALEURS
DANS LA NOUVELLE SOCIETE DE L'INFORMATION

Quelles sont les valeurs sur lesquelles se fonde la nouvelle société de l'information ?

La réponse à cette question s'avère d'une redoutable complexité.

Les termes employés comportent en effet une part de polysémie (à l'instar de" valeurs ") ; ils prêtent, ensuite, à une certaine confusion (qu'est-ce qui différencie le concept d'information de celui de communication ?) ; ils sont marqués, enfin, par une ambiguïté centrale (en quoi réside la nouveauté de la société de l'information ?)

" Etre au coeur d'une mutation profonde n'en facilite pas la compréhension, ni l'analyse " - écrivent les auteurs d'un récent rapport d'une mission sénatoriale consacrée à la société de l'information. En effet, l'entrée dans celle-ci, " qui vient à la suite de la société industrielle et en bouleverse les données, constitue une révolution culturelle, économique et sociale sans précédent car elle touche simultanément toutes les parties du monde et toutes les activités ".

I. NOUVEAUTES ET EFFETS DE LA SOCIETE
DE L'INFORMATION EN PREMIERE ANALYSE

Situer ce processus dans le temps n'est, tout d'abord, pas si facile.

S'il est évident que " l'entrée de la France dans la société de l'information est en cours " - comme le fait observer le rapport précité -, ce qui signifie qu'elle n'est plus devant nous et qu'il nous faut donc désormais non pas nous y préparer, mais nous y adapter, il est tout aussi certain qu'il s'agit d'une évolution de long terme, à peine entamée (s'agissant surtout de la France qui se trouve en retard par rapport à d'autres pays) et largement inachevée.

Nous avons tenté de montrer, d'autre part, qu'au moins dans une certaine mesure, " tout a commencé avec Gutenberg " et que l'histoire a souvent tendance à se répéter.

Les auteurs du rapport de la mission d'information commune reconnaissent du reste que " l'information occupe, certes, depuis longtemps, une place centrale dans les sociétés contemporaines marquées par une recherche de productivité et de rationalisation qui suppose la détention et la bonne utilisation de l'information économique, scientifique, sociale et politique ".

Selon eux, ce sont " l'accélération récente de l'innovation technologique et sa mondialisation [qui] apportent une nouvelle dimension ".

En fait, nous l'avons vu, la principale accélération technique, celle décrite par la loi de Moore selon laquelle le nombre de transistors intégrés dans une puce double environ tous les 18 mois, a commencé il y a plus de 25 ans. Et les grandes découvertes, qui constituent aujourd'hui nos principaux acquis (le transistor, le micro-processeur, la fibre optique) ne datent pas non plus d'hier.

L'augmentation des performances des systèmes d'information et de communication ainsi que leur tendance simultanée à la diversification et à la convergence en sont des caractéristiques originelles.

Nous sommes aujourd'hui encore sur la lancée d'un mouvement initié, il y a longtemps déjà, par la création de l'électronique, appliquée ensuite au traitement de l'information (avec l'apparition, après guerre, de l'ordinateur devenu d'abord, communicant ; puis, plus tard, dans les années 70, personnel).

L'accélération technique n'est donc pas nouvelle, la mondialisation de l'innovation non plus : au fur et à mesure de leur apparition, les liaisons permises par les nouvelles techniques de communication et d'information (télégraphe, téléphone, radio, télévision...) ont toujours tendu à s'internationaliser aussi rapidement que possible.

Cependant, il est indéniable que la période récente a été marquée par des percées décisives, provoquant des bouleversements profonds :

n La mise au point d'algorithmes puissants de compression des données a ainsi rendu possible l'informatique multimedia et permis la généralisation de l'utilisation des techniques numériques.

Il en est résulté une accentuation de la tendance à la convergence des secteurs des télécommunications, de l'audiovisuel et de l'informatique, sous l'égide de cette dernière. De sorte qu'il est désormais possible d'envisager de transporter tout type de données, à travers des supports uniques ou variés, vers des récepteurs universels ou combinant, de différentes façons, des fonctions audiovisuelles, informatiques ou de communication.

Autrefois limités à des réseaux locaux ou à des liaisons spécialisées, les échanges entre ordinateurs, de données désormais multimedia, à travers le réseau téléphonique commuté, ont effectivement été révolutionnés et se sont mondialisés.

Ce phénomène est illustré par l'essor fulgurant d'Internet.

n D'un point de vue technique, le succès du " réseau des réseaux " s'explique par celui de son protocole informatique, qui permet à des routeurs placés aux noeuds des réseaux de télécommunication du monde entier, d'acheminer des paquets de données, grâce à un système d'adressage approprié, vers n'importe quelle destination.

Ce protocole, constitue, avec le progrès déjà évoqué des techniques de compression, l'innovation la plus marquante de ces dernières années. Il est, cependant, beaucoup plus ancien, puisqu'il a été mis au point dès les années 70 aux Etats-Unis, alors que les algorithmes compressifs sont une conquête des années quatre vingt dix.

Ainsi, la compression de données constitue la seule percée vraiment tout à fait récente dans l'évolution d'ensemble des techniques à la base d'Internet et de la société de l'information. Ni le codage numérique binaire, déjà utilisé par l'informatique, par la production audiovisuelle et par les réseaux téléphoniques, ni la commutation par paquets, permettant d'acheminer des données numérisées, à travers les infrastructures de télécommunications, ni même les protocoles TCP/IP, ne sont nés d'hier.

Autrement dit, il faut accentuer l'idée selon laquelle plus encore que l'avancée technique qu'il traduit, c'est donc le phénomène de société illustré par l'explosion d'Internet qui en constitue l'aspect le plus remarquable.

Situer dans le temps l'irruption de la société de l'information et en caractériser la nouveauté s'avèrent de ce fait d'une redoutable complexité. De même qu'en mesurer les apports ramifiés.

L'évolution technologique correspondante annonce, on l'a vu, le triomphe de l'informatique, science du traitement de l'information, au coeur du processus de convergence, déjà décrit, qui l'associe aux télécommunications et à l'audiovisuel.

Le fait que les deux percées les plus décisives des trente dernières années (si l'on excepte l'invention du microprocesseur) soient de nature immatérielle (protocole Internet et compression de données) illustre, par ailleurs, une certaine tendance à l'accroissement du rôle de l'intelligence et du savoir par rapport à celui de la technologie brute et de l'industrie, dans l'évolution des techniques d'information et de communication.

Enfin, le microprocesseur étant le composant essentiel qui a permis de personnaliser les ordinateurs déjà rendus communiquants, les principales découvertes de l'après-guerre ont en commun de permettre non plus seulement l'accélération et l'intensification, mais encore la décentralisation du traitement d'informations de plus en plus abondantes et variées.

Ce traitement peut s'effectuer à plusieurs, en réseau, et cela dans des conditions qui tendent à abolir les contraintes de durée et de distance.

Traditionnellement, les progrès des techniques d'information tendaient à permettre à davantage de personnes de transmettre toujours plus de données, de meilleure qualité, plus vite et plus loin, tout en bénéficiant de moyens diversifiés de création et de communication.

L'évolution récente a offert, en outre, à tous les usagers des réseaux, d'autres possibilités nouvelles : l'ubiquité (avec le développement des terminaux portables et mobiles), l'interactivité (entre diffuseurs et demandeurs d'informations) la multilatérisation des échanges simultanés (vidéoconférences, forums de discussion), le multimédia enfin (variété de combinaisons de textes de sons et d'images à tous les stades : production, transport, réception).

On pressent que ces nouvelles facultés techniques et la réticulation qu'elle permettra sont susceptibles d'entraîner des conséquences importantes sur les plans économiques, culturels et sociaux. Il s'agit d'abord d'effets d'ordre relationnel affectant les liens entre personnes morales ou physiques (clients et fournisseurs, donneurs d'ordre et sous-traitants, maisons mères et filiales, partenaires associés à différents projets).

Les liens de subordination hiérarchique sur les lieux de travail, l'accès au savoir et à la culture, les relations entre enseignants et élèves peuvent, ensuite, s'en trouver radicalement modifiés, de même que les relations entre l'Etat et les citoyens et, en définitive, le lien par excellence : le lien social.

Bien entendu, les enjeux de ces profondes mutations sont majeurs : la compétitivité de nos entreprises, l'efficacité de notre enseignement et la cohésion de notre société sont notamment concernés.

Mais s'il est vrai que l'introduction de techniques nouvelles comporte toujours, on l'a vu, plusieurs possibilités d'usages sociaux (comme le montre la comparaison entre la Chine et l'Europe, des effets de l'imprimerie), il importe d'être vigilant : car on ne peut exclure des réactions de rejet, des échecs ou des risques d'inégalités entre pays pour l'implantation de ces nouveaux moyens d'information et de communication et l'exploitation de leurs avantages.

Cependant, aller plus avant dans l'analyse de ces différents effets possibles nécessite un approfondissement préalable de la notion " d'information ", sur laquelle est fondée la société du même nom, et de ses " valeurs ", auxquelles doivent adhérer ceux qui veulent y entrer.

II. LA NOTION D'INFORMATION

Au sens large, l'information désigne le fait de fournir à des personnes des renseignements, des précisions ou le compte rendu d'événements qui les intéressent.

D'un point de vue politique et sociologique, l'information est la conséquence de la liberté d'opinion, d'expression et de choix, valeur reconnue à chaque citoyen dans un régime démocratique. Le libre accès à une information pluraliste représente donc une nécessité constitutive de la démocratie.

De fait, les progrès des techniques ont permis que l'information puisse être délivrée à un nombre croissant de personnes, en un minimum de temps, et dans un espace de plus en plus large.

Toutefois avec le développement des médias de masse (mass-medias) nous constatons que l'information n'est plus le simple compte rendu d'un événement qui s'est déroulé mais que l'information peut elle-même générer l'événement.

Ainsi, par exemple, le fait de relater, par l'image, à la télévision, des troubles qui se sont déroulés dans la banlieue d'une ville de France nous oblige à constater que dans les jours suivants, très souvent, d'autres troubles de même nature se sont développés dans d'autres villes de notre Pays . Il en fût de même, fin 1997 et début 1998, avec le mouvement des chômeurs.

C'est bien l'information qui alors crée l'événement.

UN PEU D'HISTOIRE

Afin de ne pas définir la civilisation mise en place après l'invention de l'imprimerie à partir d'une opposition factice entre l'écrit et l'oral, Breton et Proulx la qualifient de " civilisation du message ". Ils considèrent que le XIXe n'a fait que mettre la technique au service de la circulation de messages exprimés des deux façons (avant que la diversification des moyens de transmission ne conduise à s'interroger sur une " civilisation de l'image ", qui, cependant, peut n'être considérée que comme une variante nouvelle de cette " civilisation du message " antérieure).

D'un point de vue technique, l'information est ce qui donne sens aux impulsions électroniques véhiculées par les réseaux ou traitées par les ordinateurs. De même, comme l'écrivent BRETON et PROULX, " Le signal n'est rien d'autre que le déplacement d'impulsions électroniques auxquelles on a donné au préalable une signification. "

En d'autres termes, l'information ajoute de la valeur au signal.

Du reste, la théorie de l'information élaborée par Claude SHANNON est une théorie du signal au sens large. Sans tenir compte de la signification du message, elle se fonde sur le principe selon lequel l'information doit être transmise à l'aide d'un canal et préalablement codée. Et elle conclut qu'il est possible d'optimiser, en présence de bruit, l'occupation de la bande de fréquences, allouée grâce à des codes permettant de maximiser la vitesse de transmission, en s'approchant des limites supérieures de capacité du canal, tout en minimisant la probabilité d'erreur de transmission.

La théorie de l'information fait ainsi appel au codage ainsi qu'à la statistique : une information désigne un ou plusieurs événements parmi un ensemble fini d'événements possibles. Et elle s'avère donc d'autant plus intéressante qu'elle peut être recherchée avec le moins d'aléas possible. De sorte que la notion mathématique d'information est ainsi différente de l'information au sens usuel.

Mais cette dernière n'en est pas moins, elle aussi, difficile à définir car elle doit être distinguée de la notion voisine de communication et du concept de connaissance.

S'il est plus fréquent, à l'heure actuelle, de parler de " société de l'information " que de " société de communication ", les techniques concernées sont désignées sous le vocable commun de " nouvelles techniques d'information et de communication. "

En fait, l'évaluation des technologies a conduit, on l'a vu, à une dichotomie entre les médias qui diffusent, d'un côté, un contenu préétabli et élaboré et ceux qui permettent, d'un autre côté, l'échange de messages improvisés par les correspondants.

Mais les notions de communication et d'information demeurent assez proches, ce qui peut prêter à de nombreuses confusions (et cela d'autant plus que l'interactivité semble introduire une certaine forme de communication entre diffuseurs et destinataires d'informations).

A partir de la théorie de l'information évoquée ci-dessus, le mathématicien Norbert WIENER a construit une théorie de la communication, conçue comme une activité structurante de l'information.

Il analyse le monde (pas seulement celui de l'homme mais aussi celui de la machine et celui du vivant en général) en termes de comportements fondés sur l'échange d'information et sur la réaction aux informations échangées (Feed-back). Ce qui le conduit à préconiser la communication, l'échange et la régulation par l'information comme moyens de lutter contre le désordre entropique (situation de désordre maximal liée à l'arrêt des échanges).

Il s'agit d'une nouvelle discipline, la cybernétique, qui étudie, de la façon la plus générale possible, les lois de la communication (y compris leur implication dans des phénomènes biologiques, mécaniques ou sociaux) et qui postule que l'ordinateur, machine universelle à traiter de l'information, puisse non seulement réagir à des informations, mais aider à prendre des décisions.

Cependant, la prétention de ce mouvement à appliquer à des disciplines très diverses des schémas rappelant ceux de l'automatique et de l'informatique rencontre assez vite ses limites : le fonctionnement du système nerveux central, par exemple, n'a rien à voir avec celui des ordinateurs ; les régulations biologiques diffèrent également des régulations techniques. Autant dire que développement de l'informatique illustre à sa façon cette ambiguïté des relations entre information et communication, liée à la proximité des deux notions.

Pour sortir de cette aporie, on peut rappeler avec BRETON et PROULX que" Comme l'écriture l'informatique est née du calcul et de la volonté de traiter rationnellement un certain nombre d'informations sociales ".

Elle va s'appuyer initialement sur :

n les progrès du calcul, liés, notamment, à ses applications militaires ;

n l'utilisation de la mécanographie pour le recensement des populations puis l'organisation de l'intendance militaire pendant la Première Guerre mondiale.

" Les premières machines informatiques seront très tôt marquées par la tentation de la communication " soulignent les mêmes auteurs. En effet, " on imagine de construire des machines dont les éléments de base seraient ceux du matériel de communication, au sein desquelles la circulation d'un courant électrique pourrait permettre des opérations de comptage, donc de calcul ".

Dès l'origine, la maîtrise acquise par les ingénieurs en matériel téléphonique autorisait une telle approche. Car " L'idée du calcul fut immédiatement prise - soulignent-ils - dans une perspective de communication et mise en réseau. "

Des clivages vont cependant apparaître entre ceux qui, à l'instar de Van Neumann , considèrent l'ordinateur avant tout comme une machine à traiter l'information et privilégient le renforcement de ses capacités internes, et ceux qui voient en lui, comme Norbert Wiener, une machine à communiquer.

Retour, donc, à notre question liminaire : Comment distinguer conceptuellement information et communication ?

Daniel BOUGNOUX a entrepris de le faire dans un récent ouvrage intitulé " La communication contre l'information ". Il oppose les deux notions pour mieux les différencier et donc mieux les définir.

Les deux concepts, fait-il valoir, entretiennent entre eux des rapports dialectiques : l'information émerge de la communication mais peut également y demeurer captive.

Il note par ailleurs qu'il y a dans toute communication deux aspects, l'un relationnel, l'autre qui a trait au contenu, donc à l'information.

Mais dans la mesure où vivre, cela revient d'abord à communiquer, la relation prime par rapport à l'information, moins consubstantielle et naturelle à l'individu.

La relation englobe le contenu, qu'elle précède et qu'elle pilote. Et l'information tend à se confondre avec la communication dès lors qu'elle s'éloigne de la vérité et des faits.

C'est donc par son système de valeur - nous y reviendrons - ainsi que par ses rapports avec la réalité que l'information se distingue de la communication.

" Quelle sorte de chose est l'information ? " s'interroge BOUGNOUX , avant de conclure " qu'il n'y a pas d'information en soi " et que cette notion est donc subjective et relative. L'information, c'est ce qui fait qu'un message circule, c'est pourquoi elle est proche de la communication et différente de la connaissance.

L'information, d'après le mot de Heinz Von FOERSTER, est un caméléon intellectuel qui, selon les cas, prend l'apparence de simples nouvelles ou de données, ou d'un savoir. Elle n'est donc pas nécessairement de nature cognitive. Dans la sélection des informations à laquelle nous procédons tous, nous cultivons inconsciemment nos stéréotypes intellectuels et privilégions donc la reconnaissance par rapport à la connaissance.

Certes l'ouverture (vers les autres, vers le futur) demeure la valeur par excellence de l'information, mais ce n'est pas spontanément, note Daniel BOUGNOUX , la valeur dominante de l'individu.

Nul n'est tenu de comprendre les informations que les médias à grand spectacle interdisent d'ignorer. De fait, " Les médias marchent d'abord au Plaisir et au marché. " constate BOUGNOUX , " l'appareil médiatique privilégie la vérité affective au détriment du jugement critique fondé sur le principe de réalité ".

Mais cette constatation ne constitue pas pour autant une approbation : informer, c'est hiérarchiser ou évaluer. L'atténuation de la distanciation critique par rapport aux faits tue l'information qui doit s'affranchir de tout ce qui tend à travestir la réalité (effets de mise en scène, recherche de sensations, énonciation subjective...) dans un contexte où il est cependant difficile d'éviter certaines concessions (notamment à la logique du marché).

Les relations de l'information avec la vérité, la connaissance, le savoir sont donc tout aussi complexes que ses rapports avec la communication, les deux problèmes étant d'ailleurs liés.

BRETON et PROULX décrivent le passage progressif d'une culture de l'argumentation (rhétorique) à une nouvelle culture de l'évidence (scientifique et cartésienne), sous la poussée intellectuelle des sciences exactes et expérimentales. Ce mouvement culmine, selon eux, avec l'utopie cognitive d'un nouveau langage susceptible d'imposer aux hommes l'évidence de la vérité. On en retrouve les traces, au XIXe siècle, avec le scientisme.

Mais aujourd'hui, note Daniel PARROCHIA , dans son ouvrage " Les grandes révolutions scientifiques du XXe siècle ", la connaissance est frappée de relativité. Après les trois grandes révolutions physiques de la théorie de la relativité, de la mécanique quantique et de la théorie du chaos déterministe, différentes classifications des phénomènes sont possible (par exemple, les approches ondulatoires, corpusculaires ou une approche quantique globale coexistent dans la théorie actuelle de la lumière et peuvent s'imposer selon les cas).

De sorte que la scission complète de la catégorie de la connaissance et de celle de la totalité est accomplie et l'époque du génie singulier (du style Pic de Mirandole) recréant l'univers à partir de sa propre perspective ne désigne plus qu'un passé de la culture. Autre façon de dire avec PARROCHIA , que" Nos grilles cognitives actuelles nous rendent plus sensibles qu'autrefois aux couplages et aux interférences entre ordres de réalité différents ", tandis que " nos propres constructions réticulaires accroissent encore l'interconnexion de tous les événements ".

Bref," La raison doit se rendre compte qu'elle n'est pas toute la raison ".

Le même auteur estime, dans un autre ouvrage consacré à " La philosophie des réseaux " que " l'une des grandes innovations des récentes techniques est de nous libérer de l'ancienne problématique de la " racine " et du " Fondement ", solidaire de logiques hiérarchisées, fixistes et rigides ". Notre vision de l'univers ne peut - et ne doit - plus être ordonné sur un mode strictement linéaire.

" On ne doit pas assigner au réel une forme quasi platonicienne et définie une fois pour toutes - conclut-il -. Celui-ci est largement le produit de notre interaction avec le monde, autrement dit, suppose effectivement la présence et la médiation des réseaux ".

Il faut donc le souligner avec force : le relativisme et cette humilité dans l'approche de la connaissance du savoir, sont de nature à apaiser les craintes de ceux qui voient dans la réticulation de l'accès aux données correspondantes un risque d'encouragement à la superficialité, à la subjectivité, à l'émiettement de la culture.

La mise en réseau et les interactions qui l'accompagnent participent d'un processus général de complexification des connaissances et des relations sociales en même temps que de démocratisation du savoir et de la culture. Et la surveillance mutuelle dont les échanges sur les réseaux font l'objet, la stimulation intellectuelle qui en résulte, sont les meilleurs moyens de les faire contribuer au progrès général des connaissances et de garantir la validité de celles qui y circulent.

Comme me l'a fait remarquer Michel SERRES, lorsque je l'ai auditionné, il n'est pas mauvais que les informations surabondent, au sein des réseaux : c'est ainsi que se constitue l'humus qui fertilise la terre où croîtront nos nouvelles connaissances.

III. QUEL SYSTEME DE VALEURS ?

La définition des valeurs de la société de l'information est tout aussi difficile que celle de la notion d'information elle-même.

Le mot " valeur ", a, en effet, lui aussi, plusieurs significations.

La valeur, c'est à la fois ce qui donne :

n du sens à un terme ou à une expression (ou on l'a vu, à une impulsion électronique) ;

n du prix à une chose, en fonction de son utilité ;

n de l'influence à une norme ou à une référence morale ou sociale, à laquelle va se conformer un groupe de personnes.

De ce triple point de vue, l'information constitue tout d'abord en elle-même une valeur, dans la mesure où elle donne, premièrement, une signification à un signal électronique, et où elle justifie, secondement, la construction de réseaux et l'acquisition de machines de traitement spécifiques.

Le développement de ce qu'on appelle la société de l'information repose enfin, troisièmement, sur un système de valeurs qui lui sont propres et sur lequel j'insisterai ici plus particulièrement.

Les valeurs socioculturelles de la société de l'information sont fondées tout d'abord sur la notion de confiance, indispensable à toute collectivité qui veut entrer dans la modernité, qu'il s'agisse de la confiance en soi, en autrui, en la société, dans l'innovation et le progrès technique.

Ces valeurs doivent emporter l'adhésion de tous les acteurs concernés.

C'est ainsi que le prodigieux succès de la typographie est dû à la combinaison féconde de l'ingéniosité de ses techniciens, de l'esprit d'entreprise des imprimeurs, des éditeurs et des libraires, des valeurs enfin de l'humanisme, de la Renaissance et de la Réforme, qui ont fait du livre un outil de communication entre des auteurs et un public passionnés.

Il n'y a pas aujourd'hui de courant intellectuel ou religieux analogue à celui qui conduisait les marchands à être en même temps des philosophes et les libraires à se faire militants de l'humanisme ou de la Réforme.

A un précèdent ministre de l'éducation, François BAYROU , qui disait qu'il fallait reprendre du sens et le mettre dans de nouveaux tuyaux, Michel SERRES aurait répondu, selon les propos qu'il a tenus lorsque je l'ai auditionné, que " c'est le tuyau qui fait le sens ", donnant ainsi raison à Mac LUHAN, auteur du célèbre aphorisme selon lequel " medium is message ".

Il ne semble pourtant pas inutile, d'après Daniel BOUGNOUX ou Francis BALLE, d'élever le niveau des contenus pour démarquer la société de l'information d'une société de la communication.

Ainsi, pour BOUGNOUX , les impératifs de la communication tendent à conditionner le contenu informatif ; la vérité de l'énonciation à se substituer à celle de l'énoncé ; les raisons subjectives à la raison ; les vérités sensibles ou affectives aux certitudes et aux réalités.

La montée en puissance des médias, conclut-il, provoque un reclassement des valeurs, dans la mesure où la communication, agissant comme un solvant universel, découple la liaison être-paraître pour subordonner l'intériorité à l'apparence.

Il rappelle que pour T.S. ELIOT , la sagesse s'est perdue dans le savoir, le savoir s'est émietté dans l'information et l'information s'est évaporée dans la communication dans un mouvement régressif généralisé.

Après avoir commencé comme une chaire, s'interroge-t-il, l'information va-t-elle finir comme une bande dessinée dans laquelle chacun pourrait puiser sa propre opinion ?

Selon Francis BALLE, " le processus de constitution de l'information, au sens de l'établissement d'un savoir, est occulté au profit du processus de communication. L'accent est mis sur celui qui communique un savoir devenu message, davantage que sur celui qui élabore ce savoir ".

La société semble ne se vouer qu'au spectacle permanent d'elle-même.

" Les médias - poursuit Francis BALLE - ne nous cachent plus rien. Mais apprennent-ils vraiment quelque chose à quelqu'un ? La transparence qu'ils veulent établir a aussi ses zones d'ombre et ses pièges, où l'idéal d'objectivité est pris en défaut ".

Dans ces conditions, l'information, selon Daniel BOUGNOUX , doit s'affranchir de tout ce qui éloigne du vrai et des faits : d'abord, des pièges de la communication, des effets de style, des " coups de force de l'énonciation " substituée à l'énoncé (prescrire, en effet, ce n'est pas décrire, et l'assertion n'est qu'une prétention au vrai) ou, enfin, de la logique du marché.

L'information est un message qui s'en tient aux faits et déchoit dans la communication.

Francis BALLE, pour sa part, estime que " la communication ne saurait être une fin par elle-même " et qu'" il convient... de ne pas cultiver l'idée qu'il faut communiquer toujours plus et avec des moyens toujours plus perfectionnés ".

En revanche, la communication peut être un instrument puissant au service d'un objectif autre qu'elle-même.

" Il faut surtout - écrit l'auteur de " Médias et sociétés " - communiquer mieux, mettre véritablement les hommes en relation, se défaire de la séduction superficielle des artifices pour exploiter ce formidable instrument de savoir et de mise en relation que peuvent être les médias ".

Ainsi délivrée des pièges de la communication, l'information devient, selon BOUGNOUX , " la mesure de toute chose, la valeur par excellence, celle de l'ouverture, vers le futur, vers les autres ".

La lutte pour l'information est toujours à reprendre, poursuit-il, contre nos préjugés et ceux des autres, pour dégager le véritable contenu du fourre-tout communicationnel, pour rétablir l'autonomie, la transcendance et la permanence de l'art, de la justice, de la science, étouffés par les médias.

L'ouverture constitue donc, avec la confiance, l'une des valeurs fondatrices de la société de l'information. Cette vertu va de pair avec la tolérance, l'éveil et la curiosité, la convivialité et le partage.

Selon Michel SERRES, le savoir a jusqu'ici été associé à un système hiérarchique, et son partage pourrait favoriser la reconstruction du lien social (dans un partage pouvant s'effectuer sous forme d'échange, car même les exclus, eux aussi, ont des savoirs).

L'attitude des sujets de la société de l'information face aux connaissances et au savoir devrait être caractérisée par l'humilité.

Comme Daniel PARROCHIA l'a souligné dans ses ouvrages, la synthèse, la totalisation et la systématisation des connaissances sont de plus en plus difficiles : " Dans la plupart des cas - écrit-il - nous ne savons pas maîtriser l'univers informationnel qu'on se représente alors comme une immense matrice de transformation, dont on peut seulement espérer que la science commence à découvrir peu à peu les lois ".

Et pourtant, estime-t-il, " Nul ne peut se satisfaire d'un univers éclaté, que plus personne ne maîtrise ni ne comprend, et dont on ne réussit même plus à fournir, tant bien que mal, une image... ".

" On doit toujours chercher, comme Kant , l'élargissement de la connaissance ". Et même si cet objectif est difficile à atteindre, " le philosophe ne doit donc pas renoncer à maintenir envers et contre tout une exigence rationnelle d'unité, voire une pensée dans la perspective d'une totalité ".

Selon PARROCHIA , c'est peut-être la réticularité, sous ses différentes formes, qui est susceptible de nous acclimater à l'idée d'une unité du monde que la physique quantique, depuis son avènement, ne cesse de suggérer.

Alors que notre univers semblait éclaté, nos connaissances " relativisées ", et nos informations pulvérisées, le monde des médias électriques tend à nouveau à créer entre les êtres et les savoirs " une interdépendance organique ", " un champ global d'événements en interaction auquel tous les hommes participent ".

En bref, la réticularité est un facteur d'unification. Comme l'a énoncé Mac LUHAN, le réseau global planétaire possède plusieurs caractéristiques de notre système nerveux central et constitue un seul et même champ unifié de perception, un cerveau, si l'on veut, où s'échangent et se traduisent toutes sortes d'impressions, qui nous rend capable de réagir à l'univers dans sa totalité.

Humilité devant le savoir mais aussi par rapport à la technique : on accède aujourd'hui à la connaissance, m'a fait observer Michel SERRES, par des effets de mimétisme et de répétition (car il faudrait plus qu'une vie pour expliquer rationnellement le comportement des outils informatiques dont nous nous servons).

Ouverte, conviviale, solidaire, la société de l'information, tout en faisant preuve d'humilité face au savoir, fait appel à l'intelligence.

La complexité résultant de la diversification des techniques, de l'hétérogénéité des réseaux et des terminaux ne peut être surmontée qu'au prix d'un investissement immatériel croissant. Ce sont des logiciels (navigateurs, moteurs de recherche, agents intelligents) qui nous permettent également de relever intelligemment le défi de la surabondance de données accessibles par les réseaux.

Réseaux et terminaux deviennent eux-mêmes de plus en plus intelligents et voudraient le devenir davantage encore, les uns au détriment des autres. de sorte, constate Régis DEBRAY , que " La dématérialisation généralisée consacre " le triomphe de l'esprit sur les choses... Par ses machines, l'homme cesse de s'aligner sur le monde ".

Les futurs " réseaux de neurones ", envisagés dans le domaine de l'intelligence artificielle - note de son côté PARROCHIA - constitueraient " une véritable implantation de la pensée dans la matière ".

Le fait de faire preuve d'humilité face aux techniques et aux savoirs, et de disposer d'outils de plus en plus intelligents, ne dispense pas, bien au contraire, de déployer des efforts importants pour entrer dans la société de l'information : pour ne pas être, comme le craignait Platon , des ignorants qui se croient savants, pour ne pas perdre la mémoire, même si elle n'est plus stockée dans notre cerveau, et savoir la retrouver dans les réseaux. Pour le dire autrement, une connaissance, c'est un travail.

Il faut apprendre à apprendre, apprendre à comprendre, à savoir, à partager, à associer des savoirs partiels, à s'approprier les techniques, donc apprendre à les mettre à distance.

En d'autres termes, les apprentissages doivent tendre à développer l'objectivité et l'esprit critique pour ne pas sacrifier, comme on l'a vu, l'information à la communication.

Ce devoir incombe particulièrement aux journalistes, même si - comme l'observe D. BOUGNOUX - l'éthique journalistique résulte de compromis (il n'y a pas d'information sans relation, de culture sans clôture ; et la vérité doit composer avec la pertinence, l'urgence, l'attente des gens, les lois du marché...).

" Le sujet éthique n'est pas un être de sensation et d'émotion ". L'éthique, " par définition secondaire, séparatrice et différenciatrice " doit imposer au journaliste l'indispensable distanciation critique qui permet de respecter la réalité et les faits. Même si elle n'est pas mue par un idéal analogue à celui de la Renaissance ou du siècle des Lumières, la société de l'Information n'en comporte donc pas moins des valeurs positives susceptibles de constituer un progrès par rapport aux dérives de la société de la communication.

Grâce à l'interactivité, le citoyen peut avoir accès à des sources d'informations diversifiées, dialoguer avec les administrations et les gouvernements, et accéder plus facilement aux connaissances et à la culture.

La société de l'information apparaît ainsi comme inséparable de la démocratie, dont les valeurs forment, avec les siennes, un socle commun, et qu'elle peut contribuer à consolider, en renforçant le lien social.

MURDOCH n'est pas ERASME , mais à côté des réseaux de l'audiovisuel, plus que jamais soumis à la logique du marché, Internet a pu se développer selon une approche très différente, coopérative et décentralisée, privilégiant, dans un premier temps, l'échange désintéressé par rapport au profit.

Les communications entre chercheurs, sur le réseau des réseaux, peuvent ainsi rappeler celles effectuées entre intellectuels à l'époque de la Renaissance ou au siècle des Lumières.

Mais le concept d'information était loin alors d'être valorisé : Voltaire dénonçait " les horribles dangers d'une information qui se vautre dans les faits ". La profession de journaliste restera d'ailleurs méprisée par les intellectuels jusqu'au XIXe, ces derniers considérant, selon le mot de Daniel BOUGNOUX , " qu'une information privée d'idées demeure informe ".

Par la suite, le journaliste de la presse écrite, et singulièrement l'éditorialiste, se verra conférer la noble fonction de " guider les esprits ", jusqu'à l'avènement du direct, de l'audiovisuel et de la presse à sensation.

D'une façon générale, la société de l'information renforce ainsi, au moyen de l'interactivité, le rôle du récepteur.

Ce dernier, " détaché d'une position passive " peut, selon BOUGNOUX , construire lui-même son information à partir de données combinables glanées sur les réseaux, le long desquels " le savoir se nomadise ".

La société de l'information tend ainsi à faire descendre l'intellectuel de son piédestal, sortir le savant de sa tour d'ivoire, et l'enseignant de sa chaire ; elle fait sortir la culture de ses temples, les musées et les bibliothèques ; bref, elle court-circuite les relations hiérarchiques.

C'est donc une société décentralisée d'ouverture et de partage qui advient de ces profondes mutations.

La France a été plus prompte à souligner les dangers et les insuffisances d'Internet (absence de sécurité, difficultés initiales de connexion, encombrement, sites pédophiles ou terroristes...) qu'à en discerner les avantages (ouverture sur le monde, moyen d'accroître ses connaissances et de se faire connaître). Les édiles de notre Pays notamment ont paru être déconcerté par la structure décentralisée et par la gestion coopérative de ce réseau, si contraires à nos traditions.

Plus généralement, on l'a vu, nous utilisons encore trop peu nos moyens informatiques en réseau.

Beaucoup de dirigeants d'administrations et d'entreprises semblent encore considérer qu'ils auraient plus à perdre qu'à gagner à participer à l'échange d'informations qui se fait sur le net (crainte notamment que leurs concurrents n'en profitent davantage qu'eux-mêmes).

Caractéristiques d'une société de défiance, ces attitudes témoignent de la persistance de blocages, d'inhibitions et d'une méfiance, accentuée il est vrai par nos indéniables problèmes de chômage, vis-à-vis de l'innovation.

Les valeurs de la société de l'information ne sont pas encore totalement les nôtres. On ne peut que le regretter, car il ne s'agit pas seulement de philanthropie ou d'une nouvelle convivialité.

Internet est en train d'entrer dans la sphère de l'économie marchande.

Ce qui est en cause, c'est la compétitivité de notre économie, les progrès de nos connaissances, l'efficacité de notre enseignement et notre rayonnement culturel.

L'efficience apparaît ainsi comme une valeur fondamentale de la société de l'information.

Mais ces valeurs ne sont, du reste, pas exclusivement collectives et d'ordre socioculturelles.

En effet, d'un point de vue économique, il s'agit aussi de tous les moyens de valoriser ces informations, si difficiles à définir.

IV. LES DEGRÉS DE LA VALORISATION
DE L'INFORMATION

Les informations transmises sur les réseaux ou diffusées par d'autres médias sont d'origine et de nature diverses :

n faits jugés dignes d'être relatés ;

n données liées à l'activité des entreprises ou des administrations ;

n dispositions législatives ou réglementaires de portée générale ;

n fragments de messages échangés par des particuliers ;

n connaissances, oeuvres de l'esprit ou éléments représentatifs de notre patrimoine culturel stockés dans les mémoires des serveurs ;

n éléments de programmes à caractère distrayant diffusés (fichiers...) ou accessibles interactivement (jeux...).

Toutes ces informations sont codées par le langage, expression de la pensée, puis transcodées (par l'écriture, la signalisation électronique, numérique ou analogique) ou cryptées, avant d'être diffusées.

Techniquement parlant, l'information, on l'a vu, est tout ce qui donne une signification au signal utilisé pour la transmission, qu'il s'agisse d'une impulsion électronique ou d'un caractère typographique.

Mais sur le plan économique, c'est la valeur d'échange ou d'usage de l'information qui compte. Or, celle-ci n'est pas nécessairement proportionnée à son importance (une loi, quel que soit son impact, peut être diffusée quasi-gratuitement) et dépend davantage de sa facilité d'interprétation. Car si le sens d'une information brute peut parfois être immédiatement saisi, ce n'est pas toujours le cas.

Les informations peuvent être structurées à différents niveaux. Elles sont susceptibles, tout d'abord, d'être regroupées dans des bases de données (où elles sont accessibles en fonction des relations existant entre elles ou par rapport à leur objet). Quand elles constituent des connaissances (cas de données validées et scientifiquement ou culturellement intéressantes), elles peuvent être rassemblées en savoir (s'il est vrai qu'un savoir est un ensemble organisé de connaissances).

L'information apparaît ainsi comme un minerai de base, destiné soit à être utilisé à l'état brut (de la façon dont le charbon chauffe le poêle), soit à subir plusieurs degrés de transformation (comme le fer dans l'industrie sidérurgique).

La valorisation de l'information, quand celle-ci ne se suffit pas à elle-même, fait appel par conséquent au savoir qui en fait une connaissance. Pour être plus précis, les connaissances auxquelles on ajoute une expérience professionnelle, un savoir-faire, permettent d'acquérir une capacité d'expertise.

Enfin, la somme des expertises constitue la sagesse des industries et des nations.

C'est ce qui devient, en fin de compte, avec le temps, une culture, après un long processus de maturation, d'imprégnation des esprits et de diffusion collective.

Pour illustrer cette gradation, on peut prendre l'exemple d'une dépêche A.F.P. rendant compte d'un événement dont l'interprétation n'est pas à la portée de tout le monde : une découverte scientifique, une disposition fiscale complexe mais importante par ses effets, insérée dans un texte " fourre-tout " voté, à la sauvette, en fin de session, à une heure avancée de la nuit.

Pour mesurer la portée de la découverte ou de la mesure fiscale, le texte - laconique ou abscons - de la dépêche initiale de l'agence de presse ne suffit pas. Il faut faire appel à une source de savoir (une encyclopédie ou un précis fiscal). Mais cela risque même de n'être pas suffisant.

Seul un expert, autrement dit quelqu'un dont l'expérience lui permet de maîtriser les connaissances concernées, pourra, en définitive, permettre d'interpréter la nouvelle.

Aussi, la richesse d'un organe d'information vient-elle bien davantage de ses capacités éditoriales ou de ses aptitudes à l'interprétation et au commentaire, en un mot de son savoir, que des moyens dont il dispose pour recueillir des données.

Ce n'est pas le téléscripteur qui donne de la valeur ajoutée à l'information mais l'expérience professionnelle du journaliste.

Les choses se complexifient encore avec les professions qui manipulent des données sur les données. Les banques ou les consultants financiers élaborent, par exemple, des indices composites ou croisent des données déjà établies à partir de chiffres bruts recueillis ailleurs (statistiques diverses, économiques, boursières, etc...). Ils procèdent ainsi à des extrapolations, effectuent des synthèses ou mettent en évidence des corrélations qui n'ont plus qu'un lointain rapport avec les informations de base. C'est ce qu'Alvin TOFFLER appelle " les meta données " maniées au sein d'une économie devenue " supersymbolique ".

Le savoir est, selon lui, une richesse faite de symboles (au sens de représentation du réel et non de produit de l'imaginaire). Et, sur ce plan, les travailleurs sont d'ores et déjà plus nombreux à manier des symboles que des choses.

De la même façon que les statistiques, les images peuvent être, au moyen des techniques numériques, manipulées, assemblées, modifiées, superposées, recomposées, travaillées. Mais, il en va des " meta données " comme des données elles-mêmes. Elles rajoutent seulement des degrés dans l'échelle de l'expertise qui demeure indispensable à la maîtrise de connaissances, elles-mêmes acquises à partir de la transformation, grâce au savoir, d'informations de base.

De plus, les connaissances et l'expertise peuvent s'exporter, notamment par l'émigration - mais pas la sagesse.

Quant à elle, l'importation se fait avec une difficulté croissante. En effet, il est plus difficile de soutirer de l'extérieur des connaissances que de l'information. C'est encore moins évident pour l'expertise, et cela devient presque impossible pour la sagesse.

Or, la France et l'Europe possèdent un grand capital de connaissances et d'expertises.

Certes, on s'aperçoit qu'il faut de moins en moins de temps aux nouveaux pays industriels pour rattraper notre niveau de connaissance sur le plan technique, mais cela s'avère déjà plus difficile en ce qui concerne la recherche fondamentale qui repose sur une expérience acquise sur le long terme (le Japon a du mal, par exemple, à rejoindre le niveau des pays occidentaux dans ce domaine).

L'expertise peut certes s'importer, par l'immigration, mais de façon encore plus malaisée : les savoir-faire sont de plus en plus possédés non par des individus seuls, mais par des équipes et l'expérience est toujours quelque chose de difficile à communiquer.

Pour prendre une comparaison, de nombreux pays, dont les Etats-Unis, ont pu facilement transplanter nos cépages et faire pousser chez eux de la vigne. Mais il leur a fallu beaucoup plus longtemps pour maîtriser un processus complexe comme la vinification.

A l'inverse, on peut penser que nous éprouverions de grandes difficultés pour, non pas concevoir (nous possédons sans doute les connaissances nécessaires), mais maîtriser, dans son ensemble, le processus de fabrication des microprocesseurs (dont les Américains, on le sait, ont le monopole).

Pourtant, les Japonais, sont passés maîtres, il est vrai depuis longtemps, dans l'art de l'imitation qu'il ne faut pas confondre avec l'expertise. Ils ont ainsi réussi à copier notre savoir-faire artisanal séculaire dans la fabrication d'instruments de musique, pour l'industrialiser et nous évincer de certains marchés, comme celui, par exemple, des flûtes traversières ou des pianos (pour lesquels il n'existe plus de fabricants français, même si d'autres fabricants, européens ou américains, ont survécu). La lutherie, moins facilement industrialisable, a mieux résisté.

Les ébénistes français, aujourd'hui encore, sont très prisés aux Etats-Unis en raison de leur niveau d'expertise. Et des visas d'entrée sont automatiquement accordés à ceux qui désirent émigrer.

La sagesse, qui repose sur la somme des expertises, est la chance de l'Europe, car il est pratiquement impossible de la copier ou de se l'approprier.

Nul hasard, dans ces conditions, si les découvreurs du virus du Sida appartenaient à l'Institut Pasteur, dépositaire de l'héritage du grand savant français, qu'ils ont su faire fructifier.

Le niveau des écoles d'ingénieurs, des laboratoires et des universités de l'Europe n'a rien à envier à celui des Américains (même s'il manque à la France des grands pôles de recherche technologique comme le MIT ...).

Mais ce que l'avènement de la société de l'information met en cause, ce n'est pas seulement notre niveau de connaissances et d'expertises mais davantage notre façon de les exploiter en réseau et de faire circuler les informations de base.

Or, sur ce plan, la France accuse un très net retard.

Selon Mme ROZENHOLC, de la DATAR , que j'ai auditionnée, notre pays ne sait pas valoriser ses atouts sur les réseaux internationaux. Ce sont, m'a-t-elle affirmé, des Singapouriens qui vendent à la Chine notre expertise en matière d'urbanisme, qu'ils nous ont subtilisée. De même, parce qu'on ne leur en a pas donné la possibilité en France, des médecins français sont devenus consultants de réseaux américains. Ils passent par les infrastructures du MIT pour soigner à distance des clients au Koweït. Nos élites administratives ne semblent pas avoir encore compris, regrette-t-elle, que l'on peut vendre autre chose que des ponts ou des routes, par exemple de l'expertise, en recourant aux réseaux. Elles ne paraissent pas davantage être capables d'imaginer, selon elle, que la santé, ce n'est pas seulement des matériels et des équipements mais aussi des services comme le diagnostic à distance.

" Où sont nos téléservices de santé ? " s'est-elle interrogée devant moi.

Mais il ne s'agit pas, comme me l'a fait remarquer Michel SERRES, de relier des châteaux-forts ou de connecter entre elles des citadelles de la connaissance. Les réseaux qu'il faut mettre en place sont des réseaux de circulation et de partage du savoir.

V. LES CONSEQUENCES PROFONDES DE LA SOCIÉTÉ
DE L'INFORMATION

Une fois approfondies la notion d'information, ses relations avec le concept voisin de communication, et les valeurs qui fondent la société du même nom, il est moins délicat d'examiner plus avant les effets dont s'accompagne l'entrée dans cette ère nouvelle.

L'avènement de la société de l'information entraîne des conséquences profondes dans les domaines de l'espace, du temps, du pouvoir et des relations humaines.

A) L'ESPACE

S'agissant de l'espace, les réseaux - c'est devenu un lieu commun que de le constater - permettent de s'affranchir des distances pour l'exercice de certaines activités (télétravail, télémédecine, télé-enseignement, etc...) ou d'éviter des déplacements (téléconférences, téléconsultation).

Ils autorisent la création de lieux virtuels de communication ou d'enseignement (Forums, agora, universités, etc...). Tout en contribuant à une globalisation de l'économie mondiale, qui peut favoriser certains phénomènes de concentration (le regroupement des centres de décision, en particulier), ils sont en mesure d'encourager aussi bien la création ou le maintien (grâce aux téléservices) d'activités locales que la décentralisation ou l'essaimage d'administrations, d'entreprises ou d'unités de recherche.

Ils peuvent aussi constituer des éléments d'une politique d'aménagement du territoire en facilitant les localisations d'entreprise ou le maintien d'un certain seuil de population et d'activité (par le télétravail à domicile, les téléservices,...)dans les zones défavorisées. On ne peut cependant que le regretter : les conséquences de ces évidences ne sont malheureusement pas encore systématiquement tirées en France.

B) LE TEMPS

Pour ce qui est du temps, il est fréquemment souligné que le fait de rendre instantanées les relations de l'entreprise en son sein (maison mère-filiales, directions-ateliers, banque-succursales) ou avec l'extérieur (client-fournisseur, donneur d'ordre-sous-traitant) améliore de manière très nette la productivité et la compétitivité de celle-ci. De plus, le contact en temps réel facilite le respect des nouvelles exigences de production et de gestion (flux tendu, livraison juste à temps, zéro stock, etc...). Par ailleurs, l'utilisation des réseaux permet de se conformer à un autre impératif contemporain, appelé à prendre une place toujours plus importante dans le marché : la personnalisation des produits.

Pour Daniel PARROCHIA , « un océan technologique, aux rythmes brutaux, s'est substitué à la vie d'avant, celle dont les flux rassurants s'écoulaient comme de longs fleuves tranquilles ». Et plus loin « Le progrès technique, dont les gains de temps font partie des gains de productivité, resserre paradoxalement la pression sur le temps social comme sur le temps personnel ». Conséquence : « Au lieu de se borner à rapprocher les correspondants comme le faisait le bon vieux téléphone, les réseaux modernes creusent, entre eux, un espace temps complètement nouveau ».

Bref, « ce n'est plus une contraction, mais une densification qui intervient ». Il ne s'agit en effet plus d'une rationalisation du temps ordinaire (toujours conçu comme linéaire), mais d'une structuration différente du fait de l'imbrication du temps humain et du temps machine. Pour la machine, on le sait, l'instant peut représenter toute une éternité : une seconde, c'est un milliard de nano-secondes.

C) LE POUVOIR

Mais c'est sans doute pour ce qui concerne le pouvoir que les conséquences de la société de l'information sont les plus importantes.

Selon Toffler, le savoir gagne de l'importance en tant qu'élément de pouvoir, et cela par rapport à la richesse et à la force, anciennes références de la société traditionnelle. Aujourd'hui, constate-t-il, la valeur ne repose plus seulement sur la combinaison de la terre, du travail et du capital. Intégrées de façon plus sophistiquées par ce triple mouvement de diversification, de complexification et d'accélération, qui caractérise l'avènement de l'actuelle société de l'information, les activités requièrent un degré supérieur de traitement de l'information, une coordination accrue et un travail intellectuel plus dense.

L'ensemble du cycle de la production et de la distribution dépend donc de plus en plus du savoir qui s'y investit, et l'importance de l'investissement immatériel ne cesse, par conséquent, de s'accroître. De sorte que la création de richesses est désormais fondée, non plus sur le labeur, mais sur l'intelligence, à tel point qu'au « prolétariat » ancien se substitue de nos jours ce qu'il convient d'appeler avec Toffler un « cognitorat ». Pourquoi ? Parce que le savoir est devenu la ressource décisive de l'économie avancée : il réduit les besoins en matières premières, en travail, en temps, en espace et en capital. En outre, il est inépuisable, contrairement aux ressources physiques.

Les années 70 virent l'apparition du slogan « On n'a pas de pétrole mais on a des idées ». Peut-être prend-il vraiment tout son sens aujourd'hui ?

Mais la production de richesse, si elle repose davantage sur le savoir, exige également beaucoup plus d'informations et de communication. Car si le savoir tend à s'organiser en structures relationnelles, la position des entreprises, dans un contexte de concurrence mondiale, ne dépend donc plus seulement de leurs ressources internes, mais aussi de leurs relations externes.

Toffler a eu ainsi le mérite de percevoir très tôt, en 1990, l'importance du savoir en tant que tel - mais aussi, et surtout, de son organisation et de sa circulation. Il a insisté, d'autre part, sur le rôle déterminant des échanges de données et d'informations. car les informations, ce sont des faits, reliés entre eux, qui, comme l'argent et plus encore que la monnaie, circulent sous la forme d'impulsions électroniques et deviennent de ce fait un véritable moyen d'échange.

Les conséquences de cette évolution sont, on s'en doute, primordiales. Toffler : « Nous sommes en train, en créant des réseaux, de réorganiser la production et la distribution du savoir, et de transformer les symboles qui servent à communiquer ». Sans attendre, la technologie informatique mine les citadelles monopolistiques du savoir dans leurs fondements. L'organisation - et notamment l'organisation du savoir, devenue le facteur décisif dans le système actuel - devrait logiquement contribuer à une restructuration des entreprises et des administrations, ainsi qu'à une modification plus générale des pouvoirs. Pour exprimer cette idée, Toffler a de belles expressions, qu'on reprendra ici : il évoque « la fin des alvéoles », le passage « des monolithes aux mosaïques », bref un modèle plus flexible, moins hiérarchique, moins bureaucratique.

Ne le constate-t-on pas chaque jour : l'arrivée des ordinateurs personnels, connectés à des unités centralisées, a permis une vaste déconcentration de l'information ?

D'ailleurs, le temps lui-même devient un produit de valeur - à ceci près, cependant, qu'il ne s'obtient désormais plus par l'exploitation forcenée de la force de travail mais par une réorganisation intelligente ainsi que par des échanges accélérés d'informations utilisant des techniques hautement sophistiquées. La circulation de l'information devient dès lors un facteur de fluidité (au sein d'un système de production plus flexible et plus personnalisé) et d'accélération (de la création des richesses).

D) LA DÉCONNEXION DE LA PUISSANCE ET DU NOMBRE

Cependant, soyons prudents : si le savoir, nouvelle source d'un pouvoir encore mieux assis, gagne de l'importance tandis que se transforment ses relations avec les deux autres éléments clés, la force et la richesse, il serait naïf de prédire la disparition totale et irréversible de ces derniers. On assiste en effet à une véritable déconnexion de la puissance et du nombre.

Un exemple emblématique : la capitalisation boursière de Microsoft (20 000 salariés environ) est équivalente à celle de Boeing (175 000 salariés).

Autres exemples, dans le domaine militaire cette fois : grâce à une meilleure maîtrise des technologies militaires, Israël a tenu en échec, lors de conflits à répétition, ses puissants voisins, pourtant plus peuplés et plus nombreux. De même, plus récemment, les alliés, grâce à la sophistication de leurs armes et de leur logistique, grâce aussi aux systèmes satellitaires, ont vaincu Saddam Hussein , à l'issue de la guerre du Golf, alors que l'Irak disposait d'un nombre bien supérieur de blindés et d'avions de chasse.

Bref, il est en dans les conflits armés comme dans les guerres économiques : le savoir procure à ceux qui le maîtrisent l'équivalent d'un puissant effet de levier.

E) L'ÉMANCIPATION DE LA RICHESSE PAR RAPPORT AU TEMPS

Parallèlement à la déconnexion de la puissance et du nombre, il se produit également une véritable émancipation de la richesse par rapport au temps.

Là encore, un exemple : le chiffre d'affaires de Sun Micro Systems est passé de 2 millions à 2 milliards de dollars.

Qu'en déduire, sinon, comme le fait Toffler, qu'on suivra encore sur ce point, qu'au traditionnel partage de la société entre riches et pauvres se substitue désormais celui entre rapides et lents.

Raccourci par la circulation de l'information et du savoir, on a vu que le temps devenait un facteur de production chaque jour plus décisif. Cependant, les délais nécessaires pour prendre de l'avance dans la recherche s'allongent, alors même que se raccourcit la durée de vie des produits. Autant le répéter, donc : finalement, ce n'est pas tant le savoir lui-même qui importe le plus, que son exploitation et l'organisation de sa diffusion.

Pour revenir à notre exemple, les revenus que procurent à Sun Micro Systems la diffusion du langage Java ne représentent pour l'instant qu'une part infime de ceux engendrés par la vente des serveurs. Derrière la distribution gratuite de logiciels sur les réseaux se dissimulent souvent des enjeux industriels considérables. Nul hasard, non plus, si les vendeurs d'ordinateurs personnels américains intègrent dans leurs offres commerciales en Europe un abonnement à un fournisseur de contenus venu d'outre-Atlantique : America On Line (AOL ). Il faut, enfin, toujours garder présent à l'esprit le fait que l'industrie, fondamentale, des composants devient de plus en plus capitalistique, alors même qu'elle nécessite des dépenses en matière de recherche et de développement croissantes.

Bref, comme le concède lui-même Toffler, l'argent reste toujours un formidable outil de pouvoir - mais la richesse, grâce au savoir, peut s'acquérir beaucoup plus rapidement, et à partir de mise de fonds initiale beaucoup plus modeste.

En fait, c'est une transformation, plus qu'un basculement, qui affecte les trois éléments clés du pouvoir (savoir, force et richesse) dans leurs relations cachées. Par-delà les modifications qui redéfinissent l'utilisation de l'espace et du temps, et par-delà l'équilibre des pouvoirs qu'elle provoque, c'est en effet tout l'univers des relations humaines qui se trouve bouleversé par l'entrée dans la société de l'information - qu'il s'agisse des relatons entre les entreprises, entre les hommes ou qu'il s'agisse du rapport au savoir.

En d'autres termes, il y a une interaction des individus et de l'information, qu'ils façonnent autant qu'ils la reçoivent.

F) UNE NOUVELLE MANIÈRE DE CONNAÎTRE

La communication directe à travers les réseaux informels tend parfois à se substituer aux circuits hiérarchiques, et les comportements des entreprises deviennent moins prévisibles. Conséquence : sur la base d'un partage de données, d'informations et de savoir, consommateurs et producteurs devraient logiquement se fondre, pour reprendre une expression de Toffler, en un « prosummateur ».

En effet, le recours à l'intelligence artificielle pour maîtriser le flux des données favorise une nouvelle approche du savoir. Sans anticiper sur des développements spécifiquement consacrés au monde de l'éducation, mentionnons le fait que l'interactivité, par exemple, développe une curiosité accrue et suscite, chez l'usager des réseaux, la joie de la découverte qui, selon l'expression de Michel Serres, « change le paradigme de l'acte de connaître ».

Toffler, de son côté, note que l'interactivité permet également un approfondissement des débats, et le rapprochement, désormais rendu possible par les réseaux, entre les points de vue des intellectuels et des agents économiques, des penseurs et des homes d'action, constitue une sérieuse garantie de progrès pour nos sociétés. Selon lui, la massification et la mondialisation de l'économie des médias et de la production ont en effet atteint leurs limites, redonnant leur chance aux activités et aux échanges locaux. Mais Toffler souligne par ailleurs que les effets des médias, comme ceux des autres activités mises en réseau, ne s'exercent pas en parallèle, mais au contraire se conjuguent et interagissent.

Fin des médias isolés, donc : et place aux systèmes médiatiques.

Parrochia : « À plus grande échelle, la société se trouve redéfinie à travers un ensemble de circulation de matières et d'informations (...) intégrée dans une sorte de réseau de réseaux ou réseau au carré ».

Qu'en conclure, sinon que nul ne peut désormais se soustraire à un univers dont les réseaux de communication mettent aujourd'hui les éléments en interaction permanente. Et que cet univers, il est vital de le comprendre et de la maîtriser.

VI. CONCLUSION

La problématique, économique au premier abord, de la valorisation des informations, diffère de celle, plus socioculturelle et éthique, des valeurs de la société de l'information.

D'un côté, il s'agit tout d'abord de donner du sens au signal, puis une valeur ajoutée à ce minerai de base qu'est l'information, en le transformant successivement en connaissance, en expertise, en sagesse et en culture. Pour cela, il faut utiliser les réseaux afin d'y faire circuler et d'y exploiter notre savoir, mais aussi d'y valoriser notre patrimoine culturel. Dans cette triple optique, ce qui compte le plus, ce sont nos capacités d'interpréter les informations (plus importantes que leur simple collecte) et d'organiser la diffusion du savoir.

Mais l'accès au savoir pose également des problèmes au pouvoir, eux-mêmes liés aux valeurs de la société de l'information. Bref, les deux questions de la valorisation des informations et des valeurs de la société de l'information doivent être articulées.

Mais, on le regrettera avec Toffler : « une éthique de l'information, adaptée aux économies avancées, fait encore défaut ». De sorte qu'il convient d'accréditer l'idée selon laquelle « tolérer la diversité est le premier commandement de la société démassifiée (grâce aux nouvelles techniques) ».

Cette vertu de tolérance, assez proche de celle d'ouverture mise au premier plan par Bougnoux , permet de démarquer l'information (qui suppose une distance critique pour appréhender l'autre) de la communication (qui nous enferme dans le cercle de nos habitudes subjectives).

D'autre part, l'entrée dans la société de l'information, si elle ne s'accompagne pas, comme pour l'avènement de l'imprimerie, de nouveaux courants intellectuels ou religieux, n'en exige pas moins, elle aussi, l'adhésion à des valeurs positives : tolérance et ouverture, on l'a dit, mais aussi curiosité intellectuelle, inventivité et désir d'échanger et de partager.

Par voie de conséquence, n'ayons pas peur de le dire : chaque acteur a des efforts à accomplir. Le secteur des télécommunications, pour sortir de sa culture de monopole, adapter ses tarifs prohibitifs et offrir de nouveaux services. Les fournisseurs de contenus, pour privilégier la qualité, respecter des règles déontologiques librement consenties et profiter de l'interactivité pour mieux satisfaire leurs clients. Les fabricants de terminaux, pour non seulement améliorer les performances de leurs machines, mais aussi les rendre plus conviviales et plus compatibles entre elles. Les pouvoirs publics, enfin, pour crée un cadre législatif adapté, pour préférer la régulation à la réglementation et pour favoriser l'innovation et l'utilisation, dans l'enseignement, des nouvelles techniques.

Sur tous ces points, comment le nier, la France accuse un très net retard. Mais elle possède de réels atouts et elle a su prouver par le passé, en particulier avec le Minitel, qu'elle pouvait jouer un rôle de tout premier plan. Cependant, on ne le soulignera jamais assez : il est nécessaire de nous départir de cette défiance, en partie héritée de notre passé, et qui trop souvent continue de nous inhiber. Tout comme il est nécessaire de devenir une société plus ouverte, moins centralisée, moins cloisonnée, moins hiérarchique. En un mot, résolument tournée vers l'avenir.

CHAPITRE IV

LA PRIORITE DES PRIORITES POUR NOTRE PAYS :
PERMETTRE A TOUS LES FRANCAIS D'ACQUERIR
DE NOUVEAUX SAVOIRS

L'acquisition par tous les Français de nouveaux savoirs est, pour notre pays, la priorité des priorités pour des raisons déjà exposées en partie dans cet ouvrage. On se permettra de les rappeler une nouvelle fois.

I. POURQUOI ?

Il est impossible de ne pas le constater : le développement de la société de l'information est un phénomène mondial et inéluctable, déjà largement entamé, auquel nous ne pouvons pas nous soustraire.

Or le savoir, on l'a vu, est ce qui permet de valoriser le minerai de base qu'est l'information pour en faire une connaissance. Cette transformation des informations en connaissances renforce, en retour, le savoir qui l'a permise, car celui-ci est un mode d'intégration des connaissances en systèmes organisés. Elle permet en outre d'utiliser au mieux nos capacités d'expertise afin d'apporter à ces connaissances une valeur ajoutée. Ce bon usage de nos capacités d'expertise apporte à nos vieilles nations une sagesse qui en est la somme et une culture qui en est la mémoire.

Toffler, on l'a vu également, a montré d'autre part que le savoir est désormais une source de pouvoir plus déterminante que la force ou que la richesse. Mieux : le savoir confère aux deux autres facteurs un effet de levier, un rôle démultiplicateur. De sorte que la puissance se trouve dès lors déconnectée du nombre :

- dans le domaine militaire, on peut vaincre en étant moins nombreux et moins armé ;

- dans le domaine économique, la réussite n'est plus proportionnée (comme en témoigne le succès de start-up, comme Microsoft ou Sun) à l'importance de la mise de fond initiale ou à la disponibilité, à côté du capital, de ressources importantes en matières premières et en force de travail.

Contrairement au capital, au travail et aux richesses naturelles, le savoir est inépuisable, et permet, en outre, d'économiser les autres facteurs de production ; c'est là ce qui constitue sa force. Il n'y a plus de limite à la reproduction et à la diffusion des oeuvres de l'intelligence ni au nombre de chargements que l'on peut faire d'un logiciel ou de copies d'une image numérique.

Dans une économie devenue super symbolique, - c'est-à-dire dans laquelle les travailleurs sont désormais plus nombreux à manier les symboles que les choses -, le savoir, parce qu'il est le substitut final, est devenu la ressource économique ultime.

Comment, en effet, ne pas le constater : le cerveau remplace progressivement le muscle, le prolétariat devient cognitariat et l'ensemble du cycle de la production et de la distribution dépend de plus en plus du savoir qui s'y investit L'intelligence permet également d'expliquer le passage, auquel on assiste actuellement, d'une production de masse hyperstandardisée à une économie du sur mesure dans laquelle industrie et services tendent à s'intégrer toujours davantage.

Cette évolution redonne sa chance, même si le marché se mondialise, à de petites unités très spécialisées, implantées en dehors des grandes zones d'activité économique. De sorte que tout un nouveau système de création de richesse, à la fois localisé et planétaire, fondé sur la technologie avancée, se met ainsi en place.

L'accès au savoir, à travers les nouvelles technologies d'information et de communication, se révèle être, dans ces conditions, pour la France comme pour l'Europe, un enjeu majeur en terme de pouvoir, c'est-à-dire de souveraineté et d'identité, par-delà ses effets immédiats sur le niveau de nos performances économiques dans un monde de plus en plus ouvert et compétitif.

C'est aussi un des espoirs essentiels qui nous reste de retrouver les chemins de la croissance et de l'emploi par une dynamique de création de nouvelles activités, d'innovation et d'amélioration qualitative des services. En effet, il semble que les faits ont déjà démontré l'insuffisance de politiques trop exclusivement axées soit sur la recherche de gains de productivité, accompagnée d'un traitement social du chômage, soit sur le mythe du partage du travail.

Pour toutes ces raisons, l'acquisition, ou plus encore la création par les Français de nouveaux savoirs leur permettant de maîtriser et de valoriser les informations de plus en plus nombreuses que les nouvelles techniques peuvent mettre à leur disposition, apparaissent comme la priorité essentielle.

II. PAR QUELS MOYENS ?

Les moyens de créer des connaissances et d'y accéder ont été révolutionnés par les nouvelles techniques d'information et de communication.

Il s'agit tout d'abord de l'utilisation de l'informatique comme procédé de traitement de l'information (étymologiquement, d'ailleurs, le mot informatique lui-même évoque l'application de l'électronique au traitement de l'information).

Celle-ci, on l'a vu, a d'abord été employée, de façon frontale, comme outil de gestion, de calcul puis de documentation (à partir du stockage et de la consultation d'ensembles organisés de données). L'évolution technologique a fait ensuite de l'ordinateur une machine personnelle, communiquante et multimédia.

De nouvelles architectures décentralisées d'accès à l'information se sont développées, d'abord localement ; puis, avec Internet, mondialement (avec la généralisation du modèle client serveur) ; tandis que, dans le même temps, de nouveaux modes de communication et d'échanges de données (visioconférences, courrier électronique...) faisaient leur apparition.

Mais il convient de le rappeler : la machine n'est qu'un instrument au service d'activités intellectuelles qu'elle ne peut pas, par elle-même, exercer (acquisition de connaissances et d'expérience, formation initiale et continue, exploitation d'un capital de savoir et de culture, recherche et innovation...).

Nous voulons dire par là qu'un capital humain très riche, d'un côté, caractérisé par un haut niveau de formation, de recherche, d'expérience et de culture, un équipement très fourni, d'un autre côté, en instruments techniques modernes et variés, ne sont ni l'un ni l'autre suffisants.

Bref, il doit y avoir une interaction entre l'homme et la machine, une utilisation intelligente de toutes ses possibilités techniques, de ses facultés, non seulement de stockage et de traitement dans un espace limité, mais aussi de diffusion et d'échange, à travers les réseaux, à de vastes échelles.

Nous avons longuement insisté sur ce point : cette exploitation de toutes les potentialités de l'informatique en réseau suppose, tout d'abord, un état d'esprit fondé sur l'adhésion à certaines valeurs ; la remise en cause, ensuite, de certaines formes d'organisation du travail ou de schémas relationnels (dans l'entreprise comme dans le système d'enseignement et de formation) ; sur le plan technique, la maîtrise des outils correspondants, enfin, facilitée par des investissements immatériels de plus en plus importants (afin de rendre la machine plus conviviale, de faciliter les recherches de données à travers les réseaux et d'interconnecter des matériels hétérogènes...).

Trois éléments sont donc nécessaires pour l'acquisition de nouveaux savoirs :

- un capital humain de sagesse, d'expérience et de connaissances, susceptible de valoriser les informations ;

- des équipements de stockage et de traitement de ces dernières ;

- l'organisation de la circulation des informations et des connaissances ainsi que la mise en place de l'exploitation de l'expertise et de la sagesse en réseau (afin de permettre des fertilisations croisées, une augmentation des valeurs ajoutées...).

Or, sur tous ces plans, on ne peut que le regretter : notre pays accuse un retard très sensible.

III. LE RETARD FRANCAIS

Le retard pris par la France, en ce qui concerne son entrée dans la société de l'information, est aujourd'hui incontestable - et, d'ailleurs, incontesté même si la situation évolue favorablement depuis quelques mois.

Il a été abondamment analysé dans de nombreux rapports (notamment ceux du groupe de travail présidé par Thierry Mileo , de M.Pierre Laffitte , au nom de l'OPECST, et de la mission commune sénatoriale d'information...).

Selon le graphique p. 110, tiré du numéro du 15 février 1997 de « The Economist », notre pays, en janvier 1997, ne devançait, en effet, que de peu la République tchèque, la Hongrie, l'Espagne et l'Italie en ce qui concerne le nombre d'ordinateurs par millier d'habitants raccordés à Internet. Il était distancé non seulement, très largement, par les Etats-Unis et les pays nordiques, mais également par nos principaux partenaires européens (Grande-Bretagne, Allemagne), ainsi que par l'Irlande, la Belgique et les Pays-Bas.

Certes, les ventes d'ordinateurs personnels ont augmenté très fortement, en 1997, de 20 %, et depuis Décembre dernier nous pouvons dire qu'une famille sur cinq possède un ordinateur . Cependant, notre taux d'équipement demeure très inférieur à celui de nos voisins européens (25 % pour l'Allemagne, 22 % au Royaume-Uni) et surtout à celui des Etats-Unis qui approche de 40 %.

Un rattrapage s'est également produit au cours de l'année 1997 en ce qui concerne les connections à Internet (+ 100 %), mais il demeure encore insuffisant pour que la France comble son retard.

S'agissant de nos entreprises, une récente enquête du Plan, citée par Le Monde du 2 octobre 1997, démontre qu'elles demeurent relativement imperméables aux technologies de l'information ou qu'elles ne savent pas, en tout cas, en tirer tout le parti possible, faute d'avoir su adapter leur organisation à la révolution des réseaux.

Isolée, l'entreprise française, n'a pas encore réticularisé ses relations, ni avec ses partenaires (clients, fournisseurs...), ni avec son environnement (université, laboratoires, centres de formation...), de sorte qu'elle se prive des avantages de la circulation de l'information.

Ces conclusions rejoignent celles de l'étude précitée, réalisée au printemps 1997, en préparation de la conférence interparlementaire des pays membres d'Euréka : pratiquement toutes nos entreprises, comme celles de nos principaux concurrents, sont équipées d'ordinateurs ; mais dès qu'il s'agit d'utilisations en réseaux (modems, accès à Internet, vidéo conférences, courrier électronique, sites web...) ou de multimédia (lecteurs de CD-ROM) ou encore d'usages individuels (portables), nous sommes encore très largement distancés.

1997

PAYS Modems Accès Courrier Sites Conférences Lecteur Portables
internet électronique Web Vidéo deCD-ROM

Japon 75 % 63 % 51 % 28 % 14 % 85 % 81 %

Royaume-Uni 73 % 35 % 52 % 27 % 11 % 67 % 60 %

Allemagne 67 % 27 % 43 % 16 % 8 % 75 % 59 %

Etats-Unis 81 % 51 % 56 % 39 % 7 % 75 % 58 %

France 61 % 13 % 32 % 9 % 6 % 48 % 44 %

Source :NOP Research Group Conquête réalisé sous forme d'entretien auprès d'un échantillon de cadres d'entreprises et de consommateurs)

Soyons clairs : le retard accusé par la France n'est pas de nature intellectuelle (le niveau d'ensemble de notre enseignement et de notre recherche est plus qu'honorable) ; il ne s'agit donc pas d'une insuffisance de connaissances.

D'autre part, nos entreprises ne connaissent pas non plus de sous-équipement informatique global.

A l'examen, le problème semble surtout d'essence culturelle : bien que beaucoup d'éléments aient changés, dans les réseaux, dans ces derniers mois, les mentalités de nos dirigeants (politiques, administratifs, économiques, etc...) n'ont pas suffisamment évolué pour qu'ils prennent conscience de la nécessité de modifier leurs schémas d'organisation et de relations ainsi que leurs analyses, afin de tirer parti des avantages procurés par les réseaux (élargissement de l'accès aux connaissances, fécondité des échanges intellectuels, gains de notoriété, de temps, d'efficacité ; accroissement des débouchés, création d'activités nouvelles...).

A) UN PROBLEME SURTOUT CULTUREL

Les difficultés rencontrées par notre pays pour entrer dans la société de l'information, pour souscrire à ses valeurs et donc profiter de ses opportunités sont liées, ainsi que nous avons tenté de le montrer dans les précédents chapitres de cet ouvrage, aux interactions de notre mentalité et de notre histoire. L'une et l'autre se sont influencées et façonnées mutuellement. Il en résulte aujourd'hui des comportements et des phénomènes psychiques, hérités du passé dont nous n'avons pas toujours conscience, mais qui produisent toujours certains effets inhibants.

Il en va ainsi, en particulier, de la persistance dans notre pays de modèles de relations professionnelles (et parfois sociales) ou de transmission du savoir très hiérarchiques et très cloisonnés.

Une trop grande réserve vis-à-vis des innovations ainsi qu'une certaine difficulté à s'adapter aux évolutions des marchés en sont également l'illustration (pour ne pas dire le symptôme).

Difficile, dès lors, de ne pas souscrire à l'analyse de Michel Crozier : « Nous avons des ressources humaines considérables. Mais nous les gaspillons par un système de commandement et de contrôle qui décourage les meilleures volontés».

Tandis que nous n'apprenons pas à nos jeunes à coopérer rapidement et efficacement, nous ne savons toujours pas - selon le même sociologue - créer de partenariats efficaces, privé-public ou simplement universités-recherche-entreprise. « Nous nous méfions systématiquement ».

Cette analyse rejoint celle de Suzanne Berger, professeur au MIT , selon laquelle figurent au rang des atouts de la France « un enseignement de haut niveau et une population bien formée ». Mais, alors que les échanges entre universitaires et entreprises sont quotidiens aux Etats-Unis, elle ne voit pas chez nous cet état d'esprit ni ce tissu d'échanges. Ce qui la frappe, au contraire, c'est l'isolement de nos groupes, et singulièrement celui de nos PME.

Une étude du commissariat au Plan sur l'industrie française, constate de son côté la persistance, dans notre pays, de principes archaïques de division du travail. Trop préoccupés par leurs coûts, les groupes français ne parviennent pas à remettre en cause le taylorisme ; ils ne tirent pas tout le parti des technologies de l'information qui, aux Etats-Unis, ont conduit à créer une organisation par réseaux conduisant à une véritable renaissance industrielle. L'organisation des activités demeure fondée chez nous sur l'optimisation et le rendement plus que sur la création et l'apprentissage collectif. Les efforts de qualification des personnels ainsi que la remise en cause des modes de coordination des activités des entreprises ont été insuffisants. Celles-ci n'ont pas su créer de réseaux solides.

« Tandis qu'à l'étranger les firmes revoient leur organisation hiérarchique, multiplient les équipes de projet mêlant chercheurs, commerciaux, techniciens, producteurs - note l'article du monde présentant cette enquête - les sociétés françaises conservent des méthodes découplant les étapes de création et de production ».

Même tonalité chez Suzanne Berger : « En France, on n'a retenu du reengineering que les licenciements. On a oublié les modifications profondes des méthodes de travail, le changement des hiérarchies, les nouvelles approches des clients. »

« Les entreprises françaises ont encore beaucoup à faire - estime-t-elle -. La remise en cause des organisations, la formation de réseaux ne sont pas suffisamment mis en oeuvre dans vos groupes. Ils n'ont pas encore saisi la chance que représentent les nouvelles technologies. »

Ces carences seraient-elles liées au mode de recrutement de nos élites ?

Selon les sociologues Michel Bauer et Bénédicte Bertin-Mourot , « La France est le seul pays du monde qui fabrique l'essentiel de ses élites en fonction du seul diplôme initial. »

« On ne forme pas, on n'éduque pas, on sélectionne, à tour de bras, les meilleurs ».

Notre système d'enseignement ? Une machine à étalonner. Les jeunes gens sélectionnés par l'ENA et Polytechnique seront propulsés à des postes de direction sans avoir été contraints ni à faire leurs preuves ni même à acquérir une expérience sur le terrain. Cette dévalorisation de l'expérience (les milliards dépensés en formation continue ne confèrent aucune légitimité comparable), « aboutit à donner le pouvoir à ceux qui n'ont qu'une vue abstraite des situations ».

« Ce mélange de formation généraliste et de pseudo-expertise sans débat ni recours au terrain semble toucher cependant aujourd'hui à ses limites », estime pour sa part le journaliste du Monde, Yves Mamou .

Ce modèle hiérarchique élitiste peut, en effet, se trouver remis en cause par l'évolution :

· de la société (les classes moyennes contestent un système de promotion sociale entièrement fondé sur la réussite scolaire qui semble moins leur bénéficier qu'auparavant) ;

· de l'entreprise (dans laquelle les salariés deviennent plus compétents et mieux formés, donc moins dociles et plus critiques) ;

· des connaissances, moins stables qu'autrefois tandis que s'accroît la durée nécessaire à l'acquisition d'un savoir-faire opérationnel.

Une autre sociologue, Sabine Chalvon Demersay évoque, à sa façon, cette crise du concept de pouvoir : « Hier encore, observe-t-elle, celui-ci était hiérarchique, vertical, sans appel. Aujourd'hui, il devient horizontal, organisé en réseau et consensuel. »

Une évolution confortée - note Yves Mamou - par la technologie et la généralisation du modèle Internet qui permet à tout le monde de se connecter et d'entrer en contact avec n'importe qui.

n Trop pyramidale, trop fondée sur le pouvoir d'un savoir plus théorique que pratique, et plus monopolisé que partagé, la société française ne fait pas non plus assez confiance - et ceci explique peut-être cela - à l'innovation et aux opportunités nouvelles du marché.

Les deux auteurs de l'étude précitée du Plan, MM. Colletis et Levet , estiment à cet égard que « trop souvent dans ce pays, la question de l'emploi est posée en termes de partage, alors qu'il conviendrait de réfléchir à la création de nouvelles activités, car de larges potentiels demeurent inexploités ».

La recherche d'une compétitivité par les prix et les économies d'échelle plutôt que par l'innovation, la qualité et les services, ainsi que des produits mal adaptés à la demande internationale semblent expliquer - selon eux - les performances décevantes sur ce point de l'industrie française.

La viabilité de l'entreprise dépend, en effet, de plus en plus aujourd'hui, d'une bonne adaptation de technologies particulières à des marchés spécifiques.

« L'idée qu'il n'y a plus de travail dans l'industrie est fausse - estime Suzanne Berger -. Les Etats-Unis travaillent, plus que jamais». Mais, dans les meilleures entreprises, l'industrie et les services tendent irrésistiblement à fusionner.

Dans ces conditions, le tort principal de l'industrie française est de ne pas s'être assez placée dans une perspective de croissance.

De sorte que la croissance constitue ainsi - selon Colletis et Levet - le premier défi que doivent aujourd'hui relever nos entreprises.

Les restructurations massives des quinze dernières années ont certes permis aux entreprises françaises d'assainir leur bilan. Mais en privilégiant ainsi leurs structures financières, les groupes ont fait porter leur ajustement sur les capacités productives (investissement et masse salariale), aggravant de ce fait les récessions conjoncturelles au lieu de les atténuer.

Bref, comme ils le constatent : « La stratégie de désinflation compétitive a contribué à freiner l'érosion des pertes de marché de la France mais n'a pas permis d'inverser la tendance », et l'industrie française, qui n'est pas parvenue à se différencier suffisamment, reste donc plus vulnérable que ses concurrents.

Ce manque d'audace et d'imagination, Michel Crozier l'a vigoureusement dénoncé dans une tribune intitulée « L'espoir de renaissance », publiée par Le Monde. On rappellera les grands axes de son analyse.

La question primordiale pour la France d'aujourd'hui est simple -estime le célèbre sociologue -. Nous devons nous montrer capables « de prendre le plus vite, le plus efficacement et le plus humainement possible, le train de l'expansion et de l'innovation ».

« Nous devons tirer parti de nos ressources pour saisir les occasions qu'offre le monde nouveau et non pas les protéger en nous repliant sur nos succès et notre excellence passée ».

« La logique nouvelle qui permet de gagner n'est plus celle de la rationalisation, c'est celle de l'innovation ».

« Nous ne perdrons pas notre identité en l'acceptant, tout au contraire », souligne-t-il, rappelant que les pays qui refusent, au nom du maintien de leurs valeurs traditionnelles, de comprendre le changement du monde, sont voués, telle l'Espagne du XVIe siècle, au déclin.

Mais - observe-t-il également -, « L'innovation ne peut réussir sur la longue distance que si nous renonçons au commandement technocratique ».

Or, « le modèle du succès en France, - déplore-t-il -, reste le modèle hiérarchique, étatique ».

Quand comprendrons-nous - s'exclame-t-il- que « ce n'est pas l'Etat qui va créer l'innovation de demain, donc la prospérité et les emplois... mais toutes les personnes qui, dans les entreprises ou d'autres institutions, se passionnent pour créer elles-mêmes quelque chose. »

« Une société, - conclut-il -, ne se développe que grâce à son tonus vital mais celui-ci ne se décrète pas », mais se stimule par « la priorité donnée à la liberté individuelle de créer et à l'échange avec l'extérieur ».

n Mais il n'est pas facile de lever des inhibitions pluriséculaires. « La France - a souligné Jacques Attali dans un de ses ouvrages - est une nation rurale, catholique et sédentaire, tandis que les Etats-Unis sont, au contraire, un pays urbain, protestant et mobile ».

Peut-on en mesurer toutes les conséquences ?

L'héritage de notre catholicité a déjà été examiné dans de précédents chapitres qui ont souligné combien il était difficile à évaluer à sa juste mesure.

Les pays catholiques, en général, ont été totalement alphabétisés plus tard -on l'a vu- que les pays protestants. Cela explique-t-il encore aujourd'hui, un siècle après Jules Ferry, que les Français lisent moins de livres et de journaux que les Anglais et les Américains ?

Notre passé rural, encore récent, contribue peut-être à expliquer notre goût pour une communication de proximité, enracinée et charnelle, susceptible de faire concurrence aux relations, plus distanciées, permises par les réseaux.

Dans leur grande majorité, les Français préfèrent le foncier et la pierre aux valeurs mobilières et au capital risque : là encore, est-ce une conséquence de notre ruralité et de notre sédentarité ?

Côté américain, les choses sont plus claires : le dynamisme que l'on y trouve s'explique sans doute, pour une bonne part, par le fait qu'il s'agit d'un pays neuf, peuplé d'immigrés, n'hésitant pas à changer de lieu de résidence et de travail et à prendre des risques financiers dans l'espoir de faire fortune grâce au développement d'activités nouvelles.

Quoi qu'il en soit, on ne saurait trop insister sur le fait que les conséquences d'une aggravation, ou même d'une persistance de notre retard dans l'entrée dans la société de l'informatique, seraient désastreuses.

B) LA NECESSITE URGENTE ET ABSOLUE D'UN RATTRAPAGE

La priorité des priorités ? Elle s'impose comme une évidence. Il s'agit de permettre à tous les Français d'acquérir de nouveaux savoirs.

En d'autres termes, le partage et la diffusion du savoir, d'une part, et l'innovation, d'autre part, doivent être mis au premier rang de nos objectifs, en urgence aussi bien qu'en importance, pour rattraper notre retard.

Négliger cette priorité pourrait avoir des conséquences gravissimes.

Les facteurs de blocage, tout d'abord, qui sont à l'origine de nos lenteurs, risqueraient de s'aggraver, ce qui rendrait tout rattrapage plus difficile encore.

Ne pas remettre en cause les organisations pyramidales, les modes autoritaires d'exercice des responsabilités, les conceptions exclusivement hiérarchiques des relations professionnelles et de l'accès au savoir, cela ne pourrait qu'accentuer la crise du pouvoir évoquée plus haut, le malaise entre gouvernants et gouvernés, et, en définitive, les problèmes de communication dans notre société.

La dureté, sans équivalent en Europe, de nos conflits sociaux (comme ceux, dans ces dernières années de la SNCF ou du secteur des transports routiers), le divorce entre la base et les syndicats qui les accompagne parfois, la compréhension témoignée, à l'occasion, aux grévistes, par une population pourtant prise en otage, tout cela témoigne d'un profond désarroi.

Le récent mouvement des chômeurs a plus encore mis en évidence le caractère, dorénavant imprévisible et même irrationnel, du comportement des français face à la crise.

Le contournement des circuits hiérarchiques par l'établissement, en parallèle, de réseaux informels constitue également une illustration de l'obsolescence qui frappe les schémas relationnels traditionnels.

« La technologie informatique mine les citadelles monopolistiques du savoir dans leur fondements » a écrit Alvin Toffler, qui, dès 1990, constatait que « l'information commence à abandonner les canaux officiels pour s'écouler par des réseaux informels ».

Ne pas comprendre cette mutation, ne pas ajuster en conséquence la façon d'organiser nos activités, l'accès à l'information et au savoir ainsi que l'exercice du pouvoir, c'est risquer de multiplier des conflits stériles et archaïques, de gaspiller notre énergie et d'aggraver, en fin de compte, nos blocages et notre retard.

Les inégalités dans l'accès primordial au savoir, que l'éducation et la formation doivent s'efforcer de combler, présentent également le danger de distendre le lien social et d'ouvrir davantage encore les fractures déjà existantes.

Or, cela serait d'autant plus regrettable que les nouvelles techniques d'information et de communication peuvent précisément offrir des moyens susceptibles de s'attaquer à ces maux.

La communication et la circulation de l'information sont, en effet, et cela dans l'entreprise comme dans la société considérée dans son ensemble, un facteur de fluidité.

La structuration des données brutes, d'abord en informations élaborées, puis en nouveaux savoirs, est, en outre, un élément de compétitivité décisif.

Car «tous les systèmes économiques, comme l'a démontré Toffler, reposent sur une base de savoir, devenue la ressource la plus importante».

Mais ce qui importe le plus, en la matière, c'est un facteur qu'un mot résume : «organisation».

Les systèmes de savoir ont été bouleversés par l'avènement des ordinateurs personnels mis en réseau, la cause est entendue. De sorte que, nécessité s'impose, les entreprises et les administrations procèdent à une restructuration en profondeur, notamment en ce qui concerne l'acquisition du savoir et l'ensemble du système de pouvoir fondé sur elle.

Car les réseaux sont le système nerveux de notre société. « C'est comme si - soutient Toffler - on avait ajouté un cortex cérébral à un organisme qui n'en avait jamais eu ». On est passé ainsi, selon lui, d'un concept d'entreprises « machines » à celui d'entreprises, créatures vivantes.

Peut-on imaginer que notre pays, non seulement dans ses entreprises mais aussi dans ses administrations et ses établissements d'enseignement et de formation, bref tout ce qui constitue son corps social, tarde à se doter d'un système aussi important et à y relier tous ses organes ?

Le savoir tend ainsi à s'organiser en structures relationnelles. Dès lors, ce n'est pas seulement son acquisition et sa possession qui comptent, mais aussi, et surtout, ses modalités d'échange.

Toffler l'a fait valoir : la position concurrentielle des entreprises ne dépend plus seulement de leurs ressources internes, mais de leurs relations extérieures. Le « qui connaissez-vous ? » - souligne-t-il- importe autant que le « que savez-vous » ?.

On sent que pour lui le savoir, en perpétuel et rapide renouvellement, est fait pour être échangé, et non pour rester captif ou monopolisé. Il est de toute façon inépuisable, et sa mobilité, tout comme la rapidité de sa création sont primordiales.

« L'innovateur, qui associe le savoir imaginatif et l'aptitude à l'action, est le héros de notre temps », proclame-t-il avec une certaine emphase, certes, mais non dénuée de vérité ; ajoutant que les produits d'activités créatrices jouent un rôle de plus en plus déterminant dans toutes les économies technologiquement avancées.

C'est la raison pour laquelle j'insiste sur l'élargissement à tous les Français de l'accès aux savoirs.

Tout retard dans l'acquisition de nouveaux savoirs, qui doivent permettre de produire de nouvelles connaissances aurait des conséquences dramatiques pour notre pays.

En effet, toujours selon Toffler, le temps devient lui-même un facteur important de création de valeur ajoutée et de compétitivité.

Il importe donc, non seulement d'innover, certes, mais aussi d'innover plus rapidement que nos concurrents dans le nouveau système accéléré de production de richesses.

En effet, aux anciennes inégalités entre riches et pauvres risquent de s'en substituer de nouvelles, désormais fondées sur le niveau de maîtrise des technologies et des connaissances, opposant dès lors les rapides aux lents.

« Le temps, raccourci par le savoir, devient un facteur de production de plus en plus décisif - répète Alvin Toffler -. Etre écarté de la nouvelle économie rapide revient à être exclus de l'avenir ».

Il ne faut cependant pas confondre la vitesse de la circulation de l'information ou de la valorisation du savoir avec celle de son élaboration.

En effet, tandis que la durée de vie des produits se raccourcit chaque jour davantage et que s'accélère dans le même temps la création de richesses, les délais nécessaires pour prendre de l'avance dans la recherche, note Toffler, tendent de leur côté à s'allonger.

Raison de plus pour ne pas se laisser distancer dans l'acquisition de nouveaux savoirs liés aux techniques d'information et de communication, car tout retard peut avoir, dans ce domaine, des effets cumulatifs désastreux, susceptibles de contrarier d'éventuels efforts ultérieurs de rattrapage.

Par ailleurs, les échanges intellectuels à travers les réseaux stimulent la créativité des chercheurs et l'utilisation des outils informatiques leur est indispensable.

Les positions de notre pays en matière de recherche fondamentale sont, on l'a dit, plus qu'honorables, même si elles sont plus fragiles dans le domaine de la R&D où nous sommes parfois lents à concrétiser nos idées.

Dans le domaine des technologies de l'information, la quasi inexistence (Siemens Nixdorf mis à part) d'une micro-informatique européenne est un handicap. De plus en plus d'applications sont en effet intégrées aux logiciels d'exploitation ou, du moins, en sont étroitement dépendantes. Il ne nous reste plus que des « niches » à exploiter.

L'essor d'Internet offre cependant de réelles opportunités en matière de création de logiciels. Il faut se hâter de les saisir.

Concernant les semi-conducteurs, le multimédia peut également procurer à des « outsiders » de réelles occasions de développer de nouveaux produits (avec la nécessité de mettre au point des « média processeurs »). Cependant, il n'est pas aisé de compenser l'avantage que procure à des entreprises comme Microsoft ou Intel , le capital d'expériences qu'elles ont accumulé en matière de logiciels ou de microprocesseurs.

Le retard qu'il est urgent que nous rattrapions ne concerne donc pas, soulignons-le une fois encore, le niveau de connaissances et de savoir, ni les capacités d'expertise de nos élites.

Il s'agit plus fondamentalement :

- de développer, chez tous les Français, les savoirs leur permettant de transformer en connaissances les informations dont les réseaux risquent de les inonder ;

- de favoriser l'acquisition de savoirs nouveaux, autrement dit la recherche, sa diffusion et sa valorisation à travers l'innovation.

Il en va de notre compétitivité, de l'amélioration de l'emploi à travers l'accélération de la croissance et la création d'activités nouvelles, mais aussi de notre développement économique, culturel et social.

IV. QUELS REMEDES ?

Envisagé dans ce chapitre surtout sous l'angle culturel, le retard français relatif à l'entrée dans la société de l'information sera analysé plus loin, en ce qui concerne ses causes et ses remèdes, sous d'autres aspects (choix technologiques, politiques tarifaires, financières et fiscales...).

Seront examinées plus particulièrement dans le développement qui suit, deux valeurs qu'il me semble nécessaire de promouvoir : le rôle de l'exemplarité et celui de l'éducation.

A) LE RÔLE DE L'EXEMPLARITÉ

Même si on peut le déplorer, les structures de la société française demeurent encore pyramidales, qu'il s'agisse de celles de l'Etat, des entreprises, ou d'autres collectivités (partis politiques, syndicats...).

Dans ces conditions, et sans que cela empêche d'encourager les initiatives émanant de la base (en les aidant, en les faisant connaître, ou en les fédérant et, le cas échéant, en les relayant), il est primordial que l'exemple vienne en même temps « d'en haut ».

Du reste, il est de l'intérêt des dirigeants eux-mêmes de prendre les devants, s'ils ne veulent pas voir leur autorité sapée dans ses fondements par le développement de réseaux informels court-circuitant les canaux hiérarchiques traditionnels.

Ils doivent donc s'efforcer de maîtriser les nouvelles techniques d'information et de communication, non seulement par prosélytisme, s'agissant de facteurs essentiels de compétitivité et de développement de leur entreprise, mais aussi, tout simplement, pour améliorer en son sein le climat social, en dialoguant et en échangeant des informations avec tous.

Or, une grande majorité des responsables que j'ai auditionné, n'utilisent pas directement eux-mêmes ces nouveaux moyens, contrairement à ce qui se passe aux Etats-Unis. Ils en délèguent l'utilisation, selon les cas, à des adjoints ou à des subordonnés plus ou moins proches.

Ainsi, trop souvent, l'ordinateur semble encore considéré par les plus hauts responsables de nos entreprises et de nos administrations, sinon comme une simple machine à traitement de texte, du moins comme un outil de gestion courante, voire de documentation, mais jamais véritablement comme un instrument personnel de communication et d'aide à la décision. On ne peut qu'espérer que se crée une émulation au sommet pour inverser ce regrettable état d'esprit.

Mais cela n'en rend pas moins inévitables les restructurations évoquées par Toffler en de suggestives métaphores : « fin des alvéoles », passage « des monolithes aux mosaïques », partage de l'information, naissance de firmes flexibles polycellulaires dirigées par des équipes semblables à des sortes d'arches de Noé...

La personnalisation des produits et l'accélération du rythme de l'activité économique sert à promouvoir le modèle d'entreprises plus flexibles, dans lesquelles chaque travailleur possède plus de savoir et acquiert davantage d'autonomie ; toutes choses suggérant à l'envi que les organisations hiérarchiques et bureaucratiques traditionnelles se révèlent désormais inadaptées.

B) L'IMPORTANCE DE L'ÉDUCATION

Il est évident que l'apprentissage par les élèves des nouvelles techniques d'information et de communication, dans les établissements d'enseignement, peut exercer une influence très favorable pour l'entrée de la France dans la société de l'information.

Deux rapports publiés en 1997, rédigés par des sénateurs, se sont penchés sur cette importante question : l'un présenté au nom de l'OPECST par M. Franck Sérusclat , s'intitule « De l'élève au citoyen », l'autre, à l'attention du Premier ministre Alain Juppé , a été consacré par M. Alain Gérard au rôle des multimédia et des réseaux dans l'éducation.

Ces deux travaux soulignent l'intérêt éducatif des nouvelles techniques : selon M. Sérusclat , « les différentes pratiques tendent à se rejoindre et contribuent à l'élaboration, même dispersés, d'une pédagogie de l'autonomie et de la responsabilité ».

En effet, dès la maternelle, les enfants peuvent avoir avec l'ordinateur un contact de nature ludique (qui permet une initiation).

Celui-ci peut de ce fait constituer un moyen d'apprentissage précoce de la lecture (identification des lettres) et faciliter l'acquisition du vocabulaire de base.

Dans le primaire, des exercices de conjugaison, d'orthographe, de calcul, avec des mécanismes d'autocorrection peuvent être conçus. Le sentiment de culpabilité devant les fautes et ses effets inhibants se trouvent de ce fait atténués. Et la perfection des documents sortant de l'imprimante donne à l'élève le goût du travail propre et bien fait.

Dans les disciplines scientifiques, quant à elles, l'ordinateur permet la visualisation de phénomènes qui, auparavant, étaient seulement décrits.

En ce qui concerne l'utilisation d'Internet, son intérêt est triple : correspondance électronique, recherche documentaire, création de pages web.

M. Sérusclat tente de résumer ses conclusions en écrivant qu'« il faut faire de l'ordinateur un nouveau stylo ». En fait, selon ses propres propos, les utilisations pédagogiques de l'informatique sont encore beaucoup plus variées : la machine n'est pas seulement un stylo mais aussi un livre, un répétiteur, un moyen d'expression, d'ouverture et de communication.

Elle favorise l'éveil, la curiosité, l'attention ; provoque l'enthousiasme grâce à la joie de la découverte personnelle, sous forme ludique, dans un environnement exempt de jugement et de sanctions extérieures.

Les observations - citées par le rapport Sérusclat - auxquelles a donné lieu l'utilisation du serveur pédagogique Rescol, mentionnent également le fait que « les liaisons non linéaires entre éléments d'information rendent possible l'examen d'une question selon de multiples perspectives, ce qui permet aux élèves d'organiser leur savoir d'une manière qui en facilite la rétention et le transfert ».

M. Gérard, de son côté, rappelle que les nouvelles technologies influent sur les deux missions fondamentales de l'école : la transmission du savoir et la socialisation de l'enfant. Elles permettent, de plus, de s'affranchir des contraintes de l'espace pour sortir de la classe.

L'élève, plongé au coeur même des réseaux d'information, devient alors un acteur à part entière de la modernité.

Les quatre types existants de logiciels éducatifs - mentionnés par le rapport Gérard - traduisent la diversité des utilisations possibles de l'ordinateur, pour :

- la découverte et la recherche d'information ;

- l'apprentissage et l'évaluation ;

- la simulation et l'expérimentation ;

- la création, enfin, et la production de documents.

S'agissant plus particulièrement d'enfants handicapés ou en difficulté, les nouvelles techniques peuvent également être employées selon des approches tutorielles (comme une sorte de répétiteur), prothétiques (pour suppléer une fonction déficitaire), rééducation, ou en tant qu'inducteur de raisonnement et de créativité, outils d'écriture et de calcul.

Bref, l'amélioration des conditions d'enseignement obtenue est telle - selon M. Gérard - qu'on ne saurait désormais s'en passer.

Le directeur du Media Lab du MIT , Nicholas Negroponte , fait valoir de son côté, dans son ouvrage « L'homme numérique », que « le terrain de rencontre entre le travail et le jeu va s'élargir de manière spectaculaire » tandis que « nous nous éloignons d'un mode d'enseignement rigide qui s'adressait surtout à des enfants emmagasinant l'information de manière compulsive, pour nous diriger vers un type d'enseignement plus poreux qui ne trace pas de frontières hermétiques entre l'art et la science ».

Il estime que « les enfants peuvent explorer [grâce à l'informatique] des principes très complexes par le jeu ». Insistant sur « la joie d'apprendre », il pense que « l'on apprend surtout par l'exploration, en réinventant la roue, en découvrant par soi-même ».

« L'apprentissage par l'action est devenu la règle plutôt que l'exception ». Ainsi, grâce à la simulation par ordinateur, « il n'est plus nécessaire de disséquer une grenouille pour tout apprendre à son sujet... à la place, on peut demander aux enfants... de jouer avec la grenouille ».

« En jouant avec l'information, notamment des sujets abstraits, le concret prend davantage de sens ».

Soulignant que l'ordinateur permet d'atteindre des enfants ayant des styles cognitifs très différents, Negroponte vante « l'approche constructiviste » (le Lego branché sur ordinateur) qui apparaît comme « un moyen d'apprentissage d'une richesse extraordinaire » permettant à beaucoup d'enfants prétendument en difficulté d'apprentissage de s'épanouir.

D'autres soulignent, à côté de l'intérêt pédagogique des nouvelles techniques d'information et de communication, leurs avantages financiers et pratiques : Michel Serres a ainsi fait valoir, dans Le Monde du 17 décembre 1996, que la pédagogie à distance est dix, voire cent fois moins coûteuse que la création d'un campus universitaire, dans un contexte où la masse des crédits publics et privés consacrés à l'éducation arrive à saturation ; (ils représentent en effet le quart du budget de l'Etat, et parfois près de 50 % des dépenses d'investissement de certains conseils généraux).

M. Gérard, pour sa part, a rappelé les avantages théoriques (même si des problèmes d'organisation se posent) de l'enseignement à distance (centralisé ou de proximité), pour la gestion de différentes options d'enseignement que beaucoup d'établissements ne sont pas en mesure de proposer, dans leur totalité, à leurs élèves (notamment en matière d'apprentissage des langues étrangères).

Malgré ces avantages indéniables, certains s'interrogent encore sur l'opportunité d'un recours de l'enseignement via Internet.

D'autres soulignent, avec pertinence, que les nouvelles techniques ne constituent ni une fin en soi, ni la panacée, et que leur introduction doit s'inscrire dans le cadre d'une réflexion pédagogique d'ensemble.

Une polémique s'est ainsi développée dans les colonnes du quotidien Le Monde, à partir de la publication d'un point de vue de M. Robert Redeker selon lequel « Internet en milieu scolaire ne revêt aucun intérêt tant qu'on s'en tient fermement à la conception républicaine et humaniste de l'école ».

Pour ce professeur de philosophie, fabriquer des internautes ou instituer des citoyens est, pour l'école, une alternative antithétique (on ne voit pourtant pas, a priori, pourquoi l'un empêcherait l'autre). Selon lui, la pauvreté d'Internet s'oppose à la richesse de la « haute culture livresque », et l'école de la République à celle de Microsoft . De sorte qu'il serait bien plus important d'étudier les humanités que de se laisser apprivoiser par l'idéologie de Bill Gates, car « sur le web (qui n'a pourtant pas été inventé par la firme de Seattle) on ne communique pas, on échange essentiellement des informations et des banalités ». « Ne faisons pas de l'enfant - conclut-il - un agile animal informaticien (il aura toujours le temps d'apprendre, plus tard, à se servir des outils correspondants) avant d'en faire un homme ».

Face à cette thèse, M. Redeker parle de « fanatisme technologique ». Tandis que l'auteur d'un des articles du numéro d'octobre 1997 du « Monde de l'Education », Luc Cedelle, évoque, pour sa part, une prétendue vague actuelle de « technolâtrie » selon laquelle « tout ce qui est estampillé "nouvelle technologie" serait beau, bon et juste par nature ». Dénonçant le méli-mélo pédagogique, incitation au zapping, de certains sites web, il estime que le multimédia ne doit être ni un dérivatif (pour faire diversion au chômage), ni une utopie (comme l'industrie lourde dans la mythologie communiste). Mais il ne dénigre pas pour autant ce « formidable outil de courrier électronique et de recherche documentaire... premier espace planétaire de communication » que constitue Internet et dont toutes les conséquences ne peuvent pas encore être discernées.

Répondant à Robert Redeker dans un numéro postérieur du Monde, Bernard Maître, directeur général de CDC Innovation, fait valoir que « Tenir Internet en dehors de l'école est évidemment le moyen le plus sûr, le plus efficace et le moins coûteux, de livrer des générations entières de jeunes au modèle de la soumission ». De sorte qu'il se livre à l'éloge de « la croyance dans les vertus de l'échange » qui permet d'instituer les communautés sur Internet.

Pour autant, il faut le souligner : tous les débats relatifs aux usages pédagogiques des nouvelles techniques d'information et de communication ne sont pas aussi manichéens.

Certaines critiques, tout d'abord, ne remettent pas en cause le principe même de leur utilisation, même si elles tendent à en souligner certaines imperfections actuelles :

· S'agissant du multimédia « intégré » (CD ROM), sont ainsi parfois regrettés la médiocrité de certaines réalisations (visites virtuelles de musées, par exemple, ne dépassant pas le stade du gadget et souffrant de la mauvaise qualité de l'image ; décalage entre les séquences animées et le commentaire correspondant), les coûts élevés de production (pour les petites séries) et d'équipement (lecteurs), l'imbrication encore insuffisante entre les genres associés (édition et audiovisuel, éducation et jeu...), l'absence de méthodes de développement d'applications à visée exclusivement pédagogique, etc.

· Concernant le multimédia « réparti » (Internet), ce n'est que récemment qu'une extension du langage HTML a permis un niveau d'interactivité compatible avec des applications pédagogiques (grâce à des programmes spécifiques de traitement d'information qui communiquent avec le serveur en utilisant une interface normalisée dite « Common Gateway Interface » ou CGI ). Cependant, étant données les possibilités réduites de présentation, d'animation ou de simulation, les applications sur le web paraissent, pour le moment, beaucoup moins riches que celles développées à l'aide d'un système auteur. Mais bientôt, les navigateurs devraient intégrer des interpréteurs (notamment du langage Java) permettant de transmettre, en même temps que les informations demandées, des programmes (applets) exécutés directement par la machine client (notamment pour ce qui concerne l'animation d'images) sans connexion avec le serveur.

· Enfin, les logiciels auteurs, qui servent d'intermédiaires entre les spécialistes de la technique et du contenu, ne sont pas non plus exempts de toute critique. Ceux de la première génération étaient souvent complexes et nécessitaient donc une forte implication des utilisateurs (ex : Director).

Plus intuitifs ou spécialisés, ceux de la deuxième génération n'en présentent pas moins des limites : impossibilité de visualiser des « Applets » Java pour Adobe, ou possibilités créatrices réduites, en l'absence de véritable programmation, pour Hyperstudio.

D'un point de vue pédagogique, d'autre part, une enquête récente, publiée par le magazine américain Atlantic Monthly, conclut que le bon usage de l'informatique à l'école requiert autant de circonspection que d'enthousiasme.

Certes - et c'est sans doute le principal -, les enfants adorent manier cet outil et se montrent aussi enthousiastes que motivés à son endroit. Le problème, selon le reportage intitulé « l'illusion informatique », est de savoir ce qu'ils apprennent vraiment.

Il est vrai que pour les petits, l'expérience sensorielle est très limitée et la représentation d'un objet en trois dimensions ne saurait remplacer le toucher et la manipulation.

Par ailleurs, l'apprentissage logiciel et la plongée dans le virtuel finissent par donner aux enfants un mode de pensée non séquentiel qui les conduit - selon l'enquête de Todd Oppenheimer - à mal discerner les liens de causalité ou à considérer la réalité comme importune.

Enfin, l'usage du couper-copier-coller inciterait les élèves, d'après Oppenheimer , à faire des montages de textes plutôt qu'à élaborer une réflexion personnelle.

Il ressort de ces réflexions, pour la plupart nuancées, des conclusions de bon sens, auxquels les personnes sensées, ni technolâtres ni technophobes, ne peuvent que souscrire. En tout état de cause, elles ne remettent pas en cause l'usage des nouveaux outils concernés dans l'enseignement.

Ce sont des techniques perfectibles, qui ne sont pas la panacée, certes, de sorte que leurs projets d'utilisation doivent s'inscrire dans le cadre d'une réflexion pédagogique d'ensemble, prévenu qu'il est désormais exclu de s'en passer et qu'il s'agit d'une priorité essentielle.

Il existe, tout d'abord, une forte adéquation entre les possibilités offertes par les nouvelles techniques et ce que doivent être, à mon sens, de tout temps, les objectifs essentiels de la pédagogie :

- susciter le désir d'apprendre chez l'élève ;

- respecter son individualité.

C'est à partir du respect de ces deux impératifs fondamentaux que l'éducation peut le mieux remplir ses missions : l'acquisition de savoirs, d'une part, et de l'autre la socialisation, deux missions auxquelles j'aurais personnellement tendance à ajouter l'éveil des facultés créatrices de l'élève.

On peut ainsi se ranger à l'avis de Philippe BRETON qui écrivait dans « l'Utopie de la communication » : « Le processus éducatif n'est pas d'abord une affaire d'accès au savoir mais bien plutôt une manière de poser la question fondamentale, du désir de savoir. Améliorer l'accès ... ne changera pas une virgule à la situation du désir de savoir qui doit animer l'élève ».

Il est donc essentiel que les outils d'accès au savoir éveillent le désir d'acquérir de nouvelles connaissances. Or, nul ne conteste le fait que les enfants ont un contact spontané facile avec l'ordinateur et qu'ils l'utilisent avec plaisir, voire avec enthousiasme.

Dans « l'Homme numérique », Nicolas NEGROPONTE évoque, on l'a vu, la joie d'apprendre « que peut provoquer chez un enfant l'approche constructrice » de la connaissance permise par l'informatique.

A Jean-Louis GASSEE qui, dans Libération, contestait le concept américain « d'édutainment », « comme si l'on pouvait apprendre - s'exclamait-il - quand on est distrait », NEGROPONTE répond, indirectement, que « les enfants peuvent explorer des principes très complexes par le jeu ». Afin de démontrer que les activités ludiques, loin de distraire l'enfant, peuvent mobiliser au contraire toutes ses facultés intellectuelles, il cite la réponse, très prosaïque, faite à une journaliste visitant le Media Lab par un garçon de huit ans d'une classe Lego/Logo, selon laquelle les jeux informatiques, « c'est rigolo, mais c'est pas de la tarte ».

Joie d'apprendre, plaisir de découvrir par soi-même, en s'amusant, y-a-t-il de meilleures façons de susciter le désir de savoir ?

La deuxième priorité éducative de base que les moyens informatiques permettent de satisfaire, consiste à replacer l'élève ou l'étudiant au centre du système éducatif. « La technologie permet non seulement l'abondance du savoir - souligne Antoine REVERCHON dans « Le Monde de l'Education » - mais aussi l'individualisation de sa transmission. »

De son côté, Jean-Claude MAROT estime, dans le magazine Télétravail que « les usages pédagogiques des technologies de communication impliquent une rupture avec la conception traditionnelle de la formation, essentiellement centrée sur l'enseignant, pour s'orienter vers une pédagogie plus centrée sur l'apprenant ». « Remettre le formé au centre de la formation » apparaît, selon lui, comme une révolution copernicienne.

Cet objectif de recentrage sur l'élève, désormais inscrit dans la loi, implique un travail plus autonome dans les cycles de base, suppose des dispositifs de soutien et des parcours différenciés au collège, et sollicite le télé-enseignement de matières à option au lycée.

Dès 1964, CROWDER a substitué à l'enseignement programmé dit « linéaire » de Skinner, un enseignement programmé dit « ramifié » permettant à l'apprenant un cheminement individualisé en fonction de ses échecs ou de ses succès.

Le système Newspeak du CNES permet ainsi à un élève de choisir, en fonction de son parcours pédagogique, une unité de cours de langue à diffusion restreinte, et de suivre cet enseignement à son propre rythme, avec une totale autonomie.

Dans le supérieur, se développe, par ailleurs, un concept d'enseignement sur mesure médiatisé (cours d'informatique personnalisés dans les universités américaines, programmes sur mesure de la téléuniversité du Québec, mise au point, à l'université Joseph FOURIER de Grenoble, d'un logiciel de gestion de parcours individualisé de formation comportant, notamment, des instruments d'autoévaluation...).

Le télé-enseignement se recentre également sur l'élève grâce à l'interactivité : le téléphone, la télécopie ou le Minitel permettent des liaisons entre les sites de réception des vidéotransmissions du CNED et les installations d'émission du Futuroscope. La Business School de l'Open University britannique a ainsi développé un service de tutorat assisté par télématique dans toute l'Europe, grâce à la mise en place de liaisons informatiques avec les étudiants.

Favorisant ainsi la réalisation des deux objectifs de base de toute pédagogie, susciter le désir d'apprendre et respecter la personnalité de chaque élève, les nouvelles techniques n'en peuvent que mieux faciliter l'accomplissement par le système d'éducation et de formation de ses deux missions traditionnelles : la transmission du savoir et la socialisation au sens large de l'élève (qui passe par l'ouverture à la société et au monde).

De sorte que les nouvelles technologies d'information et de communication sont susceptibles d'améliorer l'efficacité de la transmission du savoir à la fois d'un point de vue quantitatif et matériel, et sur le plan qualitatif.

En même temps que l'individualisation de ses modes d'acquisition (cf. supra), la technologie permet également l'abondance du savoir. Le réseau est d'abord un démultiplicateur puissant de l'accès aux ressources.

Dans ce domaine aussi, la puissance est déconnectée du nombre : le rayonnement d'un établissement d'enseignement devient indépendant de la quantité de ses professeurs ; l'influence d'un enseignant n'est plus liée à la somme de ses heures de cours ou aux mètres carrés de l'amphithéâtre dans lequel il professe. L'éducation est ainsi affranchie des contraintes de distance, de locaux et de temps.

Environ 350.000 personnes suivent, en France et à l'étranger, les émissions du CNED , dont 100.000 avec des possibilités d'interactions. Sur un total d'environ 160.000 étudiants de l'Open University, plus de 8.000 (2.750 en Eire et 5.500 en Europe de l'Ouest) sont extérieurs au Royaume-Uni.

L'Université de Floride (FIU : Floride International University) permet d'obtenir à distance, grâce aux technologies multimédia, le MIB (Master of International Business). On voit aussi apparaître des institutions fonctionnant uniquement sur Internet comme l'International University.

Outre les avantages du télé-enseignement, les nouvelles technologies peuvent aussi offrir aux enseignants un gain de temps en les déchargeant des tâches répétitives ou de certaines corrections grâce à des didacticiels ou à des logiciels éducatifs adaptés (exercices répétitifs, autocorrection, auto-évaluation, auto-formation...).

La démultiplication de l'accès au savoir s'en trouve dès lors accentuée.

Quantitativement, l'accroissement considérable de la masse des connaissances accessibles constitue donc l'apport le plus évident des nouvelles techniques d'information et de communication. Qualitativement, outre leur contribution certaine, déjà évoquée, à la motivation des élèves (joie d'apprendre par une forme ludique de découverte), leur concours éducatif le plus manifeste est lié aux possibilités d'interaction et de combinaisons multimédia qu'elles offrent.

L'interactivité définie par Louis CHAMMING'S, chercheur à l'INA , comme la possibilité offerte à l'élève d'ajuster en temps réel sa relation à son environnement éducatif, est - selon lui - « un des apports les plus incontestables des outils pédagogiques, notamment dans le cadre de la formation à distance ».

Elle favorise, on l'a vu, la personnalisation de l'enseignement et de la formation. Elle est nouvelle en ce qu'elle crée une interaction soit, à travers les réseaux, entre deux ou plusieurs personnes, soit entre l'individu et la machine, capable de rétroaction (communication entre l'utilisateur et la machine elle-même rendue opérationnelle par un logiciel).

Cette dernière forme d'interactivité oblige à concevoir des produits qui anticipent, dans la mesure du possible, toutes les réactions potentielles de l'élève.

Il en résulte, en retour, une amélioration de la compréhension des actes d'apprentissage (processus dit de «metacognition») à travers l'étude des réactions des enseignés.

Le multimédia offre également d'autres possibilités intéressantes : Selon le numéro, précité, des dossiers de l'audiovisuel de septembre-octobre 1997, ses deux principaux atouts sont la multimodalité (appel simultané à plusieurs fonctions sensorielles) et le principe de contiguïté (qui permet de présenter textes, sons et images de façon associée plutôt que séquentielle).

L'image, on l'a vu, possède des vertus pédagogiques. En sciences physiques, les expériences peuvent être préparées par simulation, ce qui en améliore les résultats et la compréhension. L'apprentissage des mathématiques peut être facilité, quant à lui, par la représentation visuelle animée de certains phénomènes (évolutions en fonction d'une variable ou de divers paramètres) qui en donnent une idée plus concrète et plus vivante.

A côté de la transmission du savoir, l'éducation a traditionnellement aussi pour mission de veiller à la « socialisation » de l'enfant (autrement dit, à son insertion dans la société). Cette fonction doit être désormais étendue au sens large d'ouverture au monde.

Le lien social se crée d'abord dans la communauté de base qu'est la classe, entre les enfants et avec le monde des adultes, représenté par l'encadrement pédagogique.

L'ouverture sur la société, celle de son pays et des autres nations, se fait à travers les activités d'éveil et de découverte.

De ces différents points de vue, l'apport des technologies d'information et de communication peut être précieux. Le travail en équipe tout d'abord devrait s'en trouver favorisé.

« Le réseau n'est pas seulement un démultiplicateur puissant de l'accès aux ressources - est-il rappelé dans les dossiers de l'audiovisuel - c'est aussi un outil de communication horizontale entre élèves, entre classes, entre établissements... ». Il contribue, par l'enseignement à distance, à la socialisation d'étudiants traditionnellement isolés (handicapés, sportifs de haut niveau en compétition).

Il facilite, en les rendant plus vivantes, l'éducation à la citoyenneté et l'ouverture au monde, notamment grâce aux CD ROM éducatifs et à Internet.

Plusieurs exemples peuvent illustrer ces possibilités :

n les cyberécoles du Vercors permettent, à travers Internet ou le réseau buissonnier local, de relier ou de faire travailler en groupe (avec le logiciel Lotus Notes) des classes de villages isolés en hiver par la neige, des enfants handicapés ou en difficulté, des sportifs de haut niveau en déplacement pour des compétitions ;

n l'université de Floride prévoit, dans le cadre de la préparation à distance du MIB (Master of International Business), un travail de groupes sur des cas d'entreprises au moyen d'Internet (avec forums, utilisation de messageries, de tableurs, des présentations Freelance ou Powerpoint) ;

n concernant les CD ROM, la plupart des éditeurs en prolongent le contenu par un site Internet. TLC Edusoft compte créer prochainement un système d'échanges et de dialogue entre classes utilisant les CD ROM et sa collection.

De façon générale, l'utilisation de l'ordinateur, loin d'isoler l'élève, développe au contraire, par l'interactivité, ses relations et provoque une sorte de mutualisation de l'apprentissage.

Aux deux missions traditionnelles de l'éducation que sont la transmission du savoir et la socialisation, il me semble important, particulièrement dans le monde d'aujourd'hui, d'en ajouter une troisième, dont l'accomplissement est également stimulé par les nouvelles techniques : l'éveil de la créativité.

Sans doute n'insiste-t-on pas assez dans notre système d'enseignement sur cette faculté si nécessaire à une société dont l'avenir ne dépend pas seulement de la transmission de connaissances déjà acquises, mais aussi de la création de nouveaux savoirs.

L'innovation, on l'a vu, est devenue un facteur essentiel de compétitivité économique.

L'éducation doit y prédisposer l'élève en développant son imagination et sa créativité, sans que cela se fasse, bien sûr, au détriment de la rigueur et de la maîtrise des connaissances. Or, le potentiel des nouvelles techniques est particulièrement bien adapté à la réalisation de cet objectif.

Pour NEGROPONTE , on l'a vu, nous nous dirigeons, grâce à elles, vers un type d'enseignement qui ne trace pas de frontières hermétiques entre l'art et la science et fait appel à l'apprentissage par l'exploration et par l'action.

Les systèmes multimédias efficaces doivent être des aides à la construction des connaissances et pas seulement de simples distributeurs d'information.

PAPERT , l'un des responsables, avec NEGROPONTE , du Média Lab du M.I.T. a, de façon pertinente, opposé « l'instructionnisme », qui suppose que les sujets soient des réceptacles passifs au « constructionnisme », qui en fait des constructeurs de connaissances partagées avec d'autres. « On ne peut pas apprendre simplement en recevant - souligne Joël de ROSNAY - comme l'a montré PIAGET depuis longtemps, on apprend en recréant. Une éducation moderne doit être à la fois personnelle et recréée dans un environnement changeant. »

Les activités éducatives, pour être créatrices, supposent que soient donnés aux enfants des moyens d'expression : aujourd'hui, le vieux journal scolaire du mouvement Freynet devient création de pages multimédias sur le Web. Le but poursuivi, dans ce cas, est aussi la communication ; il s'agit donc, en même temps, d'une contribution à la mission éducative de socialisation évoquée précédemment.

L'éducation doit faire appel, bien entendu, non seulement à la créativité de l'élève, mais aussi à celle de l'enseignant et de ceux qui conçoivent, avec lui, les outils informatiques multimédias de notre époque (les auteurs concernés laissent aux utilisateurs souvent une grande liberté de création dans l'adaptation à leurs besoins pédagogiques de la présentation aux élèves des applications qu'ils ont imaginées, mais la maîtrise de techniques de programmation complexe est parfois nécessaire).

Eveil du désir de savoir, personnalisation de l'enseignement, transmission du savoir, socialisation et ouverture au monde, stimulation de la créativité : les nouvelles techniques favorisent la poursuite de ces différents objectifs, mais ne suffisent pas à les atteindre. De sorte que leur utilisation, aujourd'hui indispensable, doit s'inscrire dans le cadre d'une vaste rénovation de notre système éducatif.

Les nouvelles techniques sont une condition nécessaire, mais non suffisante de l'éducation d'aujourd'hui.

Les auteurs des dossiers de l'audiovisuel de l'automne 97 en soulignent, à de nombreuses reprises, les limites, en même temps que l'intérêt ; elles ne sauraient remplacer ni le livre, ni le professeur, ni le contact avec la réalité.

Cette conclusion revient dans de nombreux propos : « Ces outils ne remplacent ni le livre, ni le professeur, mais leur sont complémentaires... », est-il affirmé en introduction.

« Je ne veux pas donner à croire que les nouvelles technologies éducatives pourraient se substituer au professeur » écrit plus loin le responsable du département de l'innovation de l'I.N.A. « Les supports électroniques ne remplaceront pas l'enseignant, ni d'ailleurs le livre : « Ils viennent en complément de ces deux supports de savoirs...»

Dans la même optique, un des dirigeants de LIRIS interactive (filiale de Havas ) déclare : « Nous sommes tous convaincus que le multimédia, pas plus que la radio ou la télévision en leur temps n'est la panacée... Il ne remplacera pas le livre, c'est certain : il permet de distribuer et de vendre des contenus sous des formes diversifiées avec utilisateurs ».

« L'outil multimédia n'enseigne pas, observe de son côté Antoine REVERCHON , dans Le monde de l'Education. Il appuie l'élève dans sa démarche d'analyse d'un savoir, de compréhension d'une donnée sous diverses formes. La connaissance au final, n'est qu'une retombée de la pratique de l'élève vis-à-vis de l'outil ».

A cet égard, certains dangers sont soulignés :

n celui que la fascination pour les outils n'occulte les propos pédagogiques ou que l'enthousiasme pédagogique ne masque les buts propres de l'enseignement ;

n ou encore celui, déjà souligné dans le précédent chapitre, d'une confusion entre information et connaissance, encouragé par une tendance actuelle à vouloir exprimer le savoir en des termes médiatiques.

Enfin, certaines limites du multimédia et de l'interactivité sont reconnues :

« L'efficacité pédagogique n'est pas toujours au rendez-vous », est-il concédé.

L'utilisateur peut, en effet, se perdre dans la complexité des réseaux des connaissances proposées.

« L'interactitivé n'est pas nécessairement un gage de liberté effective », - est-il observé par ailleurs -, dans la mesure où les parcours de connaissances possibles de l'apprenant, point-clé du scénario pédagogique, ont été prédéterminés par ceux qui ont conçu l'outil (logiciel, programme, CD Rom). « L'interactivité du cédérom n'est qu'une forme de leurre -écrit ainsi l'un des auteurs cités par les dossiers de l'audiovisuel -. « Les possibilités offertes au navigateur multimédia sont strictement tributaires des chemins qui lui ont été ménagés par les réalisateurs ».

Concernant l'utilisation des images et le rapport au réel, Louis CHAMMNINGS, chercheur au département Innovation de l'I.N.A., croit toujours vraie la position d'Aristote selon laquelle la pensée suppose, pour parvenir au stade conceptuel, de s'abstraire des images dont elle a pu se servir initialement : « L'image est un passage obligé vers la saisie de l'intelligible, vers le concept et le jugement », résume-t-il, « mais un passage seulement, pas une destination ».

Par ailleurs, il est rappelé, à propos de l'utilisation de la simulation, en sciences physiques, pour la préparation d'expériences, que la manipulation effective du matériel réel reste indispensable.

Un dernier risque est enfin évoqué : celui que les nouvelles techniques d'information et de communication n'engendrent des inégalités et des exclusions.

Il serait naïf - est-il ainsi souligné - de croire qu'une modification quantitative dans l'accès à l'information provoque ipso-facto chez tous les enfants une mutation qualitative affectant le désir de savoir. Le fossé risque de se creuser « entre ceux qui sont dotés par la nature ou par leur environnement familial d'un tel désir et ceux qui auront besoin d'un système éducatif attentionné pour le faire naître et l'entretenir ».

De fait, trois sortes de catégories d'exclus risquent d'apparaître : les impécunieux, les réfractaires, et les pays qui ne possèdent ni les infrastructures ni les budgets nécessaires pour accéder aux réseaux.

Ces analyses nuancent, sans les remettre en cause, les appréciations portées plus haut sur les avantages pédagogiques des nouvelles techniques d'information et de communication.

On le soulignera donc à nouveau : la priorité dont elles doivent faire l'objet apparaît indiscutable, mais doit s'inscrire dans une rénovation d'ensemble de notre système éducatif.

L'utilisation impérative des nouvelles techniques dans l'éducation peut sembler une évidence. Les débats passionnés dont cette question fait pourtant encore l'objet dans notre pays ne rend peut être pas inutile de justifier cette priorité par les arguments qui suivent.

Il y va tout d'abord, incontestablement, de l'efficacité de notre système éducatif dont dépend, plus que jamais, l'avenir de nos sociétés.

D'un point de vue strictement éducatif, les nouvelles techniques d'information et de communication sont indispensables à la fois comme supports et comme objet d'apprentissage.

Comme supports, parce que le savoir explose et que l'école doit répondre à de nouvelles missions, notamment face à la concurrence des médias. Selon le directeur général adjoint de l'I.N.A., Bernard STIEGLER, la télévision et la radio peuvent apparaître à l'enseignement comme un système de destruction de savoirs, malgré le rôle positif qu'elles peuvent jouer quand elles sont utilisées en tant qu'instrument de diffusion de connaissances (plutôt que de désirs, de sensations et d'émotions frustres). Les industries de programmes sont susceptibles, dans les mêmes conditions, de sembler s'opposer à l'institution de programmes qu'est l'Education Nationale.

En tant qu'objets d'apprentissage, ensuite, les nouvelles techniques ne peuvent davantage être ignorées par l'école, sous peine de la voir fabriquer des handicapés de la société de l'information ou des analphabètes du numérique.

Toute société doit disposer d'un système de transmission des savoirs, dont le système éducatif est l'un des principaux piliers, qui assure la socialisation et l'intégration des générations nouvelles, la cause est entendue. Or, la proportion d'emplois exigeant l'usage d'un ordinateur est passée, aux Etats-Unis, de 25 % en 1963 à 47 % en 1993 et devrait atteindre 60 % en l'an 2000. Les TIC envahissent progressivement tous les secteurs de notre société.

Dans ces conditions, il devient tout aussi essentiel d'être à l'aise avec un clavier, un traitement de textes, un tableur ou un navigateur sur réseau que de savoir lire, écrire et compter. Il s'agit pour les élèves de s'approprier des techniques qui leur seront utiles non seulement, plus tard, dans leur travail mais aussi, tout de suite, comme moyens d'accès aux connaissances, de communication et d'expression.

Comme l'a écrit TOFFLER, il existe une forte connexion entre le niveau d'éducation et la compétitivité planétaire d'un monde de plus en plus soumis au pouvoir du savoir. Et Joël de ROSNAY considère, de son côté, que « l'éducation est au centre de toutes les stratégies de construction de l'avenir ».

Mais l'éducation constitue non seulement un enjeu de société, mais aussi un marché qui, selon une étude récente, devrait dépasser 1,7 milliard de dollars avant l'an 2000 en ce qui concerne les produits « en ligne ». De sorte que la concurrence en termes d'offres de formation est désormais mondiale, avec l'essor de l'enseignement à distance en réseaux.

Le secteur éducatif constitue le principal moteur du développement des produits multimédias. De vastes groupes de production et d'édition de programmes éducatifs vont se développer au plan mondial et venir affronter les systèmes d'éducations nationales.

Le grand public représente, d'ores et déjà, l'essentiel des ventes de produits éducatifs ADI de COKTEL VISION (filiale d'un grand groupe américain de vente par correspondance) en France, où un nombre de familles désormais appréciable (2 millions) possèdent un équipement informatique adéquat.

La formation initiale des enfants se doit donc de les préparer à s'intégrer, de façon lucide, dynamique et responsable, dans la société de l'information dans laquelle - qu'on le veuille ou non - nous sommes déjà entrés. Mais, au risque de nous répéter, la réalisation de cet objectif prioritaire passe par une profonde rénovation de notre système éducatif.

Ce renouvellement nécessaire concerne autant la pédagogie que les équipements.

Sur le plan pédagogique, l'introduction des nouvelles techniques à la fois nécessite les adaptations aux profonds changements qui en résultent et peut faciliter la réalisation, sans cesse différée, d'objectifs depuis longtemps souhaitables.

Seymour PAPERT, cité par NEGROPONTE, compare la situation d'un chirurgien du XIXe qui se trouverait transplanté dans une salle d'opération d'aujourd'hui à celle d'un instituteur qui effectuerait le même voyage à travers le temps. Le premier se trouverait complètement désemparé et incapable d'agir, contrairement au second qui serait à même d'enseigner dans une salle de classe d'aujourd'hui.

Pourtant, les nouvelles technologies provoquent une évolution des conditions d'accès au savoir, de la structuration et de la présentation des connaissances. Elles devraient donc provoquer un impact profond sur notre conception de l'éducation et sur le rôle de l'enseignant.

L'évolution du savoir est marquée par la profusion des connaissances, par un changement de leurs modes de structuration et de présentation et par des conditions d'accès facilitées.

Un nouvel espace de savoir se crée, souligne les dossiers de l'audiovisuel. « Le savoir devient un continuum multidimensionnel de représentations dynamiques et interactives... Notre approche essentiellement analytique doit être complétée, maintenant, par une approche systémique ».

« Il faut - estime Joël de ROSNAY - arrêter d'ajouter des disciplines et de fragmenter les connaissances en petits territoires juxtaposés... Faire des synthèses et avoir une vision plus globale qui, bien entendu, n'est pas incompatible avec la vision analytique traditionnelle ».

Concernant la présentation des connaissances, la grande nouveauté - rappelle Philippe BRETON - est l'intégration du texte, de l'image, du son sur un même support. Il en résulte des assemblages d'éléments dont le produit global est différent de leur propre addition.

L'abondance d'informations suppose un accord sur des principes de hiérarchisation qui, selon Louis CHAMMING'S, fait actuellement défaut.

« Rien ne sert de gagner en quantité - note de son côté Jean-Claude MAROT - si on le perd en qualité... On demande moins au chirurgien de multiplier le nombre de ses interventions que de les réussir ».

« On est confronté aujourd'hui - est-il observé, par ailleurs, dans les cahiers de l'audiovisuel- à un énorme problème de navigation dans les espaces de savoir : ces évolutions du savoir et des connaissances supposent une réflexion d'ensemble sur le rôle du système éducatif et des enseignants ».

Cette réflexion doit partir, comme j'ai essayé de le montrer, de considérations sur la nature même de l'enseignement et sur ses finalités les plus générales afin de mieux évaluer les apports pédagogiques effectifs des différentes technologies.

Les interfaces techniques doivent par conséquent être au service des visées pédagogiques et non l'inverse.

Mais il est évident que l'innovation pédagogique ne peut se consolider que si elle s'accompagne d'innovation dans l'organisation même de l'éducation et de la formation.

Le contenu de l'enseignement doit tout d'abord évoluer ; le rôle de l'enseignant, par conséquent, aussi.

L'une des principales conséquences, on l'a vu, des nouvelles technologies d'information et de communication est de permettre un recentrage du système éducatif sur l'élève. Celui-ci doit être mis en mesure, non seulement d'accéder aux informations disponibles sur les réseaux, mais de les maîtriser et de les gérer en gardant vis-à-vis d'elles une distance et un esprit critique. Car l'interactivité qui est offerte à l'élève n'a de sens que mise au service de la conquête de son autonomie. En d'autres termes, elle doit être complétée, pour en faire bon usage, par un travail de réflexion et d'assimilation.

L'élève et l'étudiant, rendus plus autonomes et acteurs de leur propre apprentissage, doivent aussi apprendre à communiquer et à travailler en groupe, comme le leur permettent les réseaux (cet objectif se rattache, on l'a vu, à la mission de socialisation de l'enseignement).

De leur côté, les TIC modifient profondément le rôle de la mémoire, en même temps que le traitement et la transmission de l'information.

Il est temps - comme le soulignent les dossiers de l'audiovisuel - « de donner plus de place aux méthodes par rapport aux contenus ». Or, l'enseignement est traditionnellement handicapé par le découpage de la connaissance en discipline dont les plus anciennes ont toujours tendance à être privilégiées (au détriment, notamment, des technologies) du fait du poids des traditions et de l'inertie du système.

« Nous ne pouvons plus continuer à enseigner sous une approche essentiellement encyclopédique - estime, pour sa part, Joël de ROSNAY -- il faut faire des synthèses, rassembler des domaines, retrouver des relations entre des secteurs jadis disparates ».

« ...l'étude de la complexité - fait-il valoir - doit être introduite dans l'approche moderne de l'enseignement :

L'éducation aux médias - comme le soulignent, par ailleurs, les dossiers de l'audiovisuel - devrait être renforcée : « N'importe qui, en effet, peut diffuser n'importe quoi sur Internet tandis que la télévision elle-même ne nous met pas à l'abri d'images falsifiées ».

Enfin, il conviendrait, selon la même source, « d'abandonner la vision palliative de l'enseignement à distance (auquel il est fait appel seulement lorsque les autres modes sont indisponibles ou inadaptés) pour instituer une complémentarité réelle avec l'enseignement présentiel ».

Les technologies, outils pour apprendre et objets d'apprentissage, relèvent donc davantage de la sphère de la pédagogie que de celle de l'enseignement (dont les visées sont plus larges). Leur principal intérêt est moins de proposer une duplication de contenus que de susciter de nouvelles formes de compréhension, et donc d'assimilation.

Des systèmes multimédia efficaces doivent donc être plus que de simples distributeurs d'information : des aides à la construction des connaissances. Les terminaux intelligents permettent, non seulement un rapport renouvelé à la connaissance, mais aussi une véritable gestion de celle-ci.

Cependant, on n'introduit pas les nouvelles technologies dans le système éducatif sans le complexifier et le perturber quelque peu.

Les usages pédagogiques des technologies de l'éducation demeurent ainsi à explorer, dans la mesure, notamment, où ils impliquent une rupture avec la conception traditionnelle de la formation, essentiellement centrée sur l'enseignant. Le rôle de ce dernier s'en trouve donc remis en cause.

Mais s'il est communément admis que la fonction enseignante doit évoluer, il apparaît tout aussi évident qu'il est impossible de se passer d'enseignants.

« On pourrait, dans certains cas, - reconnaît Louis CHAMMING'S - être tenté de remplacer purement et simplement le maître par un dispositif technologique ». Or, parce que l'enseignement s'adresse avant tout à l'esprit, la présence humaine de l'enseignant est irremplaçable.

Des programmes ambitieux d'autoformation par un enseignant multimédia assisté par un ordinateur (EAO) ont échoué en l'absence de tutorat et d'assistance technique des apprenants (et aussi en raison de l'attitude de l'encadrement).

Le rôle de l'enseignant dans l'appropriation du savoir par l'élève demeure donc fondamental, même s'il est voué à évoluer. Il reste essentiel, tout d'abord, pour stimuler le savoir.

Le professeur, d'autre part, est, vis-à-vis de l'élève, un médiateur par rapport au savoir. Il lui propose un abrégé consistant qui lui évite la lecture effective de tous les ouvrages constitutifs d'un savoir disciplinaire quelconque. Cette médiation, contrairement à celle du livre ou des moyens multimédia, est humaine, proche et vivante. Et les outils pédagogiques, traditionnels et modernes, ne constituent qu'un complément de cet autre support de savoir, essentiel, qui est le maître lui-même.

Ainsi, selon le directeur général adjoint de l'INA, « il existe une complémentarité entre l'enseignant et les nouveaux systèmes d'aide à la navigation. »

« L'Education nationale est un système de navigation assistée par divers supports dont le livre, l'ordinateur, le professeur et l'institution elle-même... »

Médiateur vis-à-vis du savoir, l'enseignant est aussi un accompagnateur de l'élève, dans son processus d'apprentissage de plus en plus autonome et individualisé.

« L'enseignant, - est-il écrit dans le numéro précité des dossiers de l'audiovisuel, demeure le régulateur, le prescripteur et l'évaluateur de l'autoformation de l'apprenant. »

Il doit lui apprendre à cheminer progressivement du simple au complexe, et à distinguer le savoir lui-même de ses modes d'acquisition. Il faut que l'élève apprenne à apprendre, à voir les relations entre les choses.

Ainsi, les ressources multimédias ne se substituent pas à la présence des enseignants mais font évoluer leur rôle. L'autoformation de l'étudiant, par exemple, doit être accompagnée par un tuteur qui puisse lui apporter une aide spécifique dans sa propre démarche.

Ces systèmes de tutorat assistés par télématique ont, du reste, été mis en place dans plusieurs des systèmes de télé-enseignement déjà évoqués (Business School de l'Open University, Université de Floride...).

Mais considérer les nouvelles technologies comme un auxiliaire éducatif parmi d'autres ne doit pas conduire à rendre leur utilisation facultative. Il revient simplement à l'enseignant, acteur central et libre de la formation, de choisir et d'intégrer l'outil qui lui semble, à chaque moment, le plus approprié à sa pédagogie.

L'éducation en ligne a des effets sur le contenu des cours dans la mesure où les échanges s'en trouvent incroyablement enrichis et stimulés - note un professeur de marketing d'une université de Caroline du Nord. « Fini le mandarinat », s'exclame-t-il, le développement des relations entre étudiants s'effectue au détriment de la relation classique professeur-étudiant.

Mais même s'il est reconnu que l'élève est l'agent principal du processus d'apprentissage et de l'activité enseignante, « vouloir transformer l'enseignant en simple assistant navigateur revient à vouloir liquider sa fonction principale », estime Philippe BRETON. Car celui-ci doit notamment définir les repères qui permettront aux jeunes en formation, non seulement d'accéder, à travers l'océan des réseaux, aux informations pertinentes, mais encore de les structurer en les hiérarchisant.

Joël de ROSNAY, pour sa part, considère que le rôle de l'enseignant devient fondamental dans la mesure où il n'est plus simplement le détenteur d'un savoir destiné aux ignorants mais « un catalyseur, le chef d'orchestre d'un système de communication dans lequel il permet à chacun, tel Socrate en son temps, d'accéder à la connaissance à son rythme et selon ses capacités. »

Ainsi, les nouvelles techniques peuvent favoriser un modèle, fondé sur la communication interpersonnelle et le dialogue maître-élève, différent de celui qui repose sur une didactique des contenus de la connaissance conçue comme une accumulation de savoirs.

Le rôle de l'enseignant évolue du point de vue de ses relations avec non seulement le savoir et les élèves mais aussi avec les moyens modernes d'information et de communication eux-mêmes qu'il doit comprendre et s'approprier. « De sorte qu'il apparaît à présent de plus en plus nécessaire - observe le Directeur Général Adjoint de l'INA, Bernard STIEGLER - de doter les élèves et d'abord leurs professeurs de connaissances élémentaires sur les conditions de production d'images et de sons. »

Par ailleurs, il est nécessaire de soutenir la création d'une édition pédagogique de qualité associant les enseignants eux-mêmes aux professionnels de l'image et de l'informatique.

Les enseignants et les élèves, effrayés à l'idée de se plonger dans les dédales de la programmation informatique, peuvent utiliser des logiciels auteurs intuitifs et spécialisés dans l'éducation et l'information tels que Authorware, Apple Media Tool et Tool Book (tous américains !) aux possibilités créatrices toutefois plus limitées que celles de produits plus complexes.

« Car il n'y a pas d'Education nationale sans programme » souligne, à juste titre, Bernard STIEGLER, pour qui les enseignants doivent devenir les acteurs d'une nouvelle industrie de programme dont la naissance constitue un enjeu capital.

Notons que les différents supports peuvent être considérés comme plus complémentaires que concurrents.

Il est possible de faire participer le document écrit à l'utilisation du multimédia, comme support complémentaire ou de restitution ; le contenu théorique peut figurer sur un livre et les exercices interactifs sur cédérom, chaque support étant utilisé selon le mode d'apprentissage et de consultation auquel il convient le mieux. « L'utilisation des NTIC dans l'enseignement impose une modification des méthodes de travail des enseignants et, plus globalement, une modification du fonctionnement des établissements et du système éducatif » soulignent les cahiers de l'audiovisuel.

Il peut être souhaité qu'à cette occasion, des objectifs anciens et toujours repoussés de rénovation de notre système scolaire (aménagement des rythmes scolaires, allégement des programmes...) puissent enfin être atteints.

A n'en pas douter, les nouvelles techniques peuvent y contribuer.

Ne reprennent-elles pas à leur compte, par certains côtés, l'héritage d'anciennes pédagogies, en avance sur leur époque, comme celles de Célestin FREINET, de PIAGET ou d'A. FERRIERE (libre expression, travail coopératif, approche « constructiviste » des connaissances, méthodes actives) ?

En même temps que la relation maître-élève et l'accès au savoir, l'introduction des nouvelles techniques remet en cause, on l'a vu, la notion traditionnelle de disciplines et de programmes. Un temps devra être réservé à leur apprentissage.

Encore une fois, n'est-ce pas l'occasion de procéder enfin à des réformes trop longtemps différées ?

Tout ne va pas pour le mieux dans l'Ecole de la République concluait, en juin 1996, la commission présidée par Roger FAUROUX, faisant de sa modernisation une priorité nationale.

Souhaitant une simplification, un allégement et un recentrage des programmes sur l'acquisition, effectivement contrôlée, de savoirs primordiaux, transdisciplinaires, Roger FAUROUX appelait de ses voeux l'adaptation des rythmes scolaires aux aptitudes propres à chaque âge et, si possible, à chaque type d'élève.

Il considérait que l'apprentissage précoce de la fatigue et du surmenage imposé aujourd'hui aux enfants découlait des choix des adultes et de la surcharge des programmes, elle-même liée au cloisonnement des disciplines.

Michel SERRES, de son côté, évoquait, dans un article du monde du 17 décembre 1996, le nombre des appels téléphoniques reçus chaque année par le CNED ; il en déduisait que « quand un système d'enseignement a de trois à cinq millions de gens qui appellent au secours, c'est qu'il y a probablement un problème  »

Quant à Nicholas NEGROPONTE, il classe la France, aux côtés de la Corée du Sud et du Japon, parmi les pays dans lesquels « on bourre tellement le crâne des jeunes cerveaux qu'à leur entrée à l'université, les étudiants sont pratiquement exsangues. » Il souhaite que l'ordinateur n'y soit pas utilisé pour apprendre plus efficacement les mêmes faits inutiles aux enfants.

Ce point de vue, sans doute excessif (d'autres Américains considèrent au contraire le niveau de notre éducation comme l'un de nos principaux atouts), n'en contient pas moins une part de vérité.

L'équipement des écoles, des lieux publics, des familles en ordinateurs reliés à des réseaux de diffusion des connaissances n'offrirait-il pas au pays de Montaigne la possibilité de préférer enfin des têtes bien faites à des têtes bien pleines ?

L'apprentissage des nouvelles techniques ne serait-il pas l'occasion d'alléger les programmes, d'intégrer dans le temps scolaire, celui autrefois réservé aux devoirs à la maison auxquels se substituerait un travail d'étude personnelle, surveillé par les enseignants et assisté par ordinateur ?

L'introduction des TIC à l'école peut ainsi, à condition de s'intégrer dans une réflexion pédagogique d'ensemble, avoir l'avantage d'allier aux qualités propres de ces nouveaux outils (motivation, expression, communication, acquisition de connaissances), l'occasion unique d'une vaste rénovation de notre système éducatif.

Les conditions de cette rénovation sont moins difficiles à définir que ses objectifs pédagogiques : il s'agit d'un effort prioritaire national de formation, d'équipement et de création de contenus.

L'usage des TIC dans les établissements d'enseignement ainsi que l'exploitation de leur potentiel pédagogique passent bien évidemment par un effort prioritaire de formation de personnels (formateurs, enseignants, encadrement et techniciens chargés de l'installation, du fonctionnement et de la maintenance des matériels).

Concernant la formation, fondamentale, de formateur, le rapport GERARD, précité, estime qu'il est indispensable qu'elle fasse l'objet d'un plan. Il en souligne l'importance, rappelle que le ministère est en train d'élaborer un texte de recommandations relatives à la qualification des personnels concernés et, au minimum, de compétences requises de la part des futurs enseignants.

S'agissant des Instituts Universitaires de Formation des Maîtres (IUFM), le rapport regrette que les modules afférents aux nouvelles technologies soient encore souvent facultatifs, inégalement pris en considération, et de faible portée pratique.

Quant au rapport de M. SERUSCLAT, il constate une disparité d'intention comme de pratique entre ces établissements, et déplore la médiocrité, en temps comme en matériel, des moyens consacrés aux technologies considérées.

Le sénateur Gérard souhaite que la formation initiale et continue consacrée aux nouvelles technologies soit étendue à l'encadrement des enseignants dans son ensemble (chefs d'établissement et inspecteurs...).

« Il est hors de question -souligne enfin les dossiers de l'audiovisuel - que l'enseignant doive gérer lui-même les aspects techniques de l'introduction des nouveaux outils ». Pourtant, hormis l'enseignement supérieur, l'Education Nationale ne dispose actuellement ni des emplois, ni même des types d'emplois nécessaires.

Au-delà de la formation des enseignants et des personnels d'encadrement, il est sans doute nécessaire qu'une aide extérieure puisse être apportée à l'établissement, afin de lui donner tous les éléments techniques (et pédagogiques) dont il ne dispose pas obligatoirement. Il faut tendre vers une homogénéisation des équipements et de leurs usages, et rendre plus efficace l'assistance à l'exploitation des matériels installés.

Cela doit constituer la mission des centres de ressources existants : le centre national de Documentation Pédagogique (CNDP) et le réseau des Centres Régionaux (CRDP).

Dans le supérieur, ces tâches sont externalisées et contractualisées.

Au total, selon les documents internes du ministère de l'Education Nationale accessibles sur son serveur WEB, les chefs d'établissement et les jeunes enseignants constituent les cibles privilégiées de l'important effort d'information et de formation souhaité.

Dans la pratique, selon M. SERUSCLAT, « un embryon de formation obligatoire est réalisé dans les IUFM ; mais cela est manifestement insuffisant. Quant à la formation continue, elle semble n'être qu'une intention ».

L'équipement des établissements et des centres de formation constitue une priorité inséparable de celle de l'apprentissage des techniques considérées.

Dans l'un comme dans l'autre domaine, ce retard accusé par la France s'avère, et on ne saurait que le regretter, indéniable.

Le tableau suivant résume, en ce qui concerne les établissements scolaires, la situation :

A l'école primaire, le ratio est d'un ordinateur pour 45 élèves !

Encore ces chiffres sont-ils très probablement surévalués, dans la mesure où ils incluent des ordinateurs destinés exclusivement à la gestion, non raccordés aux réseaux ni dotés d'équipements multimédia.

Ainsi, selon Le Monde du 15 avril 1996, le nombre d'ordinateurs pour 100 élèves était, en 1994, de 3 en France contre 11 aux Etats-Unis et en Grande-Bretagne.

En 1997, le rapport GERARD évaluait le nombre d'ordinateurs par établissement scolaire à 10, ce qui nous situait loin derrière le Royaume-Uni (31) et l'Allemagne (21).

Dans ces conditions, des objectifs de rattrapage ont été fixés et des mesures prises.

Ainsi, le Président de la République a annoncé, le 10 mars 1997, le raccordement à des réseaux de tous les établissements d'enseignement secondaire pour l'an 2000.

Cela nécessitera l'acquisition de 2,5 millions de machines, soit un investissement minimum de 15 milliards de francs étalé sur 3 ans (à raison de 6.000 francs par poste, et sans compter ni les logiciels ni les raccordements aux réseaux).

Plus récemment, le ministre de l'Education Nationale, M. ALLEGRE, a précisé que le montant des dépenses consacré au raccordement à Internet de l'institution (administration et établissements) serait de 5 milliards de francs par an sur 3 ans, dont 4 devraient être pris en charge par les Collectivités Locales...

En attendant, seulement 6.000 écoles, soit environ un établissement sur dix seulement, sont ou étaient reliés à Internet à la fin de l'année 1997.

Qu'existe-t-il actuellement, en-dehors des actions, déjà évoquées, du CNED ?

L'Education Nationale a expérimenté, dans treize Académies, un projet de mise en réseau des lycées, collèges et écoles afin de favoriser :

- L'accès des enseignants aux ressources disponibles ;

- La communication entre les classes ;

- Le développement de nouvelles méthodes de travail et de téléservices (télé-assistance, télé-enseignement) ;

- La diffusion des pratiques pédagogiques.

Ce projet s'appuie sur la technologie de l'Internet et, plus particulièrement, sur l'infrastructure Renater.

Une quinzaine de serveurs WEB sont d'ores et déjà disponibles.

Au cours de l'année 1998, ce dispositif devrait être étendu à l'ensemble des Académies et, en leur sein, à l'ensemble des établissements du second degré (avec une mise en réseau interne des équipements informatiques) ainsi qu'à un nombre significatif d'écoles.

Concernant plus particulièrement l'aide aux enseignants, Educasource est un projet de service sur Internet, piloté par la Direction de Technologie (nouvelle Direction commune à l'Education Nationale et à la Recherche), qui est destiné à leur faciliter la recherche d'information pertinente ou l'échange d'expériences, pour préparer, animer leurs cours ou conseiller élèves ou étudiants.

Le réseau Renater 2 permet, par ailleurs, le transport d'images animées à des fins éducatives (télé-enseignement, téléformation, télérecherche, téléréunions...).

A mon instigation, le Conseil Général du Rhône construit, dans le cadre des expérimentations des autoroutes de l'information, un réseau optique, large bande permettant de relier au serveur Erasme (19(*)) 524 classes dès Janvier 1999 et 8 000 (soit 200 000 élèves environ) avant la fin de l'an 2000. Grâce à cet Intranet à haut débit, les enseignants raccordés pourront illustrer et soutenir leurs cours par des documents audiovisuels ou multimédia de grande qualité.

Contrairement à ce qui est prévu dans le projet Educasource, dont les données devraient être payantes, l'accès à ce réseau rhodanien est gratuit pour les services publics d'intérêt général et en particulier pour les écoles, collèges et lycées (suivant le principe du service universel).

De tels efforts ne laissent évidemment pas indifférentes les entreprises : c'est ainsi que, le 3 juillet 1997, Sun Microsystems, 3 Com, Infra+, Siemens-Nixdorf, ont créé Netday, une association à but non lucratif ayant pour objet de connecter rapidement des établissements scolaires à Internet.

On soulignera également le fait que les initiatives françaises doivent être articulées avec le plan d'action communautaire « Apprendre dans la société de l'information » qui tend à favoriser les modes d'apprentissage faisant appel aux nouvelles technologies tout en développant l'interconnexion des écoles européennes.

Au coût des équipements terminaux déjà évoqué, s'ajoute celui des infrastructures et des communications, sans parler du contenu, sujet qu'on examinera plus loin.

Les mécanismes du budget de l'Etat et des Collectivités Territoriales, comme ceux du marché, s'adaptent difficilement aux contraintes propres à l'usage des TIC dans l'éducation (absence de règles spécifiques d'amortissement d'un matériel rapidement obsolète, facturation à la distance et à la durée, coûts des logiciels, de l'accès à certaines bases de données, des cédérom, problèmes des droits d'auteur...).

Par une décision prise fin 1997 entre le Ministre de l'Education Nationale et le Président de France Télécom les coûts d'accès à Internet devraient sensiblement baisser pour les écoles. Un prix forfaitaire de 5400 francs serait, à moins que les recours lancés par les concurrents de l'Opérateur National n'aboutissent, facturé à une école qui connecterait à Internet, 10 heures par jour, 10 ordinateurs et ce 140 jours par an.

Les questions de contenus sont évidemment étroitement liées à celles de formation et d'équipement. L'un ne va pas sans l'autre.

J'ai été avec mon collègue Pierre LAFFITTE, dans un Rapport du Sénat présenté en 1993 à l'origine de la proposition de création de la banque de programmes et de services (BPS) qui permet d'accéder à des programmes à fort contenu socio-éducatif de la cinquième chaîne ou d'autres provenances, grâce à des techniques de stockage et de diffusion entièrement numériques.

Le serveur Erasme, qui a été créé dans le Département du Rhône à ma demande pourra héberger ces données de la BPS ainsi que celles d'autres partenaires institutionnels (l'INA, la Cité des Sciences, le CNDP, le CNED, etc...) ou de contenus multimédias éducatifs développés spécialement pour l'expérience ou enfin réalisés par des partenaires industriels de l'édition numérique.

L'INA, de son côté, a mis en oeuvre deux projets :

- Le projet Delphes, soutenu par la commission européenne (réalisation en partenariat, notamment avec la Cinq et Nathan, de chapitres d'un manuel d'histoire contemporaine multisupport) ;

- Le projet Medias, objets d'enseignement (corpus d'émissions de références et d'exercices d'application).

Pour le Directeur Général Adjoint de l'Institut, Bernard Stiegler, l'Education Nationale doit bénéficier de la révolution numérique et y participer activement.

Il serait souhaitable, on l'a vu, que professeur et élèves acquièrent des savoirs élémentaires sur les images et les sons (allant jusqu'à la manipulation d'images par ordinateur).

D'autre part, la réalisation de productions pédagogiques multisupport mérite d'être encouragée.

Bernard STIEGLER souhaite que ces réalisations, comme celles de manuels scolaires, fasse l'objet d'une collaboration entre l'« Institution de programmes », qui est l'Education Nationale, et « les industries de programmes » françaises. Car le secteur éducatif est le principal moteur du développement des produits multimédia, rappelle-t-il. Les groupes de production et d'édition de programmes concernés s'internationalisent et risquent de venir concurrencer les éducations nationales. De sorte qu'afin d'éviter une colonisation culturelle américaine, « il faut que l'ensemble de nos industries de programmes se mettent au service de la mission d'éducation nationale ».

« En fait, la meilleure politique serait de soutenir l'édition de produits par les enseignants eux-mêmes - estiment les dossiers de l'audiovisuel - ... à condition que ceux-ci acceptent de travailler avec des professionnels de l'image et de l'informatique. C'est à ces conditions qu'une édition pédagogique de qualité pourra voir le jour. »

En 1997, le ministère de l'Education nationale a contribué à hauteur de 23M.F. à la production de cédéroms réalisés dans le cadre de la procédure de licence mixte. Le principe de cette procédure, créé en 1987, repose sur l'acquisition par le ministère de l'Education nationale, pour une période illimitée, du droit d'usage de certains logiciels, à vocation exclusivement pédagogique, sélectionnés pour leur qualité. Elle a été étendue aux applications et bases de données accessibles par réseaux.

Elle semble cependant se heurter à des difficultés d'ordre technique et juridique (recours aux marchés négociés rendu plus difficile par des modifications du code des marchés publics, lourdeur du processus de sélection...) et n'aboutit pas nécessairement, en l'absence de sanction des usagers, au choix des meilleurs produits.

Dans ces conditions, le rapport GERARD se montre sans doute un peu trop optimiste quand il déclare que « la France a une avance reconnue au niveau international dans le domaine de la création de logiciels éducatifs. »

Mais on ne peut que souscrire, quoi qu'il en soit, à la mesure 128 du Nouveau Contrat pour l'Ecole, selon laquelle la production de ce type de programmes doit devenir une priorité.

L'économie de ces logiciels est étroitement liée à la diffusion de leurs usages pédagogiques et l'Education nationale est essentielle à leur équilibre financier. Leur création est cependant - on a eu l'occasion d'insister sur ce point - une oeuvre de collaboration, multidisciplinaire, faisant appel à plusieurs compétences (enseignants, informaticiens, graphistes, animateurs infographistes...).

L'une des principales difficultés de l'édition et de la diffusion d'oeuvres multimédias est le paiement des droits d'auteurs.

Etant donné la quantité et la variété des sources utilisées pour confectionner un cédérom, les auteurs dont la rémunération doit être prévue au stade de la production, sont tout d'abord très nombreux. Les éditeurs se contentent souvent, avant de passer à l'édition de créations nouvelles, d'utiliser celles qu'ils possèdent déjà, ce qui avantage les producteurs américains et japonais, détenteurs d'énormes catalogues.

Concernant l'utilisation de notre patrimoine artistique, on attend une initiative d'éditeurs français après le refus, justifié, de la réunion des musées nationaux français de passer un contrat avec Corbis.

Du côté de la diffusion, « libérer les droits pour l'éducation - soulignent les dossiers de l'audiovisuel- reste une priorité qui n'a pas encore trouvé de solution miracle ».

La loi française protège fortement les auteurs, en l'absence d'un équivalent du « fair use ». Les procédures mises en place par le ministère de l'Education n'ont qu'une portée limitée (accords pour certaines réalisations diffusées par voie hertzienne ou sur cassette vidéo, collection "Voir et Savoir" réalisée par l'INA, etc...).

Ainsi, sans succomber à la technolâtrie, on ne peut que reconnaître les multiples possibilités de l'ordinateur et son importance cruciale dans nos sociétés.

Moyen animé (contrairement au livre), à la fois d'expression et de communication, d'élaboration, de stockage et de gestion des connaissances, de combinaison de textes, d'images et de sons, ce peut être un outil merveilleux d'apprentissage, capable de motiver l'élève en respectant sa personnalité. Mais, aussi complet et fascinant soit-il, ce n'est qu'un outil qui, comme tel, doit s'effacer devant la primauté d'une pédagogie recentrée sur l'enfant, tout en conservant à l'enseignant un rôle essentiel, dans laquelle il doit être intégré.

Facteur essentiel de compétitivité et d'insertion dans la société de l'information qui est désormais la nôtre, il ne peut être ignoré par l'école ni comme moyen ni comme objet d'éducation.

Cependant, le développement des technologies d'information et de communication dans les établissements d'enseignement et de formation ainsi que le rattrapage de notre retard en la matière posent de délicats problèmes, non seulement pédagogiques, mais aussi budgétaires, administratifs, culturels, économiques.

Les aspects de formation, de coûts et de contenus sont en effet étroitement imbriqués. De multiples partenariats sont nécessaires entre l'Education nationale et les collectivités territoriales, l'Etat et le secteur privé, les enseignants, les techniciens et les créateurs.

Enfin et surtout, il y a le poids et l'inertie de cette gigantesque structure pyramidale qu'est l'Education nationale.

Comment mobiliser efficacement tous les acteurs concernés ? Quel doit être l'ordre des priorités ?

Il faut tout d'abord constater, comme l'a fait à juste titre le ministre Claude ALLEGRE, que « nous ne partons pas de rien. »

Dans ces conditions, rien ne serait pire que d'ignorer ce qui a déjà été fait.

Avec la primauté de la pédagogie, j'aurais tendance à considérer comme première priorité, le fait de ne pas décourager les initiatives émanant de la base.

Il faut reconnaître et donner en exemple ces initiatives, les fédérer (car rien n'est plus décourageant que de se sentir isolé), trouver le moyen de récompenser leurs auteurs.

Les chefs d'établissements, point de passage obligé de tout projet et de toute réalisation, doivent par ailleurs constituer, avec les jeunes enseignants, parce qu'ils sont, de leur côté, les plus motivés, la cible privilégiée de l'indispensable effort de formation.

Mais si le mouvement doit partir de la base, il semble dangereux d'en exclure, dans une organisation de type hiérarchique comme celle de l'Education nationale, les corps d'inspection qui doivent par conséquent faire l'objet d'une sensibilisation particulière.

Car il nous faut sans cesse avoir présent à l'esprit ce principe : la communication au sein d'une pyramide doit être à la fois horizontale et verticale.

Enfin, une formation continue, dispensable à la demande, doit pouvoir être offerte à tous ceux qui le désirent, étant entendu que tous les enseignants doivent se sentir mobilisés.

Cependant, concernant les équipements et les contenus, l'obsolescence et les coûts posent des problèmes particuliers.

Pour ces raisons, la solution de location envisagée par l'actuel ministre pourrait être fort judicieuse, si du moins les règles du fonds de compensation de TVA (FCTVA) permettent aux collectivités locales de récupérer la TVA liée à ces dépenses de location.

Il faut également réfléchir aux perspectives ouvertes par les ordinateurs de réseaux à des coûts d'acquisition et de maintenance moins élevés et la possibilité de télécharger des logiciels ou de commander des applications à partir d'instructions, envoyées par le navigateur, écrites dans un langage que la machine client a été mise en mesure d'interpréter (langage Java...).

Dans un point de vue publié par Le Monde du 1er Octobre 1997, des chercheurs de l'INRIA et un professeur du CNAM se sont, par ailleurs, étonnés que l'Education nationale ne préfère pas aux produits de Microsoft les logiciels de grande qualité, pédagogiquement mieux adaptés, mis gratuitement à la disposition de tous par la communauté internationale des informaticiens.

Où faut-il placer l'ordinateur ? Dans une salle multimédia ? En fond de classe ?

Je répondrai à cette question dans un prochain chapitre dans lequel j'adresserai des préconisations aux Responsables de notre Pays.

Toutefois, je dois immédiatement préciser que la réponse à cette question doit être pragmatique. Là où l'image vient en soutien à l'exposé d'un enseignant, cette image doit être de grande dimension et de grande qualité (vidéoprojecteur). Par contre, lorsque l'ordinateur a comme finalité d'être un outil individuel d'acquisition de nouvelles connaissances, il ne peut être efficace que lorsque chaque élève dispose « personnellement » d'un terminal.

L'expérimentation actuellement en développement du centre serveur Erasme du Rhône et son réseau à large bande pourrait à ce titre servir de modèle. Je crois, en tout cas, qu'il est nécessaire d'offrir aux enfants des images de bonne qualité, au moins aussi belles que celles de la télévision, dans un contexte de concurrence entre le multimédia éducatif et l'audiovisuel commercial. Chaque école dans un premier temps et chaque classe à terme devrait ainsi pouvoir disposer d'un grand écran.

Dans le domaine des contenus, deux éléments me paraissent importants. Il est en effet nécessaire de :

- faire jouer la concurrence [y compris par l'instauration de paiements à la séance dans l'usage de programmes (pay per view) à visée pédagogique] ;

- développer des partenariats (France-Europe, établissements publics, Education nationale, public-privé, Etat-collectivités territoriales, enseignants-réalisateurs), d'abord par ce qui est une démarche consubstantielle à la société de l'information, ensuite pour rassembler nos forces face aux risques de colonisation culturelle déjà évoqués.

S'agissant des droits d'auteurs le problème n'est pas seulement de nature financière, il est aussi administratif : la gestion doit être simplifiée et automatisée.

Les réflexions doivent se poursuivre dans cet important domaine.

Et les serveurs à contenu pédagogique doivent pouvoir desservir à la fois les écoles, les lieux publics et les domiciles des élèves.

Initiatives de la base, projets scolaires, partenariats divers : le groupement télématique Net Day qui regroupe bénévoles, entreprises, représentants des mairies et des écoles de la région de Sophia-Antipolis, près de Nice, en représente un bel exemple. Son objectif est de contribuer à la mise en réseau des écoles françaises ; Sun Micro-systems, 3 Com, Siemens-Nixdorf en font partie.

Peut-être de tels groupements pourraient-ils apporter aux maîtres pionniers des NTIC la considération et les encouragements dont ils ont besoin et que leur institution ne leur prodigue pas suffisamment ?

Autre partenariat essentiel : celui entre les collectivités locales et le Ministère de l'Education Nationale.

Certes l'annonce faites en 1997 par Claude ALLEGRE, Ministre de l'Education Nationale va dans le bon sens.

Mais deux écueils guettent cette déclaration, et il faut savoir les éviter pour qu'elle ne reste pas au niveau des intentions.

Il faut tout d'abord que l'Education Nationale, si le Gouvernement veut être exact au rendez-vous de l'an 2000 qu'il s'est fixé,entreprenne, immédiatement, un effort sans précèdent de formation de tous les enseignants pour leur permettre de maîtriser les nouvelles technologiques de l'Information. Or, le budget, souvent squelettique accordé pour 1998 aux IUFM, sur cette ligne réservée aux NTIC n'est pas à la hauteur du défi qui a été lancé.

Par ailleurs, une mise en forme claire, sous la forme d'un Plan Education pluriannuel concernant les NTIC, doit sans tarder, être conclu entre le Ministère de l'Education Nationale et l'ensemble des Collectivités Locales de France. On ne peut demander à ces Collectivités de financer les 4/5° de ce plan sans avoir préalablement défini les règles du jeu et arrêté en toute transparence le rôle de chacun. Or, le budget 1998 de toutes ces Collectivités vient d'être voté sans que cet accord ait été scellé. Malheureusement, une fois encore, c'est une année de perdu.

« Seul l'effort combiné de tous (Etat, conseils régionaux et généraux, municipalités, partenaires privés) pourra permettre - comme le rappelle mon collègue Gérard, Sénateur du Finistère - de faire face à cet enjeu capital pour le système éducatif français. »

CHAPITRE V

UN RETARD IMPUTABLE AUSSI
A DE MULTIPLES ERREURS
DE DECISION ET DE JUGEMENT...

Le retard de la France dans la création et l'utilisation des nouvelles techniques d'information et de communication est imputable à deux facteurs. Il résulte non seulement de décisions erronées prises dans le passé mais aussi de conceptions fausses ou archaïques concernant l'importance de leur rôle et les conditions de leur développement.

Dans les exemples du passé comme dans ceux du présent, notre pays apparaît à la fois comme une société d'arrogance, en ce qui concerne ses élites administratives ou politiques pourtant souvent prises en flagrant délit d'inefficacité ou d'incompétence, et comme une société de défiance vis-à-vis des forces du marché et de nos capacités d'innovation.

I. L'ACCUMULATION DE MAUVAIS CHOIX EN MATIÈRE
DE TECHNOLOGIES NOUVELLES

Sur le plan technique, la société de l'information se caractérise par la convergence des activités de l'informatique, de l'audiovisuel et des télécommunications, grâce, non seulement, à la généralisation du numérique, elle-même permise par la compression des données, mais aussi grâce aux progrès réalisés en matière de composants électroniques (depuis, notamment, l'invention du microprocesseur à l'origine de la micro-informatique).

Or, dans chacun de ces trois domaines, de mauvais choix ont été effectués et des actions mal conduites, particulièrement, hélas, dans le secteur qui, désormais, est le plus important, celui de l'informatique.

A) LES EXEMPLES DE L'INFORMATIQUE

Nos gouvernants et nos élites administratives affectionnent les « plans » ou les « grands programmes », censés mobiliser les énergies et les ressources au profit de grandes causes nationales.

L'élaboration des objectifs de ces actions, pourtant énoncée de façon péremptoire, n'a souvent malheureusement pas été précédée d'une analyse stratégique suffisamment approfondie, qui intègre, notamment, toutes les données du marché.

Trop souvent aussi, leur exécution financière relève d'une logique d'arsenal (l'Etat est invité à régler les coûts constatés). Et le souci de ménager l'argent du contribuable paraît devoir s'effacer devant le caractère prioritaire de la dépense, lui-même justifié par l'importance de l'enjeu.

1. Le Plan Calcul

Après le passage de Bull sous contrôle américain à la fin de1963, plusieurs administrations s'attachent à définir une politique nationale de l'informatique.

Il faut reconnaître que leur tâche est difficile, étant donné l'écrasante suprématie des Etats-Unis (forts de la domination presqu' absolue d'IBM et d'un parc informatique représentant les trois-quarts de celui du monde).

Il en sortira le rapport Ortoli dont les recommandations servent de base au Plan Calcul de1966.

Ce projet, à la préparation duquel aucun représentant du secteur privé n'a été associé, implique la création d'une nouvelle entreprise (la CII : Compagnie Internationale pour l'Informatique) et d'un institut public de recherche (l'INRIA : Institut National de Recherche en Informatique et en Automatique).

Le prétexte en est stratégique, les Etats-Unis ayant refusé de livrer à la France le grand ordinateur scientifique dont elle avait besoin pour concevoir une bombe H.

Mais en fait, cette machine, dont le Plan Calcul n'avait jamais vraiment envisagé la fabrication, nous sera finalement vendue par les Américains.

La Délégation à l'Informatique, nouvelle structure interminis-térielle directement rattachée au Premier Ministre, et chargée de la coordination de l'effort public, ne comprend aucun informaticien professionnel.

Elle va se heurter, en outre, à l'hostilité des ministères concernés se sentant dessaisis du dossier (Finances, PTT, Industrie, Recherche, Armées...).

« L'échec de la CII est inscrit d'emblée dans ses gênes », estime l'ancien directeur de Bull, Jean-Pierre Brulé.

En effet, les fonctionnaires qui ont conçu le plan pensent en terme d'indépendance nationale plutôt que de viabilité économique.

On rassemble les modestes actifs en informatique des héros malheureux d'une solution Bull « à la française » (CGE, Thomson et Schneider) plutôt que de faire appel au principal constructeur national, en tentant de redresser l'attelage qu'il forme avec General Electric.

Or, les entreprises de cette troïka, comptant sur « la traite de la vache à lait publique », pour ne pas passer sous la coupe de constructeurs d'ordinateurs dont la croissance est beaucoup plus rapide que la leur, vont se montrer particulièrement démotivées en tant qu'actionnaires.

Il faut dire que « les ambiguïtés abondent autour du Plan Calcul » - pour reprendre l'expression de J.-P. BRULE - et que la stratégie finalement retenue s'avérera désastreuse.

Elle est en effet marquée par une ambiguïté fondamentale quant au montant des fonds publics engagés (supérieurs au double des 400 MF initialement estimés), de la rentabilité attendue, des produits à fabriquer.

D'un point de vue stratégique, l'erreur consiste à attaquer IBM de front, dans le haut et milieu de gamme des machines de gestion, là où précisément les coûts de fabrication du géant américain sont proportionnellement les plus bas, ses marges les plus élevées et par conséquent ses capacités de résistance à la concurrence les plus fortes. Des constructeurs comme DEC et beaucoup d'autres l'avaient bien compris.

Certes, les besoins des administrations nationales sont importants dans ce secteur des grosses machines de gestion mais, d'une part, Bull y est aussi présent, et d'autre part, il ne s'agit que de 1 % du marché mondial (dont le marché français représente 5 %).

La CII réussit cependant, contre toute attente, son démarrage technique dans la période 1967-1971 (correspondant à sa première convention avec l'Etat) et la commercialisation de ses produits IRIS (seulement partiellement compatibles entre eux!) est correctement engagée.

Sa croissance est forte (supérieure à 25 % par an) et ses effectifs (6.000 personnes) atteignent la moitié de ceux de Bull en France en 1971.

Toutefois, les coûts de fabrication et de distribution de ses produits excèdent leurs prix de vente. La CII vend ainsi à perte bien qu'on lui ait entièrement payé les études de ses machines.

La première convention avait coûté à l'Etat environ 1milliard de francs, la deuxième (1972-1975) sera dotée de plus du double et reviendra en fait à l'Etat à trois fois ce montant, tandis que l'apport des actionnaires sera, quant à lui, 2,5 fois moins élevé qu'en 1967.

C'est alors qu'est envisagée une sortie européenne à ce plan mal engagé.

Il faut le reconnaître : l'idée de départ n'est pas mauvaise en soi : associer CII, doté d'un bon bagage technique et fort de sa ligne de produits IRIS, au géant allemand Siemens, licencié du groupe américain RCA, qui vient de jeter l'éponge en ce qui concerne la fabrication d'ordinateurs.

On pense par ce biais créer une synergie entre la puissance commerciale et financière de Siemens et la technique de CII, dont on espère qu'elle se verra ouvrir le marché européen, et en particulier allemand.

Il ne semble pas pour autant qu' ait été envisagé aucun scénario alternatif susceptible, notamment, de donner accès au marché américain, beaucoup plus substantiel : autant dire qu'on retrouve à l'oeuvre toujours la même insuffisance de réflexion stratégique.

La CII, qui ne fait que de l'informatique, ne pèse pas lourd face à un groupe aussi fort et diversifié que Siemens. Ses intérêts vont en outre être mal défendus. Les négociations seront menées de façon dispersée, tantôt par la compagnie elle-même, pour les projets opérationnels de coopération, tantôt, en ce qui concerne les intérêts des actionnaires, par Thomson, paralysé par les réticences de la CGE et désireux avant tout de faire payer par l'Etat la nouvelle addition qui se profile.

La CII cède aux exigences de Siemens, relatives à la compatibilité des futurs produits communs aux deux groupes avec ceux d'IBM (ce qui risque de l'obliger à concevoir des machines selon des schémas et peut-être des brevets appartenant à son associé) et se voit proposer, au prix fort, une participation au réseau commercial du groupe bavarois en dehors d'Allemagne.

La Délégation à l'Informatique va jusqu'à envisager alors de faire financer par le contribuable français cet achat de filiales étrangères du grand groupe allemand.

Mais la note sera finalement réduite et partagée avec l'Etat allemand, non sans que la France ait exigé une structure d'organisation assez souple pour que d'autres constructeurs puissent par la suite s'y associer.

Philips en profite pour rejoindre le consortium, dénommé Unidata, en tant que partenaire à part entière avec un apport pourtant des plus limités.

Selon Jean-Pierre BRULE, la formule d'association adoptée se révèle « cauchemardesque ».

Le modèle d'organisation retenu, lourd et mal coordonné, est incompatible avec les exigences imposées par la conception et la réalisation d'une ligne de produits compatibles entre les trois partenaires.

« Unidata cumulait les handicaps - écrit l'ancien président de Bull - les passés techniques divergents, les différences d'appréciation quant à l'urgence d'une nouvelle ligne, la complexité de la structure de prise de décisions, l'absence de connaissances du sujet au niveau où les arbitrages remontaient, enfin, des conflits d'intérêts permanents ».

De sorte que, très vite, Siemens et Philips vont s'apercevoir qu'une véritable fusion est la condition du succès.

Mais, du point de vue des intérêts français, une telle solution revient à faire financer, une fois de plus, par de l'argent public, une participation au nouvel ensemble intégré, vouée à demeurer, en tout état de cause, minoritaire.

C'est en effet la débandade du côté des actionnaires de la CII : Schneider cherche à vendre ses parts, la CGE a refusé l'augmentation de capital qui devait accompagner l'entrée dans Unidata. Elle désavoue donc les accords négociés par Thomson.

La cacophonie française atteint son comble lorsque les pouvoirs publics, sans avoir mis au courant la Délégation à l'Informatique, commencent à songer à un rapprochement entre la CII, qui continue à négocier avec Siemens et Philips, et Bull, désormais associé à l'américain Honeywell.

Un démenti est opposé aux partenaires européens de la compagnie au sein d'Unidata, qui s'inquiètent des rumeurs de contacts pris dans ce sens.

Ceux-ci auront l'impression d'avoir été floués, lors de l'annonce, en mai 1975, des accords CII-HB qui sonnent le glas des espoirs de construction d'une industrie européenne de l'informatique.

« Pour le contribuable, la note des deux conventions du Plan Calcul et de leur sortie se monte à environ 13 milliards de francs 1992 ». Certes, ajoute J. P. BRULE, « l'apport de la CII permettra, en 1976, de ramener Bull sous majorité française. Mais la même chose était probablement faisable en1966, et pour 10 à 100 fois moins d'argent ».

Bref, il en a coûté moins que l'équivalent d'une journée de coût du Plan Calcul pour lancer, à partir de fonds strictement privés (20(*)), des constructeurs comme DEC ou Apple, deux des plus grands succès de l'informatique mondiale, des années 70 et 80.

« L'informatique malade de l'Etat » : tel est le titre de l'ouvrage, précité, de Jean-Pierre BRULE. Malheureusement la liste des exemples qu'il cite, à l'appui de ce diagnostic, ne s'arrête pas à la fusion de la CII et de Honeywell-Bull.

2. Le raid manqué sur Olivetti

Saint-Gobain, groupe spécialisé dans le verre et les tuyaux de fonte, fait sensation en annonçant en 1978 sa participation au « Plan composants », nouveau « grand programme » à la française. Il confirme, un an plus tard, ses nouvelles ambitions dans le domaine de l'électronique au sens large (y compris l'informatique) en rachetant la participation de CGE dans la Compagnie des Machines Bull, dont il devient le principal actionnaire avec l'Etat.

Cette opération ouvrant à Honeywell un droit automatique de sortie du capital de Bull (obtenu en 1975, par la CGE, pour lui donner une influence sans commune mesure avec sa participation au capital de notre constructeur informatique national), un fonds pour le rachat éventuel des actions de la firme de Minneapolis est constitué en partie avec de l'argent public, en partie avec des fonds du verrier français (on parle alors du « milliard de Saint-Gobain »).

Une série de concessions sont consenties au groupe américain pour qu'il accepte le remplacement de CGE par Saint-Gobain (Bull est prié, notamment, de renoncer à ses griefs concernant les entorses de Honeywell au principe d'une ligne commune de produits).

L'année suivante, en 1980, Saint-Gobain annonce l'acquisition du tiers environ du capital d'Olivetti, qui va lui permettre, ensuite, de prendre le contrôle de Bull grâce à une opération boursière montée avec l'accord de l'Etat (des actions Olivetti sont échangées contre des actions CMB possédées par de petits porteurs).

Là encore, il faut le reconnaître : comme celle du rapprochement avorté entre CII et Siemens, l'idée d'une coopération entre Bull et Olivetti est sensée : acteur incontournable de la bureautique mondiale, Olivetti est handicapé par ses faiblesses dans le domaine des logiciels et de l'architecture de systèmes. Bull peut l'aider à les surmonter ; et en échange, le constructeur italien peut offrir au français des débouchés en bas de gamme.

Une fois encore, ce sont les considérations stratégiques et la conduite du déroulement pratique des opérations qui vont se révéler pour le moins déficientes.

Le montage effectué va en effet avantager Olivetti aux dépens de Bull, en allant jusqu'à lui sacrifier Logabax, pionnier français de l'ordinateur de bureau depuis 1967.

L'essentiel du « milliard de Saint-Gobain », quant à lui, va être affecté à la prise de participation d'un tiers dans le capital d'Olivetti.

Déjà affaibli par les concessions faites à Honeywell (cf. supra), Bull, sous-alimenté depuis 1976 par ses actionnaires, continue de manquer de capitaux propres.

Son passage sous contrôle de Saint-Gobain, qui n'a pas coûté un centime à ce dernier, ne lui rapportera pas un sou d'argent frais.

Ayant dû renoncer à ses projets d'acquisition en cours (Olympia-Hermès), Bull est écarté de la reprise de Logabax (nous y reviendrons).

Il ne bénéficiera d'aucun contrat d'études public pour la bureautique au titre du CODIS (Comité de Développement des Industries Stratégiques) jusqu'à la fin de 1981.

Les dirigeants de Saint-Gobain, et avec eux les représentants de l'administration française vont, en fait, se laisser magistralement berner par Carlo de Benedetti.

Nullement désireux de collaborer avec Bull, Olivetti poursuit en réalité deux objectifs : le renforcement de ses fonds propres et l'accès à des contrats d'études publics français.

Saint-Gobain va combler son attente sur le premier point. Il contribue, en effet, à désendetter Olivetti en souscrivant à une augmentation de son capital.

La déception rencontrée, en revanche, par la firme d'Ivrea, en ce qui concerne la réalisation du deuxième point, va conduire Carlo de Benedetti à la rupture, conduisant ce dernier à multiplier les déclarations provoquantes du genre :

" Que pourrait bien apporter à Olivetti un groupe spécialisé dans le verre et les tuyaux de fonte ? "

Ou bien : " Saint-Gobain détient 33 % de notre capital, mais je conduis mon entreprise de façon totalement indépendante ".

Cela n'empêche pas le ministère de l'Industrie de donner son accord à la reprise par Olivetti, de préférence à Bull, de la Société française Logabax, spécialisée pourtant non pas dans la bureautique, mais dans l'informatique de gestion.

Vidée de sa substance, c'est-à-dire de ses capacités propres d'études, Logabax finira comme un simple département commercial d'Olivetti.

Malgré sa complaisance envers elle, Saint-Gobain n'exerce en effet pratiquement aucune influence sur la gestion de l'entreprise italienne - comme Carlo de Benedetti l'a fait remarquer publiquement- en raison de la fragmentation de cette dernière et du contrôle de 40 % de son capital par un syndicat à l'italienne.

L'administration française n'ira jamais vérifier la réalité de l'option sur les actions personnelles de Carlo de Benedetti que Saint-Gobain prétend détenir et qui serait susceptible de lui donner le contrôle majoritaire d'Olivetti. Et seul Honeywell semble s'inquiéter du danger d'un éventuel transfert de savoir-faire en logiciel de Bull vers Olivetti, sans contrepartie.

Tout cela n'a pourtant rien de surprenant dans la mesure où - comme le note J.P. Brulé - le schéma retenu a placé Saint-Gobain, qui ne possède ni expérience du métier, ni dirigeants formés à une tâche de cette ampleur, en coordinateur obligé de deux très importants investissements en informatique : Bull et Olivetti.

"Les pouvoirs publics, si souvent tatillons, font preuve en l'occurrence -poursuit l'ancien président de Bull- d'une énorme confiance dans le groupe verrier promu au rang de champion national des puces électroniques et de l'ordinateur».

Quelques mois plus tard, le Gouvernement sépare Bull et Saint-Gobain, tous les deux nationalisés, et contraint ce dernier à revendre ses parts d'Olivetti.

La démonstration de l'incohérence et de l'incompétence des pouvoirs publics semble avérée, mais le contribuable n'en est pas encore au bout de ses peines !

3. La nationalisation mal conduite de Bull

La nationalisation de Bull, en avril 1982, s'effectue dans un contexte de détérioration de ses résultats.

Cette dégradation est due, selon son ancien Président, à la concurrence d'IBM et à la politique de Saint-Gobain.

Concurrencé par les premiers mini-ordinateurs, le géant américain mène une politique de guerre des prix, en milieu de gamme.

Bull riposte par une politique tarifaire agressive dans la commercialisation de l'excellent mini-ordinateur "Mini 6" conçu par Honeywell, mais les capacités de l'usine d'Angers ne permettent pas de faire face à la croissance des commandes.

La réduction des marges rend plus difficile l'autofinancement des investissements nécessaires, au moment même où les apports en capital des actionnaires décroissent, jusqu'à devenir nuls en 1980, année du remplacement de la CGE par Saint-Gobain. En outre, ce dernier exige une augmentation substantielle des dividendes versés par le constructeur informatique dont le total des emprunts, dans ces conditions, dépasse, à la fin de 1980, celui des fonds propres.

Du printemps 1981 à celui de 1982, Bull, en attente de nationalisation, traverse une année noire, contraint d'embaucher, privé d'apport en capitaux par Saint-Gobain, toujours confronté à des difficultés techniques dans la fabrication de son nouvel ordinateur DPS 7 (21(*)), tandis que sa clientèle s'inquiète de l'avenir de son partenariat avec Honeywell.

Les commandes chutent à partir de juillet, et la compagnie connaît en 1981 sa première perte depuis dix ans.

La nationalisation de Bull entraîne une négociation serrée avec Honeywell qui en détenait 47 % et qui accepte de n'en conserver que 20 %. Il en résulte pour le contribuable français une charge de 150 millions de dollars et, pour la compagnie, une dépense annuelle de 37 millions de dollars (licences + dividendes).

Pour l'ancien Président de Bull, démis de ses fonctions en juillet1981, plusieurs erreurs graves sont imputables au nouveau pouvoir : il laisse Bull dériver et encaisser les mauvais coups de son actionnaire Saint-Gobain, le pousse à embaucher, malgré ses pertes, ne sépare le destin des deux groupes qu'après leur nationalisation, et négocie, enfin, avec Honeywell dans de mauvaises conditions initiales.

Avant la nationalisation, le bilan global de la compagnie est honorable mais elle n'a jamais trouvé un actionnariat qui la soutienne, sans arrière-pensées, dans sa croissance, et lui apporte les fonds propres dont elle avait besoin.

D'autre part, elle n'a pas suffisamment investi et surtout n'a pas remis en cause sa stratégie d'imitation du modèle IBM alors que la question d'une réorientation vers les mini et micro-ordinateurs et vers la bureautique méritait, au moins, d'être posée.

Dans les dix années suivant sa nationalisation (de 1982 à 1992), Bull a reçu l'équivalent de 20 milliards de fonds publics (dotation en capital + aides aux études). Cela ne l'a malheureusement pas empêché ni de procéder à des milliers de licenciements, ni de voir diminuer son niveau de maîtrise technologique.

En outre, alors que la croissance des ventes mondiales d'ordinateurs personnels a été très soutenue pendant plusieurs années consécutives, Bull semble avoir "misé sur le mauvais cheval" en acquérant l'américain Zenith Data Systems (cédé par la suite à Packard Bell) dont les pertes continuelles ont lourdement pesé sur ses résultats.

4. Le mirage de la filière électronique

Publié au printemps 1982, le "rapport Farnoux" est à l'origine d'un très ambitieux programme baptisé PAFE (Programme d'Action pour la Filière Electronique).

Parmi les onze branches concernées figure l'informatique pour laquelle on recommande tout à la fois la poursuite de l'effort concernant les systèmes moyens, le lancement d'un grand ordinateur scientifique, la production de masse de micro-ordinateurs et le développement de "briques de base" (modules standardisés utilisant notamment les mêmes puces) pour la mini-informatique.

Les dépenses correspondantes sont estimées à 140 milliards de francs sur cinq ans, somme faramineuse, mais on s'aperçoit qu'il s'agit d'un amalgame, budgétairement hétérodoxe, de dépenses hétérogènes (fonctionnement et investissement, mesures nouvelles et acquises ; budgets civils et militaires, publics et privés, budget annexe des PTT, etc.).

Sept projets nationaux censés provoquer un saut technologique et associer étroitement les industriels aux laboratoires publics sont lancés immédiatement. Mais il s'agit, en fait, d'un cocktail composite, allant de la traduction assistée par ordinateur aux "briques de base" pour mini machines mentionnées ci-dessus.

Finalement, les résultats de ce vaste programme, qui ambitionnait de faire de la France "la troisième puissance technologique de l'an 2000", juste derrière les Etats-Unis et le Japon, s'avèrent très décevants. Presque tous les objectifs solennellement affichés n'ont pu être atteints. L'accroissement des budgets de recherche concernés est, au total, très limité. Dans le budget de l'Industrie, l'électronique continue de passer après les houillères nationales, en ce qui concerne les subventions, et de venir après les chantiers navals, la sidérurgie et Renault, s'agissant des dotations en capital.

A l'examen, deux erreurs d'appréciation majeures expliquent ces déconvenues.

La première est illustrée par l'absorption par Bull, à l'automne 1982, des filiales informatiques de Thomson et de la CGE. Elle consiste à tout miser sur un "champion national", fabriqué artificiellement par une sorte de mécano industriel dirigiste, à l'inverse de la politique suivie,alors,avec succès par le Japon.

La deuxième erreur, quant à elle, consiste à pécher par excès d'orgueil en croyant que nous avons les moyens de maîtriser, à travers le budget de l'Etat, tous les éléments de la filière électronique dans son ensemble.

Depuis trente ans, fait observer Jean-Pierre Brulé dans L'Informatique malade de l'Etat, les plus brillants succès ont été remportés par des sociétés qui se sont spécialisées dans des créneaux, qu'il s'agisse des mini (DEC), des micros (Apple) et de leurs logiciels (Microsoft) ou des machines géantes (Cray). Nous parlerions aujourd'hui de Sun, Compaq et toujours, bien entendu le binôme Wintel (Microsoft et Intel).

A l'inverse, les constructeurs généralistes américains et européens n'ont cessé de perdre du terrain. Seul NEC, parmi ces derniers, se prévaut encore de la triple intégration communications-ordinateurs-composants, même si, chez plusieurs d'entre eux comme IBM, les composants épaulent l'informatique.

Les sociétés françaises qui ont le mieux réussi ont prospéré, sans l'aide de l'Etat, dans des créneaux qu'elles ont elles-mêmes trouvé, se trouvent essentiellement dans le logiciel (Business Object...), les services (Cap Gemini...) ou les cartes à puce (Gemplus...).

Malgré des actions maladroites de soutien de l'Etat aux créateurs français de progiciels (point faible de notre pays),la France est aussi absente de ce secteur stratégique puisque l'industrie des logiciels universels pour micros est aujourd'hui exclusivement américaine.

Parmi les succès rencontrés dans ce domaine, il convient de mentionner celui de Borland, société californienne fondée dans les années 80 par un universitaire français, Philippe Kahn. "S'il avait trouvé en France - s'interroge J.-P. Brulé - au lieu des coquecigrues de la filière électronique, un terrain plus stimulant, plus fertile sur les plans économique et culturel, n'y aurait-il pas fondé son entreprise ?».

On ne demande pas à l'Etat de choisir les créneaux ni les stratégies, conclut-il. "On se satisferait bien qu'il crée les conditions de leur éclosion". En d'autres termes, une aide intelligente de l'Etat consiste à "amender" le terrain des créateurs d'entreprises.

5. Le plan Informatique pour tous

Déjà évoqué dans la partie du précédent chapitre consacrée au rôle des NTIC dans l'éducation, le plan informatique pour tous constitue un exemple de plus des gabegies auxquelles conduit un certain volontarisme étatique.

Ce plan visait à mettre en place, dès la rentrée de 1985, dans 50.000 établissements, plus de 120.000 machines et à assurer la formation, pour la même date, de 110.000 enseignants. Son coût était évalué à 1,8 milliard de francs (1,5 milliard pour le matériel, le reste pour la formation et les logiciels).

Rappelons-le une fois encore : ce ne sont pas les objectifs en cause qui prêtent à la critique mais leurs modalités financières et pratiques de mise en oeuvre.

Sur le plan financier, tout d'abord, les crédits budgétaires se sont révélés insuffisants, compte tenu de l'importance des dépenses à engager et des délais impartis. De sorte qu'il a fallu recourir à la formule du crédit bail, incompatible avec le principe de l'annualité budgétaire et faire intervenir, irrégulièrement, le budget annexe des PTT pour payer les annuités correspondantes.

Sur le plan pratique, en raison du caractère fermé et propriétaire de l'Operating System (OS) des retards de plusieurs mois ont été enregistrés dans la livraison des logiciels, entraînant démotivation et pertes de savoir-faire chez les enseignants par ailleurs trop rapidement formés. Ces derniers, dans leur grande majorité, estiment ne pas avoir été mis en mesure d'utiliser valablement l'informatique dans l'accomplissement de leur mission éducative. Ils jugent, en outre, le temps passé devant les consoles disproportionné par rapport à l'acquis pédagogique escompté.

Mais la plus grande erreur du plan « Informatique pour Tous » fût de s'appuyer sur un « operating system » (OS) propriétaire. Cette démarche opposée à toute l'approche mondiale interdisait d'utiliser tous les logiciels compatibles Apple ou Dos qui étaient alors, déjà, les plus usités. Aussi, les fabricants de contenus ne voulant pas se lancer dans de lourdes productions pour un marché trop étroit, les enseignants ne disposèrent que de quelques maigres produits à présenter à leurs élèves.

Résultat : L'utilisation des ordinateurs n'atteint même pas trois heures par mois et par élève dans plus de 60 % des établissements. La qualité et l'utilité des logiciels sont mises en cause avec un pourcentage d'insatisfaction qui atteint 55 % dans les lycées.

Les contrats obtenus par l'industrie française ne lui permettront même pas de rattraper tant soit peu son retard en micro-informatique qui est notoire : malgré la commande, dans le cadre de ce plan, de près de 100.000 machines, Thomson abandonne la partie en 1989 ainsi que Matra. La CGCT sera vendue à Ericsson et Léanord à Siemens.

Une deuxième vague succède, en 1988, au plan «informatique pour tous» avec l'opération «13.000 micros pour les collèges et les lycées». Le montant budgétaire prévu est cette fois plus modeste (100MF) et il est fait appel à du matériel haut de gamme, installé par l'UGAP (Union des regroupements d'achats publics, organisme placé sous la tutelle du ministère de l'Education nationale). 60 % des nouveaux ordinateurs achetés par l'Education nationale sont désormais d'origine étrangère.

Les priorités vont à l'équipement des collèges, à l'enseignement technologique (bureautique et productique) ainsi qu'aux classes préparatoires à certaines grandes écoles (biologie, HEC...).

Mais une enquête réalisée en 1992 révèle qu'à peine 15 à 20 % des enseignants déclarent utiliser l'informatique en classe.

Une conclusion s'impose : déconcentrer les équipements qui deviennent rapidement obsolètes et en transférer ainsi le coût de renouvellement de l'Etat aux collectivités locales risque de créer de fortes disparités.

6. Le projet Sesam Vitale

Le projet Sesam vitale d'informatisation de l'assurance maladie constitue le dernier et le plus récent exemple d'opération d'envergure mal conduite.

A l'horizon de l'an 2000, l'ensemble des ressortissants du régime général doivent se trouver dotés d'une carte à puce remplaçant le support papier actuel ainsi que le carnet de santé et comportant, éventuellement, des données relatives à l'assurance complémentaire.

Un système de télétransmission des informations du cabinet du médecin vers les caisses devait se substituer, avant la fin de 1998, aux 850 millions de feuilles de soins circulant chaque année, ce qui suppose la mise en place d'ici cette date des équipements et liaisons informatiques nécessaires. Mais le mécanisme prévu ne couvrirait ni le règlement des honoraires ni les prescriptions (continuant à être établies sous forme d'ordonnances).

Ces échanges permanents d'information entre les caisses, les professionnels de santé et les assurances sont indispensables à une maîtrise efficace des dépenses selon le directeur de la CNAMTS, Gérard Rameix.

Le coût de la première phase de la réalisation de ce projet est évalué à 4 milliards de francs.

Engagé depuis dix ans, sans volonté politique ferme, ce processus a été relancé en 1996 par le plan Juppé de réforme de la sécurité sociale.

Malgré de tels délais, M. Rozmaryn, dans un rapport remis au Gouvernement à la fin du mois d'octobre 1996, a estimé que cette révolution avait été mal préparée par l'assurance maladie.

L'ingénieur général des télécommunications y dénonce tout à la fois des lacunes dans la sécurité du système «peu arbitrée et sans doute mal équilibrée» et surtout l'absence de retour d'information vers les professionnels de santé pourtant soumis à des contraintes alourdies. Il aurait préféré confier la maîtrise d'ouvrage à un délégué général entouré d'une petite équipe de haut niveau plutôt qu'à la CNAMTS, comme l'a décidé le Gouvernement.

En revanche, satisfaction lui a été donnée en ce qui concerne la création d'un « Conseil supérieur des systèmes d'information de santé » correspondant à la structure de concertation qu'il souhaitait.

M. Rozmaryn suggérait de ne pas faire cette réforme « à marche forcée ». Dans ces conditions, il est peu probable que l'informatisation des cabinets médicaux soit achevée à la fin de 1998 comme l'avait annoncé le précédent Gouvernement.

*

* *

Au moins les deux derniers exemples cités concernent-ils des domaines (éducation et santé) qui sont par nature du ressort de l'intervention des administrations publiques.

Tel n'était pas le cas des ingénieurs de l'Etat dans la sphère des activités industrielles marchandes.

Plus préoccupés de tendre la sébile ou de limiter les dégâts causés par les interventions trop souvent maladroites des pouvoirs publics, les constructeurs informatiques français n'ont pas su définir les stratégies qui leur auraient permis de mieux s'adapter aux évolutions de la technologie et du marché.

Cela s'est produit lors de l'irruption de la micro-informatique et de l'essor des progiciels (dont la diffusion ne connaît pas de limites physiques, contrairement aux activités de services qui se comptent en heures d'ingénieurs et dépendent de l'existence de la demande d'une clientèle particulière).

Souhaitons, même s'il est un peu tard, que le maximum de nos PME sachent profiter de l'explosion des réseaux sous toutes ses formes (Internet, Intranet...), sans entrave de la part de l'Etat (comme nous le verrons plus loin).

En tout état de cause, jusqu'en 1992, les actions de l'Etat dans le secteur de l'informatique, tous types d'interventions confondus, auront coûté au contribuable français plus de 40 milliards de francs pour un bien piètre résultat. Le florilège des sottises publiques dans le domaine des techniques audiovisuelles vaut presque l'anthologie de celles commises en matière d'informatique.

B) DANS LE DOMAINE DE L'AUDIOVISUEL

En informatique, la rapidité des évolutions techniques rend délicate, on l'a vu, la définition d'une ligne de produits et d'une stratégie adéquats. Très vite, les ordinateurs sont devenus personnels, communicants, puis multimédia. Ce sont désormais des produits à la fois professionnels et grand public.

L'adaptation de l'audiovisuel à la diversification des techniques est plus lente, car l'inertie de « l'effet de parc » des récepteurs installés et des habitudes des téléspectateurs est forte.

La tâche n'en est pas moins difficile car le « technology push » ne rencontre pas nécessairement le « market pull ». A l'inertie évoquée ci-dessus s'ajoute, en effet, la difficulté de coordonner les actions de multiples intervenants (industriels, producteurs, éditeurs et distributeurs de programme, opérateurs de réseaux et de banquets, diffuseurs publics et privés, Etat et collectivités...).

Les exigences de compatibilité (entre normes de production, d'enregistrement et de lecture, de diffusion et de réception) sont, d'autre part, plus poussées pour l'audiovisuel que pour l'informatique. Les problèmes de transition entre anciennes et nouvelles techniques y sont donc, pour toutes ces raisons, encore plus ardus.

En outre, s'agissant des modes hertziens de transmission, les fréquences utilisées apparaissent comme des ressources rares et convoitées, difficiles à partager équitablement et fonctionnellement.

L'intervention de l'Etat, de ce dernier point de vue, peut se justifier. Elle a pourtant été, dans l'ensemble, tout aussi malheureuse que les initiatives prises en faveur de l'informatique, dès lors qu'il s'agissait de se mêler directement des conditions d'introduction de nouveaux supports (câble et satellite) ou de nouvelles normes de diffusion audiovisuelle.

1. Le plan câble

Avec dix ans de retard, la France décide, en novembre 1982, de s'équiper de réseaux câblés. Les objectifs fixés sont ambitieux :

n quantitativement : 10 millions de prises ;

n financièrement : 20 milliards de francs (plus de 3 milliards par an) ;

n techniquement : les premiers réseaux sont entièrement réalisés en fibre optique et en structure étoilée (théoriquement propice à l'interactivité). Des services de télécommunication autres que la télédiffusion devaient pouvoir y être intégrés grâce au numérique (téléphone, informatique).

Malgré les 3 milliards annuels d'investissements de la DGT, le démarrage est très lent. Dès 1986, l'objectif est ramené à 6 millions de prises sur une cinquantaine de sites. Les deux millions de prises raccordables commercialisées ne seront dépassés qu'en 1990, avec un nombre d'abonnés qui dépasse à peine 500.000.

Dès 1984, la construction des réseaux étoilés en fibre optique (1G) est abandonnée au profit de l'utilisation des techniques plus traditionnelles, mais beaucoup moins coûteuses et mieux maîtrisées, du câble coaxial (réseaux OG). On renonce, par la même occasion, à utiliser les réseaux câblés comme supports du RNIS (réseaux numériques à intégration de service).

Pourquoi un tel fiasco ?

Les raisons en sont à la fois techniques, organisationnelles, commerciales et financières.

n Techniquement, le support et l'architecture choisis s'avèrent rapidement obsolètes : les réseaux IG sont équipés en fibres multimodes dont la capacité de transmission est très inférieure aux fibres monomodes utilisées dès 1985.

Sur le plan de l'organisation, le maître d'ouvrage (les PTT) et les gestionnaires des réseaux (sociétés locales puis câblo-opérateurs) sont séparés, bien qu'ayant des activités ou des objectifs stratégiques par ailleurs assez proches, contrairement à ce qui se passe en Allemagne où la DBT (Deutsche Bundespost Telekom) cumule les deux fonctions.

Les changements de réglementation vont ensuite se succéder : en mai 1986, les câblo-opérateurs (Caisse des dépôts, Lyonnaise et Générale des eaux) sont autorisés à concurrencer la DGT en tant que maître d'ouvrage. Mais aucun nouvel élan particulier n'en résulte. Peu de sites restent disponibles pour les nouveaux maîtres d'ouvrage dont France Telecom (22(*)), qui contrôle déjà 50 grandes agglomérations et redoute la concurrence, à plus ou moins long terme, dans les services de télécommunications.

Après le monopole et la concurrence, s'ouvre à partir de 1990, une ère de coopération fondée sur une communauté d'intérêts, entre les câblo-opérateurs et France Telecom qui prend des participations dans leur capital.

Selon un article publié par Patrick Yves BADILLO dans la Revue économique, «pour qu'une innovation se développe, il convient non seulement de trouver une organisation de ce secteur viable, mais aussi de la laisser en place suffisamment longtemps. Or, les changements de l'organisation du secteur ont été incessants ; jamais une organisation stable et satisfaisante n'a été trouvée».

La substitution aux collectivités locales d'opérateurs extérieurs va réduire l'exploitant public au rôle de simple installateur d'infrastructures. La déréglementation de 1986 le conduit ensuite à s'abstenir de lancer des téléservices, de peur de susciter une concurrence à ses propres activités dans ce domaine.

n D'un point de vue commercial, le câble subit l'inconvénient de devoir se développer en concurrence avec de nouvelles chaînes hertziennes en clair (la Cinq et la Six) ou cryptée (Canal Plus).

La nouveauté des contenus (chaînes thématiques), indispensable au succès de toute innovation en matière de contenants se fait attendre. La séparation entre installateur et exploitant de réseaux ne facilite pas la cohérence du marketing et de la politique tarifaire d'autant que se produisent des chassés-croisés entre gestionnaires (les trois principaux câblo-opérateurs précités, c'est-à-dire la Caisse des dépôts, la Lyonnaise et la Générale des eaux, succèdent aux sociétés locales d'exploitation ; France Telecom reprend en 1992 les réseaux en fibre optique).

En outre, les tarifs sont dissuasifs (130 à 175 F par mois pour le service de base contre moins de 100 F partout ailleurs à l'étranger), mais cela est lié au déséquilibre financier du plan câble.

n Sur le plan financier, en effet, les choix technologiques, trop ambitieux initialement effectués, ont renchéri les coûts d'investissement de la DGT. Celle-ci doit assumer seule, en outre, l'intégralité du risque, par suite de la défection des municipalités qui devaient en principe lui verser des avances remboursables. Le montant de la redevance (46 F par mois et par abonné), versée par les câblo-opérateurs, a été fixé sans référence aux coûts d'investissement. Inférieur à celui qui avait été prévu à l'origine, il est jugé insuffisant par la Cour des Comptes, compte tenu de celui des abonnements.

En outre, au lieu d'arrêter les frais, l'Etat, s'estimant politiquement engagé vis-à-vis des collectivités locales, malgré leur désengagement, oblige la DGT à passer avec elles des conventions de câblage jusqu'en 1988.

Les opérateurs justifient le montant élevé de leur tarif par celui de leurs charges (coûts d'acquisition commerciale des abonnés et des programmes, frais de gestion, redevance) et de l'obligation de fournir un canal local.

Ils dénoncent l'incohérence de la façon dont le câblage a été, selon eux, effectué, notamment à Paris (par fraction d'arrondissements, en commençant par les quartiers les plus pauvres, etc.).

France Telecom estime pour sa part que le service est vendu trop cher pour susciter des abonnements, les opérateurs semblent se contenter d'en gérer trop peu. Quoi qu'il en soit, le cercle vicieux tarifs trop élevés - faible nombre d'abonnés - offre insuffisante de programmes existera bel et bien pendant longtemps.

Au moment où, enfin, le nombre de chaînes s'étoffera, France Telecom renâclera à fournir davantage de canaux que les quinze prévus par les conventions pour des raisons compréhensibles (désir d'obtenir de meilleures conditions financières, crainte de la concurrence de nouveaux services comme le téléphone, coût des équipements supplémentaires nécessaires, etc.).

Le montant des fonds publics engagés dans les investissements du plan câble pouvait être évalué, en 1988, à 21,9 milliards de francs pour un nombre de prises raccordables approchant le million mais un total d'abonnés à peine supérieur à 100.000.

A la suite d'une relance en 1991, le million d'abonnés sera atteint et les 2 millions en 1994.

Mais le câble français demeure aujourd'hui en retard sur celui des pays concurrents (18,6 millions d'abonnés en Allemagne ; la Grande-Bretagne, malgré un engagement beaucoup plus récent, nous a rattrapés en quelques années, sans doute grâce à une ouverture plus précoce de la téléphonie à la concurrence).

Il subit, en outre, de plein fouet, la concurrence du satellite, domaine dans lequel des erreurs majeures ont également été commises.

2. Les satellites TDF1 et TDF2

En 1979, est décidé un programme franco-allemand de satellite de télédiffusion directe.

Le projet, au départ expérimental, devient pré-opérationnel deux ans plus tard, en 1981.

La solution technique retenue est celle d'un satellite lourd, de forte puissance, à faible nombre de répéteurs (2 tonnes dont la moitié de carburant, et cinq canaux de 230 W environ). Le choix d'une aussi forte puissance est dicté par un certain nombre de considérations :

n garantir, en toutes circonstances, avec une marge de sécurité suffisante, une excellente qualité d'images à la réception dans un contexte où la haute définition paraît être l'avenir de la télévision ;

n se contenter, pour la réception directe individuelle, d'antennes de dimensions raisonnables (moins de 90 cm) ;

n utiliser la bande de fréquences moins encombrée que celle des satellites de télécommunications, réservée à chaque pays pour ce type de services par la CAMR (Conférence administrative mondiale des radiocommunications).

Une certaine cohérence paraît ainsi assurée avec la promotion menée par ailleurs des mesures européennes D2 et HDMAC, spécialement conçues pour la diffusion par satellite.

Mais, là encore, un certain nombre d'erreurs vont être commises dans la conception même comme dans la réalisation du projet. Les tubes à ondes progressives utilisés sont à la limite de leur technologie, alors qu'il est prudent de n'embarquer à bord de satellites opérationnels que du matériel éprouvé.

Le groupe français Thomson ne fabrique pas lui-même les boîtiers d'alimentation complétant les amplificateurs équipés des tubes de ce type qu'il commercialise, ce qui peut expliquer leurs nombreuses défaillances .

Les progrès réalisés en matière d'antennes d'émission comme de réception permettent, dès le début des années 80, d'envisager de recourir à des répéteurs moins puissants (ce que recommande en 1984 Gérard THERY dans un rapport au Gouvernement). En outre, la dimension des antennes n'importe que dans les zones d'habitat dense, desservies de toute façon par des installations de réception collectives, où résident la majeure partie des téléspectateurs intéressés. Enfin, le nombre restreint de canaux impose, pour chacun d'eux, un prix de location élevé.

TDF1 et TDF2 seront lancés seulement en 1988 et 1990, à un moment où ils subiront, de plein fouet, la concurrence de satellites privés de télécommunication du type Astra (16 canaux utiles au lieu de quatre).

D'autre part, le choix du bouquet de programmes transmis par les deux satellites ne sera décidé par le CSA qu'en 1992, date à laquelle le Bundespost loue depuis longtemps chaque canal de TV Set (jumeau de TDF) à 60 millions de francs. Au total, la Cour des Comptes qualifie le projet «d'échec coûteux» dans son rapport annuel de 1992. 3,3 milliards de francs de fonds publics lui ont en effet été consacrés (soit un prix de revient par répéteur beaucoup plus élevé que celui d'Astra) alors que 35.000 foyers seulement sur les 5 millions prévus se sont équipés en matériel de réception correspondant.

Le déficit d'exploitation en 1991 est compris entre 350 et 530 millions de francs. Or, dès cette même année, l'introduction de la norme D2MAC, qui constitue la seule justification du maintien en service de ces satellites, se trouve remise en cause.

3. Les normes MAC de diffusion

Conçue au début des années 80, au sein de l'UER, la norme de télédiffusion MAC Paquet représentait alors un compromis élégant et intelligent entre ce que les technologies analogiques et numériques disponibles à l'époque pouvaient avoir de meilleur.

Elle présentait notamment l'avantage :

n d'être conforme à la norme de production numérique internationale 4 : 2 : 2, basée elle aussi sur la numérisation séparée des composantes de luminance et de chro-minance ;

n de supprimer ainsi, grâce à un multiplexage temporel et non plus fréquentiel, les défauts inhérents à la superposition de ces composantes, dans les systèmes antérieurs.

n de disposer de plusieurs voies pour le son et de permettre la transmission de données complémentaires (sous titrage, télétexte) ;

n enfin, de faire l'objet d'un certain consensus de la part des industriels et des pouvoirs publics en Europe.

A l'origine, cette mesure devait être réservée à la télédiffusion par satellite. Des variantes adaptées au câble et même à l'espace hertzien terrestre en ont ensuite été conçues.

En 1986, pour contrer une tentative des japonaises visant à imposer au monde entier leur système Muse, les européens vont partir du D2 Mac pour élaborer, en toute hâte, leur propre norme de télévision à haute définition HD MAC. Le HD MAC, compatible avec le D2 MAC, possède un système de compensation de mouvement plus raffiné que son rival japonais et prévoit déjà la transmission numérique de certaines données (assistance au décodage et, comme pour le D2 Mac, son stéréophonique). La démonstration du nouveau système européen est effectuée, pour la première fois, au salon international des diffuseurs de Brighton, en 1988.

La crédibilité de l'alternative qu'il représente par rapport aux propositions japonaises est établie et reconnue au niveau international. Les normes MAC ont d'autres attraits ; elles se prêtent plus facilement au cryptage que les systèmes précédents, alors que naît la télévision à péage, et permettent l'utilisation du nouveau format 16 : 9.

Elles demeurent cependant analogiques en ce qui concerne la transmission des images et vont se faire rattraper par le numérique. Le D2MAC ne s'est pas imposé avec la rapidité qu'exigeait sa viabilité en tant que norme transitoire, il n'a pas rencontré l'adhésion nécessaire au-delà de celle des industriels, des producteurs et des diffuseurs.

Les manoeuvres dilatoires de nos partenaires britanniques dans le cadre de la Communauté européenne auront définitivement raison de ce système. Désormais, la multiplication des chaînes, permise par la compression numérique, semble importer davantage que la qualité des images. Les conséquences financières de l'échec des normes MAC ne sont cependant pas de la même ampleur que celles des désastres précédemment évoqués (150 MF par an environ ont été dépensés par le ministère de l'Industrie, auxquels s'ajoutent des dépenses de promotion et des aides de la Commission européenne).

Les études, qui ont mobilisé près de 500 à 600 chercheurs européens, n'ont pas été inutiles. Elles ont, notamment, ouvert la voie à l'utilisation des techniques numériques en ce qui concerne l'échantillonnage des signaux et la compensation de mouvement.

Ayant pris l'habitude de travailler ensemble, les européens vont aboutir assez rapidement à des positions communes (sauf, on peut le regretter, en ce qui concerne l'accès conditionnel) pour la télévision numérique dans le cadre du groupe de travail DVB.

Dans le dernier domaine concerné par la société de l'information, qui est celui des télécommunications, le bilan qui peut être établi n'est pas non plus catastrophique.

C) LE DOMAINE DES TÉLÉCOMMUNICATIONS

Contrairement à ce qui s'est passé dans les deux secteurs précédemment examinés, l'évolution récente des télécommunications a été marquée par d'éclatantes réussites : essentiellement le rattrapage téléphonique et le succès du Minitel.

Le danger est précisément que notre pays, se reposant sur ses lauriers, ne sache ni exploiter les acquis de ses efforts passés, ni percevoir les revers de ses médailles, ni surtout mesurer les conséquences de la rapidité des évolutions techniques, juridiques et commerciales en cours et la profondeurs des remises en cause qu'elles entraînent.

Dans un article de la revue «Medias pouvoirs», paru en 1995 et intitulé « cinquante ans de télécommunications », Jean-Pierre CHAMOUX estime que «la situation française n'apparaît pas plus exemplaire qu'auparavant : quelques brèves années de brio ne peuvent pas compenser - selon lui- des décennies de laisser-aller, de malthusianisme ou de désespérance. La dernière période en donne finalement l'illustration avec son cortège de débudgétisation, de politique industrielle sans avenir (il pense notamment au plan câble ou à la filière électronique déjà évoqués), de gestion politique à courte vue.

«La compétitivité du réseau français - poursuit-il- s'est dégradée jusqu'en 1975, pour gagner des lettres de noblesse pendant une petite dizaine d'années seulement».

«En réalité, les télécommunications françaises sont à nouveau en déclin depuis lors, déclin que confirme le mauvais moral des troupes et les errements du politique depuis 1990».

«France Telecom - conclut-il - est une entreprise chroniquement malade (nous sommes à la fin de 1995), frappée des maux classiques du service public administratif lorsqu'il se trouve confronté avec un marché, en croissance certes, mais concurrentiel et orienté vers la satisfaction des besoins solvables d'une clientèle exigeante».

1. Le rattrapage téléphonique : réussite et effets pervers

Le colbertisme s'avère parfois être un mal nécessaire dès lors qu'il s'agit de mobiliser, de façon ample et cohérente, les forces vives de la Nation, dans un cadre strictement national, au service d'objectifs simples et clairs.

La situation du téléphone en France, dans les années soixante, se prête effectivement à une action dirigiste de ce type.

Notre pays est alors non seulement la lanterne rouge de l'Europe en termes de pénétration téléphonique, mais son réseau continue de vieillir alors même que la demande s'intensifie.

Dès 1968, un dispositif de reconquête a été défini par les ingénieurs des télécommunications. Il s'agit d'une programmation, s'appuyant sur une remarquable organisation colbertiste, qui, conformément à la tradition des corps techniques de la République et aux enseignements des arsenaux, couvre tous les maillons de la chaîne considérée (depuis les recherches du C.N.E.T. jusqu'au Génie Civil), en association avec les industriels.

Mais les arbitrages nationaux favorisent d'abord le logement, puis le réseau routier, si bien que c'est surtout durant la période du VIIe Plan (1975-1980), soit 30ans après la fin de la guerre, que les télécommunications font enfin l'objet d'une vraie priorité.

Dès son élection, le nouveau Président de la République, Valéry Giscard d'Estaing, qui avait fait du dossier du téléphone un thème de sa campagne, renouvelle l'état-major de la D.G.T. (Direction Générale des Télécommunications) et nomme à sa tête Gérard Théry.

Les résultats atteints, une fois n'est pas coutume, seront à la hauteur des ambitions affichées.

En outre, un audacieux pari technologique, celui de la commutation électronique temporelle numérique (en avance sur les techniques américaines de l'électronique spatiale analogique), sera engagé et gagné.

Les moyens de développement industriel correspondant à ce rattrapage ont été « musclés »- selon l'expression de J.-P. Chamoux- par un long travail de préparation dans la logique du modèle américain, alors partout imité, d'intégration verticale entre l'industrie manufacturière et l'exploitation du réseau.

La D.G.T. pilote ainsi le développement de ses fournisseurs, en amont, par les recherches exécutées ou inspirées par les laboratoires du C.N.E.T., puis par des contrats de développement et d'industrialisation passés avec les industriels sous-traitants (qui auront pour interlocuteur la Direction des affaires industrielles, créée pour limiter le rôle du Centre d'études précité et introduire une plus grande concurrence entre fournisseurs).

« Cette politique industrielle - écrit Chamoux- a laissé de beaux restes : Matra et Alcatel sont les plus visibles mais on peut y associer le groupe SAGEM et quelques autres ».

Poursuivant ses efforts, la France peut s'enorgueillir de posséder les premiers réseaux, d'abord à commutation de paquets (avec Transpac, ouvert en décembre1978), puis à intégration de services (fin1987, commercialisé sous le nom de Numéris).

Ces beaux succès s'accompagnent cependant de quelques ratés : querelles d'état-major entre la Poste et les Télécommunications freinant la généralisation de la télécopie ou, surtout, conversion mal préparée et mal conduite des centraux électromagnétiques en centraux électroniques (la facture sociale et industrielle correspondante sera incluse dans le prix des nouveaux équipements, payés fort cher, et des nouvelles usines correspondantes, mal amorties).

Cependant, les résultats obtenus, écrit Chamoux, « tendent à conforter l'impression que la méthode régalienne est bonne ».

« Le cadre autoritaire -poursuit-il- convient bien à une aventure de ce type mais laissera des traces durables dans les mentalités... jusqu'aux temps actuels » :

Le plan câble, on l'a vu, est un remake raté du rattrapage téléphonique.

Le monopole laisse en effet toute latitude tarifaire à l'opérateur national, que les pouvoirs publics prennent l'habitude de mettre à contribution pour financer des investissements dont l'opportunité paraît douteuse, tels que les réseaux du plan précité ou les programmes concernant la filière électronique.

L'abonné au téléphone joue ici le rôle dévolu au contribuable dans le domaine de l'informatique (cf. plans calcul, informatique pour tous, nationalisation de Bull, etc.).

Tout à fait contestables dans leur principe, ces opérations de débudgétisation peuvent donner aux autorités responsables l'impression de pouvoir disposer, sans contrôle, de ressources illimitées.

Ainsi, une augmentation brutale de 10centimes, en juillet 1984, de la taxe téléphonique va casser la croissance de la demande pour plusieurs années.

La politique industrielle suivie dans les années quatre-vingt n'est, quant à elle, guère inspirée : regroupement de participations hétéroclites au sein de la société financière Cogecam, démêlés judiciaires d'Alcatel, en France et en Allemagne, liés aux effets pervers du pilotage par procuration des manufactures industrielles du téléphone par les opérateurs du réseau public.

Les considérations de politique intérieure, et notamment la conduite du secteur industriel nationalisé, prennent le pas sur les préoccupations internationales ; l'importance des changements de perspective induits par le tournant de 1985 est mal perçue (éclatement des monopoles et ouverture à la concurrence du secteur des télécommunications en Angleterre, aux Etats-Unis et au Japon ; publication du livre vert de la commission débouchant sur l'Acte unique européen).

« La double alternance politique de 1986 et de 1988 - estime J. P.Chamoux- n'est pas propice à mûrir une décision sur le dossier des télécommunications ».

« La réforme française de 1990 contient le pire et le meilleur : la rupture du cordon ombilical entre les P.T.T. d'antan et France Telecom d'aujourd'hui est très positive... Mais elle comporte aussi des effets pernicieux »... comme d'entretenir «le mythe que le changement mis en place (séparer la réglementation et l'exploitation) est suffisant pour faire face aux défis de l'époque (développement du marché commun des services et intensification de la concurrence internationale sur les réseaux)».

La législation (23(*)) et la réglementation mises en place sont en effet ambiguës : d'un côté, on affiche la ferme volonté de préserver le monopole téléphonique (au risque d'être taxés, à l'étranger, de protectionnisme), de l'autre, les dispositions dérogatoires à caractère spécieux ou interprétatif sont multipliées (autorisations de liaisons satellites, de réseaux d'entreprises, de réseaux radioélectriques ; habilitation d'opérateurs étrangers à exploiter de tels systèmes sur des micro-marchés...).

Des contradictions un peu analogues se retrouvent dans la conduite des dossiers sociaux : maintien, qu'on semble vouloir pérenniser, du statut de la Fonction Publique, et gestion du personnel qui peut paraître s'inspirer des pratiques du secteur privé.

La réforme des classifications, menée de façon autoritaire, devient -selon Chamoux- une «usine à gaz».

L'autonomie des cadres intermédiaires, gage de l'efficacité du rattrapage et des victoires précédents, est considérablement réduite.

Passant d'un excès à l'autre, on se focalise cette fois sur la stratégie internationale mais -semble-t-il- au détriment des préoccupations propres au service public national.

« C'est ainsi -pour Chamoux- que, subrepticement, les relations de confiance et l'enthousiasme conquérant du service public téléphonique se sont peu à peut transformées en un scepticisme inquiet, voire en une certaine désespérance ».

Dès lors - craint-il (en1995)- l'avenir des 150.000 fonctionnaires de France Telecom risque de s'avérer plus difficile à gérer que celui de ses 30 millions de clients.

Au total, « la réglementation française, révisée et complexifiée considérablement en 1990, reste profondément publique et régalienne » (les rares opérateurs, autres que l'exploitant public, sont encadrés par des cahiers des charges trop restrictifs).

Les pilotages et les prélèvements publics sur les télécommunications du service public ont eu des effets pervers. Il est temps de libérer la gestion du réseau français des influences politiques, gouvernementales ou locales.

La Loi du 26 Juillet 1996 a permis d'apporter, enfin, une réponse porteuse d'avenir à toutes ces questions essentielles.

A l'étranger, d'autres expériences ont été menées, avec des effets positifs : la déréglementation britannique ; l'équipement des Länder de l'Allemagne orientale, qui donne un coup de fouet au marché allemand en le soumettant, dès 1991, à un apprentissage forcé de la concurrence oligopolistique (24(*)) ; l'essai, en Suède, du radiotéléphone rural, substitut technologique économiquement avantageux au réseau filaire établi pour la desserte de zones isolées...

Désormais, la maîtrise technologique n'est plus une condition suffisante du succès, dans un système devenu concurrentiel, oligopolistique et régulé, et la compétitivité des opérateurs se mesure à leur capacité de répondre avec souplesse et pragmatisme aux évolutions de la demande.

Avec le rattrapage téléphonique, le Minitel illustre à la fois les succès possibles, dans certaines circonstances, du colbertisme et ses limites. Il s'agit, là encore, d'une médaille qui a ses revers.

2. Le Minitel : un modèle qu'il faut savoir dépasser
mais dont les atouts doivent être exploités

Le Minitel est un exemple, rare, de réussite d'une politique de l'offre.

Aucune demande, en effet, n'existe et aucune expérience analogue n'a été tentée à l'étranger lorsque le Directeur général des télécommunications, Gérard Théry, propose au Gouvernement, en 1978, le projet de vidéotex, concurrent du Prestel britannique, en complément au plan de rattrapage téléphonique.

La proposition est donc novatrice et hardie.

Elle se heurte à l'hostilité de la presse qui y voit une menace pour les petites annonces et la publicité locale. Elle succède, par ailleurs, à l'abandon du télécopieur grand public, concurrent de la Poste.

Néanmoins, le rapport Nora-Minc sur « l'informatisation de la société » appuie le projet dont le développement trouve dans l'annuaire électronique à la fois un produit sûr et consensuel ainsi qu'un service moteur.

Il est recouru, fort judicieusement, à la méthode expérimentale pour tester à Vélizy, en 1981, les premiers services (S.N.C.F., 3 Suisses, etc...), puis l'annuaire électronique, en 1983, en Ille-et-Vilaine.

L'intérêt d'un terminal spécifique est ainsi démontré.

Le succès est tel, que les capacités du réseau Transpac doivent être augmentées en 1985. Un an plus tard, le Wall Street Journal s'extasie : «French videotext makes money».

De fait, le chiffre d'affaires du Minitel dépasse aujourd'hui les 8 milliards de francs pour 6,5 millions de terminaux installés (110 millions d'heures de consultation par an, 25.000 codes d'accès à des serveurs). Plus de 15.000 emplois ont été créés dans les nouveaux contenus et services télématiques correspondants. Des entreprises françaises ont été sollicitées, notamment pour la mise au point du logiciel d'accès à l'annuaire électronique (SEMA, Cap Sogeti) et la fabrication des terminaux (Alcatel, Matra, Thomson).

La mise à la disposition d'un aussi grand nombre de foyers d'une telle variété de services et de moyens d'information et de communication est une innovation sociale extrêmement importante.

Les raisons de cette étonnante réussite sont principalement liées :

n à la grande facilité d'usage du système ;

n à la simplicité et au faible prix de revient du terminal, distribué à l'origine gratuitement, sans supplément d'abonnement ;

n à la formule Kiosque qui repose sur la facturation du service à l'usager par l'exploitant, qui en reverse ensuite le produit au prestataire.

Le réseau sépare ainsi clairement les responsabilités de l'exploitant de celles du fournisseur de services, même si le premier joue au bénéfice du second un rôle d'intermédiaire dans l'encaissement de la rémunération des prestations.

Le modèle d'architecture retenu, de type réparti, permet l'accès aux serveurs par le réseau téléphonique, moyennant une connexion au réseau Transpac par des points d'accès vidéotex.

Le serveur peut non seulement offrir des informations à la demande à plusieurs usagers, sans avoir à les identifier (utilisations en temps partagé), mais encore permettre à ces derniers de communiquer dans les mêmes conditions (utilisations dites en messagerie ouverte ; ce caractère masqué du dialogue sur Minitel expliquant un phénomène comme les messageries «roses»).

En bref, le système Télétel comprend trois composantes essentielles :

- le terminal (Minitel),

- le réseau d'accès aux serveurs (téléphone + Transpac),

- le système «Kiosque» de facturation.

La norme utilisée permet l'affichage de caractères alphabétiques ou mosaïques, utilisables pour des graphiques simples. Plusieurs autres systèmes de vidéotex ont été élaborés dans le monde, en Europe, aux Etats-Unis et au Japon, mais aucun n'a connu une pénétration comparable.

Rattrapé, puis dépassé par l'irruption de la micro-informatique communicante multimédia et par le fantastique essor d'Internet, le Minitel conserve quelques atouts mais apparaît comme un condamné dont le sursis va bientôt arriver à expiration. Il faut, dans l'immédiat, tenter de valoriser les avantage provisoires qui lui restent, le relier par des passerelles au monde Internet, vers lequel doivent d'ores et déjà migrer certains de ses services.

Mais cet effort ne doit pas constituer un combat d'arrière-garde, entravant le dynamisme indispensable de la création d'une offre française de contenus et de services, spécifiquement adaptés aux réseaux multimédia mondiaux d'aujourd'hui.

Par rapport à ces nouveaux outils, le Minitel souffre de plusieurs handicaps : outre le fait de ne pas être multimédia, il demeure beaucoup plus lent, même dans ses versions récentes les plus rapides, que les micro-ordinateurs reliés à Internet.

Il est, à l'évidence, beaucoup moins adapté aux investigations documentaires, facilitées sur Internet par les liens hypertexte du langage H.T.M.L. (les navigateurs, moteurs de recherche et agents intelligents), pour des raisons non seulement d'ordre technique, mais liées aussi à son mode de tarification à la durée.

A ces désavantages comparatifs concernant l'usager s'ajoutent des inconvénients relatifs à la structuration d'une offre de contenus internationale compétitive.

Menée dans un contexte de rivalités nationales qui n'ont pu être surmontées, la normalisation des vidéotex a été des plus limitées, ce qui a considérablement gêné l'exportation du système français ainsi que les échanges internationaux de ce type de services de télécommunications.

Dans ces conditions, le Minitel se trouve cantonné dans l'hexagone. En outre, le modèle Télétel, s'il a l'avantage de la simplicité, «atomise» les fournisseurs de contenus, empêchant, par l'importance du rôle de l'exploitant public, que se nouent des alliances ou se développent des partenariats.

En un mot, c'est le revers de la médaille du colbertisme.

Les prestataires de services n'ont, en effet, à se préoccuper que de la création et de l'édition du contenu ainsi que de sa promotion publicitaire. Tout le reste (transport, distribution, gestion des clients et paiement) est assuré par l'opérateur, avec une seule interface pour l'accès au réseau.

Cependant, le Minitel conserve, au moins à titre provisoire, de sérieux atouts :

- Avec ses 8 milliards de chiffre d'affaires, c'est tout d'abord une manne pour les entreprises concernées ainsi que pour l'exploitant. On conçoit que celui-ci ait été tenté de profiter le plus longtemps possible de cette rente de situation. Mais il est clair que les potentiels de croissance de chiffres d'affaires dans les télécommunications se situent désormais ailleurs.

- Sa simplicité d'usage continue de conférer à notre terminal national un avantage comparatif, mais celui-ci décroît au fur et à mesure que progresse la convivialité des micro-ordinateurs et la facilité d'accès à Internet.

- En attendant que soient résolues les difficultés qui entravent encore le développement du commerce électronique sur le réseau des réseaux (cryptage, modalités de facturation et de paiement), le Kiosque demeure un système sécurisé de transaction commode pour des paiements effectués en France ou à partir de notre pays (surtout avec la formule FACITEL intégrant un lecteur de carte de crédit).

- Enfin et surtout, la France a acquis grâce au système Télétel un savoir-faire précieux qu'elle pourrait valoriser sur Internet : maîtrise des liens clients-serveurs, qualité des services (informations et transactions)... Toutefois, là encore, il s'agit d'une avance qui tend à se réduire et qui peut être rattrapée par nos concurrents, à plus ou moins brève échéance.

France Telecom a tardé à se doter d'une stratégie lui permettant de concilier la mise à profit des atouts du Minitel encore exploitables (son capital d'expérience, ses services demeurant compétitifs...) et l'adaptation à l'essor d'Internet et de la micro-informatique multimédia.

Les raisons de cette attitude sont multiples et liées à :

n L'inexistence de contraintes hâtant la remise en cause, à l'intérieur de nos frontières, du monopole de l'exploitant public, contrairement à la situation de l'Allemagne (réunification) ou des pays anglo-saxons (législation libérale).

n La tentation de profiter, en l'absence de concurrence, de rentes de situation (facturation à la durée des services Télétel, tarifs élevés pour les communications téléphoniques, notamment internationales, et le trafic de données).

n Un bilan contrasté, comportant à la fois d'éclatantes réussites (comme le rattrapage téléphonique ou le système Télétel) et de cuisants échecs (plan câble).

n Des contradictions entre un certain dynamisme (technologique, commercial, international) et des rigidités ou des pesanteurs dues à la difficulté de faire évoluer les mentalités et les statuts (culture de monopole, traditions de la Fonction Publique).

n Une certaine incompréhension initiale, empreinte de scepticisme et de condescendance, vis-à-vis d'Internet, en raison de son caractère décentralisé et coopératif ainsi que de ses premiers dysfonctionnements (problèmes de connexion, de congestion...).

n L'endettement de l'opérateur national, son embarras éventuel devant la diversification des solutions techniques possibles (A.D.S.L., M.M.D.S...) peuvent également avoir joué un rôle.

Au total, le sentiment, d'un côté, de disposer d'une certaine avance (avec le R.N.I.S. et le Minitel), la crainte d'un autre côté, en suivant les recommandations du rapport Théry, de se lancer dans un nouveau plan câble, le souci de ne pas faire disparaître, avec le Minitel, la poule aux oeufs d'or, et, enfin, les inquiétudes du personnel de France Telecom expliquent les hésitations et les lenteurs constatées.

Elles sont largement à l'origine du retard de l'entrée de la France dans la société de l'information.

L'explosion d'Internet a été subie plus qu'anticipée par la France, déjouant tous les schémas des politiques dirigistes traditionnelles de l'offre.

Désormais, le Minitel ne peut plus ignorer Internet dont la dynamique, d'emblée mondiale, est bien supérieure.

France Telecom l'a compris, qui a fait d'Internet son premier axe stratégique, en proclamant qu'« il n'y a plus d'un côté le Minitel et de l'autre Internet, mais un continuum de services ».

En effet, des passerelles ont été jetées :

n du monde Minitel vers celui des micro-ordinateurs : cartes d'émulation, ouverture du « Kiosque Micro » permettant l'accès aux services Télétel à partir des machines reliées à Internet ou à des réseaux propriétaires (compuserve ...).

n dans l'autre sens, avec l'ouverture d'un service de messagerie Internet (3615 Minitelnet) permettant aux détenteurs de Minitel de posséder une adresse E-mail et d'y recevoir du courrier électronique. Le lancement d'un Minitel-Internet, terminal simplifié permettant d'accéder, avec une grande convivialité, aux services Minitel et Internet, est d'autre part en cours de préparation.

La norme VEMMI (Videotext Enhancel Man Machine), élaborée par le C.C.E.T.T. et avalisée par l'E.T.S.I., pourrait faciliter la transition entre le Minitel et le multimédia (25(*)).

S'il est ainsi souhaitable de désenclaver le Minitel afin d'internationaliser la majeure partie de ses services, une minorité d'entre eux, des services de proximité par exemple, peuvent continuer de se contenter de ce support tel qu'il est.

3. Mais que cache donc l'accord entre France Telecom et Microsoft ?

France Télécom devrait toutefois mieux expliciter sa stratégie surtout après l'accord que ce grand opérateur de télécommunications désormais privé vient de signer avec Microsoft.

En effet, selon « La lettre des Services en Ligne » (N) du 4e trimestre 1997, France Télécom aurait signé un accord avec Microsoft pour intégrer le logiciel permettant l'accès au « Kiosque Internet » dans le futur système d'exploitation de Microsoft : Windows 98.

Nous ne connaissons pas les termes exacts de cet accord.

Selon certaines informations, il pourrait avoir pour finalité d'inciter les nouveaux utilisateurs de micro-informatique à accéder à Internet sans payer un abonnement à un fournisseur d'accès (provider).

A cette fin, le futur OS de Microsoft qui équipera plus de 95 % des PC qui seront livrés dans ces prochains mois, encapsulerait une interface graphique et un logiciel qui faciliteraient cet accès à Internet sans payer d'abonnement, ce qui voudrait dire que ces « télé-internautes » français seraient les seuls au monde à payer leur navigation sur la toile mondiale (quant au droit d'accès au réseau des réseaux) à la durée et non plus forfaitairement.

Si il en était vraiment ainsi ce serait l'avenir de tous les fournisseurs d'accès (providers) qui serait mis en péril dans notre Pays et c'est toute l'approche Internet qui en a fait sa singularité et qui en explique sa croissance exponentielle qui serait ainsi fermée à tous ces « télé-internautes » français.

Cette association du « quasi-monopole d'une grande société américaine avec la « crédibilité » qu'a su acquérir France Télécom auprès de tous les usagers du Minitel aurait un tel pouvoir de « séduction obligée » que le nombre de français qui serait séduits par la « facilité » qui leur serait proposée pour accéder à Internet atteindrait une telle importance, que la France, une fois encore, serait entraînée par un « singularisme » qui ne pourrait qu'entraver l'entrée de notre Pays dans la Société de l'Information.

Si cette hypothèse se révélait être exacte, les Pouvoirs Publics ne pourraient pas rester sans réagir.

La démarche initiée par l'accord Microsoft - France Télécom aurait, si elle se vérifiait, des conséquences néfastes si elle avait pour finalité d'engager les millions de français qui grâce au Minitel font « confiance » à France Télécom à suivre les préconisations de notre opérateur national pour entrer dans le monde Internet, en payant leur navigation à la durée .

Aussi nos gouvernants devraient, alors, prendre des positions très fermes et très claires si la situation venait à évoluer ainsi et ce d'autant plus que l'Etat est toujours majoritaire dans le capital de France Télécom.

4. L'explosion de la téléphonie mobile :
un phénomène difficilement anticipé et suivi

France Telecom et ses fournisseurs attitrés, au premier rang desquels figure Alcatel, sont efficaces dès lors qu'il s'agit de pratiquer une politique de l'offre (Minitel), à l'abri de la concurrence, ou de procéder à un ajustement volontariste et contrôlé à une demande préexistante et manifeste (rattrapage téléphonique). De sorte que notre opérateur et nos industriels font bonne figure, au niveau mondial, sur les marchés traditionnels.

Mais le dirigisme colbertiste rencontre ses limites face à des évolutions extrêmement rapides liées à l'irruption de nouveaux modes de communication. C'est le cas, on l'a vu, pour le développement d'Internet et de la micro informatique communicante multimédia. Ce le fût aussi pour l'explosion de la téléphonie mobile.

A chaque fois, nous nous trouvons à la traîne s'agissant aussi bien de l'utilisation de ces moyens que de la création des biens et services correspondants.

Dans le domaine des mobiles, ce sont d'abord les services de localisation et de messagerie ou de liaisons avec divers véhicules (bateaux, avions, camions...) qui ont été envisagés. Puis, on a assisté à une véritable explosion des usages individuels, d'abord professionnels puis grand publics, de téléphones sans fil.

Dans les deux phases, des carences d'initiative et une sorte de « retard à l'allumage » se sont manifestées.

Si nous prenons l'exemple des premiers systèmes de liaisons satellitaires avec les poids lourds (localisation et messagerie), le service Omnitracs a été opérationnel aux Etats-Unis et au Canada dès 1988.

Un programme concurrent, conçu dès 1978, était proposé par la Société Geostar qui a fait faillite en 1990. Ce projet était beaucoup plus ambitieux. Il prévoyait, en effet, une couverture mondiale, grâce à trois satellites géostationnaires, et visait à abaisser le coût de l'équipement de réception par un système centralisé et sophistiqué de localisation très précise.

Deux propositions se sont affrontées en France, chacune d'elle ne faisant que se référer à l'un des deux systèmes américains qui viennent d'être présentés.

Le CNES, d'un côté, a cherché à promouvoir en Europe le système Geostar, en créant, en 1988, la société Locstar, dont la moitié du capital était aux mains d'actionnaires français (Matra, CNES, Crédit Lyonnais...).

Alcatel, de l'autre côté, s'est allié à l'Américain Qualcom pour exploiter, en Europe, le système Omnitracs sous le nom d'Euteltracs.

France Telecom était à la fois actionnaire de Locstar et chargée de la réalisation de la station terrestre d'Euteltracs ! Et la conception des systèmes utilisés était, dans les deux cas, américaine, même si le projet Locstar présentait l'avantage pour l'industrie française de la commande de deux satellites et de la réalisation par Thomson d'un centre de commandes.

Le projet Locstar était, au départ, plus coûteux (2,8 milliards de francs) puisqu'il prévoyait le lancement de deux satellites fabriqués par Matra, alors qu'Euteltracs se contentait de louer des canaux sur des satellites d'Eutelsat déjà en orbite. Mais Locstar, qui estimait que ses coûts d'exploitation seraient moins élevés que ceux de son concurrent, espérait occuper, à la fin du siècle, 60 % d'un marché compris entre 30 et 50 milliards de francs.

La faillite de l'actionnaire américain, promoteur du système Geostar, et le refus de la COFACE de garantir les emprunts de Locstar ont entraîné la mise en liquidation de la société en juillet 1991, alors que Matra avait presque terminé le premier satellite.

Le service Omnitracs a commencé à être commercialisé en France en juillet 1991 (trois ans après l'Amérique du Nord!) par TSM (Télécom Systèmes Mobiles), filiale de France Telecom.

Ce triste épisode, d'autant plus dérisoire qu'il s'agissait, encore une fois, de la promotion en France de systèmes étrangers, est un exemple majeur d'incohérence stratégique des pouvoirs publics, chargés à la fois de la tutelle du CNES et de celle de France Telecom, rivaux en l'occurrence.

Concernant l'évolution, plus récente de la téléphonie mobile, la croissance du marché, d'environ 40 % par an, est encore plus rapide que celle des ventes dans la micro-informatique. C'est à l'instar d'Internet, le phénomène le plus marquant du moment.

Le nombre d'abonnés dans le monde a franchi le cap des 500 millions. Et le marché des infrastructures, estimé à 90 milliards de francs en 1996 (tous supports et logiciels de transmission confondus) devrait dépasser les 160 milliards de francs dans cinq ans.

Les enjeux sont considérables : il s'agit désormais d'un marché grand public, en même temps que professionnel. Il constitue, pour les opérateurs américains spécialisés dans les longues distances, un moyen privilégié de concurrencer les «Baby Bells» sur la boucle locale.

Or, que constate-t-on ?

Fin 1996, le taux d'équipement des Français n'était que de 4,3 %, contre plus de 10 % en Italie et au Royaume-Uni, et de 25 à 29 % dans les pays scandinaves.

Seule l'arrivée d'un troisième acteur, Bouygues-Telecom, cherchant à séduire le grand public par des propositions forfaitaires attrayantes, a réussi à emballer quelque peu le marché national dont la progression était demeurée jusque-là très poussive.

Sur le plan industriel, Alcatel, comme d'autres très grands groupes, tels Siemens, Nortel (allié à Matra) ou Lucent Technologies (ex AT & T), se sont laissés distancer par les pionniers : Motorola, Ericsson ou Nokia. Ils tentent aujourd'hui un retour en force en s'appuyant sur leur puissance financière, leur implantation internationale et leurs relations privilégiées avec les grands opérateurs. Ainsi Alcatel, associé à France Télécom, après un réel retard à l'allumage a su depuis le début de 1997 faire preuve d'une réelle réactivité. Ce grand groupe est toutefois, comme d'autres groupes importants, encore handicapé (provisoirement ?) par des retards technologiques dans ce domaine de la téléphonie mobile le contraignant à faire appel aux compétences de Motorola dans les techniques radio.

Les investissements annuels et les coûts de recherche développement sont très élevés et les parts de marché, de ce fait, décisives.

Il importe également - ce à quoi les plus grands n'étaient pas nécessairement habitués- de savoir renouveler rapidement les gammes de produits, compte tenu des progrès des semi-conducteurs, de pouvoir déployer ou augmenter tout aussi vite les capacités des réseaux, et se montrer très attentif aux besoins de la clientèle (solutions à la demande, clés en main, service après vente...).

Mais les problèmes de norme sont également cruciaux.

L'adoption des spécifications communes GSM de téléphonie mobile numérique est pour beaucoup dans le décollage du marché européen. Une norme complémentaire a été définie en ce qui concerne l'accès sans fil à la boucle locale (DECT : Digital European Cordless Telecommunication). Mais la technologie américaine CDMA (code division multiple access) a de fortes chances de s'imposer dans le futur, en raison de son meilleur potentiel d'évolution vers les hauts débits.

Les questions relatives à l'occupation des orbites par les satellites et des fréquences hertziennes sont tout aussi importantes que celles concernant les normes.

On l'a vu avec les systèmes satellitaires de localisation et de messageries des mobiles terrestres, et cela se confirme avec les projets actuels de constellations de satellites défilant en orbite basse : l'initiative en matière de télécommunications par satellites semble appartenir presqu'exclusivement aux Américains.

Ces derniers ont en effet conçu, en ce qui concerne le téléphone, deux projets à couverture mondiale, incluant les appareils mobiles, qui devraient commencer à devenir opérationnels en 1998 :

n IRIDIUM de Motorola (66 satellites interconnectés)

n GLOBALSTAR de Loral , auquel participe Alcatel (48 satellites reliés aux réseaux terrestres).

S'agissant de systèmes multimédia, le projet Teledesic de Microsoft et Mac Caw est un projet extrêmement ambitieux qui prévoit le lancement d'un grand nombre de satellites interconnectés pour permettre des liaisons Internet qui ne passeront pas par la boucle locale. De sorte qu'à la conférence mondiale sur les radiocommunications (CMR) de 1995, Bill GATES semblait ainsi en mesure, en l'absence d'initiatives concurrentes, d'acquérir un monopole planétaire en la matière.

Mais, depuis lors, Motorola a, de son côté, lancé un projet concurrent baptisé Celestri dans la même bande de fréquences Ka.

Alcatel, pour sa part, a réagi en concevant un autre ensemble, de moindre envergure, de 64 satellites transparents, dénommé Sativod puis « Skybridge », auquel doit participer l'Américain Loral.

Une autre bande de fréquence (Ku), déjà occupée par des satellites géostationnaires, doit être utilisée.

La CMR qui s'est tenue, fin 1997, à Genève s'est orientée comme le souhaitait les les Européens, vers un compromis favorisant la concurrence entre plusieurs constellations satellitaires multimédia.

Avec cette autorisation donnant le feu vert à Skybridge,Alcatel semble ainsi pouvoir relever la tête dans ce secteur vital pour l'avenir des télécommunications satellitaires.

Au-delà de sa restructuration industrielle en cours (qui passe par la cession d'activités périphériques), le groupe mise sur la réingéniérie de ses matériels et le développement de nouvelles compétences, en particulier dans les logiciels et les services.

Dans les mobiles, Alcatel a enregistré une progression de 40 % de ses commandes, ce qui est compatible avec l'objectif de 20 % de part de marché qu'il s'est fixé d'ici l'an 2000.

Deux-tiers de ses investissements sont consacrés aux infrastructures.

Mais la partie est cependant loin d'être gagnée.

Le retard de la France n'épargne donc en rien ses positions industrielles et technologiques, même si une réaction est en cours dans les domaines concernés. Les causes en sont, pour partie, d'ordre législatif et réglementaire (ouverture plus tardive à la concurrence, mise en place plus lente d'un cadre juridique adapté permettant un partage des fréquences et une nouvelle régulation des activités considérées). De ce fait, notre demande intérieure avait été peu stimulante jusqu'au dernier semestre 1997.

*

* *

Au total, le bilan de l'évolution en France des trois secteurs (informatique, audiovisuel, télécommunications), dont la convergence caractérise l'entrée dans la société de l'information, est contrasté.

Des erreurs magistrales (plans calcul, informatique pour tous, plan câble), côtoient certaines réussites (le rattrapage téléphonique, le minitel), même si les résultats des télécommunications sont comparativement meilleurs que ceux de l'informatique ou de l'audiovisuel.

Il s'agit -semble-t-il- pour nous d'un relatif point fort.

En aucun cas, nos capacités techniques n'ont été réellement prises en défaut. Même en informatique, notre principal point faible, où, on l'a vu, la qualité des produits de la gamme Iris de la CII, a surpris.

Certes, nous avons parfois éprouvé des difficultés à trouver le juste milieu entre surenchère (tubes à onde progressive des satellites TDF, réseaux optiques du plan câble) et conservatisme technologiques (insuffisante anticipation de l'arrivée en force de la micro-informatique, d'Internet, du téléphone mobile, sans parler de celle du magnétoscope...).

Mais, par ailleurs, le choix, en son temps, de la commutation électronique temporelle numérique a représenté, à cet égard, un parfait exemple de ce qu'il faut faire.

Nos défaillances ne sont donc pas tant technologiques que stratégiques (insuffisante adaptation à la demande) ou politiques (préparation trop lente ou incomplète à la fin des monopoles).

Il en résulte une impression de « stop and go », l'alternance de phases d'élan et de relative stagnation.

Autant dire qu'il convient à nouveau de se poser la question : comment tirer au mieux les leçons du passé ?

Deux erreurs opposées doivent être évitées : commettre les mêmes fautes ou, au contraire, par crainte de les recommencer, ne pas se montrer suffisamment entreprenant.

Les politiques dirigistes de l'offre, le colbertisme high tech ont montré leurs limites et leurs dangers, même s'ils ont pu avoir, en certaines circonstances, des aspects positifs.

Mais ils ne sont plus, à l'évidence, adaptés à un contexte dans lequel l'accélération du progrès technique, la déréglementation et la mondialisation du marché imposent de privilégier la réactivité, l'adaptation à la demande, en un mot, la satisfaction du client.

Mais ce serait faire preuve d'un libéralisme naïf que de souhaiter, pour autant, un désengagement total des pouvoirs publics du secteur des nouvelles techniques d'information et de communication : ces derniers ne doivent pas se contenter de définir un cadre libéral propice à l'exercice et à la régulation des activités correspondantes. Ils doivent aussi, comme chez nos concurrents, soutenir la recherche dans ce domaine, participer au financement des infrastructures dédiées à l'enseignement, veiller à l'égal accès de tous aux réseaux...

En d'autres termes, l'essentiel est de substituer à la société d'arrogance, dans laquelle les élites administratives et politiques et l'establishment industriel peuvent dilapider, en toute impunité, des fonds publics considérables, une société de confiance dans l'innovation et dans les forces du marché, exploitées par l'initiative privée, au sein d'un environnement qui leur soit rendu enfin favorable par l'Etat.

II. ENVIRONNEMENT INSUFFISAMMENT FAVORABLE
A LA CREATION ET A L'UTILISATION DES NOUVELLES
TECHNIQUES D'INFORMATION ET DE COMMUNICATION

Pour que l'introduction des NTIC dans notre pays soit favorable à l'emploi, il importe que nous en soyons non seulement des utilisateurs mais aussi des créateurs.

Le développement d'activités nouvelles, l'amélioration de la qualité des produits et des services, la recherche, grâce à elles, de nouveaux débouchés et d'une croissance plus soutenue doivent ainsi l'emporter sur des considérations tendant à privilégier exclusivement les gains de productivité, la défense des parts de marché et l'assainissement des bilans financiers.

En effet, l'innovation crée des emplois quand elle débouche sur une offre de nouveaux produits et services ; mais elle en détruit si elle est réduite à la rationalisation d'activités traditionnelles, au moyen de techniques ou de procédés venus d'ailleurs.

Or, malgré une prise de conscience récente de ce problème par les pouvoirs publics, l'environnement financier, fiscal et administratif français demeure trop peu favorable à la création d'entreprises innovantes.

L'utilisation des NTIC n'est pas non plus encore suffisamment encouragée, notamment en ce qui concerne la tarification de l'usage des réseaux.

A) LA CRÉATION D'ENTREPRISES INNOVANTES
N'EST PAS ASSEZ ENCOURAGÉE

Les nouvelles techniques d'information et de communication représentent un potentiel de croissance, donc d'emplois, important, que ce soit dans les infrastructures, les équipements et services ou les logiciels.

Elles contribuent ainsi (avec les autres technologies nouvelles) à un tiers de l'augmentation annuelle du PIB américain.

Il est clair que l'avance considérable acquise par les Etats-Unis dans ce domaine n'est pas due essentiellement à des géants bien établis, comme IBM ou ATT (malgré l'inventivité des BellLabs), mais à des firmes beaucoup plus récentes, comme Intel (1968), Microsoft (1975), Oracle (1977) parties de presque rien pour devenir aujourd'hui des acteurs majeurs au niveau mondial.

Intel et Microsoft font désormais partie de l'establishment. Mais tandis que la concurrence d'AMD et Cyrix devient sérieuse pour le premier, la dynamique d'Internet a eu sur le second des effets déstabilisateurs et l'oblige à une vigilance et une adaptation permanentes. Les succès du navigateur de Netscape, la stratégie des tenants des ordinateurs de réseaux (Network Computer), et les promesses du langage java le poussent notamment à réagir.

D'étonnantes percées sont possibles dans le domaine des serveurs (Sun Microsystems), des matériels (3Com et US Robotics) et logiciels de réseau (Oracle). Elles sont souvent le fait de petites sociétés émergentes (start-up) dont les grands groupes peuvent ensuite s'efforcer de prendre le contrôle (cf l'acquisition de Web TV par Microsoft, ou de Nexgen, spécialisée dans les clones de Pentium, par AMD etc..).

C'est l'éclosion de ce type d'entreprises qu'il nous faut absolument favoriser en France.

Des opportunités de réussite éclatante leur sont ouvertes, en particulier en matière logicielle (en dehors des logiciels d'exploitation exclusivement américains) pour une mise de fond initiale limitée, s'agissant d'investissement immatériel.

C'est ainsi que Business Object est devenu l'un des leaders mondiaux en ce qui concerne l'aide à la décision par l'exploitation de base de données, de même qu'O² Technology pour les systèmes de gestion des bases de données objet ou ILOG dans l'optimisation des ressources en temps réel.

Il n'est pas rare que de telles entreprises doublent leur chiffre d'affaires en une année, la diffusion de logiciels n'étant soumise, contrairement aux activités de services informatiques, à aucune contrainte matérielle particulière.

Mais le démarrage d'une activité innovante, dans le cadre ou non d'une entreprise nouvelle, suppose de rassembler autour de la promotion d'un projet original, des ressources financières et humaines variées, avec la bienveillante confiance du fisc et de l'administration.

Il ne s'agit pas d'une pratique isolée, développée ex nihilo, mais souvent du produit d'une activité de recherche d'un ou plusieurs laboratoires publics ou privés, d'un essaimage à partir d'organismes publics (comme l'INRIA) ou d'entreprises du secteur concurrentiel (Cf Dassault Systems).

Il n'y a pas ainsi nécessairement création d'une personne morale nouvelle mais parfois seulement filialisation, réorientation ou changement d'objet social, dans le cadre par exemple de la reprise d'une entreprise en difficulté ou d'une prise de contrôle extérieure.

Le recours à l'expertise, au conseil ou à la participation de personnes expérimentées s'avère par conséquent indispensable.

Or, le bilan global de la création d'activités innovantes en France n'est pas satisfaisant. Des carences graves se manifestent malgré les mesures prises qui se révèlent donc insuffisantes.

1. Un bilan global médiocre

Dans son livre blanc «Pour la création d'un environnement favorable aux entreprises de croissance», l'association « Croissance plus » s'alarme :

« La France dispose d'atouts considérables qui sont largement sous-exploités aujourd'hui. Elle a une population particulièrement bien éduquée. Ses ingénieurs sont très recherchés. Cela devrait lui permettre d'être un acteur important de la révolution technologique. Les Français ont de plus la réputation méritée d'être créatifs ».

Or, «notre pays est en train de passer à côté de l'un des plus formidables gisements de croissance, de richesse et d'emploi de l'histoire de l'humanité. Il n'y a que deux éditeurs de logiciel français parmi les 50 premiers mondiaux. Il n'y a aucun Français parmi les 10 premiers constructeurs mondiaux d'ordinateurs et seulement une société française parmi les 10 premiers mondiaux des semi-conducteurs».

Depuis deux ans, le nombre de créations d'entreprises en France baisse chaque année de 5.000.

M. LAFFITTE, dans son avis sur le budget de la recherche pour 1998, constate de son côté que si la France figure au 4e rang des pays industrialisés pour son effort en recherche et développement technologiques, elle n'occupe que le 22e rang en termes de mise sur le marché de produits ou de prise de brevets d'innovation.

2. Des carences graves

Les carences constatées, en ce qui concerne l'environnement des entreprises innovantes, sont d'ordre culturel et concernent la mobilisation des ressources humaines et financières dont elles ont besoin, ainsi que leurs contraintes fiscales et administratives.

n sur le plan culturel, on l'a vu à propos des valeurs de la société de l'information, le créateur d'entreprises ne bénéficie pas dans notre pays de l'image de héros national qui devrait être la sienne. Les vocations d'entrepreneurs sont trop peu nombreuses et le goût du risque insuffisamment développé, par suite de l'absence de droit à l'échec.

Aux Etats-Unis au contraire -souligne Croissance Plus- « les entrepreneurs de la Silicon Valley affichent leurs créations avortées avec la fierté d'un officier prussien exhibant les cicatrices de ses blessures au combat ».

n concernant les ressources humaines, outre l'insuffisance, évoquée plus haut, du nombre d'entrepreneurs, on peut regretter la quasi inexistence de ce que les Américains appellent des « business angels » issus d'une véritable « seed generation ». Il s'agit d'entrepreneurs qui, après avoir réussi dans la création d'une société de technologie, consacrent leur temps et une partie de leur patrimoine à aider des débutants. Ils constituent pour ces derniers des sortes de parrains ou de modèles.

Malheureusement, les rares personnes qui pourraient jouer ce rôle en France sont trop souvent incitées à émigrer dans des pays plus accueillants pour des raisons, entre autres, fiscales.

Or, « pour fixer les jeunes entrepreneurs en France -observe Croissance Plus- il faut commencer par fixer leurs modèles ».

Un frein important au développement du capital risque dans notre pays -note par ailleurs la même association-, en plus du manque de fonds disponibles, provient de la rareté de gestionnaires de qualité.

L'entrepreneur a besoin, en effet, de s'entourer de cadres ayant appris leur métier dans de grandes sociétés reconnues du secteur. Or, d'une part, il est difficile de trouver sur place des managers possédant les compétences requises (en technologie, marketing, R & D ou finance), du fait de la suprématie américaine dans ces domaines ; d'autre part, les régimes de stock options (26(*)) en vigueur ne sont pas suffisamment attractifs pour inciter une personne à abandonner un poste sûr et bien rémunéré, pour exercer des responsabilités dans une jeune entreprise innovante.

n S'agissant des ressources financières, celles-ci peuvent consister en crédits bancaires, subventions publiques ou dotations en capital.

Ce financement de l'innovation par le crédit trouve vite ses limites dès lors qu'il s'agit d'investissement immatériel. Le CEPME peut néanmoins accorder des prêts, en accompagnement, lorsqu'il y a un programme d'équipement correspondant. Mais en cas d'innovation «de rupture», il doit être fait appel aux fonds propres.

Toutefois, les activités de capital risque ont démarré aux Etats-Unis, sous l'impulsion des banques d'affaires qui s'échangeaient les titres d'entreprises en croissance.

Mais, contrairement à leurs consoeurs anglo-saxonnes, les banques françaises ont toujours semblé réticentes à cet égard, comme en témoigne encore la rareté des projets de création de Fonds commun de placement innovation (FCPI) mis à part ceux des Banques populaires et du groupe ABN-AMRO.

Des risques inconsidérés ont pourtant été pris dans d'autres domaines (ne serait-ce que l'immobilier de bureau), comme l'illustre la déconfiture du Crédit lyonnais.

Des crédits relais seraient pourtant parfois nécessaires pour aider des jeunes entreprises en manque de fonds propres, à surmonter certaines crises de croissance (progression des ventes nécessitant par exemple une forte augmentation du fonds de roulement) ou à passer un cap difficile lorsque leur projet paraît viable et presque sur le point d'aboutir.

Faute de tels prêts et dans l'impossibilité d'augmenter leur capital, de jeunes entreprises -pourtant prometteuses- sont ainsi conduites à la cessation de paiement, les sociétés de capital risque se retirant de leur tour de table au premier problème rencontré.

Néanmoins, les établissements financiers, selon un article paru dans Usine Nouvelle en février1996, contribuent à la croissance des PMI à hauteur de 50 milliards de francs par an (70 milliards en incluant le crédit bail). Mais il ne s'agit pas seulement, loin s'en faut, d'innovation ; cette somme est à comparer avec les 3,5 à 4 milliards de francs par an d'apports de sociétés de capital risque et de capital développement, et avec les 1 à 2 milliards qui devraient pouvoir être récoltés sur le nouveau marché.

Il doit être noté que les banques régionales ou mutualistes (CIC, Crédit agricole, Banques populaires) semblent plus impliquées que les autres.

Concernant les subventions, qui sont un mal parfois nécessaire, les deux principaux instruments disponibles sont, d'une part, le FRT (fonds de la recherche et de la technologie) et, d'autre part, les aides de l'ANVAR (agence nationale de valorisation de la recherche).

Doté pour 1998 de 412 millions de francs en autorisations de programme et de 726 millions de francs, en crédits de paiement, le premier, non affecté, a l'avantage de la souplesse, et tend à être recentré sur les PME-PMI et à encourager les partenariats entre la recherche privée et la recherche publique. Il finance généralement de 30 à 50% du coût des projets concernés et exerce donc un effet multiplicateur. Son montant a beaucoup baissé depuis 1992 où il atteignait 1,4 milliard de francs.

L'intervention de l'ANVAR, elle, se situe principalement dans les secteurs traditionnels et pour un tiers seulement, environ, dans les hautes technologies ; il s'agit alors surtout de création d'entreprises.

En 1996, près de la moitié des 1800-PME-PMI soutenues par l'agence, dans leurs projets d'innovation, étaient des entreprises jeunes, de moins d'un an d'existence, présentant un taux ou un potentiel de croissance élevé. Une minorité importante d'entre elles (42 %) relevaient des secteurs manufacturés et la majorité de celui des services. On ignore quelle est la part des TIC dans cet ensemble.

Près de 400 jeunes entreprises ont ainsi bénéficié d'une aide à la création (pour près de 180MF), 44% des projets correspondants concernant les hautes technologies.

Les aides de l'ANVAR présentent l'avantage pour le contribuable d'être accordées sous la forme d'avances remboursables. L'action de l'agence peut être considérée comme efficace. Elle est largement décentralisée grâce à ses délégations régionales, et s'effectue en réseau et en collaboration avec les ministères de l'Industrie et de la Recherche, ainsi qu'avec les collectivités territoriales et, au niveau européen, avec les partenaires de l'initiative Eurêka.

Cette dernière structure, souple et légère, soutient des projets, proches du marché et émanant des acteurs économiques de base, qui associent des entreprises de plusieurs pays d'Europe. Les technologies de l'information qui représentent plus du quart des nouveaux projets à participation française en 1997, arrivent en tête des secteurs aidés.

L'ANVAR favorise aussi le recrutement de chercheurs par les PME (docteurs, ingénieurs et élèves ingénieurs, universitaires et étudiants) et exerce sa capacité d'expertise, au bénéfice des pouvoirs publics, s'agissant, par exemple, de l'agrément des entreprises innovantes éligibles aux FCPI (Fonds commun de placement pour l'innovation), de la gestion des CORTECHS (Conventions de formation par la recherche des techniciens supérieurs) ou de la labellisation des projets Eurêka à participation française.

Au total, on retiendra cependant la forte baisse, depuis 1992, de la dotation du FRT et le faible montant (44 % de 180MF, soit 79,2 MF) des aides de l'ANVAR à la création d'entreprises de haute technologie.

Concernant les fonds propres, il existe en France une dizaine de fonds de capital risque qui investissent chaque année environ 1milliard de francs dans de jeunes entreprises. Cet effort, pour être proportionné à celui accompli aux Etats-Unis, devrait être au moins cinq fois plus important. 55 milliards de francs sont en effet consacrés chaque année au capital risque en Amérique. Aussi les placements des fonds français devraient-ils atteindre 5 à 7 milliards.

En outre, les investisseurs en capital risque français n'investissent pratiquement jamais au stade de l'amorçage.

Le capital d'amorçage, qui doit associer des « business angels », évoqués plus haut, aux amis et à la famille de l'entrepreneur, est ce qui fait le plus défaut en France.

Les raisons en sont diverses : manque d'une culture d'actionnariat, faiblesse du nombre d'entrepreneurs ayant réussi, propension de ces derniers à émigrer, pour des motifs principalement fiscaux, et à réinvestir, par conséquent, dans d'autres économies.

Contrairement au capital d'amorçage, le capital risque a au moins le mérite d'exister dans notre pays. Mais il n'y bénéficie pas, comme aux Etats-Unis, des ressource stables et abondantes d'une épargne de long terme telle que celle des fonds de pension, malgré quelques velléités (comme nous le verrons plus loin).

Il ne suffit pas, en effet, d'inciter fiscalement les particuliers à investir dans des sociétés non cotées ou d'offrir aux premiers apporteurs la possibilité de sortir du capital des jeunes entreprises, en créant un marché spécifique où sont émis et négociés des titres représentatifs des participations correspondantes.

Certes, les capitaux à risque doivent se voir offrir une certaine mobilité, mais il faut que ce soit surtout des capitaux patients.

Ce n'est qu'à long terme (à un horizon de plus de dix ans) qu'au sein d'un portefeuille diversifié, les gains compensent, à coup sûr, les inévitables pertes. Cependant, dans les établissements très spécialisés, des experts particulièrement compétents s'efforcent de sélectionner rigoureusement les projets à soutenir, dont les chances de réussite sont les plus fortes.

n Concernant, enfin, l'environnement administratif et fiscal des entreprises de croissance en France, il passe - selon Croissance Plus - pour l'un des plus défavorables parmi les pays développés.

Sur le plan administratif, tout d'abord, les services adressent aux PME une demande d'information quasiment identique à celle exigée des plus grands groupes.

En outre, un récent rapport du Plan a recensé pas moins de 113 formes différentes d'aides aux entreprises, parmi lesquelles une trentaine concernent exclusivement la création ou la reprise d'entreprises. Les plus petites d'entre elles semblent proportionnellement très peu aidées. Le guichet unique apparaît comme l'Arlésienne!

D'autre part, le temps consacré par les responsables d'entreprises, candidats à une aide, à traiter la paperasserie administrative est soustrait de celui dévolu aux activités productives. Ces mêmes tâches accaparent souvent aussi, en les détournant de leur mission, les personnes extérieures à la société, dont les conseils en gestion ou en stratégie ont été sollicités.

La peur de franchir des seuils réglementaires, sociaux ou fiscaux, freine ainsi la croissance des très petites entreprises.

La plupart des aides sont conçues, par ailleurs, pour soutenir des investissements lourds alors que l'industrie ne représente que moins de 10% des créations. Il est dès lors difficile de trouver un financement pour les investissements immatériels ou d'un montant modeste, bien que nécessaires .

Mais ce sont les charges sociales et fiscales qui s'avèrent les plus dissuasives : pour une jeune entreprise, de simples retards de paiement de l'URSSAF peuvent avoir des conséquences catastrophiques. La rigidité des procédures de licenciement, longues et coûteuses, est également source d'inhibition. L'échec est lourdement sanctionné : le chef d'entreprise n'a pas droit aux indemnités de chômage, et de simples administrateurs sont susceptibles d'être considérés comme dirigeants de fait et d'être tenus d'éponger les dettes sociales de l'entreprise.

Les modalités de calcul de l'ISF et le régime des stocks options sont par ailleurs peu propices (c'est un euphémisme) à la constitution d'une «seed generation» ainsi qu'à l'engagement personnel, non seulement du temps mais aussi d'une partie du patrimoine, de «business angels», dans l'aide à des entreprises nouvelles.

Notre fiscalité ne comprend pas, enfin, de dispositions susceptibles de faciliter l'appel à des gestionnaires étrangers de qualité (27(*)) ou l'implantation en France de sociétés de technologie étrangères (28(*)).

3. Des mesures partielles qui vont dans le bon sens

La prise de conscience par les pouvoirs publics de l'importance capitale de la création d'entreprises innovantes et surtout les mesures concrètes en leur faveur sont récentes.

Des instruments ont été mis en place par le précédent comme par l'actuel Gouvernement, qui semble en avoir fait l'une de ses priorités, ce dont on ne peut que se féliciter, encore que les mesures prises soient insuffisantes, comme on le verra plus loin.

Une analyse de l'INSEE a mis en évidence, en 1995, un gisement de près de 7.000 entreprises non cotées ayant un chiffre d'affaires de plus de 50 MF et un taux de croissance supérieur à 15 %. Mais, dans la même année, moins de 300 MF étaient investis dans les PME-PMI innovantes, en création ou en démarrage, qui souffraient d'une cruelle insuffisance de fonds propres.

Pourtant, une étude sur l'impact du capital investissements en France (capital développement + capital risque), réalisée en 1996 par l'AFIC et Cooper & Lybrand, démontrait que les performances des PME qui en avaient bénéficié étaient en tout point supérieures à la moyenne (croissance, exportations, emploi, dépenses de R&D, etc.).

Dès lors, un certain nombre d'initiatives tendant au renforcement des fonds propres de ce type d'entreprises allaient être prises bien que certains instruments existent déjà, par exemple :

n quelques rares sociétés spécialisées dans le capital risque et l'investissement dans l'innovation, telles que CDC-Innovation, filiale de la Caisse des Dépôts, ou Finovelec , émanation d'EDF et de l'IDI (Institut du Développement Industriel) ;

n la SOFARIS, qui apporte des garanties aux financements des banques et des sociétés dans ce domaine ;

n sur le plan fiscal, l'un des plus anciens mécanismes, encore en vigueur, tend à inciter, de façon très générale, les entreprises à augmenter leurs activités de recherche-développement. Il s'agit du crédit-impôts-recherche (CIR), institué en 1982 et reconduit pour trois ans à compter du 1erjanvier 1996, moyennant certaines modifications relatives à l'aménagement du territoire (modulation de la prise en compte des dépenses de fonctionnement selon la localisation des activités considérées).

Le CIR consiste en une réduction, voire en une restitution (en cas d'accroissement de l'effort de R&D) de l'impôt sur les bénéfices des sociétés.

Ses principaux avantages tiennent à son caractère stable, général et automatique : l'allégement fiscal est de droit, il est consenti sur simple déclaration, sans autorisation préalable.

C'est donc un dispositif simple et neutre, qui n'implique, en principe, de la part de l'administration, ni ingérence, ni décision à caractère discrétionnaire et discriminatoire. Près de 8.000 entreprises en ont bénéficié en 1996 (dont presque la moitié ont eu droit à une restitution d' IS). Le CIR semble favoriser particulièrement les PME et l'embauche de chercheurs et de techniciens.

Plus récemment, de nouveaux moyens ont été mis en place :

S'agissant du renforcement, hautement prioritaire, des fonds propres des entreprises innovantes, on doit tout d'abord se féliciter de l'ouverture, à Paris, au début de 1996, d'un marché spécifique, analogue au NASDAQ américain, sur lequel peuvent être acquises et échangées des parts du capital des sociétés concernées.

Ces dernières se voient offrir, ainsi, des possibilités de financer leur croissance par des augmentations de capital. Les apports initiaux peuvent s'en trouver encouragés dans la mesure où leurs auteurs peuvent désormais espérer pouvoir se désengager ultérieurement plus facilement du capital de la société créée à l'occasion de son introduction éventuelle sur ce nouveau marché.

La Bourse de Paris a très bien accueilli l'ouverture de ce compartiment de cotation réservé aux entreprises jeunes, innovantes et à fort potentiel de croissance. Le rythme des introductions s'est montré, d'emblée, très soutenu (une vingtaine dans les quatre premiers mois...).

Toutefois, pour relever les défis, il faudrait qu'un marché ayant une base comparable au Nasdaq américain s'installe rapidement sur l'ensemble de l'Union Européenne. Notre base européenne s'appuyant sur quelques 350 millions d'habitants pourrait alors soutenir la comparaison face au Marché américain qui s'appuie sur 265 millions d'habitants.

S'agissant des PME innovantes qui ne sont pas encore susceptibles d'être cotées, la création, en 1997, de fonds communs de placement dans l'innovation (FCPI) devrait permettre une mobilisation en leur faveur de l'épargne des particuliers.

A côté de ces initiatives incontestablement positives, d'autres mesures, à portée plus limitée, tendent à atténuer l'impact éventuellement défavorable de décisions plus discutables.

On peut citer :

n l'exonération des entreprises réalisant moins de 50 MF de chiffre d'affaires de la contribution temporaire sur l'impôt sur les sociétés

n l'assouplissement du régime des FCPI susvisés en ce qui concerne les sociétés éligibles et leurs conditions de détention par des personnes physiques (loi de finances rectificative pour 1997) ;

n l'exemption des parts de fonds communs de placement à risque du régime commun d'imposition des produits de placement des OPCVM (29(*)) de capitalisation (art. 209.0A du CGI résultant de la loi de finances pour 1993) ;

n le principe du non-assujettissement à l'impôt sur le revenu des produits des contrats d'assurance vie investis en titres non cotés ou cotés sur le nouveau marché

n ou, enfin, le report d'imposition des plus-values de cession de droits sociaux en cas de remploi dans les PME nouvelles

Concernant les stock options, il s'agit - comme le souligne Croissance Plus- du seul moyen permettant à de jeunes entreprises innovantes, à potentiel de forte croissance, d'attirer des collaborateurs expérimentés de haut niveau, en leur faisant accepter d'abandonner un poste de responsabilité, bien rémunéré, dans une société solidement établie.

Or, la loi de Décembre 1996, sous prétexte de remédier à des abus réels, a privé ce système de tout son intérêt, en considérant les gains réalisés à travers lui comme un salaire soumis aux charges sociales.

Les effets négatifs de cette législation, d'autant plus malheureuse qu'elle était rétroactive, ne se sont pas fait attendre : délocalisation de créations de sociétés, impossibilité de recruter des collaborateurs étrangers, menaces de démissions ou de levées d'option de cadres, risques de procès intentés par des actionnaires anglo-saxons.

Dans ces conditions, la création, par l'article 50 du projet de loi de finances pour 1998, de bons de souscription de parts de créateurs d'entreprise apparaît comme une heureuse initiative (le prix en est fixé définitivement lors de leur souscription, et le gain net, réalisé lors de leur cession, taxé au taux privilégié de 16 % ou de 30 % si le bénéficiaire exerce son activité depuis moins de deux ans dans la société émettrice).

Les mesures qui viennent d'être décrites vont certes dans le bon sens mais elles demeurent insuffisantes.

4. Les insuffisances qui demeurent

On doit tout d'abord noter que les dispositions tendant à favoriser l'investissement dans les entreprises innovantes sont moins généreuses que celles consenties dans le passé pour le soutien de l'activité d'autres secteurs (construction de logements locatifs, contributions au développement économique de l'outremer, souscriptions en faveur du cinéma ou de l'audiovisuel, régime des quirats de navire).

Ainsi :

n L'avantage fiscal consenti aux souscripteurs de parts de FCPI est soumis à des conditions beaucoup plus restrictives que celles dont étaient assorties les déductions accordées, par exemple, au titre des investissements outre-mer ou des souscriptions de parts de SOFICA (30(*)) ;

n Le seul dispositif des quirats de navire (souscription de parts de copropriété de navires de commerce), supprimé par la loi de finances pour 1998, coûtait à l'Etat environ 2 milliards de francs, soit environ le double du montant total des investissements annuels des fonds de capital risque français.

Or, l'investissement dans les entreprises innovantes représente pour le fisc (et la sécurité sociale) la promesse de rentrées ultérieures importantes au titre des emplois créés (impôts sur le revenu), de la croissance du chiffre d'affaires réalisé (impôt sur les sociétés) et de l'imposition des valeurs mobilières.

Les incitations proposées devraient donc être beaucoup plus fortes et franches qu'elles ne le sont (comme nous le verrons avec les recommandations du chapitre VIII).

Il serait souhaitable, notamment, de prévoir des mesures spécifiques en faveur :

n des «business angels», ces entrepreneurs en activité qui mobilisent une partie de leur patrimoine pour venir en aide à une jeune entreprise (aménagement de l'ISF) ;

n du capital d'amorçage (augmentation des plafonds de réduction d'impôts de l'article 199 terdecies du CGI au titre des souscriptions en numéraire des actions de sociétés nouvelles et non cotées).

Concernant les FCPI, certaines exigences fiscales ne correspondent pas aux réalités des pratiques du capital risque (détention majoritaire du capital par des personnes physiques ; nécessité d'investir, pendant l'exercice même de leur levée, 60 % des fonds rassemblés, ce qui est beaucoup trop bref...). Il conviendrait de faire confiance aux gestionnaires de ces fonds pour l'appréciation du caractère innovant des activités concernées. Il semble, en effet, que ceux-ci ont naturellement tout intérêt à sélectionner des projets de ce type, tandis que les délais nécessaires à leur validation par l'ANVAR risquent de handicaper les FCPI, par rapport aux autres FCPR, dans la constitution de leurs premiers tours de table.

Par ailleurs, il semblerait normal que l'intégralité de ces fonds (et non 60 %) soit investie dans des sociétés non cotées, les sociétés cotées ayant l'avantage, de leur côté, de pouvoir accéder au nouveau marché.

Concernant le Crédit Impôt Recherche (CIR) déjà évoqué, il semble que son esprit initial, fondé sur la confiance faite au contribuable (allégement de droit acquis sur simple déclaration), se trouve perverti par les pratiques de l'administration tendant à déclencher presque systématiquement des contrôles fiscaux auprès des bénéficiaires de cette mesure ou de ses postulants.

Deux priorités importantes semblent, d'autre part, actuellement quelque peu négligées :

n L'appel, tout d'abord, à des personnes qualifiées venant de l'étranger, et particulièrement des Etats-Unis (collaborateurs de jeunes entreprises, experts auprès des établissements spécialisés dans l'introduction sur le nouveau marché ou la gestion de fonds de capital risque), de façon à augmenter la rentabilité des capitaux investis et, partant, les ressources collectées.

n L'orientation de l'épargne longue, ensuite, vers le financement de l'innovation et de la création d'entreprises de croissance : cela suppose d'abord de lever les obstacles réglementaires à l'affectation aux fonds de capital risque des ressources de l'assurance-vie et de les faire bénéficier également, d'autre part, d'une partie du produit des « Fonds de pension à la française ».

Ainsi, les mesures tendant à faire participer davantage la France à l'élaboration des NTIC à travers le soutien à de jeunes entreprises innovantes, s'avèrent très insuffisantes. D'une manière générale, elles manquent d'envergure et de cohérence. Leur caractère restrictif, source de complexité, témoigne d'un manque de confiance dans les forces du marché.

Le repérage des gisements de croissance où il faut investir ainsi que la prise de risque correspondante paraissent être désormais du ressort de l'initiative privée plus que de celui de l'intervention des pouvoirs publics, dans un contexte de diversification et d'accélération des évolutions techniques. Les plus-values fiscales ultérieures résultant de l'essor des activités nouvelles encouragées ont toute chance de dépasser rapidement et très largement le manque à gagner provisoire lié aux exonérations initialement consenties par l'administration.

Lésiner serait donc une erreur. Il faut agir vite, et fort, par des incitations franches et massives.

Dans le domaine de l'aide à l'utilisation des NTIC, des déficiences sont aussi à déplorer.

B) DES DÉFICIENCES CONCERNANT L'UTILISATION
DES TECHNIQUES NOUVELLES

La diffusion de l'utilisation des NTIC dans l'éducation, les entreprises et le grand public est une condition non suffisante (il faut aussi en être des créateurs), mais néanmoins nécessaire à leur contribution à la croissance et à l'emploi.

Cette utilisation, comme on l'a montré et répété, est une des clés de notre compétitivité, de notre rayonnement culturel et de l'harmonie de notre société.

Elle doit être encouragée par des transferts de technologie, des expérimentations, une adaptation des tarifs en vigueur, sans revenir sur l'effort particulier, déjà évoqué dans le chapitre IV, à consentir dans le domaine de l'éducation.

1. Les expérimentations

L'intérêt de l'expérimentation de plates-formes ou de services multimédia est non seulement d'en démontrer la faisabilité en surmontant leurs difficultés techniques, mais aussi de provoquer une sensibilisation du grand public et des utilisateurs potentiels, et de développer des partenariats entre les différents acteurs concernés (opérateurs, services techniques administratifs, entreprises, collectivités,...).

Un élan et des synergies se créent. Des habitudes de coopération et de travail en réseau sont prises.

On se souvient du premier appel à proposition lancé par le Gouvernement, le 25 novembre 1994, suivi d'invitations du Ministère de l'Industrie et de l'ANVAR, ciblées sur les PME-PMI, privilégiant la convivialité et l'ergonomie des services, en février 1996.

La loi du 10 avril 1996 a ensuite facilité, sur le plan juridique, les expérimentations dans le domaine des technologies et services de l'information, notamment en ce qui concerne les réseaux câblés et la diffusion par micro-ondes.

De nombreuses initiatives, on l'a vu, sont prises également à la base, en matière d'éducation. Les netdays, organisés du 18 au 25 octobre 1997, par la commission européenne, dans le cadre de son plan « Apprendre dans la société de l'information » a permis de leur donner une certaine publicité et la « Fête de l'Internet « célèbrée pour la première fois en France les 20 et 21 Mars 1998, en reunissant de très nombreux acteurs du monde Internet a été une occasion privilégiée de faire découvrir aux Français les potentialités des nouvelles technologies de l'information.

2. Les transferts de technologie

Les technologies de l'information et de la communication peuvent faire l'objet de transferts dans le cadre de projets de recherche menées en coopération ou en vue d'améliorer la compétitivité des entreprises sous différents aspects (bureautique, productique, conception assistée par ordinateur ; relations en réseau au sein d'une même société ou avec des clients, fournisseurs, donneurs d'ordre ou partenaires extérieurs ; ouverture de sites Web, etc.).

Concernant l'innovation et la recherche, on tend de plus en plus à passer d'un transfert à une «coproduction» de technologie. L'innovation résulte souvent de coopérations multiples et variées entre des acteurs diversifiés, sans qu'il existe de séparation nette entre émetteur et récepteur de technologie. Les sources peuvent en être multiples.

Comme le note l'observateur de l'OCDE dans son numéro d'août-septembre 1997, les interactions entre institutions, entreprises et autres intervenants concernés sont désormais aussi importantes que l'investissement direct dans la R & D.

« Le progrès technique résulte, dans une large mesure, d'un ensemble de relations entre institutions et personnes générant, distribuant et exploitant des connaissances qu'elles transforment en production à plus forte valeur ajoutée ».

Et plus loin : « Les performances d'un pays en matière d'innovation sont directement fonction de l'efficacité avec laquelle ces éléments diffus sont rassemblés pour déboucher sur un système collectif de création et d'utilisation de connaissances ».

Ainsi les NTIC sont-elles essentielles aux activités de recherche et d'innovation qui s'effectuent de plus en plus sous la forme d'une coopération en réseau entre de multiples acteurs.

L'observateur de l'OCDE confirme, en outre, le point de vue déjà exprimé dans ce rapport sur la nécessité de ne pas se contenter d'utiliser les TIC mais d'en être d'abord des créateurs. Il affirme, en effet, que « les politiques technologiques devraient non seulement encourager la diffusion aux entreprises des équipements et des technologies mais aussi renforcer leur capacité de générer et d'adapter elles-mêmes des technologies ».

Les NTIC sont à la fois objets et instruments, dans tous les secteurs, d'innovation et de recherche.

Le rôle croissant des coopérations et des partenariats rend obsolète le modèle linéaire de la valorisation, par quelques transferts, du stock de connaissances de la recherche publique, même si l'essaimage, à partir de certains établissements publics de recherche, conserve son importance.

Concernant l'utilisation des technologies nouvelles dans les activités courantes des entreprises, le problème, on l'a vu, réside moins dans le taux d'équipement de nos entreprises que dans l'utilisation qu'elles en font (trop souvent encore comme des instruments seulement de gestion et non pas d'échange d'informations).

Il apparaît souhaitable, comme le souligne M. Laffitte dans son avis sur le budget de la recherche pour 1998, de mieux coordonner l'offre très hétérogène de services de transferts de technologie aux PME. Outre l'ANVAR, interviennent en effet, dans ce domaine, les ARIST (Agences Régionales d'Information Scientifique et Technique), les CRITT (Centres Régionaux d'Innovation et de Transfert de Technologie) et bien d'autres organisations.

Les pouvoirs publics ont ajouté à cet ensemble des centres de ressources technologiques (CRT), labellisés par une commission nationale, qui ont pour vocation d'effectuer de réelles prestations technologiques sur mesure (distinctes de simples conseils) au profit des PME.

C) LA TARIFICATION

Longtemps les tarifs pratiqués par France Télécom ont semblé constituer un frein au développement de l'utilisation des NTIC dans notre pays.

Les offres de notre opérateur national paraissaient à la fois :

n atypiques du point de vue des particuliers, en ce qui concerne la répartition entre l'abonnement (moins cher, en moyenne, qu'à l'étranger) et les communications (plus onéreuses, surtout pour l'international) ;

n dissuasives, s'agissant par exemple des liaisons louées à haut débit (2 Mbits/s), deux fois plus coûteuses en France qu'au Royaume-Uni et dans les pays scandinaves (selon le rapport Miléo) ou de la facturation à la durée des services Minitel, par rapport aux conditions d'utilisation d'Internet aux Etats-Unis où les communications locales sont gratuites.

Mais, avec l'arrivée de la concurrence et devant les possibilités offertes par l'explosion, incontournable, de l'utilisation d'Internet, France Télécom a complètement changé de stratégie et renouvelé ses propositions tarifaires.

Ainsi, pour la seule année 1997, on a assisté à de nombreux et profonds aménagements :

n En contrepartie d'une hausse du prix de l'abonnement principal (de 45 à 68 F, ce qui demeure un des niveaux les plus bas d'Europe), celui des communications nationales a été réduite de 17,5 % en moyenne, en mars 1997, et celui des appels internationaux de 20 % globalement. Une nouvelle baisse d'environ 20 % concernant les deux sortes d'appels est intervenue à la fin de l'année 1997.

Mais Cegetel annonçait le 26 novembre 1997 des prix de 10 % à plus de 60 % inférieurs à ceux de France Telecom et ce à partir du 1er Février 1998.

n L'opérateur national poursuit également une politique de tarification sur mesure (modulation des couples abonnement-communications en fonction du profil de consommation) et de simplification à laquelle l'exemple américain a montré que les usagers étaient sensibles (réduction du nombre de plages horaires et tarifications à la seconde au-delà d'un crédit de temps de connexion).

n Au début 1998, un abonnement social a été ouvert au profit des personnes en difficulté.

n S'agissant du trafic de données qui explose littéralement (+ 200 % en 1997, + 40 % pour le seul réseau Transpac en 1996), les tarifs des liaisons louées ont été divisées par quatre en quatre ans, pour les distances comprises entre 50 et 100 km ; d'autre part, le prix de l'utilisation des voies à 64 Kbits/s de Numéris a été aligné sur celui des appels téléphoniques.

n Concernant enfin les réseaux multimédia, le prix d'abonnement aux services Wanadoo a baissé de près de 35 % en décembre 1997 (de 145 F à 95 F par mois pour une utilisation illimitée, ce qui situe France Télécom dans le bas de la fourchette, un peu au dessus de Club Internet du groupe Lagardère ou de Havas On Line).

L'offre Wanadoo devrait inclure, à la fin du premier trimestre 1998, l'accès aux chaînes de Microsoft Network. Le géant de Seattle semble ainsi se désengager des prestations d'accès tout en continuant à développer des contenus grand public et des services pratiques.

Au total, le téléphone fixe, qui doit s'ouvrir à la concurrence en 1998, représente encore plus de la moitié (54 %) de l'ensemble du marché européen des services de télécommunications.

La rapidité de la baisse des tarifs de France Telecom s'explique en partie par une volonté de dynamiser la croissance du trafic afin d'éviter que l'arrivée de nouveaux concurrents n'affecte trop fortement les résultats de ses activités (plus l'augmentation du trafic sera forte, plus il sera facile d'en répartir le bénéfice entre tous les acteurs sans qu'il y ait de perdants).

La guerre des prix entre opérateurs de services fixes de télécommunications, à l'approche de l'échéance de 1998, ainsi que le démarrage du marché des mobiles à compter de l'entrée en lice d'un troisième acteur, Bouygues, illustrent s'il en était besoin, les bienfaits de la concurrence pour la prise en compte de l'intérêt des consommateurs et la croissance des activités concernées en général.

Beaucoup dépend, sur ce plan, des décisions de l'ART (Agence de Réglementation des Télécommunications) et de la coordination des fréquences, allouées par le Premier Ministre, sur l'autorisation du CSA ou sous le contrôle de l'ANF (Agence Nationale des Fréquences), s'agissant des transmissions radioélectriques qui peuvent être utilisées pour la boucle locale.

L'ART, pour sa part, a jusqu'ici fait preuve de compétence et d'impartialité dans les décisions qu'elle a eu à prendre (décret sur l'interconnexion des réseaux, évaluation du coût du service universel, distribution des numéros d'identification, arbitrage du différent entre la Lyonnaise et France Telecom au sujet de l'accès à Internet par les réseaux câblés). Mais il lui reste d'autres questions délicates à trancher (définition précise de ce qu'est un appel local ou national, problème de la fourniture du service téléphonique sur les réseaux câblés...).

Au total, l'environnement relatif à l'utilisation des TIC a certes été rendu plus concurrentiel, ce qui est positif, mais le dispositif de régulation prévu est critiquable sur certains points (manque d'indépendance de l'ANF, insuffisance de moyens techniques du CSA, risque de chevauchements de compétences ou de conflits de décisions entre l'ANF, le CSA et l'ART).

Une autorité unique, du type FCC américaine, aurait été mieux adaptée à la convergence constatée entre les télécommunications, l'audiovisuel et l'informatique.

*

* *

Au moment de clore ce chapitre, deux citations me reviennent à l'esprit :

« Laissez-les faire, voilà le seul, l'unique principe ». (Turgot)

« Une aide intelligente de l'Etat consiste à amender le terrain des créateurs d'entreprises ». (P. Brûlé)

Pour pousser plus loin la métaphore horticole, il me semble que l'ère des Le Nôtre, voulant ordonner le paysage économique comme un jardin à la française, selon de vastes plans, longtemps mûris, est révolue.

Le climat et la végétation ne s'y prêtent plus, le foisonnement d'espèces, à la croissance et au renouvellement accélérés, domine.

Au siècle de Louis XIV, on prétendait domestiquer non seulement la nature mais aussi l'industrie.

Ni l'un ni l'autre ne sont désormais possibles.

Au dirigisme fondé sur l'arrogance des élites technocratiques et la défiance vis-à-vis de l'innovation et du marché, il convient de substituer la confiance dans les initiatives fondées sur l'anticipation de nouveaux ajustements entre l'évolution de l'offre de technologies et celle de la demande du public.

Il faut accepter l'idée qu'il ne peut y avoir ni croissance ni emploi, sans un minimum d'adaptations, d'audace et de prise de risque de la part des entreprises, que leur environnement administratif et fiscal doit favoriser.

Cela ne condamne pas pour autant toute intervention publique. l'Etat a le droit d'avoir sa politique et sa propre vision à long terme, mais son action doit se concentrer essentiellement sur :

n l'aide aux entreprises innovantes (qui commence par la levée des obstacles et par le renforcement des incitations de toutes sortes à la réalisation de cet objectif) ;

n le soutien à l'éducation, à la recherche, à l'essaimage d'activités à partir d'établissements publics scientifiques et techniques ;

n la participation à la sensibilisation du grand public, aux expérimentations nécessaires ;

n l'encouragement au regroupement des initiatives, à la mise en commun des efforts ;

n la démocratisation de l'accès aux TIC ;

n enfin, une utilisation exemplaire des nouvelles technologies pour la modernisation des administrations et l'amélioration de l'efficacité avec laquelle elles remplissent leurs missions.

*

* *

Il faut bien que les responsables de notre Pays prennent pleinement conscience que l'Etat doit savoir se recentrer sur ses missions régaliennes, où il doit être fort et respecté, mais qu'il ne sera plus, dans la Société de l'Information qui prend son essor, un acteur majeur dans les combats de titans qui s'annoncent.

Ainsi, l'annonce faite le 9 Mars 1998 d'une absorption d'Havas, et donc de Canal + par la Compagnie Générale des Eaux (qui dans quelques mois changera de nom) restera dans l'histoire comme un événement ouvrant une ère nouvelle.

En effet, dans des domaines où l'Etat était encore, hier, omnipotent, cette « mégafusion » a donné naissance à un acteur majeur qui sera présent aussi bien dans le domaine des télécommunications (Cégétel), de l'audiovisuel (Canal + et Canalsatellite) que dans le domaine des contenus (Havas et la myriade d'entreprises gravitant dans son environnement).

Ce nouveau Groupe mondial a déjà noué des alliances avec AOL et Bertelsmann, ce qui annonce une offensive majeure dans le domaine d'Internet qui est le protocole qui, très vite, va fédérer l'audiovisuel et les télécommunications.

Pour y faire face, France Telecom, Suez-Lyonnaise des Eaux et Bouygues sont aussi à la recherche d'alliances avec des partenaires nationaux ou internationaux et ce avec un effacement de plus en plus rapide de l'Etat qui ne va présenter qu'une Loi très réduite sur l'Audiovisuel.

Alors que dans les années 1980 encore, rien ne pouvait se faire, en France, dans les domaines majeurs de l'audiovisuel et des télécommunications sans une lourde intervention de l'Etat, chacun peut mesurer le chemin parcouru en quelques courtes années...

Et nous n'en sommes qu'au début !

CHAPITRE VI

DES EVOLUTIONS TECHNOLOGIQUES
QUI S'ACCENTUENT ET SE COMPLEXIFIENT

Dans le chapitre II de cet ouvrage, consacré à l'histoire des TIC, du télégramme à Internet, les évolutions correspondantes ont été résumées en trois mots : diversification, performance, convergence.

Pour s'en tenir aux données les plus récentes, afin de ne pas reprendre les développements déjà exposés à ce chapitre, il semble que ces trois tendances se confirment mais qu'en ce qui concerne la dernière d'entre elles, le maintien, indispensable, d'une interopérabilité entre les différents systèmes est parfois de plus en plus difficile à assurer.

I. L'ACCÉLÉRATION DE LA DIVERSIFICATION
DE L'OFFRE DE TECHNOLOGIES

S'agissant, tout d'abord, de la diversification de l'offre de technologies, la concurrence entre les solutions avec ou sans fil est avivée, avec, semble-t-il, dans le premier cas, une préférence immédiate pour l'utilisation des infrastructures existantes : réseaux câblés ou réseau téléphonique commuté (sur les terminaisons duquel l'ADSL permet d'obtenir des débits relativement élevés).

A) LES SOLUTIONS FILAIRES
1. Les réseaux câblés audiovisuels

Concernant, en premier lieu, les réseaux câblés audiovisuels, l'évolution technique récente leur ouvre trois nouvelles possibilités : l'accès à Internet, la téléphonie et la multiplication du nombre de canaux de diffusion.

Le métier de câblo-opérateurs est incontestablement difficile : investissements lourds, niveau d'endettement, en conséquence, souvent élevé, croissance, dans l'ensemble, modérée (+ 6,8 % dans le monde) du nombre d'abonnés, concurrence de la télédiffusion directe par satellite.

En revanche, les réseaux câblés offrent l'opportunité de pouvoir faire entrer dans les foyers équipés, sans antenne, un flux de données numériques supérieur à celui susceptible de s'écouler par le réseau téléphonique commuté.

Ces potentialités ont donné l'espoir aux opérateurs intéressés de profiter de l'engouement pour Internet et de l'ouverture à la concurrence des services de téléphonie vocale fixe pour améliorer leurs recettes, échapper à la saturation de leur marché (dans les pays déjà très câblés), mieux amortir leurs investissements et relever les défis du satellite.

Des différences de contexte importantes existent toutefois entre des pays comme :

n les Etats-Unis, où près des deux tiers des foyers possédant un téléviseur sont abonnés mais où le développement de services interactifs nécessiterait des dépenses importantes de modernisation des réseaux (31(*)) ;

n la Grande-Bretagne, équipée plus tardivement et à un moindre niveau (11 % des foyers) mais qui ont construit dès le départ deux réseaux parallèles dont l'un réservé au téléphone ;

n enfin, la France, qui affiche des résultats très médiocres mais possède des infrastructures modernes, facilitant l'installation d'une voie de retour.

coller ici le tableau

La vétusté des réseaux américains n'empêche ni les Etats-Unis de dominer l'offre de modems câble (avec Intel, associé à Hewlett-Packard, Motorola et Zénith), ni Bill Gates, Président de Microsoft, de s'intéresser à ce type de distribution.

En prenant, en juin dernier, une participation de un milliard de dollars au capital du quatrième câblodistributeur américain Comcast, la firme de Seattle a poursuivi sa stratégie, à laquelle obéissait également l'achat de Web TV, tendant à exploiter les synergies possibles entre les marchés de l'audiovisuel et de l'électronique grand public, et ceux de l'informatique et des télécommunications (des accords dans le domaine des futurs réseaux intelligents ont, en effet, en outre, été signés avec Siemens).

Microsoft espère ainsi pouvoir concevoir un produit unique, intégrant les fonctions d'un décodeur numérique et d'un modem et utilisant son futur logiciel d'exploitation multimédia Windows CE (destiné aux applications grand public).

Bill Gates joue ainsi à fond la carte des convergences qui doivent caractériser les mutations de la société de l'information (voir plus loin).

Les câblo-opérateurs britanniques ont pu, grâce aux spécificités architecturales de leurs réseaux, prendre environ 30 % du marché de la téléphonie en Grande-Bretagne. Mais le stade des expérimentations n'a, semble-t-il, pas été dépassé partout ailleurs.

Suez-Lyonnaise des Eaux a testé la technologie du "câblophone" d'Alcatel à Annecy, devenu ainsi, avec une cité australienne, la seule ville au monde à disposer d'une plate-forme numérique complète sur le câble (téléphone + télévision +accès Internet).

La tarification proposée est inférieure à celle pratiquée par France Télécom mais le nombre d'abonnés ne dépasse pas, pour l'instant, quelques centaines, le problème de la portabilité des numéros n'étant pas encore résolu.

Avec le recours aux techniques sans fil de radiocommunication (voir plus loin), la possibilité d'atteindre les abonnés des réseaux câblés constitue un moyen intéressant de concurrencer les opérateurs traditionnels de téléphone fixe sur la boucle locale (32(*)) où leurs positions sont très fortes.

Mais l'accès à Internet par le câble apparaît actuellement comme à la fois plus développé et plus attractif pour le grand public.

Des expériences sont menées :

n au Mans, à Strasbourg ou à Annecy, par Suez-Lyonnaise des Eaux ;

n à Nice par la NC- Numericâble, rachetée par Canal +, filiale de la Générale des Eaux ;

n à Saint-Quentin-en-Yvelines, par France Télécom ;

n enfin, à Metz, où il est déjà possible d'aller sur le Web à partir de son téléviseur, moyennant un boîtier spécial.

Les avantages du câble paraissent très attrayants, aussi bien du point de vue de la vitesse, localement quatre fois plus rapide (de l'ordre de 250 kilobit/s au lieu de 56 kilobit/s sur une ligne téléphonique) que du coût (forfaitaire, donc indépendant de la durée de la connexion).

Pour offrir ce service, les câblo-opérateurs doivent installer des routeurs dans leurs réseaux et des modems spéciaux chez leurs abonnés (qui se branchent sur leur ordinateur). La fabrication de ce dernier type de matériel, destiné au grand public, apparaît comme particulièrement stratégique. Or, selon un article paru dans « Usine Nouvelle » du 30 octobre 1997, les Américains n'en détiendraient plus le monopole, Alcatel en étant cité parmi les fournisseurs, au côté de Motorola et de bien d'autres.

La technique de modulation utilisée (QPSK) est bien connue des opérateurs de réseaux câblés.

L'offre d'accès à Internet sur les sites du Plan câble, propriété de France Télécom, a provoqué un différend entre l'opérateur public et les deux câblo-opérateurs concernés, Suez-Lyonnaise des Eaux et la Générale des Eaux, auxquels l'ART a donné raison.

Lyonnaise-câble devrait généraliser ce service sur tous ses réseaux, y compris Paris. Outre la téléphonie et l'accès à Internet, les réseaux câblés sont susceptibles de proposer, dans les années qui viennent, une multiplication de chaînes, grâce aux techniques de compression numériques, avec un certain nombre d'avantages par rapport aux solutions hertziennes terrestres ou satellitaires (le téléspectateur n'a pas besoin d'acquérir d'antennes ; un panachage entre les programmes des différents bouquets satellitaires peut être effectué ; la transition avec l'analogique est moins délicate : elle peut s'étendre progressivement et pose moins de problèmes de réserves de capacités de diffusion disponibles).

Il reste le problème des coûts, évalués, par exemple, à 2 milliards de francs, sur les cinq prochaines années, par Suez-Lyonnaise, s'il veut devenir le leader de l'offre numérique multiservices en France. Time Warner, pour sa part, a déjà dépensé 2 milliards de dollars, à des fins analogues, aux Etats-Unis (sur un investissement total évalué à 5milliards de dollars en 1993).

Le coût de l'adaptation des réseaux est, en France, relativement négligeable (moins de 10 millions de francs pour NC-Numericâble) sauf pour les réseaux de la génération IG de France Télécom. Il est, en revanche, élevé aux Etats-Unis. Pour la téléphonie sur le câble, l'expérience d'Annecy a montré qu'il fallait compter de 3.000 à 4.000 F par abonné (10.000 câblophones ont été commandés à Alcatel). Notons que la technologie actuelle des modems téléphoniques adaptés au câble (cablo-phone) requiert une architecture de réseau bien spécifique HFC (Hybride Fibre Coaxial) qui n'est pas disponible sur le plan câble. Ce problème risque d'augmenter les coûts. Mais c'est l'achat de décodeurs numériques, proposés ensuite à la location (pour moins de 50 F par mois) qui devrait grever le plus lourdement les budgets : Time Warner en a commandé 1 million, pour environ 500 millions de dollars, à Scientific Atlanta (fournisseur principal), Toshiba et Pioneer (sous licence), ainsi qu'à General Instrument.

Pour sa part, Lyonnaise-câble en a demandé 15.000 à la SAGEM (on voit la différence d'échelle !) à environ 2.500 F pièce.

Concernant l'accès à Internet, la Lyonnaise a rencontré des problèmes d'approvisionnement en modems, pour son expérience multicâble dans le 7e arrondissement de Paris, par suite de la défection d'Intel.

Les investissements nécessaires ne sont ainsi pas négligeables pour une société comme la CGV, encore déficitaire de 300 millions de francs en 1996, mais dont 80 % des prises sont numérisées ou comme Lyonnaise câble, qui gère un parc de 135.000 décodeurs analogiques.

Toutefois, les 2 milliards de dépenses programmées par la Lyonnaise, forte de ses 500.000 abonnés, sont à comparer avec les 2,5 milliards du coût du programme de TPS qui compte à ce jour 390.000 abonnés alors qu'il lui en faudrait 700.000 pour rentrer dans ses frais. Lyonnaise câble, à peu près à l'équilibre en 1997, attend une rentabilité supérieure à 20 % de ses investissements.

Dans l'ensemble, les résultats du câble sont en progression en France, même s'ils restent modestes (2,2 millions d'abonnés à la fin du mois de juin 1997, soit + 10,76% en un an, mais ce qui correspond, seulement, à un tiers des foyers raccordés).

2. Le réseau téléphonique commuté

Les technologies DSL (Digital Subscriber Line) offrent, d'autre part, on l'a vu, de nouvelles possibilités aux réseaux téléphoniques commutés.

Inventées par les Bell Labs, elles consistent à exploiter les fréquences inutilisées lors d'une conversation téléphonique (parce qu'elles sont supérieures à celles correspondant à la voix humaine ou du fait de parasites ou d'imperfections de la ligne), afin de transmettre des données numériques audiovisuelles ou télématiques.

Le débit obtenu, inversement proportionnel à la distance séparant le terminal du central téléphonique, peut atteindre de 1,5 Mbits/s à 6 Mbits/s pour moins de 5 km, ce qui correspond à la situation de 70 % des abonnés en France.

La variante la plus connue de ces technologies est celle adaptée à un trafic asymétrique dite ADSL (33(*)) qui permet un débit de 1,5 Mbits/s sur la voie de diffusion (en cas d'utilisation d'une seule paire de fils de cuivre) et de 16 Kbits/s sur la voie de retour. Ces capacités peuvent être portées à 6 Mbits/s et 64 Kbits/s lorsque plusieurs paires sont mises à contribution.

France Télécom a testé l'ADSL dans le cadre du projet Camille (Cuivre asymétrique intégré sur lignes locales existantes) et Alcatel l'a développé, après en avoir acquis la licence. L'industriel français a conclu des accords d'expérimentation et de déploiement de cette technologie avec quatre opérateurs locaux américains (Ameritech, Bell-South, SBC et Pactel) ainsi qu'avec Bell Canada.

De son côté, une autre entreprise française, CS Telecom, filiale de la compagnie des signaux, s'est alliée à l'Américain 3 Com, spécialiste de l'interconnexion de réseau, pour proposer des solutions ADSL «de bout en bout» (depuis l'abonné jusqu'aux réseaux à haut débit). Tous deux devraient proposer aux opérateurs de télécommunications européens un puissant concentrateur (34(*)) spécifique à la mi-98.

On prévoit que le marché de l'ADSL devrait exploser, au cours des deux prochaines années, pour atteindre, rien qu'aux Etats-Unis, près de 1 milliard de dollars en l'an 2000, pour les seuls équipements.

L'un des principaux avantages de cette technologie est d'accélérer considérablement le temps de téléchargement d'un document (de quatre minutes à une seconde pour une page Web, la voie d'acheminement de la requête ne nécessitant qu'un faible débit). Des services vidéo ou de transfert de données pourraient être également proposés aux abonnés.

Avec les modems câble et les modems ASDL, les solutions filaires tendant à accélérer les débouchés du trafic Internet se trouvent donc diversifiées.

En outre, selon Business Week du 8 décembre 1997, Rockwell aurait mis au point une puce permettant de fabriquer de nouveaux modems numériques susceptibles de fonctionner à des débits de l'ordre du mégabits/s pour la réception (256 Kbits/s pour l'émission). L'utilisation de tels équipements nécessiterait toutefois une modification des centraux de commutation mais la proposition en aurait été faite à Northern Telecom et Lucent Technologies, avec l'appui d'Intel, Microsoft et Compaq.

B) LES SOLUTIONS SANS FILS

Mais la diversification de l'offre de techniques d'information et de communication passe aussi par la proposition de solution sans fil : essentiellement le satellite et les radiocommunications terrestres.

1. Le satellite

La compression numérique, qui permet de multiplier le nombre de chaînes passant par chaque répéteur, a considérablement renforcé l'attrait du satellite dans le domaine audiovisuel.

Les dépenses d'infrastructures sont peu coûteuses, la zone de couverture, à la fois large et modulable, le déploiement de réseaux satellitaires peut être très rapide.

De fait, le succès de la télédiffusion directe par satellite est, partout, considérable.

coller ici le tableau

Le nombre de foyers équipés d'une antenne individuelle a, en effet, triplé dans le monde depuis 1991, progressant à un rythme annuel de 22,5 % contre 6,8 % pour le câble.

Aux Etats-Unis, les concurrents des pionniers, Direct TV et USSB, se multiplient (Prime Star, Echo Star Alpha Star et bientôt Rupert Murdoch, allié à MCI) :

En Europe, le paysage se stabilise enfin avec la germanisation du marché allemand où une alliance tripartite a été conclue entre Kirch, CLT-UFA (35(*)) et DeutscheTelekom.

L'accord entre British Telecom et la chaîne BSkyB de Rupert Murdoch a permis, par ailleurs, le lancement de la télévision numérique en Grande-Bretagne.

Enfin, la fusion de Canal + avec Nethold lui ouvre les marchés des pays scandinaves, du Benelux et de l'Italie, outre celui de la France où son offre numérique, commercialisée depuis le printemps, va devoir affronter celles de TPS et d'AB Sat.

Les deux principaux opérateurs de satellites sur notre continent sont la Société Européenne de Satellite et Eutelsat, qui y gèrent ensemble environ 60 % des capacités de télédiffusion directe.

L'organisation des acteurs de la filière satellitaire est complexe et peut donner une importance particulière aux intermédiaires que sont les ensembliers ou gestionnaires de bouquets de programme (distincts des industriels, des opérateurs, des éditeurs et parfois des diffuseurs), notamment en ce qui concerne la question clé du contrôle d'accès.

L'absence d'accord permettant l'adoption d'un système commun sur ce point (36(*)) est l'un des facteurs susceptibles de contrarier l'essor, par ailleurs très prometteur, de la télédiffusion numérique directe par satellite.

En prenant en considération la réalité du marché français, le bon sens incite à un rapprochement ou du moins à une coordination entre les deux principaux opérateurs français de télévision numérique par satellite (CanalSatellite et TPS)

Les autres principaux problèmes à surmonter ont trait à la surenchère dont font l'objet certains droits de diffusion ainsi qu'à l'adaptation de l'offre de programmes et de services, d'une part à la demande des téléspectateurs, d'autre part, aux positions orbitales disponibles.

La télédiffusion numérique directe par satellite peut être également utilisée pour télécharger des données destinées à des ordinateurs, la « voie de retour » étant assurée par le réseau téléphonique.

Mais du point de vue des échanges de données numériques, les constellations de satellites en projet ou en instance de déploiement constituent des solutions beaucoup plus évoluées.

Les satellites traditionnels de télécommunication ou de télédiffusion sont de type géostationnaire. Placés à 36.000 km d'altitude, dans une position qui paraît immobile dans le ciel à un observateur terrien (sur une orbite dite géosynchrone), ils servent de relais aux communications terrestres au sein d'une zone géographique déterminée et constante.

Mais ils nécessitent, malgré leur puissance, des antennes de réception d'une dimension incompatible avec du matériel portable et des temps de propagation (de l'ordre de 0,5 seconde pour un aller et retour), inadaptés, du fait de leur altitude élevée, à des applications interactives en temps réel.

Dans ces conditions, il a été envisagé de recourir à des satellites défilants sur des orbites beaucoup plus basses (LEO « low earth orbit », à moins de 3.000 km, ou MEO « middle earth orbit », entre 5.000 et 15.000 km).

n Tandis que les satellites géostationnaires sont « transparents », se bornant à retransmettre le signal reçu dans une direction donnée, un peu à la façon dont un miroir réfléchit un rayon lumineux, les satellites en orbite basse, disposés en constellations, comme un filet, autour de la terre, peuvent éventuellement communiquer entre eux, lorsqu'ils comprennent des dispositifs de commutation ou de traitement des informations à bord.

Dans ce cas, il s'agit de véritables réseaux indépendants, déployés dans l'espace, qui peuvent permettre de s'affranchir, dans une large mesure, des infrastructures au sol.

Plusieurs choix sont ainsi possibles :

Les projets Iridium, pour la téléphonie, ou Teledesic, pour l'échange de données multimédia, ont recours à des satellites interconnectés ;

En revanche, les 64 satellites de la constellation Skybridge d'Alcatel ne devraient pas communiquer entre eux, les connexions étant gérées par les stations au sol et la simplification du segment spatial privilégiée.

Dans certains projets, il est prévu de combiner des satellites défilants et géostationnaires, comme dans le programme Celestri de Motorola (les premiers étant chargés des applications interactives en temps réel et les seconds, au nombre de 4, de la diffusion de données pour lesquelles le temps de propagation importe peu). Alcatel a, pour sa part, passé un accord pour pouvoir conjuguer de la sorte l'utilisation des satellites de Skybridge avec ceux, géostationnaires, du programme Cyberstar de l'américain Loral.

coller ici le tableau

2. Les radiocommunications terrestres

Comme s'en était inquiété, en 1992, le rapport rédigé, pour le compte de l'Office parlementaire d'évaluation des choix scientifiques et technologiques, par le Sénateur Loridant, ces projets ont été accueillis avec scepticisme par l'Europe, qui a accumulé un certain retard, à tous points de vue, dans ce domaine (initiatives tardives, absence de lanceurs adaptés, retard dans l'étude des technologies de commutation à bord...).

Le projet national de satellite expérimental de télécommunications Stentor, décidé conformément aux recommandations de l'office, tente de remédier à cette situation, de même que le programme Skybridge d'Alcatel dont il faut espérer que les options raisonnables (appel à des technologies éprouvées, coût modéré...) seront couronnées de succès.

Les exemples des tubes à onde progressive de TDF1 et TDF2 ou des déconvenues du trop ambitieux programme de satellite météorologique américain GoesNext, montrent en effet que l'excès d'audace ne paie pas toujours en matière spatiale.

Mais, à condition de les maîtriser, les techniques d'interconnexion de satellites présentent de nombreux avantages (économies sur le coût des stations au sol, possibilités de communications directes entre les mobiles, sans passer par les infrastructures terrestres).

Les ambitions de Teledesic (37(*)), véritable Internet dans le ciel, ayant été réduites (de 840 à 240 satellites), c'est le programme Celestri, le plus cher (13 milliards de dollars), qui apparaît désormais comme le plus hardi (les utilisateurs, individus, PME et grandes entreprises, pourront recevoir et envoyer des informations allant du transfert de données multimédia à la vidéo en temps réel, en passant par la voix à des vitesses très élevées).

Motorola estime que le déploiement d'un réseau équivalent sur terre serait revenu à au moins 1.000 milliards de dollars.

Des solutions sans fil très attractives sont également proposées au sol : elles présentent le triple avantage :

Ø d'autoriser, pour certaines d'entre elles, de hauts débits ;

Ø de permettre de contourner «la boucle locale» qui constitue le bastion des opérateurs historiques ;

Ø enfin, d'économiser, par rapport aux systèmes entièrement filaires, les coûts de travaux de génie civil (en partie seulement, cependant, notamment dans le cas de la téléphonie cellulaire et sans fil, où le raccordement à des infrastructures fixes est inévitable pour assurer la fonction de commutation).

Les propositions se multiplient :

Aux Etats-Unis, une variante évaluée du MMDS (Microwave Multimedia Distribution System, offre un assortiment de services multimédia véritablement interactifs (accès à Internet, vidéoconférence,...).

Ce nouveau système, dénommé LMDS (Local Multipoint Distribution Service) est actuellement testé, selon Business Week, par CellularVision, auprès de 12 500 personnes, à Brooklyn.

Outre l'interactivité et la variété de l'offre de services, susmentionnés, les atouts en sont nombreux :

n fortes capacités (jusqu'à 200 chaînes vidéo) comparables à celles de la fibre optique, autorisant des débits d'accès à Internet (54 Mbits/s) plus élevés que ceux du câble ;

n utilisation d'une gamme d'hyperfréquences (dans les 28 gigahertz) offrant de vastes disponibilités, sans interférences (contrairement au MMDS dont la transmission des signaux, aux Etats-Unis, peut être gênée par celle du téléphone mobile) ;

n rapidité et faible coût de déploiement ;

n possibilité, en milieu urbain, d'atteindre, grâce à des répéteurs, des points inaccessibles à la télédiffusion directe par satellite.

De tels dispositifs de régénération du signal devraient cependant être multipliés car celui-ci, et c'est apparemment le seul point faible du système, a tendance à s'affaiblir ou à s'évanouir par mauvais temps. Mais la qualité de l'image est, dans des conditions normales, meilleure que celle procurée par le câble coaxial.

Le LMDS et le MMDS constituent ainsi des solutions séduisantes de diffusion ou d'échanges sans fils de données diversifiées (Télévision, Internet, sans oublier le téléphone,...) à haut débit et dans des fréquences particulièrement élevées.

Dans des gammes de fréquences moins hautes et pour des exigences de débits moins fortes, et des applications plus interactives, de nombreuses propositions nouvelles sont également avancées, s'agissant de technologies cellulaires (mobiles) ou sans fil (entre points fixes).

Les unes comme les autres ont en effet souvent été initialement conçues sans tenir compte du phénomène Internet, ni de l'augmentation des besoins en débit liée à l'essor du trafic de données (visiophonie sur micro-ordinateurs, etc.).

Les technologies cellulaires actuellement disponibles offrent en outre une qualité de voix insuffisante tandis que les autres technologies sans fils, mieux adaptées aux milieux plus denses, conviennent moins bien aux appareils mobiles.

Mais les solutions nouvelles préconisées n'ont pour la plupart été ni normalisées ni éprouvées.

A cet égard, dans le domaine du cellulaire, les premières expérimentations de réseaux utilisant le CDMA (38(*)) semblent prometteuses mais leur fiabilité reste à démontrer.

Le CDMA est censé présenter un meilleur potentiel d'évolution vers de plus hauts débits mais d'autres suggestions n'en sont pas moins avancées (39(*)).

Concernant les systèmes sans fil, les européens ont conçu une nouvelle norme numérique dite «DECT» (Digital European Cordless Telephone).

Malgré de nombreuses incertitudes techniques (quant au caractère opérable des solutions proposées), juridiques (disponibilité des fréquences) et commerciales (détermination des besoins et de l'offre de services), la boucle locale radio représente, pour les nouveaux entrants, un moyen privilégié de participer à la concurrence sur le marché des télécommunications.

Certes, la connexion des concurrents aux réseaux locaux des opérateurs historiques constitue, partout, une obligation de principe mais des problèmes peuvent surgir dans la pratique (délais d'élaboration des réglementations, mauvaise volonté des anciens monopoles, tarifs d'interconnexion incluant, comme en France, une participation au financement de la recherche ou du service public universel...).

C'est pourquoi aux Etats-Unis, ATT, après avoir acheté aux enchères des fréquences lui permettant de couvrir 93 % de la population, a élaboré le projet DINO tendant à développer une technologie radio capable d'offrir aux abonnés résidentiels un accès à la téléphonie fixe et à des services de transmission de données.

Un transmetteur radio sert de relais vis-à-vis d'une vingtaine de maisons pourvues chacune d'un boîtier de réception de la taille d'un emballage de pizza. Chaque abonné peut brancher son téléphone ou son ordinateur sur une prise raccordée à ce boîtier.

Un autre opérateur américain de téléphone sur longue distance, Sprint, a également conçu son propre système numérique sans fil (PCS : Personal Communications Service), qu'il comptait utiliser en combinaison avec les réseaux de trois câblo-opérateurs auxquels il s'était associé (TCI, Cox et Comcast). Mais il s'est heurté à un certain nombre de problèmes techniques (défauts logiciels notamment) et à une forte compétition, qui l'ont amené à rabaisser ses ambitions (il envisage de couvrir 9 cités sur les 15 à 20 initialement prévues).

Le dimensionnement de réseau sans fils est moins difficile que celui d'infrastructures cellulaires mais les problèmes d'ingénierie, les difficultés techniques (interférences,...) et les coûts correspondants ne doivent pas être sous estimés.

Les investissements annuels sont considérables et les dépenses de recherche et développement représentent de 15 à 20 % du chiffre d'affaires, la rentabilité, par rapport aux solutions filaires, dépend de la densité d'abonnés et les parts de marché occupées ont une importance décisive.

Enfin, la radio numérique ambitionne de devenir la composante hertzienne des autoroutes de l'information. La norme DAB (Digital Audio Broadcasting), adoptée par l'Europe, permet de diffuser, en même temps que le son, des données associées.

Europe 1 expérimente par exemple la diffusion d'informations visuelles pendant les matches de football (photos des joueurs, affichage des résultats,...). Mais les applications les plus hardies nécessiteraient des écrans plats en couleur, d'une dimension suffisante (10 centimètres carrés environ), dont le coût demeure actuellement prohibitif. Les modèles les plus sophistiqués ne permettent, pour le moment, que la présentation de graphiques (cartes de trafic routier,...) ou de messages (limités à 5 lignes de 20 caractères).

Mais il s'agit surtout de diffusion, sans véritable interactivité. Cette dernière est procurée, sur Internet, par de nouveaux instruments de plus en plus variés et sophistiqués : navigateurs, moteurs de recherche (Yahoo, Altavista, Hotbot, Lykos et, bientôt, Yukan de Microsoft) et agents intelligents.

Ainsi, l'ouverture à la concurrence des télécommunications, l'augmentation des débits liée au multimédia, les succès prodigieux d'Internet et du téléphone mobile constituent autant de facteurs d'accélération de la diversification des offres de technologie, avec, semble-t-il, actuellement, une prime aux solutions sans fils.

Mais la recherche de gains de performances n'en est pas pour autant négligée.

II. LA POURSUITE DE LA RECHERCHE
DE L'AMÉLIORATION DES PERFORMANCES

Concernant l'amélioration, constante, des performances des NTIC, les faits nouveaux les plus importants à signaler ont trait à l'évolution des composants de base des équipements et aux projets relatifs à l'avenir d'Internet.

A) LES PROGRÈS DES COMPOSANTS

S'agissant tout d'abord des composants, les écrans plats représentent, on l'a vu, un enjeu majeur.

Il en va de même, dans le domaine des semi-conducteurs, des futurs « media processeurs » qui devront être capables de traiter simultanément les signaux afférents à l'image, au son et à d'autres données.

De plus en plus miniaturisés et puissants, on devrait les retrouver au coeur, non seulement des ordinateurs personnels, mais de toute une série de terminaux fixes ou mobiles (ordinateurs de réseaux, portables, décodeurs de TV, téléphones, assistants personnels numériques, etc.). Certains, cependant, estiment qu'il restera nécessaire de reporter sur le logiciel une partie des fonctionnalités de la puce, comme le prévoit l'architecture RISC actuelle (40(*)).

Tout récemment, au cours de la rédaction de cet ouvrage, deux annonces spectaculaires sont venues bouleverser les perspectives d'évolution du secteur des semi-conducteurs : il s'agit du remplacement de l'aluminium par du cuivre à la surface des circuits intégrés, qu'IBM aurait réussi à maîtriser tandis qu'Intel, de son côté, affirme avoir trouvé le moyen de stocker deux fois plus de données sur un seul transistor de mémoire flash.

De telles découvertes sont susceptibles de rendre obsolète la fameuse loi de Moore, pourtant déjà prodigieuse, selon laquelle le nombre de transistors intégrés dans une puce double environ tous les 18 mois. Or, la percée d'IBM permet de franchir une étape décisive dans la miniaturisation des puces.

Il s'avérait en effet de plus en plus difficile de faire passer des électrons dans des conduits en aluminium qui devenaient de moins en moins conducteurs au fur et à mesure que se réduisait leur taille.

Il était envisagé depuis longtemps de recourir au cuivre, moins cher et plus rapide, mais celui-ci présentait deux inconvénients : sa fragilité et l'infiltration de ses atomes dans le silicium, poreux, du support.

Ces difficultés ont été résolues par l'apposition d'un revêtement spécial entre le cuivre et le silicium, sorte de Goretex, qui ne laisse passer que la quantité désirée d'électricité entre les couches du semi-conducteur. IBM a, en outre, mis au point une technique de gravure, applicable au cuivre, capable de permettre aux fabricants de puces une finesse de trait de l'ordre de 0,2 à 0,05 micron.

Dans une annonce faite le 4 février 1998, IBM vient de confirmer cette annonce en annonçant que la frontière du Gigahertz (Ghz) venait d'être franchie par la réalisation d'un prototype de puce supportant des fréquences d'horloge jusqu'à 1.100 Mhz (soit 1.1 Ghz).

Cette puce devrait être commercialisée pour fin 1999.

Simple rappel historique : la première puce fût commercialisée par Intel en 1971.

Ce processeur (le 4004) travaillait à une fréquence de 108 kilohertz.

Soit dix mille fois moins rapide que la puce qui vient d'être annoncée par IBM.

Quant à la découverte d'Intel, elle paraît tout aussi cruciale. Il semble qu'elle consisterait à permettre à chaque cellule d'une mémoire, de stocker, non pas seulement une seule information, correspondant à un 0 ou à un 1 du langage de codage numérique binaire (selon qu'il y a passage ou rupture du courant électrique), mais plusieurs, exprimées sous forme de variation, maîtrisées, de l'amplitude de ce courant.

Dans l'immédiat, Intel serait parvenu, en stockant deux informations par cellule au lieu d'une, à doubler la capacité d'une mémoire flash (41(*)) de 64 mégabits sans en augmenter le nombre de transistors.

Il n'est pas exclu de parvenir à stocker encore davantage d'informations par cellules. Dans ce cas, l'augmentation de la finesse de la gravure des circuits, condition de la multiplication du nombre de transistors des puces, ne serait plus la seule façon d'augmenter la capacité des mémoires et les performances des microprocesseurs.

B) L'ADAPTATION DES RÉSEAUX À L'AUGMENTATION DU TRAFIC

L'amélioration des performances des composants détermine le progrès des matériels qui en sont constitués, situés :

- à l'extrémité (modems, ordinateurs, décodeurs, télévisions, téléphones...) ;

- aux noeuds (routeurs, commutateurs...) ;

- ou au centre (serveurs) des réseaux.

Il en résulte, comme on l'a vu, malgré la compression des données, une tendance à l'augmentation des débits à laquelle il faut faire face.

Les moyens de relever ce défi sont, on vient de le voir, extrêmement diversifiés, faisant appel à des solutions sans fil (MMDS, LMDS) ou qui se contentent des terminaisons actuelles du réseau téléphonique commuté (ADSL).

Cependant, certaines de ces technologies, si elles peuvent contribuer à désencombrer la boucle locale et satisfaire des besoins individuels, n'offrent que des perspectives limitées de montée en débit ou d'interactivité.

Pour faire face à l'explosion du trafic lié à Internet ou aux capacités qui nécessitent certaines applications (vidéo, recherche), il paraît indispensable d'augmenter, à tout le moins, les capacités de la colonne vertébrale (backbone) des réseaux.

La fibre optique est le support qui présente, à cet égard, le plus fort potentiel, suivi des faisceaux hertziens (liaisons en hyperfréquences). Sinon, même le câble coaxial, comme le montre l'exemple des réseaux audiovisuels américains anciens, n'atteint pas des niveaux de performance suffisants.

Les deux propositions majeures avancées en la matière émanent :

n d'un consortium associant de grands industriels du secteur (3 Com, BayNetwork , Cisco , IBM , Newbrige, Nortel ...) à plus d'une centaine d'universités américaines ;

n du Gouvernement des Etats-Unis.

La première, baptisée « Internet 2 », plus pragmatique, devrait atteindre un stade avancé durant l'été 1999. Elle vise des ossatures à 500 Megabits et des bandes passantes « au bureau » de 10 mégabits/s. Son architecture comprend des réseaux rapides de campus connectés à des centres régionaux, appelés « gigapop » (42(*)) et des liaisons ultrarapides pour les communications à grande distance.

Le prototype de l'ossature de cet ensemble existe déjà : c'est le VBNS (VeryHigh Speed Backbone Network Service), géré par MCI, qui offre à certains utilisateurs des débits de 154 mégabits Internet 2 se superposera au réseau actuel auquel il donnera accès, mais il sera réservé à une clientèle privilégiée qui bénéficiera de prestations de qualité supérieure (débit garanti, transmissions video ininterrompues, services à la demande...).

S'intéressant davantage à l'intelligence du réseau qu'à sa puissance brute, il sera capable de gérer dynamiquement sa bande passante, en fonction des besoins précis de chaque utilisateur.

Le projet du gouvernement américain NGI (Next Generation Internet) est encore plus ambitieux : demeuré à un stade exploratoire, il souhaite établir des connexions «porte à porte» de l'ordre de 100 mégabits/s et des ossatures fonctionnant à plusieurs gigabits.

Telles sont donc, en matière de composants et de réseaux, les perspectives de gains de performances les plus fréquemment évoquées. Mais d'autres progrès décisifs sont en cours, en matière de logiciel, pour tirer parti de l'augmentation des capacités des semi-conducteurs, par exemple la reconnaissance, par l'ordinateur, de la voix et de l'écriture ou de la mise au point de cartes à puces révolutionnaires multi-applications qui intègrent les dernières avancées des mémoires flash ou ferro électriques réinscriptibles et du langage informatique de programmation Java.

Par sa prétention à devenir un standard universel, ce langage est l'un des éléments du mouvement de convergence, qui, avec les tendances venant d'être rappelées, à la diversification et à l'amélioration des performances, caractérise l'évolution des techniques d'information et de communication.

Toutefois, cette recherche de convergence se heurte aux visées dominatrices des grands groupes qui, dans un contexte de concurrence exacerbée, peuvent chercher à imposer leurs solutions propriétaires comme standard de fait.

III. UN MOUVEMENT DE CONVERGENCE PARFOIS HEURTÉ

La convergence censée caractériser la société de l'information se manifeste de trois façons :

n diversification, déjà étudiée, des utilisations des supports traditionnels (vidéo sur le réseau téléphonique commuté, téléphone sur le câble...), chacun essayant, dans son propre domaine, de concurrencer des acteurs précédemment spécialisés dans des secteurs d'activités bien distincts ;

n propension de tous les compétiteurs à suivre le développement du trafic de données et à offrir les accès à Internet (par câble, satellite, modems téléphoniques...) sur tous types de terminaux (ordinateur, téléviseur, écran de téléphone mobile...) ;

n enfin, recherche de solutions tendant réellement, soit à intégrer le transport des différentes données dans de futurs réseaux multimédia interactifs large bande (ATM), soit à améliorer l'interopérabilité des systèmes.

A) L'ATTRACTIVITÉ D'INTERNET

Internet, d'une part, au niveau des réseaux, l'ordinateur personnel, d'autre part, en tant que terminal, incarnent dans une certaine mesure cette convergence, caractéristique de la société de l'information.

Préfiguration, en modèle réduit et quelque peu bricolé, de ce que pourraient être les autoroutes de l'information de demain, le premier s'est imposé grâce à l'universalité de son protocole, qui permet à des machines, connectées à n'importe quel type de réseau dans le monde entier, de communiquer entre elles.

La voie ouverte par la Société Aplio avec son Aplio/Phone qui a reçu en Février 1998 le prix du produit de télécommunications le plus innovant est intéressante à observer.

En effet, ce produit qui permet de téléphoner via Internet pour le prix d'une communication locale avec l'obligation à ce jour que les correspondants disposent chacun d'un Aplio/Phone ouvre, grâce à sa facilité d'emploi et la non-nécessité de posséder un PC, une voie originale.

En Juin 1998, il devrait être possible, pour une personne utilisant un Aplio/Phone de communiquer en téléphonie avec une personne utilisant un PC, l'Aplio/Phone devant se conformer à cette date, à la norme d'audioconférence H.323.

Le trafic Internet tend, on l'a vu, à emprunter tout type de support (satellites, réseaux câblés audiovisuels, réseaux téléphoniques commutés, radiocommunications terrestres...). Son offre de services s'enrichit (radio, téléphone, vidéo), pouvant concurrencer celle d'opérateurs d'autres réseaux, publics ou propriétaires, non seulement techniquement mais aussi commercialement (en détournant des recettes publicitaires consacrées à d'autres médias ou par la pratique de tarifs inférieurs).

Enfin, ses données sont susceptibles, on l'a dit, de s'afficher sur différents types de terminaux, notamment des téléviseurs.

Or, si seulement un cinquième à un tiers des foyers, dans les pays développés, possèdent un ordinateur personnel, la quasi totalité sont équipés d'un téléviseur.

En outre, des sondages, effectués aux Etats-Unis, ont montré qu'une majorité de la population américaine préférerait accéder à Internet à partir d'un poste de télévision plutôt que d'un ordinateur.

Ces faits expliquent l'intérêt manifesté par les acteurs, tant de l'électronique grand public que de l'informatique, pour la mise au point de solutions techniques allant dans ce sens.

Ainsi, se sont multipliées des propositions de :

n boîtiers de connexion à Internet (Thomson et Oracle, Sony et Philips , Zenith ...) ;

n logiciels ou navigateurs correspondants (Network Computer Inc. et Navio communications, filiales, respectivement, d'Oracle et Netscape ).

Boîtier

Système d'exploitation

Logiciel de navigation

Thomson

Zénith

Accorn Computer

Network Computer Inc. (Oracle)

Oracle

Navio (Netscape)

Initialement alliée à Sony et Philips, Web TV, start up californienne ensuite rachetée par Microsoft, avait conçu elle-même le microprocesseur et les systèmes d'exploitation et d'accès à Internet de son boîtier.

Celui-ci, pourvu de deux cordons, se rattachant, l'un à la prise vidéo de la télévision et l'autre à une prise téléphonique, permettait d'envoyer un message (à l'aide de la télécommande, le clavier s'affichant, dans ce cas, sur l'écran, ou d'un clavier à liaison infrarouge) mais pas d'imprimer ou de récupérer des données.

Mais Web TV n'a cessé ensuite d'enrichir son offre (qui inclut désormais des possibilités d'impression, de transactions sécurisées, le libre choix d'un fournisseur d'accès à Internet, etc.).

La dernière version de son boîtier Internet TV comprend un guide de programme électronique sophistiqué, et permet, outre l'incrustation d'une image de télévision sur une page Web qui occupe l'écran, la transmission d'informations complémentaires d'un programme, dans la partie du signal réservée au sous titrage. Ces données peuvent, en outre, être enregistrées sur un disque dur.

Cela n'a pas empêché d'autres candidats de se lancer dans la course, tels qu'Oracle qui vient de sortir son propre boîtier, ou Bull, qui fabrique un décodeur Internet sous licence de la société française Netgem.

Au début de l'année 1997, World Gate avait conçu, par ailleurs, un logiciel, permettant d'accéder à Internet, via les décodeurs pour réseaux câblés préexistants, fabriqués par General Instrument ou Scientific Atlanta.

Il sera intéressant de suivre les développements du pari lancé par Nokia en Février 1998 qui a choisi une petite start-up, Spyglass, pour concevoir sa prochaine génération de décodeurs de télévision numérique. Ainsi, cette petite société a été préférée à Netscape et au géant Microsoft pour concevoir un nouveau terminal numérique qui permettra au téléspectateur de recevoir des dizaines de chaînes mais aussi de surfer sur Internet et d'accéder à des services multimedias interactifs.

Le tout sur l'écran du téléviseur familial.

B) LA STRATÉGIE DE MICROSOFT

Le rachat, pour un montant relativement élevé (425 millions de dollars) de WebTV par Microsoft, qui y a investi ensuite près de 2,5 milliards de dollars, suivi de son entrée au capital de Comcast (1 milliard de dollars) et de sa récente proposition d'investir de 600 millions à 1 milliard de dollars dans TCI, pour l'aider à financer une commande de décodeurs numériques, témoignent de l'intérêt de la firme de Seattle pour la télévision interactive.

Microsoft entend ainsi :

n contrer ses rivaux Oracle, Sun et Netscape ;

n exploiter les synergies qui peuvent être établies entre les systèmes d'exploitation de ses propres ordinateurs simplifiés (Windows CE), réplique des fameux ordinateurs de réseau (Network Computers) d'Oracle, et ceux nécessaires à la télévision interactive ;

n créer des logiciels de services interactifs et les vendre au câblo-opérateur et contrôler, à cette fin, la définition des spécifications des décodeurs correspondants.

Ces objectifs s'inscrivent dans une stratégie plus globale tendant à miser sur la convergence de l'informatique de l'audiovisuel et des télécommunications : Siemens ne vient-il pas d'intégrer dans sa nouvelle génération de logiciels de gestion de réseaux intelligents un programme fonctionnant avec le système d'exploitation Windows NT ?

L'un des responsables de la firme américaine qui a développé ce programme a déclaré à cette occasion que les serveurs utilisant ce système d'exploitation de Microsoft «étaient la clé de la future personnalisation massive des services téléphoniques».

Non contente de s'intéresser ainsi à la distribution (par satellite, câble, téléphone) la firme de Seattle s'implique aussi dans les contenus : elle vient certes de fermer son site d'aventure sur la toile (Mungo Park) et son service en ligne MSN (Microsoft Network) qui n'ont pas connu le succès escompté, notamment dans sa composante divertissement, mais son agence de voyages Expedia réalise, chaque semaine, un chiffre d'affaires de près de 20 millions de francs.

De plus, en s'associant à la chaîne nationale américaine NBC, Microsoft s'engage dans le domaine des contenus qui, tout en ressemblant par certains côtés à ceux de la télévision et en étant susceptibles d'être distribués par les réseaux câblés audiovisuels, sont destinés à être diffusés sur Internet, à destination des ordinateurs personnels.

Le mouvement de convergence entre la télévision et Internet est, en effet, double : le Web s'affiche sur le téléviseur, mais des images animées, des programmes d'information et de divertissement empruntent, en même temps, le réseau des réseaux.

Moyennant des équipements appropriés, (tuner, cartes, de compression et d'affichage), un ordinateur peut, par ailleurs, permettre de regarder une émission de télévision ou une cassette vidéo préenregistrée.

C) L'ORDINATEUR PERSONNEL, TERMINAL UNIVERSEL ?

Ainsi, par sa polyvalence, l'ordinateur personnel peut représenter, au côté d'Internet, un pôle de convergence d'informations.

Développé par la Société Marimba, fondé par des transfuges des équipes de développement du langage Java de Sun, l'ensemble de logiciels Netcaster a inauguré l'apparition sur Internet d'un véritable nouveau média, à destination des ordinateurs, associant texte, son et image. Ce ne sont plus ainsi seulement des « pages » Web, même animées, qui sont diffusées, mais de véritables « chaînes » d'information en continu. Le direct remplace le préenregistré. Au « pull » (cueillette d'information) succède le « push », transmission personnalisée de données correspondant aux centres d'intérêt des usagers. L'information choisie est adressée à l'intéressé au moment et sous la forme voulus (texte, image, son, logiciel).

Ainsi les mondes des télécommunications et de l'audiovisuel se rapprochent-ils, non seulement au niveau des technologies, mais aussi des contenus.

La technologie Castanet développée par Marimba a été adoptée par Netscape et intégrée à son nouveau navigateur « Communicator ».

Microsoft a, pour sa part, retenu celle de Pointcast, qu'il a introduite dans Explorer 4, après avoir tenté de mettre au point sa propre solution de « push », Active Desktop.

Push Technology, Webcashing, Netcasting, ou Cybercasting, tous ces termes recouvrent le même concept, à savoir la diffusion sur ordinateur d'images et de sons issus d'Internet.

En dehors des deux principaux procédés sus-mentionnés Pointcast et Netcaster, d'autres propositions ont été présentées telles que celles de Backweb ou d'Air Média, qui délivre par ondes radios des contenus présélectionnés, moyennant un récepteur spécial.

Netscape permet, avec In Box Direct, d'envoyer directement dans la messagerie personnelle de ses clients, par Navigator, les sommaires des journaux et des autres sites associés à ce service.

Avec Pointcast, l'information diffusée est organisée en chaînes thématiques, proposant un ensemble d'articles de presse complets classés dans certains cas par rubriques.

Backweb, de son côté, fournit d'abord des en-têtes de messages, à partir desquels on parvient, en cliquant, aux informations correspondantes.

Les animations multimédias de pages Web (avec des graphismes en mouvement, des menus déroulants, des successions d'images en trois dimension...) nécessitent des adaptations du langage HTML (43(*)), conçu à l'origine pour l'affichage de simples textes.

Ces animations résultent de microprogrammes dont l'exécution est réalisée :

- Soit, instantanément, selon les instructions du navigateur, écrites en langage Java, par la machine de l'utilisateur (solution retenue par Netscape).

- Soit, à partir de données fournies par le serveur (solution de Microsoft).

Cependant, les deux outils de consultation concernés, Navigator 4 de Netscape et Active X de Microsoft ne sont pas totalement compatibles entre eux.

Pour accéder à des sites contrôlés par Microsoft et donc accessibles par ActiveX (intégré à Explorer), à l'aide du navigateur de Netscape, jusqu'ici le plus répandu, il faut télécharger un programme lourd et complexe (Script-Active).

La version 4 du Navigator de Netscape contient, de son côté, des développements en HTML dynamique, qui ne sont pas encore standardisés par le World Wide Web consortium.

Concernant le technology push, Microsoft a, pour sa part, rendu son format CDF(Chanel Definition Format) apte à recevoir des informations « webcastées » par Netscape. Mais ce dernier a refusé, quant à lui, d'effectuer la démarche inverse, au motif que la technologie mise au point par Pointcast, désormais allié à Microsoft, utilise un langage propriétaire différent de HTML et de Java.

La toile d'Internet, jusqu'ici havre de convergence, risque-t-elle de se déchirer ?

Quoi qu'il en soit, l'ordinateur n'est pas seulement l'enjeu de la diffusion, via Internet, de programmes spécialement conçus pour lui.

D'aucuns le verraient bien fusionner avec le téléviseur pour lui permettre d'accéder à toutes les formes possibles de contenus audiovisuels ou multimédia.

Plusieurs des plus grands groupes de l'électronique grand public se sont ainsi lancés, en 1996, dans des projets de terminaux universels type PC-TV : Hitachi, Matsushita, Sony et aussi Thomson, en collaboration avec Compaq.

Par ailleurs, la technologie Intercast, mise au point par Intel, permet de diffuser des chaînes de télévision sur un ordinateur personnel en même temps que des pages Web correspondantes.

Entre les ordinateurs personnels, les téléviseurs, ou les PC-TV, le numérique permet d'envisager une multitude de terminaux intermédiaires hybrides, fixes ou portables (consoles de jeux, téléphones mobiles, etc...) offrant, en plus de leur fonction principale, l'accès à certains services Internet (courrier électronique, pages Web...).

D) LES PROBLÈMES DE STANDARDS

Ce foisonnement d'offres techniques, souvent rivales, risque d'aller à l'encontre même de la convergence qui les a suscitées et dont elles sont l'enjeu.

Des exemples nombreux en ont été donnés, avec les difficultés de standardisation qui surgissent en matière d'accès conditionnel aux programmes payants de télévision par satellite, de téléphonie mobile, et même, on vient de le voir sur Internet, en ce qui concerne le Webcasting et les navigateurs d'accès aux bases de données..

La convergence monopolistique, par élimination des concurrents telle que Microsoft, semble la concevoir, va-t-elle finir par s'imposer ?

Ne faut-il normaliser que l'interface entre différents systèmes propriétaires ?

Ou bien, est-il permis d'espérer l'avènement d'une société de l'information ouverte, fondée sur des références communes, telle que l'ATM ou le langage Java qui ne soit ni le fief de qui que ce soit, ni une jungle, ni une tour de Babel ?

L'ATM (Asynchrone Transfer Mode) a l'avantage de s'adapter à toutes sortes de débits, faibles ou forts, constants ou variables. Il permet d'envisager des réseaux uniques de transferts pour différents services (voix, vidéo, données).

Quant au langage Java, son atout majeur est de permettre d'écrire des programmes qui peuvent être exécutés indifféremment par toute machine pourvue d'un interprèteur adéquat, quels que soient son processeur et son système d'exploitation.

Les potentialités de Java sont évidemment menaçantes pour Microsoft qui tire la majeure partie de ses revenus de la vente de logiciels intrinsèquement liés à ses systèmes d'exploitation Windows (44(*)) .

Les applications écrites en Java sont actuellement la seule alternative à celles tributaires de Windows.

La firme de Seattle a fait preuve jusqu'ici d'une remarquable capacité de réaction aux tentatives de contestation de sa domination.

Elle a compris, pendant qu'il était encore temps, le caractère inexorable de l'essor d'Internet et l'intérêt qu'elle pouvait en tirer, allant jusqu'à imposer aux fabricants d'ordinateurs, avant sa condamnation par la justice américaine, l'installation de son navigateur Explorer 4.0, comme condition à la vente de son système d'exploitation Windows.

Concernant Java, elle a trouvé deux parades :

n après en avoir acquis la licence, elle a tout d'abord développé, à l'intention des usagers de ses systèmes d'exploitation Windows 95 et NT, un produit (45(*)) permettant de l'utiliser, en combinaison avec n'importe quel autre langage de programmation, pour écrire des logiciels d'application.

Il est ainsi possible de développer des logiciels tirant parti, aussi bien des capacités d'ordinateurs isolés, que de celles de réseaux d'entreprises ou de l'Internet.

Elle a, par ailleurs, créé une interface virtuelle (OPC) permettant à chaque client d'un réseau d'obtenir une information de n'importe quel serveur, mais cette interopérabilité suppose l'utilisation de la technologie logicielle Ole qui est à la base de Windows NT.

Ces deux initiatives tendent également à contrer les tenants de l'informatique en réseau qui préconisent de stocker les principaux logiciels sur le serveur (traitement de texte, tableau, gestion de fichier) et d'en concentrer la gestion à ce niveau, de façon à économiser les coûts de renouvellement et de maintenance des terminaux.

La riposte de Microsoft consiste ainsi généralement à enrichir les possibilités qu'il offre à ses clients, en les alignant sur celles proposées par ses concurrents, tout en s'efforçant de les garder captifs.

Mais sa posture est néanmoins essentiellement défensive.

Pour le moment, l'utilisation de Java sur l'Internet est principalement limitée à de petites applications (« applets »), complémentaires de l'affichage de pages Web et présente l'inconvénient d'une certaine lenteur pour la gestion de systèmes hétérogènes d'informations d'entreprises (Java interprété tourne beaucoup plus lentement qu'un programme compilé).

Toutefois, Sun s'efforce de remédier à ce défaut (46(*)) et offre des potentialités uniques.

S'il lui manque encore certaines interfaces et certains objets (47(*)) (voir encadré), Java a l'immense avantage d'être un langage universel, indépendant de tout système d'exploitation, qui permet de concevoir des logiciels d'application portables et susceptibles d'être exécutés par n'importe quelles machines (48(*)) ou processeurs (y compris ceux des cartes de crédit).

Ces programmes devraient en outre optimiser l'utilisation des ressources des réseaux en déportant du serveur vers le client certaines tâches.


L'APPORT DE JAVA


Le Web se base sur trois standards principaux :

- HTPP (Hyper Text Transfer Protocol) qui permet de trouver un serveur adapté à une requête ;

- HTML (Hyper Text Markup Language), relatif à la présentation des informations recueillies sur le terminal de l'usager ;

- enfin CGI (Common Gateway Interface) qui permet d'activer, à la demande, en tant que de besoin, le serveur pour lui faire fournir des données plus élaborées.

Le langage Java offre en outre l'avantage de pouvoir faire exécuter, en local, par le poste du client, certaines instructions, données par le navigateur, sans aller et retour avec le serveur sur le réseau (contrairement à Active X de Microsoft avec lequel les applications supplémentaires supposent un échange avec ce dernier).

S'agissant de la gestion de systèmes hétérogènes d'informations d'entreprises fonctionnant en mode client serveur, Microsoft a conçu une solution pour en rendre interopérables les instruments et logiciels de supervision (à condition qu'ils fonctionnent sous Windows NT).

Il s'agit, en quelque sorte, d'une interface virtuelle (OPC), qui permet de reconnaître des informations, étiquetées d'une certaine façon, quel qu'en soit le contenant.

De son côté, Sun a créé la plate-forme JCAF (49(*)), dont l'enjeu est de définir les interfaces et les objets qui manquent encore à Java.

L'immense avantage de cette formule est de reposer non sur une interface mais sur une machine virtuelle dont l'interpréteur permet de faire exécuter un programme par n'importe quel processeur, y compris celui d'une carte de crédit.

En outre, le « byte code » dans lequel sont écrits les programmes Java est beaucoup plus compact que le code binaire de programmes qui tournent sous Windows NT, ce qui accélère et rend plus économique le partage des ressources entre client et serveur sur le réseau.

Il reste le problème susmentionné, en cours de règlement, de l'interopérabilité des ensembles de procédures informatiques (process) et des instruments de supervision des systèmes d'information des entreprises.

Mais, d'ores et déjà, des applications très prometteuses peuvent être envisagées telles que :

n des cartes à puce multifonctions programmables ;

n de nouvelles possibilités offertes à des PC obsolètes utilisés comme ordinateurs de réseaux (Toshiba a développé dans ce sens un nouveau système d'exploitation leur permettant, grâce à Java, de bénéficier des suites logicielles pour NC proposées par Corel et Oracle).

Ainsi derrière le mot « convergence » se dissimulent deux approches antinomiques :

n celle d'un univers ouvert, celui d'Unix, en son temps, de Linux et de Java aujourd'hui ;

n celle d'un système cohérent et performant mais à visée hégémonique, sinon monopoliste, fondé sur des standards propriétaires et fermés, et qui tend à garder le client captif.

L'issue de l'affrontement entre ces deux conceptions sera déterminante pour l'avenir du marché des TIC.

LINUX, émule d'UNIX

L'UNIX est un système d'exploitation bien adapté aux ensembles informatiques et aux architectures client-serveur. Ses qualités l'ont imposé à la plupart des stations de travail et ont facilité l'essor initial d'Internet.. Son succès a même contraint IBM à en mettre au point une version qui lui était propre.

La législation anti-trust ayant empêché ATT, qui l'avait développé dans ses Bell Labs, de le commercialiser, il a été cédé gratuitement aux universités en 1975 (celle de Berkeley avait été du reste associée à sa création).

Le groupe de travail X/Open qui oeuvre en faveur de la normalisation de systèmes ouverts l'a ensuite pris pour modèle.

Mais cela n'a pas empêché que se déroule un affrontement entre les multiples variantes qui en ont été proposées par les géants de l'informatique.

Le dernier avatar d'Unix est aujourd'hui Linux, qui en diffère cependant beaucoup. Il en constitue en effet en quelque sorte une nouvelle version refaite à partir de zéro.

Ce système d'exploitation a été développé selon un modèle ouvert et réparti, contrairement à la plupart des logiciels connus qui suivent, au contraire, un modèle fermé et centralisé. Linux est un « logiciel libre », notion qui se rattache à celle dénommée « graticiels ».

Cela signifie que toutes ses nouvelles versions doivent être rendues accessibles au public. Les améliorations apportées peuvent cependant donner lieu à rétribution mais le code, source des modifications effectuées doit être obligatoirement chaque fois diffusé.

Fin 1997, Linux comptait entre 5 et 10 millions d'utilisateurs.

Le DVD (Digital Versatile Disc) illustre aussi, on l'a vu, l'espoir d'une convergence entre, en l'occurrence, l'électronique grand public et l'informatique, contrarié par des difficultés de normalisation.

Il s'agit du remplacement à la fois des cassettes vidéo VHS et des CD ROM.

Il doit en exister deux versions, le DVD vidéo, doté d'une certaine interactivité, et les DVD-ROM, destinés aux ordinateurs.

Ces derniers peuvent également permettre de visionner des DVD vidéo, moyennant une carte de décompression ou un décodeur logiciel.

Mais l'accord mondial conclu en ce qui concerne les normes de la version enregistrable de ce vidéo disque numérique (DVD-RAM) a été remis en cause par Sony et Philips, puis par NEC.

Quant au DVD enregistré de base, Thomson et Zénith viennent d'en définir un nouveau format DIVX, censé réduire les risques de piratage des données numériques, mais incompatible avec le Standard commun.

L'intensification de la concurrence, on le voit, accélère la diversification des offres et des gains de performances, mais entrave, en même temps, les convergences, au risque de rendre plus incertaines les évolutions du marché et plus difficile la maîtrise de l'extraordinaire complexité résultant du foisonnement des techniques.

IV. RECONNAISSANCE DE LA PAROLE
ET RÉALITÉ VIRTUELLE :
DES AVANCÉES TECHNOLOGIQUES MAJEURES QUI
VONT CHANGER NOTRE VIE
DANS LES PROCHAINES ANNÉES

Comment les nouvelles technologies vont changer notre vie dans ces prochaines années ?

Comme je l'ai déjà dit à plusieurs reprises, loin de se ralentir, le rythme de la mise sur le marché de technologies va encore s'accélérer dans ces prochaines années.

Ainsi le 3 Février 1998, Digital a annoncé la mise sur le marché, pour l'Eté 1998, de sa nouvelle puce, baptisée Alpha 21264, cadencée à une fréquence de 600 mégahertz (Mhz), ce qui devrait favoriser le développement de Windows NT face à Windows 95 qui ne peut fonctionner avec des puces Alpha.

La réplique d'Intel ne devrait pas se faire attendre.

En ce début de 1998, les travaux sont suffisamment avancés dans les principaux laboratoires mondiaux et les programmes de mise sur le marché suffisamment précis pour que nous puissions, avec un taux d'erreur tolérable, prédire en quoi notre vie sera changée par les NTIC dans ces 10 prochaines années.

Tout d'abord, les spectateurs sont tellement absorbés dans les temps actuels par le duel, sans partage, qui oppose actuellement le leader du logiciel, Microsoft, aux tenants du marché Java que sont Sun, Oracle et Netscape, qu'ils ne voient pas venir une révolution technologique majeure qui devrait triompher en l'an 2000, pour l'entrée de l'homme dans le troisième millénaire.

En effet, en cette année, devraient être disponibles des micro-ordinateurs qui obéiraient totalement à la voix. La productivité du clavier et de la souris n'a que médiocrement progressé dans ces deux dernières décennies alors que, dans un même temps, tous les autres composants du micro-ordinateur, en partant du processeur pour aller jusqu'à la carte vidéo, en passant par le disque dur, la mémoire vive, la carte mère, la carte son, jusqu'au CD-ROM transformé en DVD, ont fait un bond spectaculaire.

Aussi, pour justifier des microprocesseurs cadencés à des fréquences de 600 MHz (600 millions d'instructions par seconde) qui seront commercialisés dans ces prochains mois, et des mémoires de plus en plus rapides, tous les grands constructeurs de logiciels comme de matériels vont proposer, dans deux ans au plus tard, une reconnaissance naturelle de la parole, qui aura un taux d'erreur inférieur à cinq pour mille, alors que les meilleurs logiciels actuels correspondants ont encore un taux d'erreur de cinq pour cent.

Suivront ensuite, rapidement, des systèmes très élaborés de reconnaissance de l'écriture, de vidéo conférence fluidifiée et de représentation tridimentionnelle évoluée (3D) avant l'avènement de la réalité virtuelle qui constituera une nouvelle phase majeure. Mais c'est la parfaite maîtrise de la reconnaissance de la parole qui provoquera, à mon avis, dans ces prochaines années les plus profondes mutations relationnelles entre l'Homme et la Machine.

Les études réalisées dans un grand nombre de pays montrent que l'informatique reste encore très ésotérique pour beaucoup d'utilisateurs potentiels. Aussi, quand nous arriverons devant notre ordinateur et que nous dirons « allume-toi, je vais te dicter une lettre que je vais adresser à ma grand-mère Alice » et qu'il nous suffira de parler devant notre micro-ordinateur, comme si nous conversions avec notre aïeule au téléphone, pour qu'il nous prépare la lettre sans faute avec l'enveloppe, alors, la vision que se font de l'informatique beaucoup de personnes encore aujourd'hui changera profondément.

Cette reconnaissance fiable de la parole devrait avoir trois conséquences majeures dès le début du 21e siècle :

n première conséquence : dans le domaine du téléphone ;

n deuxième conséquence : dans les rôles respectifs du téléviseur et de l'ordinateur ;

n troisième conséquence : dans notre environnement de chaque jour, à la maison ou dans notre voiture.

La première conséquence sera certainement celle qui aura le plus de répercussions sur la compétition ouverte entre l'informatique et les télécommunications. Nous pouvons affirmer que « le téléphone filaire (RTC) sera demain à la parole ce qu'est aujourd'hui le fax à l'écrit ».

Le fax est convivial, facile d'usage, mais n'a aucune faculté de reconnaître, classer, traiter les messages qu'il transporte. Bientôt, avec l'aide du protocole TCP/IP durant nos conversations téléphoniques, un système informatique inscrira automatiquement des rendez-vous sur nos plannings, ouvrira instantanément des dossiers sur les sujets abordés, créera des fichiers de suivi, réservera des salles pour des réunions décidées, transcrira intégralement nos propos sur la mémoire de notre machine, etc.

La seule réplique que peuvent avoir les opérateurs de télécommunications face à cette montée en puissance inexorable de la reconnaissance de la parole sur les PC est de développer très rapidement le débit des boucles locales pour offrir des services équivalents en partant de serveurs locaux, le terminal téléphonique se transformant alors en Network Computer (NC) (ordinateur de réseau), loué à des prix très modiques.

Le vrai combat entre le PC et le NC ne devrait pas se dérouler uniquement entre deux acteurs majeurs de l'informatique (Microsoft et Sun) mais, essentiellement, entre les acteurs de la micro-informatique PC associés au leader du logiciel et les acteurs majeurs des télécommunications associés au leader du monde Java. Du résultat de ce combat dépendra le leadership du développement des NTIC pour ces vingt prochaines années.

De coeur, nous voudrions espérer que ce combat soit gagné par les opérateurs de télécommunications car notre opérateur national, France Télécom, occupe la quatrième place mondiale dans ce secteur si important pour la place de la France dans le paysage technologique de demain.

Mais, connaissant le fossé culturel qui persiste entre les grands opérateurs de télécommunications qui, pour les plus grands parmi eux (sauf pour de récents arrivés aux dents longues), ont occupé une situation de monopole pendant de nombreuses décennies et la réactivité des jeunes et puissantes compagnies de micro-informatique, il est à craindre pour notre pays que le combat soit gagné par le monde informatique.

Aussi, au lieu de s'attarder dans des combats d'arrière-garde pour préserver des lambeaux de leur ancien monopole, les managers des grands opérateurs mondiaux de télécommunications devraient organiser leur puissante contre-attaque de façon cohérente puisqu'ils ne sont pas concurrents sur les boucles locales. S'ils ne savent pas organiser très rapidement cette contre-offensive qui leur permettrait de conserver le vocal, qui est le coeur et le coffre-fort de leur métier, nous avons la certitude qu'ils seront pris en tenaille dès ces prochaines années entre les câblo-opérateurs qui vont retrouver une jeunesse, avec les modems Cable et le puissant monde conquérant de l'informatique.

La deuxième conséquence majeure de la reconnaissance fiable de la parole est l'accélération de la fusion qu'elle va provoquer entre le monde de la télévision et le monde du micro-ordinateur familial.

Chacun ressent que les systèmes actuels permettant d'afficher des pages Web sur le téléviseur (tels que WebTV, Netbox ou Com 1) ne sont que des systèmes transitoires bien que très intéressants. L'absence de réelles capacités de mémoire ainsi que de clavier et de souris, même s'il existe des claviers infrarouges qui sont proposés en option, sont un frein réel à la navigation sur le Web.

La reconnaissance de la parole associée au développement du modem Cable ayant pour finalité de faire disparaître le clavier et la souris devrait ouvrir un champ nouveau pour ces périphériques autorisant d'accéder à Internet sur son téléviseur du moins si par ailleurs ils savent (en local ou en déporté) acquérir de réelles capacités de mémoire.

Mais la reconnaissance de la parole devrait avoir une conséquence plus profonde encore sur les rôles qui devraient être affectés, à terme, au téléviseur et à l'ordinateur dans le cercle familial.

Comme à l'école, ce serait une grave erreur d'oublier que l'image doit remplir deux rôles bien distincts dans le foyer familial.

n Tout d'abord, un rôle collectif : une image de qualité et de grandes dimensions, soutenues par des sons fidèles et réalistes (Dolby Surround) constituera l'élément central autour duquel continuera à se réunir le cercle familial. La montée en puissance dans ces prochaines années de l'écran plat à plasma de grandes dimensions ne fera que favoriser la création de « cinéma à domicile ».

n Ensuite, une fonction individuelle : clavier et image sur le micro-ordinateur, ou plutôt sur l'écran de chacun des terminaux familiaux du réseau, devront remplir un rôle à la fois ludique, de gestion, mais essentiellement permettre d'accéder à des connaissances au travers du réseau Internet.

Chaque image sur le micro-ordinateur sera adressée, non pas à un groupe, mais à un internaute en particulier. Mais, même si elles n'ont pas la même finalité, toutes les machines générant ces images (qu'elles soient à usage collectif, comme celles du téléviseur, ou individuel, comme celles du PC ou des autres terminaux) seront interconnectées sur un « réseau informatique résidentiel » et c'est là où la reconnaissance de la parole jouera un rôle essentiel.

En effet, les minis réseaux d'entreprises exigent aujourd'hui un administrateur de réseau, tant ils sont complexes à gérer. Aussi, le développement de ces « réseaux informatiques résidentiels » ne sera imaginable que lorsque ces réseaux et ensembles informatiques familiaux pourront être administrés en langage naturel. Cette gestion globale et naturelle du réseau familial bouleversera l'économie du contenu audiovisuel et informatique.

La concurrence sera vive entre les chaînes audiovisuelles, qui verront leurs marchés captifs et de masse se réduire, donc leurs revenus publicitaires décroître (d'autant plus que le téléspectateur pourra demander à son système informatique de ne plus présenter des coupures publicitaires lors de la projection d'un film) et entre les programmes (push médias) qui lui auront été concoctés sur mesure, grâce à de nouveaux agents intelligents sur le réseau Internet.

Enfin, cette reconnaissance fiable de la parole qui va être soutenue par le développement de micros instructions Java devrait bouleverser, dans ces 10 prochaines années, notre environnement, aussi bien à la maison que dans notre voiture. La reconnaissance de la parole fera des progrès très rapides au début du siècle prochain dans notre voiture.

Déjà, la synthèse de la parole a permis des progrès notoires, surtout dans les aides à la navigation, pour rejoindre une adresse possible. La reconnaissance de la parole permettra aux systèmes d'aide à la navigation, d'aide à la sécurité, de surveillance des divers paramètres techniques, de réglage de divers systèmes audios, de téléphone de voiture, d'être totalement interactifs et permettra au conducteur de conserver l'oeil sur la route et la main sur le volant... en attendant que la conduite de nos voitures devienne entièrement automatique en urbain, et sur les axes chargés dans moins de vingt ans : c'est pour demain.

Au niveau de la sécurité des immeubles, des bureaux ou des usines, la reconnaissance de la parole fera des progrès très importants dès ces prochaines années. Les systèmes de surveillance reconnaîtront instantanément les personnes autorisées et rejetteront impitoyablement (jusqu'à déclencher le système d'alarme) toute personne non reconnue.

Des systèmes multicritères de haute sécurité (reconnaissance de la voix, reconnaissance des empreintes et reconnaissance de l'iris) protégeront les lieux particulièrement sensibles.

Les travaux conduits dans divers laboratoires particulièrement en pointe, aussi bien aux Etats-Unis, au Japon, qu'en Europe, laissent penser que la réalité virtuelle - qui n'est encore qu'à ses balbutiements- devrait devenir particulièrement réaliste et accessible à tous, dès que les processeurs cadencés à une vitesse de 1 gigabits (1 milliard d'instructions par seconde) seront accessibles à de bas coûts.

Or, des annonces majeures faites par IBM et Intel en 1997 (sur l'utilisation du cuivre dans les microprocesseurs à la place de l'aluminium et sur la capacité des mémoires rapides) laissent penser que cette fréquence du gigabits devrait être atteinte dès ces prochaines années.

Les premières applications hyper-réalistes, faisant appel à trois des sens de l'homme (la vue, l'ouïe et le toucher) seront développées dans le domaine très porteur du jeu, dans un premier temps. Mais, très rapidement, des applications professionnelles avancées permettront de créer des outils de simulation, de formation et de virtualisation de nouvelle génération.

Ce monde virtuel commencera alors à envahir notre monde réel. Notre société devra alors être très vigilante pour que les exclus les plus faibles ne se réfugient pas dans ces mondes virtuels, refusant ainsi la réalité de chaque jour.

Comme l'ont fort bien écrit, il y a quelques années, Philippe Quéau d'une part, et Howard Rheingold, d'autre part, l'arrivée de cette réalité virtuelle nous ouvrira alors de nouveaux mondes.

*

* *

Il convient de tenter d'évaluer non seulement les possibilités d'évolution de l'offre de technologies mais aussi dans quelle mesure ce mouvement a des chances ou non de correspondre aux attentes du marché : c'est tout le délicat problème de l'ajustement du « technology push » au « market pull ».

Dans certains domaines, l'offre et la demande de techniques nouvelles sont, d'ores et déjà, en phase de façon si manifeste que l'on assiste à des phénomènes de croissance véritablement explosive (téléphone mobile, raccordement à Internet).

Dans d'autres, comme la télévision interactive, des déconvenues sont possibles.

La diversification des technologies, d'un côté, l'intensification de la concurrence, de l'autre, sont sources d'incertitudes.

La montée en débit, la quête de la mobilité, l'accroissement du trafic de données au détriment de celui lié à la téléphonie vocale semblent des phénomènes inéluctables mais des questions se posent :

n Dans quelles mesures le recours à des solutions haut débit économiques et rapides (ADSL, MMDS, satellites...) peut-il retarder l'avènement de réseaux optiques à large bande ?

n Quels seront les effets sur le trafic de l'entrée d'Internet dans l'économie marchande ?

n L'exacerbation de la concurrence, dans tous les domaines, ne va-t-elle pas aboutir à fournir quasi gratuitement certains services de base à l'usager, tels que l'accès à de simples informations à partir des réseaux, voire l'utilisation des systèmes d'exploitation informatiques (faut-il payer pour se servir d'un langage ?), la compétition se déplaçant vers le terrain des prestations à valeur ajoutée.

CHAPITRE VII

LES MARCHES DES NOUVELLES TECHNOLOGIES
DE L'INFORMATION (comment vont-ils évoluer
et quelles vont être les nouveautés) ?

Une avalanche de chiffres, souvent divergents, sont publiés par les cabinets de consultants spécialisés, concernant l'évolution des marchés des TIC.

Or, ces données sont à manier avec précaution, étant donné les incertitudes qui entachent toute prévision en la matière.

Il est donc prudent et recommandé de se fonder en premier lieu sur la mise en évidence de grandes tendances dont la plupart peuvent être dégagées de la récapitulation des observations précédemment notées dans cet ouvrage.

Les orientations des marchés paraissent découler ainsi principalement de :

n L'évolution de l'offre de technologies, elle-même déterminée par une accélération de leur diversification, de leurs gains de performances (notamment dans le domaine des semi-conducteurs et de la compression de données), et, malgré des difficultés de standardisation, de leur convergence, caractérisée par le règne du numérique, de l'informatique et des réseaux ;

n L'explosion correspondante de la demande, dans des secteurs d'activités, tels qu'Internet, la téléphonie mobile, et, de façon moins spectaculaire, la télévision numérique, surtout par satellite ;

n Enfin, l'ouverture à la concurrence des télécommunications.

Il ne s'agit pas d'un jeu à somme nulle mais d'une dynamique marquée non seulement par des redéploiements au sein des secteurs traditionnels (par exemple, dans l'audiovisuel, au détriment des chaînes hertziennes généralistes...) mais aussi par la création d'activités nouvelles (images en trois dimensions, Webcasting, commerce électronique...) et par une accentuation de la prédominance de l'informatique.

Certes, ni le budget loisirs, ni le temps passé par les usagers devant leurs différents écrans, ni les dépenses d'informatique et de communication des entreprises ne sont indéfiniment extensibles.

Mais la dynamique, qui caractérise l'évolution des TIC, peut bénéficier :

n du supplément de croissance économique qu'elle contribue à provoquer (par la création de biens et services inédits, la prospection et la conquête de nouveaux marchés...) ;

n des gains de productivité qui en résultent et s'y investissent en retour ;

n enfin, du redéploiement du produit de certaines économies réalisées grâce à elles (frais de déplacement et de missions, d'expéditions de documents...).

Les nouvelles techniques d'information et de communication présentent de ce fait un potentiel de croissance et de création d'emplois incontestable.

Il existe une véritable interaction entre les évolutions technologiques, économiques, politiques et culturelles qui sont à la fois la condition et la conséquence de l'avènement de la société de l'information.

La compression de données, par exemple, a rendu à la fois possible un bouleversement de l'économie des réseaux audiovisuels et informatiques et nécessite une modification du cadre juridique des activités correspondantes.

Malgré les réductions de bande passante qu'elle permet, le besoin de consommation d'images qu'elle suscite risque de contribuer à rendre inévitable une augmentation des débits des échanges de données (visioconférences, vidéo à la demande...).

L'ouverture à la concurrence, par ailleurs, qui est, au départ, de nature politique, accélère certaines évolutions techniques (le contournement de la boucle locale, par exemple, par les radiocommunications...) et est susceptible d'activer ce qui me paraît être une évolution inéluctable de l'économie de la société de l'information : un déplacement des sources de valeur ajoutée, vers les services personnalisés, en aval de la chaîne d'exploitation et de transmission des données de base.

Ainsi, l'émergence de nouvelles techniques d'information peut-elle être considérée de deux façons :

- concernant, tout d'abord, son impact sur les activités traditionnelles des secteurs concernés ;

- à travers, ensuite, ses conséquences inédites.

I. L'IMPACT DES NTIC SUR LES ACTIVITÉS TRADITIONNELLES DES SECTEURS CONCERNÉS

L'irruption de nouvelles technologies peut influencer à la fois les relations entre les secteurs d'activités concernés (informatique, télécommunications et audiovisuel) et l'activité propre de chacun d'eux.

A) AU NIVEAU GLOBAL

Selon l'Observatoire Européen des Technologies de l'Information (50(*)), notre continent représentait, en 1996, 30 % du chiffre d'affaires mondial des TIC, les Etats-Unis 34 %, et le Japon 15 %.

La part française du marché européen des TIC est d'environ 16,5%.

Les télécommunications correspondent, en Europe, à 53 % du total des TIC et ont enregistré, en 1997, un taux de croissance plus élevé (+ 7,9 %) que celui des seules technologies de l'information (+ 6,5 %).

Nous accusons dans ce dernier secteur (équipements, services informatiques et logiciels) un retard, par rapport aux Etats-Unis, qui tend à s'aggraver : en effet, de 1993 à 1996, notre chiffre d'affaires ne s'y est accru que de 21 % alors qu'il a augmenté de 41 % en Amérique.

L'informatique et l'électronique sont devenus, Outre-Atlantique, le premier employeur de l'industrie, devant l'automobile.

Toutefois, le marché des télécommunications demeure, au niveau mondial aussi, plus important que celui de l'informatique et de l'audiovisuel.

coller tableau

Mais, d'une part, l'équipement des deux autres secteurs tend à s'informatiser de plus en plus, d'autre part, le taux de croissance de l'informatique est bien supérieur aux leurs, Europe mise à part, du fait de la progression soutenue de la zone Asie-Pacifique, et en particulier de la Chine.

Cette zone a ainsi consommé plus de PC que l'Europe de l'Ouest en 1996.

Il se peut toutefois que la crise traversée actuellement par plusieurs pays d'Asie fassent évoluer rapidement ces ordres de grandeur.

L'essor de l'industrie informatique devrait, par ailleurs, continuer à être soutenu par l'explosion des ventes de micro-ordinateurs, la poursuite du développement d'Internet et l'évolution favorable du marché américain (41 % du marché mondial, + 10 % d'augmentation annuelle escomptée d'ici à 2001 selon le cabinet de consultants IDC).

Seule la téléphonie mobile (+ 34,7 % pour les services en 1997, + 20,5 % pour les infrastructures) connaît un rythme de croissance plus soutenu que celui de la micro-informatique.

Le marché des PC a cru en moyenne de 21 % de 1991 à 1997 ce qui constitue une performance appréciable).

Un autre marché, plus cyclique, mais lui aussi très dynamique et créateur d'emplois, en longue période, est celui des semi-conducteurs dont le chiffre d'affaires double tous les trois à cinq ans.

La progression de l'audiovisuel (+ 2,7 % en 1997), est dans l'ensemble, beaucoup moins soutenue que celle de l'informatique et des télécommunications (+ 5,6 % en 1997), à l'exception de la télévision par satellite (+ 22,5 % par an depuis 1991) et des matériels haut de gamme (correspondant notamment, aux Etats-Unis, au concept de « home theater » ou cinéma à domicile).

Mais ce secteur compte sur des technologies et des produits nouveaux pour faire redémarrer ses activités (télévision et camescopes numériques, DVD...).

Dans l'ensemble, la croissance des TIC est nettement plus soutenue que celle du PIB qui n'a été en Europe que de 1,6 % en 1996 et 2,3 % en 1997 (+ 2,6 % et + 3 % pour l'ensemble de l'OCDE).

Dans les télécommunications et l'audiovisuel, les services tendent à occuper une place plus importante que les équipements et à progresser, en outre, plus rapidement.

coller tableau

Cette tendance est moins marquée dans l'informatique (voir plus loin) où l'on note cependant, en Europe, une croissance des produits logiciels (+ 9,5 % en 1997), et surtout des services réseaux (+ 14,3 %) supérieure à celle de l'ensemble des technologies de l'information (+ 6,8 %).

La «convergence», souvent avancée pour caractériser la société de l'information, ne coïncide pas, on l'a vu, avec une « fusion » immédiate des contenus et des infrastructures concernés.

Des frontières subsistent entre secteurs d'activités traditionnels mais elles tendent à devenir beaucoup plus aisément franchissables.

En effet, l'informatique, on l'a vu, (matériels et logiciels) pénètre de plus en plus les télécommunications et l'audiovisuel (aux stades de la production et de la diffusion).

La technologie permet, en outre, de transmettre pratiquement n'importe quel contenu sur n'importe quel support, à destination de n'importe quel terminal.

Le texte, le son, la voix et les images peuvent ainsi emprunter les réseaux audiovisuels ou de télécommunications, ou le réseau des réseaux qu'est Internet, pour rejoindre l'ordinateur, le téléviseur ou, bientôt, l'écran de la radio ou du téléphone mobile de l'usager.

Bien entendu, certaines spécificités demeurent liées aux différences de contextes et de modes de consommation des produits et aux fonctions principales du terminal : on ne conçoit pas de la même façon un programme destiné à être regardé de près (sur un écran d'ordinateur) ou de loin (sur un téléviseur) individuellement ou à plusieurs (idem), à des fins professionnelles, éducatives, distrayantes ou relaxantes.

L'image peut n'être qu'un complément du texte et du son et le message écrit, un substitut seulement, de la communication vocale.

Mais, sans même évoquer, pour l'instant, l'apparition de médias, produits ou services entièrement inédits, qui sera examinée plus loin, de nouvelles formes de concurrence entre activités traditionnelles surgissent et des opportunités inattendues s'offrent aux entrepreneurs concernés.

Deux formes de communications anciennes, la presse écrite et le téléphone, en donnent des illustrations : Time Warner, Berterlsmann et plus encore un groupe comme News Corp. ont prouvé leur capacité à profiter de positions fortes dans l'écrit pour développer leurs activités dans l'audiovisuel et le multimédia.

Les débats du congrès de l'Association mondiale des journaux, qui se sont tenus à Amsterdam, en juin 1997, ont montré, par ailleurs, qu'Internet n'inquiète plus les dirigeants de la presse écrite. Beaucoup d'entre eux, aux Etats-Unis, se sont lancés dans l'édition électronique comme le Wall Street Journal ou le Groupe Times Mirror qui en retirent des revenus substantiels (notamment en ce qui concerne la commercialisation de leurs actions et leurs services de petites annonces).

L'annonce faites par l'AFP à Imagina le 3 Mars 1998 de présenter certaines dépêches avec des illustrations 3D diffusées par Internet montre toute la capacité d'adaptation de cet organisme face à de nouveaux outils d'information.

S'il est exact que des différences entre médias demeurent, elles peuvent ainsi affecter parfois davantage la présentation des données, qui nécessite une adaptation à chaque support de diffusion spécifique, que leur contenu lui-même, comme en témoignent les activités liées à la couverture de l'actualité et à la diffusion d'informations générales ou particulières.

S'agissant du téléphone, forme de communication moins ancienne que la presse, mais néanmoins bien établie, il a déjà été rendu compte dans cet ouvrage des expériences dont il fait l'objet sur le câble.

Mais la téléphonie sur le Net inquiète davantage les opérateurs traditionnels. Son essor a été, en effet, semble-t-il, largement sous-estimé et elle a été affranchie, depuis le 1er janvier 1998, en pratique sinon en théorie (la France s'y opposant), des obligations qui lui incombent encore (obtention d'une licence et contribution au financement du service public).

USA Global Link a lancé, en 1997, le premier service mondial de téléphonie sur Internet, Global Internet Work.

Son utilisation devrait être complètement transparente pour l'utilisateur. Ce sont, en effet, des serveurs d'accès qui numérisent les signaux analogiques correspondant à la voix. L'emploi d'un ordinateur personnel n'est donc pas nécessaire, contrairement à ce qui se passe dans un système comme Vocaltec.

Un simple téléphone numérique ordinaire suffit.

Le même type de solution est proposé par la jeune société française Applio qui espère étendre ses services au fax et à la visioconférene.

L'opérateur doit néanmoins se doter, dans ces cas, d'ordinateurs agissant comme passerelles entre Internet et le réseau téléphonique commuté.

Comme la téléphonie, la vidéo à la demande pourrait se prêter à une certaine concurrence entre les infrastructures habituelles de prédilection pour la transmission de ce type de données (réseaux audiovisuels câblés ou hertziens, terrestres ou satellitaires) et l'utilisation d'une solution alternative inédite (emploi de la technologie ADSL sur le réseau téléphonique commuté).

Dernier exemple de rivalités entre secteurs traditionnels d'activités : celui qui oppose les équipementiers de l'informatique, fabricants de routeurs à ceux des télécommunications, qui proposent des commutateurs.

Selon ADN (Alcatel Data Networks), filiale commune à l'industriel français et à l'américain Sprint, les routeurs (51(*)) ne suffisent plus à faire face à l'accroissement du trafic Internet et doivent donc être remplacés par des commutateurs (52(*)) à haut débit.

Il faut toutefois vérifier que cette approche qui voudrait que la fonction d'aiguillage du trafic Internet passe par des autocommutateurs à haut débit et non par des routeurs est bien compatible avec le protocole IP.

Ainsi, du fait de la coexistence d'une diversification et d'une convergence des technologies, une certaine concurrence peut naître entre des activités qui, tout en demeurant distinctes, tendent à se rapprocher.

Ces mêmes évolutions sont susceptibles de provoquer aussi une nouvelle donne entre les composantes des différents secteurs concernés.

B) CONCERNANT LES TÉLÉCOMMUNICATIONS

Les deux tiers de la croissance du marché des télécommu-nications, qui s'accélère (+ 5,6 %), proviennent de celle des équipements (+ 20,5 %) et services (+ 34,7 %) pour les mobiles .

Avec un total de 745 milliards de dollars, ce marché demeure, on l'a vu, le premier de ceux des technologies de l'information, mais devrait se faire rattraper par celui de l'informatique (610 milliards) dont la progression est plus rapide.

Le montant des ventes de services (615,15 milliards de dollars) représente près de cinq fois celui des équipements (129,9 milliards) et cet écart ne devrait que se creuser.

Le marché mondial des services de télécommunications reste dominé par les recettes provenant des réseaux téléphoniques commutés (435,3 milliards de dollars) mais leur part relative est en baisse (71 % en 1997 au lieu de 84,7 % en 1991).

Cette situation relative pourrait toutefois se trouver modifiée dans l'avenir, sous l'effet de la continuation de l'essor d'Internet, et de son entrée dans l'économie marchande, et des conséquences tarifaires de l'ouverture à la concurrence de la téléphonie vocale.

Le phénomène le plus marquant des années récentes a été celui de l'explosion de la téléphonie mobile qui, après une croissance de l'ordre de 20 % par an, entre 1991 et 1997, représente aujourd'hui plus du cinquième du marché mondial des services de télécommunication et près de 30 % de celui des équipements. La plupart des pays développés ont privilégié les infrastructures pour réseaux mobiles dans leurs stratégies d'investissement, le Japon allant jusqu'à les substituer, en partie, aux équipements pour réseaux fixes.

Le marché des satellites (hors lanceur et assurance) a connu lui aussi une croissance à deux chiffres (+ 11,4 %).

Comme cela a déjà été souligné dans cet ouvrage, les télécommunications correspondent à un point fort de la France dont l'opérateur national et le principal industriel, Alcatel, se classent au quatrième rang mondial.

Toutefois, si nous figurons au premier rang mondial, grâce au Minitel, en ce qui concerne les terminaux vidéotex, et à une place honorable (la sixième) pour le nombre de lignes principales par centaine d'habitants, nous n'étions encore en 1997 que le 21e pour celui des radiotéléphones par milliers d'habitants.

Toutefois le réveil récent des français face au téléphone portable (850.000 portables vendus dans le seul mois de Décembre 1997) devrait permettre à notre Pays de regagner rapidement des places.

Notre champion national Alcatel a, selon l'expression cruelle d'Usine Nouvelle du 13 novembre 1997, «raté le coche de deux évolutions majeures des télécommunications : la mobilité, d'une part ; Internet et les réseaux de données, d'autre part».

Il a, en outre, effectué une acquisition malheureuse aux Etats-Unis, en 1991, en achetant l'activité transmission de Rockwell qui n'avait pas investi en recherche et développement, depuis au moins deux ans.

Mais nous avons vu comment le groupe français avait tenté ensuite de redresser la barre par une politique d'alliances (avec Sprint, Motorola et Cisco), de développements technologiques (ADSL, câblophone, ...), d'initiatives stratégiques (projet de constellation de satellites Skybridge), et en anticipant quelles devraient être les principales tendances du marché dans les prochaines années : progression du multimédia et convergence des réseaux de communication fixe et mobile, montée en puissance des réseaux de données, transmissions et commutations à haut débit, besoin de nouvelles compétences dans les logiciels et les services.

Sous l'impact d'Internet, les réseaux de télécommunication vont passer d'une architecture dédiée à la voix à une structuration centrée sur les données.

« Avec les technologies ATM, les industriels des télécommunications espèrent reprendre l'avantage sur les sociétés de réseau -écrit Laurence GIRARD dans l'Usine Nouvelle- en apportant ce qui manque aujourd'hui le plus à Internet, la vitesse et la qualité de service. »

C) CONCERNANT L'INFORMATIQUE

Le cabinet américain IDC évalue le chiffre d'affaires mondial de l'informatique à quelques 700 milliards de dollars (en 1997).

Avant la crise, ce cabinet estimait que, durant les cinq prochaines années, la croissance de ce marché sera tirée par l'essor des nouvelles technologies et la consommation des pays de la zone Asie-Pacifique, notamment la Chine (+ 24 % de croissance annuelle moyenne). La part de cette zone est déjà passée de 18,6 % des ventes mondiales en 1992 à 23,5 % en 1996.

Le marché américain (41 %) devrait rester le premier avec une progression attendue de l'ordre de 10 % par an d'ici 2001. Quant à la part de marché européen, elle devrait continuer, selon l'IDC, à s'éroder, à cause d'un taux de croissance de 8,5 % seulement par an. Elle ne représentait déjà plus que 27 % du marché mondial en 1996, contre 36,6 % il y a cinq ans.

Les ventes de micro-ordinateurs augmentent à un rythme soutenu : + 21 % par an en moyenne de 1991 à 1997.

Même lorsqu'un ralentissement se produit, comme en 1996, la croissance reste à deux chiffres (+ 16 % selon IDC, Apple Compris, + 17,8 % d'après Dataquest).

Les grands constructeurs contrôlent près de 38 % du marché mondial et renforcent leurs positions en augmentant leurs ventes de façon spectaculaire.

Il s'agit de :

n Compaq (2,2 millions d'unités, + 42 %) ;

n IBM (1,7million d'unités, + 20 %) ;

n Hewlett-Packard (+ 58,4 %), passé en un an de la sixième à la troisième place en franchissant le cap du million de machines vendues ;

n et Dell (+ 61,4 %), spécialisé dans la vente directe aux entreprises.

Gateway 2000, qui mise sur la vente par correspondance, obtient également, aux Etats-Unis, de très bons résultats.

La micro-informatique devient de plus en plus une industrie de gros volumes de production et de faibles marges. Il ne subsiste plus qu'un seul constructeur indépendant européen : Siemens-Nixdorf.

Les prix de vente des ordinateurs personnels baissent rapidement, sous l'effet conjugué de la diminution du coût des composants, du jeu de la concurrence qui entraîne une guerre des prix, et de l'évolution des méthodes de distribution : stimulés par les performances de Dell et des spécialistes de la vente directe, les constructeurs, tout en gardant leur réseau, ont développé la fabrication à la commande et transféré l'assemblage des PC chez les distributeurs afin de gagner une marge de manoeuvre sur les prix de vente, en réduisant les stocks de machines assemblées (53(*)).

Les ventes promotionnelles se multiplient (y compris sur Internet) avec, par exemple, la vogue, l'été dernier, aux Etats-Unis, du PC à moins de 1.000 dollars et, à l'automne 1997, en France, à moins de 5.000 francs, dans la grande distribution.

Tout ceci tend à rendre nettement moins attractif le concept d'ordinateur de réseau (Network Computer), d'autant que sont proposés des ordinateurs personnels simplifiés moins chers (avec des composants moins puissants ...).

Il semble que le ralentissement de 1996 soit dû à un certain essoufflement du marché grand public, notamment aux Etats-Unis où l'industrie doit désormais chercher de nouveaux clients parmi les consommateurs à moindres revenus.

La reprise manifestée depuis le second semestre 1997 est principalement due à une demande soutenue des PME.

Désormais, 20 % des plus petites d'entre elles (de 6 à 200 salariés) possèdent au moins un poste connecté à Internet, selon le dernier rapport de l'AFTEL (Association Française de la Télématique Multimédia).

Le marché des PME est très convoité par les constructeurs informatiques qui développent des offres spécifiques (conseils en organisation, aides à la décision, formation de revendeurs capables d'apporter du service et de la maintenance, opérations de sensibilisation, ...).

Dans « America et Work », un livre interactif diffusé sur le site Internet de Microsoft, il est démontré que ce sont les PME informatisées, capables -grâce à la technologie- de rivaliser avec les grands groupes, qui tirent la croissance américaine.

Pour en revenir au grand public en France, un certain frémissement se fait aussi sentir. Si on en croit les sondages les plus récents, les Français seraient en passe de combler leur sous-équipement en ordinateurs domestiques. Les rayons des grandes surfaces, où se vend désormais un micro-ordinateur sur quatre, ont été dévalisés lors des fêtes de fin d'année en Décembre 1997.

Il s'est vendu quelque 850.000 micro-ordinateurs domestiques en 1997.

Le cabinet d'études GFK prévoyait, avant cette période des fêtes de fin d'année, que le taux d'équipement des familles françaises passerait de 15 % en janvier 1997 à 17 % en décembre 1997 et à 20 % fin 1998. Or, les chiffres publiés au cours du 1er trimestre 1998 semblent montrer que, depuis Décembre 1997, une famille sur cinq aurait un ordinateur au foyer . La moitié du parc total (soit plus de 2 millions) est désormais équipée de lecteurs de CD-ROM.

Il reste que, trop souvent encore, « l'achat d'un ordinateur multimédia tient de l'aventure » (pour reprendre un titre du Monde du 20 décembre 1997) du fait, notamment, de difficultés d'installation dissuasives.

L'Observatoire européen, précité, des technologies de l'information publie des données intéressantes concernant l'évolution du marché ouest-européen.

Il en ressort des tendances générales à :

n la baisse des ventes des grands serveurs et une augmentation corrélative de celle des moyens et, surtout, des petits serveurs (+ 11 %) ;

n l'augmentation, supérieure à la moyenne, des achats de micros portables (+ 12 %), produits logiciels - logiciels systèmes et logiciels d'application - (+ 9,6 %), services professionnels (+ 8,6 %) et, surtout, services réseaux (+ 14,7 %).

La bataille sur le front des logiciels est de plus en plus acharnée.

Le déploiement d'Intranets (réseaux d'entreprises utilisant la technologie Internet) constitue un enjeu particulièrement important puisque le marché correspondant devrait atteindre 3,13 milliards de dollars (17 milliards de francs) en l'an 2001, pour les seuls logiciels, selon le cabinet IDC.

IBM, Oracle, Microsoft affûtent leurs armes dans cette perspective.

Mais, le développement du commerce électronique sur Internet (voir plus loin) est tout aussi crucial : il devrait faire passer à 210 milliards de dollars en l'an 2000, selon le cabinet Input, le total des logiciels, matériels et services de réseaux.

La concurrence est vive également sur le terrain des logiciels de travail de groupe et de coopération (collecticiels) qui permettent le partage de l'information, l'accès commun à des bases de données et aux agendas personnels, le travail en collaboration sur un même document, etc...

IBM a lancé Domino, adapté à l'architecture Intranet, successeur de Notes, de la Société Lotus, devenue l'une de ses filiales.

De son côté, Netscape propose la technologie Collabra, du nom d'une petite société qu'il a rachetée à la fin de 1995.

Le logiciel de loisirs devient un objet de grande consommation. Les ventes de CD-ROM pour ordinateurs personnels et de logiciels pour consoles de jeu ont passé, en France, en 1997, le cap des 10 millions d'unités écoulées, avec un chiffre d'affaires de 2,8 milliards de francs, en hausse de 30 %. Pour la première fois, il s'est vendu plus de CD-ROM de loisirs, dans notre pays, que de logiciels pour consoles.

Les applications éducatives (grand public ou destinées aux enseignants) et culturelles devraient également se développer fortement.

Au total, il paraît certain que les ventes d'équipements de logiciels et de services pour réseaux (Internet, Intranet ou autres) vont continuer de croître à un rythme très soutenu.

Mais l'avenir du marché de l'informatique dépendra fortement de l'issue des confrontations actuelles entre partisans de standards ouverts et tenants de systèmes propriétaires.

La stratégie de Microsoft consiste, on l'a vu, à garder ses clients captifs en créant des relations exclusives entre ses systèmes d'exploitation (dont sont équipés plus de 90 % des ordinateurs personnels dans le monde) et les progiciels qui en sont dérivés, y compris les navigateurs sur Internet.

L'utilisation du langage Java de Sun permet d'aller à l'encontre de cette démarche en permettant de concevoir des systèmes d'exploitation et des programmes d'application indépendants et adaptables à n'importe quelles machines.

En outre, les applications considérées peuvent être exécutées localement, de façon autonome, par la machine de l'utilisateur, selon des instructions adressées par le navigateur.

Les logiciels écrits en Java ont ainsi l'avantage d'être portables et d'économiser les ressources du réseau.

Les outils nécessaires au développement de programmes Java (compilateurs, interpréteurs, ...) peuvent être téléchargés gratuitement à partir du site Web de Sun qui a mis au point une version bridée et simplifiée de ce langage (Javascript) pour de petites applications (applets), telles que l'animation de pages Web.

Java a, ainsi, vocation à devenir un système de programmation universel, mais Sun, tout en souhaitant en faire un standard ouvert, voudrait pouvoir contrôler la définition de ses spécifications.

La façon dont seront tranchés les débats conceptuels qui divisent le monde informatique ne sera pas sans conséquences sur l'évolution du marché et, en particulier, celui des ordinateurs personnels.

Les ventes de PC sont susceptibles, dans ce contexte, d'être affectées :

n favorablement par :

- la baisse de leurs prix, l'amélioration de leurs performances et de leur convivialité ;

- les retards d'équipement de certains pays, dans les domaines professionnels et grand public ;

n négativement par :

- les possibilités de stocker les logiciels les plus récents sur des serveurs et de les télécharger sur des ordinateurs personnels plus anciens, de façon à économiser les coûts de renouvellement des terminaux et les charges de maintenance correspondantes.

Intranet et Java permettent de faire fonctionner ensemble, en réseau, des machines hétérogènes, ce qui rend moins pressant le besoin de changer sans cesse d'équipement pour s'adapter aux progrès techniques.

D) CONCERNANT L'AUDIOVISUEL

Par comparaison avec les deux marchés qui viennent d'être décrits, celui de l'audiovisuel apparaît, à la fois, comme le plus réduit (309 milliards de dollars, soit deux fois moins que l'informatique et une proportion, plus faible encore, des télécommunications) et le moins dynamique (+ 2,7 % de croissance en 1997).

Ce premier constat doit cependant être nuancé par les considérations suivantes :

n la croissance annuelle du satellite est forte (+ 22,5 % par an depuis 1991) ;

n le câble (+ 6,8 %) et la télévision payante (+ 5,8 %) se développent à un rythme moins soutenu mais supérieur à la moyenne du secteur ;

n les nouvelles technologies numériques n'ont pas encore produit pleinement leurs effets. Elles pourraient sortir du marasme certains segments du marché de l'électronique grand public, tels que ceux correspondant aux ventes de magnétoscopes ou de camescopes... ;

n la vidéo domestique, notamment, l'achat de cassettes enregistrées (+ 12,7 %) continue à progresser (54(*)) ;

n l'évolution du marché américain (+ 3,7 % par an de 1991 à 1997) a été plus positive que celle du reste du monde dans lequel se trouvent des pays (notamment la Chine) à potentiel de consommation considérable.

Les Etats-Unis ont ainsi augmenté de 5 points leur part de marché mondial qui est désormais de 27,3 %.

Les ventes d'équipements y ont été tirées par le cinéma à domicile (« hometheater ») et l'audio numérique.

La relative stagnation de l'audiovisuel n'empêche apparemment pas les perspectives d'en être jugées prometteuses, avec l'avènement du numérique, si l'on en juge selon les mouvements stratégiques qui se multiplient dans le monde (acquisitions, fusions, alliances, avec parfois de spectaculaires renversements de situations...).

La transition vers le numérique et la multiplication des chaînes reçues est en marche (le nombre de foyers recevant de nombreuses émissions progresse de 10 % par an dans le monde), on assiste à un repli relatif (notamment au niveau des ressources publicitaires) de la diffusion télévisuelle publique, la vidéo domestique stagne, tandis que malgré le succès planétaire d'un film comme Titanic le déclin de la fréquentation des salles de cinéma n'est pas enrayée (la valorisation de la production cinématographique s'effectue désormais davantage par d'autres moyens).

Les services audiovisuels (215 milliards de dollars) pèsent plus du double des équipements (94 milliards) et progressent légèrement du fait, notamment, de la croissance des abonnements à des chaînes payantes et de l'achat de cassettes enregistrées.

Les exemples du développement de la télévision par satellite et des ventes de matériel haut de gamme aux Etats-Unis (home theater) et en France (Son Nicam, Format 16/9) montrent que l'audiovisuel a beaucoup à attendre des évolutions technologiques en cours. Il est à espérer que la mise sur le marché du DVD-vidéo enregistrable et de nouveaux camescopes numériques le confirme.

Mais de nombreuses incertitudes subsistent.

Elles concernent principalement :

n la rentabilité des investissements, souvent considérables, à effectuer ;

n l'adaptation de l'offre de contenus et de services à l'évolution des capacités de diffusion ;

n enfin, l'adoption de normes communes et d'un cadre juridique propices au développement du marché.

n Sur le premier point, les expériences de télévision véritablement interactive ont pratiquement toutes été interrompues pour des raisons, parfois, en partie techniques (complexité des logiciels), mais surtout de nature économique (retour sur investissement non garanti).

Si la compression de données, en multipliant les chaînes transmises par un canal de diffusion (filaire, terrestre ou satellitaire) et l'informatisation des régies de production et d'émission, économisent certains coûts d'exploitation, le « ticket d'entrée » dans la télévision numérique n'en demeure pas moins assez onéreux (achats de matériels de studio, d'encodeurs, de serveurs, location de capacités de diffusion par satellite ou par câble, constitution, surtout, d'un parc de décodeurs susceptibles d'être proposés à la location...).

n Ceci est susceptible d'influer sur l'adaptation de l'offre de contenus et de services à la multiplication des chaînes permise par le numérique.

Cette multiplication, tout d'abord, n'est pas infinie. Les positions orbitales propices à la diffusion par satellite ne sont pas illimitées ; la transition avec l'analogique peut imposer la duplication de certaines émissions (simulcast), mobilisant des plages de fréquences non négligeables.

A priori, la progression de la production de programmes risque d'avoir du mal à suivre celle des capacités de transmission.

Déjà, la négociation des droits concernant les émissions les plus prisées du public (retransmissions d'événements sportifs et de films ou de fictions américains) donne lieu à des surenchères.

L'offre de chaînes thématiques (il y en a néanmoins 97 sur le câble en France) est susceptible d'être freinée par les coûts, susmentionnés, et aussi par les critères de sélection des câblo-opérateurs ou des assembleurs de bouquets satellitaires qui se réfèrent à leurs liens (capitalistiques ou au niveau des régies publicitaires) avec les autres chaînes ou les principaux actionnaires impliqués.

Cependant, la vidéo « quasi à la demande » (diffusion, à intervalles réguliers, des mêmes programmes), le téléchargement de données multimédia, l'offre de services interactifs (paiement à la séance, etc...) ou l'amélioration de la qualité des images transmises, peuvent être des moyens de résorber un éventuel excédent de capacités d'émission.

- La difficulté de parvenir à l'adoption de standards communs ou l'insuffisante adaptation du cadre juridique d'exercice des activités concernées à l'évolution de leur environnement technique, peuvent entraver également le développement du marché.

Il existe actuellement pas moins de trois systèmes de contrôle d'accès (55(*)) en Europe qui peuvent être regroupés de deux façons (technologies simulcrypt ou multicrypt) et deux propositions de moteurs d'interactivité (logiciels de pilotage du décodeur).

PRÉSENTATION SOMMAIRE
DES SYSTÈMES D'ACCÈS CONDITIONNEL

Un système d'accès conditionnel est une combinaison :

- d'embrouillage des signaux (qui rend ces derniers inintelligibles) ;

- de cryptage, c'est-à-dire de protection des clés secrètes de désembrouillage ;

- d'émissions d'informations relatives à la gestion des abonnements destinés à vérifier la solvabilité des personnes autorisées à regarder les programmes ou recevoir les données en clair.

Le système utilise donc :

- un algorithme d'embrouillage ;

- des informations

° servant au contrôle des autorisations d'accès (des mots de passe cryptés commandent le désembrouillage des données) ;

° destinées à la gestion des abonnements (cryptées elles aussi, elles subordonnent le désembrouillage à l'acquittement préalable, par les personnes autorisées, des sommes dont elles sont redevables. Elles permettent la tenue à jour des comptes de chaque client).

- des guides électroniques permettant de naviguer et d'opérer une sélection dans l'offre de programmes et de services.

L'interface utilisateur (ou décodeur) intègre les plus puissants micro-processeurs disponibles sur le marché.

n La solution simulcrypt suppose la conclusion d'accords permettant aux abonnés d'un opérateur, d'accéder, par leur décodeur, aux programmes d'un ou plusieurs autres opérateurs. L'utilisateur ne possède qu'un seul boîtier, rendu apte à activer les différents systèmes de contrôle d'accès et de gestion d'abonnements dont les signaux respectifs sont diffusés simultanément ;

n avec la solution multicrypt, les signaux susvisés sont émis séparément. Aux divers systèmes propriétaires d'accès conditionnel correspondent autant de boîtiers différents susceptibles d'être connectés à une interface commune.

Un boîtier simulcrypt peut être raccordé à une interface commune multicrypt.

Concernant les moteurs d'interactivité (56(*)), il n'existe pas non plus de proposition unique.

Deux systèmes se trouvent en effet en concurrence :

- Media highway développé, pour Canal +, par la start up française COJYP ;

- et Open TV, proposé en commun par Sun et Thomson Multimédia.

Le forum international de normalisation DAVIC préconise l'utilisation, en la matière, du langage Java et du manipulateur d'objets MHEG.

Outre l'accès conditionnel et le moteur d'activité, le contrôle des fréquences (orbitales ou terrestres) est un enjeu capital, et peut favoriser l'établissement de positions dominantes sur le marché. Or, la révolution numérique s'accompagne de tendances à l'intégration verticale (du producteur au diffuseur) et horizontale (entre différents médias et secteurs d'activité), ainsi que d'une internationalisation des activités audiovisuelles pouvant aboutir à une certaine uniformisation des contenus.

Le cadre juridique de l'exercice de ces activités doit donc être adapté en privilégiant :

n la défense du pluralisme des acteurs et des contenus ;

n la libre concurrence et la lutte contre l'abus de positions dominantes (sans affaiblir les atouts de nos champions dans la compétition internationale) ;

n une préférence pour la régulation, plus appropriée, en raison de sa souplesse, à un contexte marqué par la rapidité des évolutions.

La législation et la réglementation française et européenne paraissent souvent à la fois :

n archaïque (comment appliquer la redevance à la réception de programmes de télévision sur ordinateur ? comment faire respecter des quotas de diffusion en matière de vidéo à la demande ?) ;

n trop contraignante pour ce qu'elles devraient avoir de souple (en matière de concurrence entre le câble, le satellite et le hertzien terrestre, de télévision locale...) ;

n trop laxiste pour ce qu'elles devraient avoir de ferme (concernant la normalisation, dans l'intérêt du consommateur ou les seuils de concentration qui pourraient être appréciés globalement, tous médias confondus, et localement, à l'échelle, par exemple, d'une agglomération...).

n trop dogmatique dans la lutte contre la violence et la pornographie. La puce anti-violence (V-chip)qui sera prochainement implantée dans tous les téléviseurs vendus aux Etats Unis et qui permettra aux parents d'interdire toute projection d'un film violent ou choquant sur le téléviseur familial se montrera certainement plus efficace que la signalisation sur l'écran préconisée par le CSA en France.

Les incertitudes affectant l'avenir de la télévision numérique expliquent à la fois les mouvements d'intégration et d'alliance et les spectaculaires revirements parfois constatés (par exemple, le renoncement de Kirch en Allemagne à son bouquet DF1, sa rupture avec Murdoch, et le départ de Canal + du marché allemand).

Les principaux pôles français dans le domaine de la communication sont constitués par l'ensemble Générale des Eaux-Havas-Canal +, d'un côté, et Hachette, du groupe Matra, de l'autre, qui envisage une alliance dans le multimédia avec France Télécom.

Aux Etats-Unis, des poids lourds de stature mondiale, prêts à exploiter leurs points forts en Europe (dessins animés, documentaires, catalogues de films et de programmes de fiction attractifs) se sont formés ces dernières années par fusion ou acquisition :

n Walt Disney et Capital Cities/ABC ;

n Time Warner et Turner Broadcasting Group, premier groupe de communication de la planète ;

n ou, enfin, Westinghouse qui a acquis le réseau de l'un des plus grands diffuseurs terrestres américains, NBC .

Malgré sa rupture avec Kirch, en Allemagne, puis Echostar, aux Etats-Unis, le groupe News Corp. de Rupert Murdoch poursuit sa stratégie d'expansion mondiale.

Contrôlant BSkyB en Grande-Bretagne, il possède, aux Etats-Unis, les chaînes Fox et s'y est tourné, dans le domaine de la télédiffusion directe par satellite, vers Primestar (qui, bien qu'ayant 1 700 000 abonnés, ne dispose pas cependant de position orbitale de pleine puissance).

Dans la lettre mensuelle de l'audiovisuel et du multimédia qu'il publie, notre attaché à Los Angeles, Philippe Coste, développe les considérations suivantes :

n L'audiovisuel est aujourd'hui pluriel ; il consiste, dans la société de l'information, à entremêler divertissement, communication, diffusion de l'information et du savoir et « téléservices ».

La technologie en est une composante cruciale, et la mondialisation le caractérise : l'international est devenu pour Hollywood un marché plus important que les Etats-Unis.

n L'artiste devient à la fois technicien et, parfois même, comme G. Lucas « industriel », pour aller jusqu'au bout de sa création et les dérivés de l'« entertainment industry » peuvent se décliner en toute une gamme de produits (posters, T shirts, jeux et cassettes vidéos, animations dans des parcs de loisirs, etc...).

n « Big is beautiful », pour être un joueur majeur, il faut avoir la masse critique. Même si on continue à affirmer que « le contenu est roi », on cherche à en contrôler le plus largement possible les canaux de distribution (intégration tant horizontale que, surtout, verticale).

S'agit-il de répartir les risques entre les différents maillons de la filière audiovisuelle tout en cherchant à y valoriser des images de marque fortes (Time Warner, Disney...) ?

On peut appeler cela intégration verticale et synergies ou y voir plutôt le signe d'une certaine confusion régnant dans le secteur. Faute de pouvoir contrôler l'évolution de son métier de base, on est ainsi tenté de tout faire... en espérant que, quelque part, on arrivera malgré tout à affirmer un avantage concurrentiel... et à compenser pertes par ici par profits par là.

Cette sorte de fuite en avant implique des besoins de capitaux croissants et a, in fine, une rentabilité médiocre.

Aussi, un besoin de clarification des stratégies se fait-il parfois sentir, avec un délestage d'actifs non stratégiques (cf. TCI, Viacom ou Time Warner) ou un recentrage, dans le multimédia, sur les métiers de base (AOL comme assembleur et diffuseur de contenus, Wordcom sur le marché du transport de données et de la connexion Internet...).

Renouer avec une segmentation des activités pourrait donc s'imposer à terme.

n L'industrie de la communication, que les développements technologiques complexifie davantage, se centre sur la valorisation de portefeuille de droits, plus que sur la production elle-même, qui demeure un maillon stratégique, mais de moins en moins immédiatement profitable.

n La production, la distribution et la diffusion tendent de plus en plus à se recouvrir, s'imbriquer, voire se confondre. Mais pourtant un échelon supplémentaire apparaît en même temps, celui de la programmation, c'est-à-dire de l'assemblage de programmes (bouquets de satellites ou offres de réseaux câblés), indépendante de la diffusion physique proprement dite.

Ce métier d'assembleur de contenus se retrouve aussi dans le multimédia (cf. plus loin les moteurs de recherche et le Webcasting).

Quels sont les axes possibles, l'évolution de la filière audiovisuelle ?

Le cinéma, en diversifiant ses modes de valorisation (merchandising, entertainment) et la télévision, en exploitant les opportunités du numérique (interactivité, démultiplication, globalisation) pourraient retrouver leur identité et leur dynamique spécifiques.

Une autre hypothèse est celle de l'apparition de nouveaux métiers (gestion des droits, programmation), la diffusion tendant, pour sa part, à s'intégrer dans les services de télécommunication.

Mais je reste convaincu pour ma part que, malgré des convergences, le contenu devra être adapté aux différences de terminaux (petit ou grand écran) et de mode de consommation (active ou passive).

La télévision peut être regardée sur un ordinateur ou les pages Web sur un téléviseur, mais à titre accessoire et non principal.

Internet est devenu un nouveau média à part entière, qui justifie la création de contenus et de services qui lui soient essentiellement dédiés.

Ainsi, l'évolution des nouvelles techniques d'information et de communication ne se contente pas de modifier les relations entre les secteurs traditionnels et les activités propres à chacun d'eux, elle entraîne aussi l'apparition de médias et de services nouveaux.

II. DES MÉDIAS ET DES SERVICES NOUVEAUX

A) LES POTENTIALITÉS D'INTERNET

Internet n'est pas à proprement parler un réseau, puisqu'il utilise les moyens de communication existants, mais plutôt le résultat de la conjonction de deux éléments :

n les technologies de transmission de paquets (ensemble de données numériques représentatives d'informations) ;

n des protocoles d'adressage de message (conventions permettant la coopération des équipements hétérogènes des divers réseaux du monde entier).

L'important est que des informations numérisées (textes, sons, voix ou images) puissent ainsi être échangées, via un modem, entre n'importe quels ordinateurs raccordés au réseau téléphonique commuté, ou que ce soit dans le monde.

Internet n'est pas non plus une nouveauté puisqu'il est l'héritier du réseau ARPANET, créé en 1969 par le département américain de la Défense (sa structure décentralisée devait lui permettre de survivre à des destructions partielles en cas de conflit).

Le protocole IP (Internet Protocol) lui-même date du début des années 1970.

Ce sont ses modes d'organisation (décentralisée), de gestion (coopérative), d'utilisation (conviviale et gratuite) qui en ont fait d'abord un media original.

S'y sont ajoutés, ensuite, l'enrichissement de ses contenus (grâce au multimédia et au foisonnement de sites Web) et le perfectionnement des moyens d'investigation correspondants (notamment le langage HTML, les navigateurs et moteurs de recherche...).

Pour s'en tenir aux évolutions futures ou les plus récentes, Internet présente aujourd'hui de nouvelles possibilités : Webcasting et commerce électronique.

B) LE WEBCASTING

A l'origine, les technologies Push (Webcasting, Netcasting ou Cybercasting) étaient destinées à faciliter la recherche d'informations en fonction des centres d'intérêt de l'utilisateur.

Ces informations pertinentes, regroupées à partir de plusieurs sites et livrées au client, selon son profil particulier, ont été ensuite organisées en chaînes thématiques, diffusées en continu et sélectionnées grâce à des options personnalisées.

Internet devient ainsi un moyen d'apporter de l'information et non plus seulement d'aller la chercher et le Webcasting peut être considéré comme un nouveau media à part entière, se rapprochant, par certains côtés, de ses prédécesseurs (radio, TV) qui tendent à devenir, de leur côté, interactifs, mais diffusant des contenus spécialement conçus pour lui.

ABC News, le service d'information continue de Disney, a, par exemple, accepté de produire des chaînes au Format Netcaster de Netscape (technologie Marimba).

Le succès de ce nouveau media associant texte, son et image, suppose toutefois :

- une connexion permanente à Internet (incompatible avec la facturation à la durée des communications locales comme en France)

- une interopérabilité entre les différentes technologies de Netcasting.

Il était, au début, impossible de récupérer des pages diffusées avec les serveurs de Netscape à l'aide du navigateur de Microsoft (jusqu'à ce que ce dernier adapte son format CDF).

L'incompatibilité inverse demeure.

Selon Le Monde du 30 novembre-1er décembre 1997, il est en effet impossible, par exemple, de visualiser la totalité du site MS-NBC (résultat de l'alliance entre le géant du logiciel et la grande chaîne américaine) avec Navigator 4.

Il paraît essentiel de préserver Internet de cette dérive vers des technologies propriétaires.

C) LE COMMERCE ÉLECTRONIQUE

Le commerce électronique sur Internet est encore balbutiant quoique déjà non négligeable.

Selon Jupiter communication, près de 15 millions de foyers américains, soit 63 % du total mondial, étaient connectés à un service commercial en ligne en décembre 1996.

America on Line (AOL), premier service en ligne, avec près de 8 millions d'abonnés et un chiffre d'affaires de 1,1 milliard de dollars, était le seul à offrir une interface et un navigateur propriétaires. Il a dû, comme les autres services commerciaux en ligne, s'ouvrir à Internet.

Beaucoup de prestataires sont même passés d'une stratégie d'ouverture à une stratégie d'intégration totale dans le réseau des réseaux.

Le rachat du service commercial de Compuserve, numéro deux des services en ligne américains, a procuré à AOL 3 millions d'abonnés supplémentaires. Celui-ci, devenu la première marque en ligne du Web, se recentre sur son métier de fournisseur et assembleur de contenus, abandonnant à UUnet la gestion de ses infrastructures de réseaux. Poursuivant son expansion, AOL entend fournir non seulement de l'information mais du divertissement (ce en quoi Microsoft a échoué) et diversifier ses sources de revenus (publicités, abonnements, commissions sur transactions...).

Après avoir lancé, durant l'été 95, son réseau MSN (Microsoft Network), comme un service propriétaire en ligne, la firme de Seattle s'est rapidement tournée, elle aussi, vers le Web, pour devenir un gros fournisseur d'accès Internet, avec quelques services interactifs en plus.

Ayant échoué dans sa stratégie tendant à positionner son site dans le domaine du divertissement, Microsoft s'est lancé dans les guides de proximité (genre Pariscope de grandes villes américaines), en espérant en faire des points d'entrée dans ses sites commerciaux Expedia (voyages) Carpoint (vente de voitures) Cinemania (films) et Music Central (pour les CD).

Les réseaux tels qu'AOL ou MSN, subissent la concurrence des moteurs de recherche comme Yahoo, Hotbot, Excite, Infoseek, Lycos financés par la publicité (57(*)), dont les sites sont parmi les plus visités du Web, parce qu'ils peuvent offrir, gratuitement, des services comparables.

Cependant, les moteurs de recherche, points de passage obligés sur Internet, ne se contentent plus désormais des seuls revenus publicitaires : ils entendent toucher une commission sur les ventes en provenance de leur site, tirant ainsi parti de l'explosion actuelle du commerce électronique.

Les sites de vente en ligne sur Internet sont de plus en plus nombreux, essayant de satisfaire à la règle des 3C (Cost, Convenience, Choice), en offrant des articles moins chers, plus variés, faciles à commander.

De nombreuses galeries marchandes virtuelles (Cybermall) se sont développées, réussissant à se faire connaître et à prospérer.

Après les livres et les disques, ce sont certainement les ventes de voyages qui connaissent le plus grand succès.

Les progrès en cours dans les domaines de l'assouplissement de la réglementation de la cryptographie et de l'utilisation de cartes à puce autorisent les plus grands espoirs quant à un réel essor à venir du commerce électronique sur Internet :

Concernant le cryptage, le souci d'en élargir la diffusion des méthodes, afin de renforcer la confidentialité des transactions, indispensable au développement du commerce en ligne, doit être concilié avec les préoccupations des pouvoirs publics de défense nationale et de lutte contre les réseaux internationaux de malfaiteurs.

Les puissances étrangères ne doivent pas pouvoir accéder aux techniques de chiffrement des services secrets nationaux ni les trafiquants, terroristes ou délinquants en tout genre, utiliser des procédés inviolables pour communiquer à l'insu des autorités.

Les logiciels de navigation d'outre-Atlantique proposent des options de cryptage utilisant des clés de 128 bits, plusieurs milliards de milliards de fois plus résistants.

Il s'agit d'un assouplissement de la position officielle américaine initiale. Même si des « hackers » parviennent à déchiffrer des messages codés, ils ne peuvent pas le faire pour les millions de transactions simultanées.

Afin de contourner les règles américaines, Sun Microsystems a sous-traité à une petite entreprise russe le développement d'un système de cryptage doté de clés allant de 56 à 128 bits qu'il compte diffuser internationalement.

En France, les décrets publiés au J.O., le 25 Février 1998, définissent l'utilisation et les conditions d'usage des moyens de cryptologie pour protèger les données.

Un système de « tiers de confiance », dont les Etats-Unis paraissent vouloir s'inspirer, après l'échec de leur projet de « clipper chip » (58(*)) a été prévu (mais imagine-t-on la mafia déposer ses clés de cryptage chez de tels intermédiaires) ?

Pour favoriser le développement du commerce électronique, il est important, dans ce domaine de la cryptologie, que des accords cohérents et compatibles soient rapidement conclus entre les principaux pays qui joueront un rôle essentiel dans cette nouvelle économie.

Par ailleurs, sont proposés et testés des projets tendant à adapter au commerce électronique sur la toile, les systèmes de paiement couramment utilisés dans les magasins affiliés aux réseaux de cartes bancaires.

Deux propositions françaises rivales s'affrontent. Elles ont en commun de se référer à un protocole de transactions sécurisées (SET), soutenu par IBM, Microsoft, Hewlett-Packard... et de prévoir l'utilisation de cartes à puce, domaine d'excellence nationale.

n Le premier consortium, qui comprend Bull , le Crédit Agricole et d'autres banques, a adapté SET pour en faire un standard, C. SET, qui prenne pleinement en compte les atouts des nouvelles puces. Son projet Europay propose une chaîne de commerce, sécurisée de bout en bout, qui assure, d'une part, le cryptage, par la puce, de la transaction, et, d'autre part, des liaisons avec les serveurs et le catalogue électronique du commerçant, ainsi que la banque du client (dont l'identité et la solvabilité peuvent être vérifiés).

Les achats s'effectuent par l'intermédiaire d'un petit terminal (Pin-Pad), fabriqué par Bull, doté d'un lecteur de carte, connecté à l'ordinateur du client et relié, à travers le réseau, aux sites des commerçants en ligne.

n Le deuxième ensemble, E - Comm, regroupe notamment IBM et Microsoft et, côté bancaire, la BNP, la Société Générale, le Crédit Lyonnais...

Il se montre moins ambitieux et plus pragmatique que son concurrent, restant entièrement fidèle à la norme SET.

En juin 1998, France Telecom et le consortium E-Comm vont lancer un nouveau système de micropaiement.

Développé par Cap Gemini sur le standard international SET, le nouveau dispositif distribuera au client (et au commerçant) une fois pour toutes un certificat d'authentification à installer, sous forme logicielle, dans l'ordinateur utilisé pour commercer sur Internet, en faisant de tout petits achats.

En fin de mois ou au delà d'un plancher, la facturation reprenant chaque paiement à l'acte sera alors déclenchée par un intermédiaire.

Dans le cadre de l'accord France Telecom- E.Comm, France Telecom jouerait ce rôle d'intermédiaire et facturerait les clients directement sur leurs notes de téléphone.

L'identification du porteur de la carte, à piste, se fait une fois pour toute par l'intermédiaire d'un serveur d'accréditation.

Celle-ci n'est utilisée, en quelque sorte, que comme un moyen d'obtenir la signature de l'acheteur.

L'utilisation du langage Java fait l'unanimité. Il permet de télécharger de nouvelles applications, d'envisager des cartes multifonctions, interopérables...

Jusqu'ici, les fabricants de cartes développaient un logiciel d'application spécifique pour chaque client. Avec Java, il devient non seulement possible de faire évoluer le programme de la carte à n'importe quel moment, mais aussi d'ajouter ou d'ôter à la demande de nouveaux logiciels d'applications. Les cartes à puce de tous les constructeurs vont, en outre, devenir compatibles.

Ainsi, la carte à puce de demain ne se contentera plus de manipuler des données. Elle deviendra une véritable machine à traiter de l'information, grâce aux instructions écrites en langage Java, téléchargées dans des mémoires flash, réinscriptibles, aux capacités de plus en plus fortes (bientôt 64 kilooctets) et exécutées par des microprocesseurs de plus en plus puissants (32 bits).

Les technologies correspondantes sont développées dans le cadre de programmes européens (projet Cascade du programme Esprit pour les microprocesseurs et projet Eurêka Medea).

Les enjeux en sont majeurs. Il s'agit, en effet :

n de préserver et d'exploiter l'un des rares points forts français et européen (Gemplus est le leader mondial de la carte à puce) dans le domaine des NTIC.

n de prendre position sur des marchés considérables : plus de 10 milliards de francs à l'aube du XXIe siècle pour le marché européen de la carte à puce (2,8 milliards en 1996), qui représente aujourd'hui la moitié du marché mondial et devrait croître de 50 % par an les prochaines années.

Ø Quant aux ventes sur Internet, leur total devrait atteindre 66 milliards de dollars en 2000, dont 7 milliards pour les ventes directes au consommateur, selon Forrester Research.

Avec l'explosion aux Etats-Unis du commerce électronique, la question du respect des droits d'auteur sur le Web devient cruciale.

Certains éditeurs se sont spécialisés dans la protection d'oeuvres musicales (Aris Technologies) ou photographiques (Digimarc Corporation). Cette dernière a développé un logiciel de marquage permettant de coder, de manière invisible, toute image soumise au copyright. Cette technique dite du «watermarking» (ou filigranes numériques) permet d'identifier le propriétaire d'une photographie et en interdit la modification.

La société propose également un service, Marcspider, qui permet de conserver la signature du propriétaire et donc de repérer les « voleurs d'images ».

L'image est, du reste, l'un des domaines dans lesquels les NTIC permettent l'apparition de produits entièrement nouveaux.

D) DES IMAGES INÉDITES

Le sénateur Claude HURIET vient de rédiger, au nom de l'OPECST, un rapport consacré aux images de synthèse, dont la réalité virtuelle constitue l'application la plus élaborée et la plus spectaculaire.

Le marché est encore peu organisé du fait d'une offre très créative mais un peu anarchique et d'une demande rare et prudente.

Il suscite toutefois la création de nombreuses start-up autour d'une idée et de quelques ingénieurs talentueux et motivés. Il est possible d'y réussir sans gros capital (par rapport aux investissements de l'ère industrielle), ni effectifs importants, comme en témoigne l'exemple, cité par Claude HURIET, de la société Visiotics, qui a réussi à prendre une part significative du marché de la simulation de practice de golf avec un produit conçu et fabriqué par une équipe d'une vingtaine de personnes.

La réalité virtuelle, à la pointe du progrès technologique, est cependant encore chère.

Le marché mondial (206 millions de dollars en 1995), à moitié américain, en est réparti entre un tiers de jeux et deux tiers d'utilisations professionnelles (design, visualisation des bases de données...). Il devrait croître de 40 % par an pour dépasser le milliard de dollars en 2001 selon le cabinet OVUM.

Un autre segment, bien identifié, du marché des images de synthèse, est celui de la simulation (Formation au pilotage d'avions, à la conduite de véhicules, applications militaires, etc...) qui atteignait 1,260 milliard de dollars en 1997.

Concernant les jeux, grands utilisateurs d'images de synthèse, ils représentent les deux tiers des ventes de logiciels multimédia aux Etats-Unis et un marché mondial d'environ 100 milliards de francs (consoles + CD-ROM).

S'agissant des images en trois dimensions (3 D) et des effets spéciaux, l'exploitation de leurs possibilités est, en grande partie, à l'origine de la création, la première à Hollywood depuis plus de 50 ans, des studios Dreamworks par Steven Spielberg, Jeffrey Katzenberg et David Geffen.

Un milliard de dollars y ont été investis, et un autre milliard emprunté en vue, notamment, de la construction à Los Angeles d'un immense complexe technologique (projet Playa Vista), d'un coût total de l'ordre de 7 milliards de dollars.

L'inévitable et omniprésent Microsoft se positionne bien sûr sur ce créneau du graphisme par ordinateur et de l'animation 3 D, ayant racheté la société spécialisée Softimage, qui travaillait avec des stations de travail, sous Unix, de Silicon Graphics, et porté ses logiciels sur le système d'exploitation Windows NT.

L'arrivée, pour l'an 2000, des puces dépassant les fréquences du Gigahertz (Ghz) va profondément bouleverser le monde du virtuel.

Au niveau de la distribution, il existe des marchés du cinéma panoramique et du cinéma dynamique, où l'offre, à fort contenu technologique, a longtemps créé la demande. Le canadien Imax possède plus de 150 salles dans 22 pays (350 millions de dollars de recettes) et projette d'en construire 50 autres, dont 12 en 3 D, en Amérique (réseau Cinémark). La tendance est à la création de multiplexes, centres de loisirs.

Ainsi, les technologies de l'information et de la communication font mieux que de concurrencer les activités des secteurs traditionnels concernés, elles leur ouvrent de nouvelles perspectives, permettent de circonvenir la saturation de leurs débouchés.

Elles créent des activités et des métiers entièrement nouveaux et enclenchent une dynamique de croissance et d'emploi.

E) QUEL PARTAGE DE LA VALEUR AJOUTÉE ?

Deux îlots de relative certitude me semblent émerger de l'océan d'inconnues qui inonde les horizons de la société de l'information : l'avenir appartient à ceux qui savent anticiper et se placer le plus avantageusement dans la chaîne de la valeur ajoutée des biens et services multimédia.

1. Savoir anticiper

n Au niveau du contenu, dont on continue à dire qu'il est roi, «le multimédia peine à trouver sa rentabilité - constate Philippe Coste dans sa lettre précitée de l'audiovisuel et du multimédia - aucun type d'outils, de contenus ou de services multimédia ne rapporte, à ce stade, de l'argent».

Hors ligne, les ventes de CD-ROM multimédia pour ordinateurs et consoles de jeux ont progressé fortement, en volume en 1996 (+ 74 %), aux Etats-Unis, pour atteindre 2,5 milliards de dollars. Mais 6 % seulement des titres, hors jeux, seraient rentables selon une étude de Dataquest et 4 % seulement des éditeurs gagneraient de l'argent. La société Pixar, bien qu'ayant vendu plus d'un million de titres, s'est retirée de ce secteur, le jugeant incertain, pour renforcer ses activités dans le domaine de l'animation.

En ligne, peu de sites web gagnent de l'argent. Bien que de plus en plus populaires, les jeux nécessitent des investissements coûteux (plusieurs millions de dollars pour l'ouverture d'un site), ne rencontrent pas un public suffisamment nombreux pour faire des bénéfices et subissent la concurrence des acteurs de l'édition électronique qui proposent des services gratuits.

La partie «divertissement» du site de Microsoft, d'abord accessible gratuitement, n'a pas connu le succès escompté.

Beaucoup de fournisseurs américains d'accès à Internet fournissent à perte le service d'abonnement sans limitation de temps (flat rate).

Dans le domaine du commerce électronique, il est vrai en forte croissance, le chiffre d'affaires des ventes en ligne (1 milliard de dollars fin 1997), représente, selon Forrester Research, à peine un peu plus de un pour mille de celui du commerce traditionnel.

En outre, il existe une forte concurrence entre les moteurs de recherche, qui font peu de bénéfices, et les services en ligne traditionnels, les uns comme les autres tendant à accroître leurs recettes publicitaires (59(*)) et à prélever une commission sur les transactions, au détriment des commerçants. Un bon contenu ne suffit pas pour réussir, il faut aussi soit offrir un service rare et recherché (livres et disques anciens...), soit avoir une marque connue du grand public, soit s'afficher sur un site générateur de trafic. Les marchands sont ainsi prêts à payer cher, par exemple, le privilège de figurer dans l'offre d'AOL.

Au total, les valeurs boursières tant de l'entertainment industry que du multimedia sont désormais sous haute surveillance.

«La rentabilité des entreprises de ces secteurs est souvent calamiteuse ou, au mieux, médiocre» - écrivait Philippe Coste en mai 1997. Selon Standard et Poor's, « le secteur de l'audiovisuel, malgré la flamboyance de ses dirigeants et une croissance continue de ses recettes, n'arrive qu'au 27e rang des secteurs de l'économie américaine en termes de rentabilité, c'est-à-dire au même niveau que la distribution d'eau... ».

Quant au cinéma, on l'a vu, le retour sur investissement pourrait y être négatif en 1997, pour les studios, et la rentabilité des capitaux investis n'y a été, de 1993 à 1996, que de 5 %, les coûts continuant à y augmenter nettement plus vite que les recettes (notamment en raison du déluge d'effets spéciaux dans les dernières productions).

Pourtant, écrit Philippe Coste, « il y aura, cela est sûr, une forte croissance des marchés et beaucoup d'argent à gagner dans les années à venir dans les secteurs non seulement de l'audiovisuel mais aussi du multimédia... ».

Où et comment ?

« L'avenir appartiendra à ceux qui s'inscrivent dans une vision à long terme » et pas nécessairement aux plus créatifs, aux plus riches ou à ceux qui maîtrisent le mieux les nouvelles technologies.

Ce qui compte c'est la valeur à long terme des contenus et la capacité à les exploiter de toutes les façons.

Ce dont a surtout besoin le multimédia, c'est de temps, pour construire ses actifs et capter et fidéliser une clientèle.

Les intermédiaires, assembleurs de contenus multimédia en ligne ou audiovisuels, sur le câble et par satellite, éditeurs de programmes, détenteurs et gestionnaires de droits, risquent de jouer un rôle clé.

« Paradoxalement - conclut notre attaché audiovisuel à Los Angeles - l'entertainment, alors qu'il est traditionnellement associé à l'éphémère, apparaît aujourd'hui comme une industrie qui doit se jauger à l'aune du long terme ».

n Au niveau des équipements, je crois, tout d'abord, concernant les terminaux, que l'avènement et la généralisation de la reconnaissance vocale (et dans une moindre mesure de celle de l'écriture) sera l'un des phénomènes majeurs des prochaines années.

Mais je doute que le concept d'ordinateur de réseaux (NC) parvienne à se concrétiser sur les réseau des réseaux tout au moins tant que les hauts débits ne seront pas accessibles à chacun, étant donné la tendance générale à la baisse des prix de vente des ordinateurs personnels (sous les effets de la baisse des coûts des composants et de la concurrence). Par contre ce concept de Network Computer pourrait faire une percée remarquée dans les Intranets.

La qualité de l'image et du son sera peut-être le meilleur moyen pour l'audiovisuel et l'électronique grand public traditionnels de maintenir leur spécificité et de résister à l'intégration dans l'informatique multimedia, sans que cela empêche toutes sortes de métissages et d'hybridation aux niveaux des contenus comme des terminaux.

Tout ce qui concerne les réseaux (infrastructures, équipements de raccordement, d'interconnexion) devrait demeurer stratégique, notamment les serveurs et les modems.

n S'agissant des logiciels, il ne faut pas rejeter, à priori, la victoire finale de Java, malgré la résistance de Microsoft (dont Explorer aurait presque rattrapé, à la fin de 1997, le Navigator de Netscape ) parce qu'elle est conforme à l'intérêt de la majorité des industriels, comme des utilisateurs, de l'informatique.

La création de systèmes d'exploitation, désormais ouverte à tous, et l'édition de logiciels sont, je le répète, des domaines où la puissance est déconnectée du nombre.

Il est possible d'y faire fortune avec une mise de fonds et des ressources humaines initialement réduites.

Il n'y a, en effet, pas de limites à la diffusion d'un logiciel alors qu'il y en a, par exemple à l'activité d'une société d'ingénierie et de conseil en informatique (le nombre d'heures d'ingénieurs et leur coût, la clientèle et ses ressources...).

2. Le déplacement de la valeur ajoutée

« La société du XXIe siècle sera orchestrée par les services de communication » -a écrit le directeur du CNET, Michel Feneyrol- qui prévoit une migration et nouvelle segmentation de la valeur ajoutée dans les industries de la communication.

« Les réseaux ne sont que des supports - poursuit-il - et la valeur première apportée au client est constituée par les services ».

La nouvelle segmentation de la valeur ajoutée devrait se traduire par une moindre hégémonie des communications vocales et téléphoniques, une désolidarisation réseaux-services, les exploitants devant s'efforcer de remonter vers l'intégration de réseaux et les couches logicielles des services, pour tirer leur épingle du jeu.

En bref, ils ont intérêt à s'orienter vers des services toujours plus riches en valeur et mieux différenciés en fonction des clientèles.

La métaphore des « autoroutes de l'information », critiquable par certains côtés, a l'avantage de bien fixer les idées sur ce point : la valeur du contenu (les marchandises) et des services (leur livraison à des personnes distinctes, en divers lieux, selon des trajets différenciés) est infiniment supérieure à celle des infrastructures, des camions et même du carburant utilisés. Il suffit d'additionner, d'un côté, le péage, l'essence et l'amortissement du camion et, de l'autre, la valeur des objets transportés et le prix du service rendu pour comprendre la différence.

A mon avis, la valeur ajoutée, dans la société de l'information, devrait se déplacer en aval des infrastructures, des équipements et des données de base, vers tous les services personnalisés permettant de les exploiter.

Ainsi, la concurrence aidant, l'importance relative des coûts de l'utilisation des réseaux, de la fourniture des terminaux et de l'information de base, devrait décroître au profit de celui de l'expertise qui autorise à en tirer profit.

Bien sûr, il faut amortir les investissements que nécessitent la construction de réseaux haut débit et de terminaux multimédia, la mise au point de logiciels de navigation ou de moteurs de recherche, la constitution de bases de données, mais la prise en charge des dépenses correspondantes sera de plus en plus répercutée en aval, dans la chaîne de l'information, à travers la rémunération des services à valeur ajoutée.

L'information de base, le terminal, l'utilisation du réseau devraient être vendus au prix coûtant, voire moins cher, sur une base forfaitaire ; l'emploi d'un navigateur, ou du langage de programmation Java, de même (faut-il payer pour se servir d'une carte routière ou d'une boussole ou pour parler une langue ?).

En revanche, les créateurs de systèmes d'exploitation ou de logiciels apportant une valeur ajoutée dans l'exploitation de l'information (agents et réseaux intelligents), les auteurs de contenus ou initiateurs de services méritent une plus haute rémunération.

Sans eux, les machines seraient inertes, les informations introuvables, le client insatisfait ou inexistant, les autoroutes désertes et les camions immobilisés ou vides.

La société de l'information est complexe. Elle va donc engendrer, on l'a vu, le besoin de nouvelles connaissances ou expertises (assemblage de programmes, édition de contenus, gestion de droits) afin, non seulement, de donner de la valeur aux données de base recueillies mais de mieux organiser les activités correspondantes.

Les trois facteurs essentiels qui donneront toute sa valeur à la société de l'information qui sous nos yeux se développe sont les contenus, le commerce électronique mais aussi les communautés qui seront des ensembles de plus en plus pertinents.

La complexité de la société de l'information résulte, on l'a vu, pour une part importante, du foisonnement de techniques et de normes qui la caractérisent, d'où le succès de toutes les tentatives de faire communiquer entre eux équipements et systèmes hétérogènes : le codage numérique, le protocole Internet et bientôt Java, qui est aux logiciels de Microsoft, en informatique, ce que l'espéranto est à l'anglais, comme langage universel.

CHAPITRE VIII

PRECONISATIONS DES MESURES A PRENDRE
POUR QUE LA FRANCE DEVIENNE
L'UN DES ACTEURS MAJEURS
DE LA SOCIETE DE L'INFORMATION

On n'entre pas dans l'avenir à reculons.

En outre, la société de l'information, ce n'est même plus seulement le futur, c'est déjà le présent.

Il faut commencer par ne pas en avoir peur et considérer ses aspects positifs.

Les nouvelles techniques d'information et de communication permettent de retrouver les chemins de la croissance et de l'emploi. Elles sont un instrument de compétitivité indispensable mais elles peuvent être mieux que cela.

Elles sont susceptibles, en effet, de faciliter l'accès du plus grand nombre aux patrimoines culturels et à l'immense capital de connaissances de l'humanité.

Elles offrent, en outre, de nouveaux moyens d'expression, de création et d'échanges.

Enfin, elles peuvent contribuer à réhabiliter la personne, à préserver l'identité culturelle des minorités, à maintenir ou à créer des activités dans des régions isolées, peu peuplées ou défavorisées.

Succédant à un univers fondé sur la standardisation, la production en grande série, la diffusion massive de multiples données, la société de l'information replace le client au point-milieu du processus de l'activité économique, l'élève au centre du système d'éducation et - pourquoi pas ?- le citoyen au coeur du débat démocratique.

Le lien social peut s'en trouver resserré.

Mais un certain nombre d'exigences doivent être respectées :

n adhésion de tous les acteurs (offreurs de technologies, de contenus et d'infrastructures, usagers...) à des valeurs communes d'ouverture, d'échange et de partage, de respect de la personne ;

n confiance dans l'innovation, les vertus de la concurrence et du marché ;

n redéfinition du rôle des pouvoirs publics qui, sans se substituer à l'initiative privée, doivent veiller à la régulation des activités concernées, créer un environnement propice à leur développement, intervenir, au besoin, en tant que garant de l'intérêt général (éducation, service universel) ou national (recherche, négociations sur les normes et les fréquences).

Il importe, tout d'abord, de bien identifier quelles seront les technologies porteuses et les évolutions du marché et de définir, en fonction d'une appréciation lucide de nos atouts et de nos faiblesses, les meilleures façons de nous y adapter.

Pour rattraper le retard de l'entrée de la France dans la société de l'information, il importe de considérer comme primordiales :

n l'éducation (formation des formateurs, des enseignants et des élèves, offre de contenus, équipement des établissements) dans la mesure où l'acquisition de nouveaux savoirs, comme je l'ai développé au chapitre IV, est absolument fondamentale ;

n la multiplication en résultant des internautes, par ailleurs stimulée par les utilisations professionnelles des NTIC et encouragée par des incitations tarifaires, des expérimentations et des opérations de sensibilisation ainsi que par la possibilité de pouvoir accomplir, en ligne, des formalités administratives ;

n enfin, last but not least, l'entreprise, pour laquelle il s'agit d'une nécessité vitale (création de sociétés innovantes, usage des NTIC par les PME, etc...).

Tout en encourageant la création de sociétés innovantes et les initiatives de la base, dans tous les domaines, l'Etat ne doit pas se désengager, pour autant, ni de l'aide de la recherche, ni de certaines actions à mener en matière d'infrastructures.

I. LES INITIATIVES CONCERNANT L'ÉDUCATION

Dans le domaine éducatif, les priorités, comme on l'a vu au chapitre IV, doivent aller à :

n une réflexion d'ensemble établissant le primat, sur le matériel, de la pédagogie et de l'élève, à la fois individu et sujet à socialiser ;

n la formation aux nouvelles techniques de formateurs et des enseignants ;

n la création commune (par les enseignants, des techniciens, des spécialistes de la présentation et des éditeurs) de contenus adaptés ;

n un effort d'équipement qui permette d'accéder à ces contenus dans des conditions satisfaisantes, notamment au niveau de la qualité de l'image (grâce à un réseau académique à larges bandes, donnant accès à des serveurs départementaux, par une liaison numérisée de bout en bout ; chaque établissement, puis chaque salle de classe serait dotée d'un vidéoprojecteur et d'un grand écran).

La formation des élèves-maîtres et des maîtres est donc une priorité absolue.

Il faut que les NTIC :

n soient enseignées tout au long des cursus et valorisent les travaux des élèves ;

n deviennent une matière à coefficient important pour tout établissement formant de futurs maîtres (IUFM ) ;

n fassent l'objet de possibilités de formation continue offertes aux enseignants tout au long de leur carrière ;

n interviennent dans leur notation, quant à la manière dont ils les utilisent dans les cours qu'ils dispensent ;

n donnent lieu à une reconnaissance spéciale (en matière de carrière et de rémunération), manifestée à ceux qui en ont été les pionniers, tout en se prêtant à une utilisation fondée sur le volontariat et non sur la contrainte.

La structure du réseau doit permettre, à terme, de relier tous les terminaux d'une académie à un ou deux serveurs départementaux.

Cet Intranet académique serait régi par un protocole IP, lui permettant d'être ouvert sur le reste du monde.

Ainsi les enseignants éviteraient-ils l'isolement qui serait le leur s'ils se contentaient d'utiliser des CD-ROM « hors ligne ».

Cette approche client-serveur autoriserait, en outre, une tout autre conception des contenus et de leur mise à disposition des enseignants.

Les auteurs et les éditeurs seraient rémunérés selon le mode « pay per view », et non plus, a priori, selon le principe des licences mixtes, ce qui créerait une véritable émulation entre les éditeurs et permettrait de rémunérer les auteurs en prenant directement en considération la qualité de leurs oeuvres (c'est à leur nombre de diffusions que cette qualité se reconnaîtrait).

Du point de vue ergonomique, le choix des contenus par l'enseignant ferait appel aux moteurs de recherche avec les agents intelligents les plus performants.

Un tel réseau de serveurs départementaux interconnectés et reliés aux principaux serveurs de connaissance français (60(*)) et étrangers mettrait à la disposition de l'enseignant, très rapidement, d'innombrables programmes de qualité.

Grâce aux moteurs de recherche, il pourrait illustrer ou étayer ses cours, faisant, à l'avance, la sélection des documents qu'il compte utiliser, en ayant la possibilité d'en pré-visionner gratuitement la bande annonce dans son établissement ou à domicile.

L'emploi d'un système crypté (type carte à puce) déclencherait alors le paiement de l'éditeur et de l'auteur, le serveur, après avoir enregistré cette commande, la mettant directement à la disposition de l'enseignant, au jour et à l'heure voulus.

Les NTIC seraient dorénavant utilisées par les établissements scolaires de deux façons bien distinctes :

1°) un usage collectif à partir d'un vidéoprojecteur et d'un grand écran, disposés, d'abord, dans la salle de projection de chaque école, puis, d'ici dix ans, dans chaque classe. Des images de grande dimension et de bonne qualité, avec un son excellent lui aussi, permettraient ainsi de capter beaucoup mieux l'attention des élèves.

2°) un usage individuel, destiné à la formation des élèves aux NTIC, à partir de leur mise à disposition, dans la salle informatique de chaque établissement, d'ordinateurs personnels, de réseaux ou de tous autres terminaux.

Les contenus stockés sur les serveurs seraient accessibles non seulement aux enseignants mais aussi à tout citoyen qui le voudrait dans des lieux publics (médiathèques associées à des bibliothèques...) ainsi qu'aux élèves, soit dans les lieux publics susvisés, soit chez eux.

Utilisateurs adultes et élèves seraient identifiés par des cartes à puce, une nouvelle économie des contenus se créant ainsi, dans la mesure où les services proposés seraient payés (sous forme d'abonnement des élèves ou, à l'acte, à un taux marginal).

Ce n'est qu'en s'appuyant sur ce triptyque (école, lieux publics et domicile) que l'accès au savoir par les NTIC pourrait se généraliser, d'une façon compatible avec la prise en charge d'une part substantielle de l'investissement par les collectivités locales, comme le Gouvernement semble le prévoir.

Il est, en effet, impossible de leur demander d'assumer, seules, de telles dépenses, si les services concernés ne sont utilisés que durant les périodes et dans les établissements scolaires.

Sachant combien les savoirs nouveaux sont précieux pour faire reculer le chômage, il faut que tous les citoyens soient mis en mesure d'y accéder.

Aussi, un nouveau partage des rôles dans le domaine des NTIC devrait-il se mettre en place dans notre pays.

L'Education Nationale aurait compétence exclusive sur la formation des maîtres, la pédagogie et les contenus.

Les collectivités locales auraient en charge l'ensemble du réseau départemental, les serveurs et les postes clients (c'est-à-dire les terminaux dans les écoles). Elles seraient donc responsables du bon fonctionnement de ce réseau et du renouvellement régulier des matériels et des logiciels d'exploitation.

En contrepartie, elles percevraient le montant d'abonnements, dans des conditions à définir, versés par les établissements connectés, les parents d'élèves et les autres utilisateurs grand public.

Elles devraient aussi pouvoir bénéficier du FCTVA pour tous ces investissements.

Dans les précédents chapitres de cet ouvrage consacrés aux valeurs de la société de l'information (chapitre III) et à la priorité dont l'utilisation des NTIC dans l'éducation doit faire l'objet (chapitre V), j'ai tenu à faire justice de certaines accusations portées à tort contre l'image, dont la suggestivité et le pouvoir émotionnel seraient susceptibles de contrarier la réflexion et la maîtrise des connaissances auxquelles l'écrit, par nature, permettrait d'accéder de façon privilégiée.

J'ai défendu les vertus pédagogiques de l'illustration, complémentaire de l'écrit, et vanté les pouvoirs symbolique, synthétique ou métaphorique de l'image, fixe ou animée, qui la rendent capable d'exprimer l'ineffable.

Mais je ne suis pas dupe pour autant de ses éventuels effets pervers. Ceux-ci sont liés aux manipulations auxquelles elle peut se prêter ou qu'elle peut exercer ainsi qu'au mimétisme qu'elle peut provoquer, de par son caractère fascinant, chez des sujets vulnérables qui assistent, de façon répétée, à la représentation de scènes ou de comportements répréhensibles.

Selon une enquête du CSA de septembre 1995, sur la représentation de la violence dans la fiction à la télévision, 74 % des programmes français concernés contenaient en 1994 au moins une séquence ayant ce caractère, avec une moyenne de près de 10 actes violents par heure.

En outre, dans les fictions, fort nombreuses, d'origine américaine, la violence mise en scène a un caractère répétitif et 40 % des actes criminels présentés apparaissent légitimes.

Au cours d'un colloque sur «télévision et violence» qui s'est déroulé au Sénat le 29 janvier 1996, il a été observé que, malheureusement, les programmes pour enfants, en France comme aux Etats-Unis et en Grande-Bretagne, font partie de ceux qui contiennent le plus d'actes violents. Dans certains dessins animés (Dragon Ball, Conan...), la violence est même utilisée comme une technique de remplissage tendant à combler l'indigence des scénarios.

La diversité des interprétations possibles des effets des images télévisuelles a été soulignée à l'occasion de cette conférence : selon les plus optimistes, le spectacle de la violence offert par les médias permettrait de libérer les émotions refoulées dans le subconscient des téléspectateurs (ce qu'Aristote appelait la catharsis ou « purgation »).

Mais la plupart des recherches sur la question infirment la thèse de l'innocuité des scènes violentes sur le psychisme et les comportements.

Pour les uns, les effets considérés seraient indirects et limités, mais pourraient néanmoins affecter certaines personnes dans des circonstances particulières.

Selon d'autres, la violence médiatisée, après incubation, exacerberait les tensions et les problèmes de la société dont elle donnerait une image extrême (acculturation).

Des expériences réalisées dans les années soixante par Bandera et Ross montrent que les sujets exposés à des scènes violentes, réelles ou fictives, se montrent plus agressifs et que les enfants ayant pris l'habitude de concevoir la violence comme quelque chose d'acceptable seront, plus tard, plus réceptifs aux incitations à ce type de comportement.

Les différences individuelles d'agressivité seraient ainsi largement déterminées par l'accumulation d'influences enclenchées pendant l'enfance.

Naturellement, ces constatations n'enlèvent rien aux autres potentialités, par ailleurs positives, de la télévision (instrument d'ouverture au monde, de distraction et d'évasion, de diffusion d'informations et de connaissances, vecteur culturel, élément d'intégration sociale...), ni aux interactions entre son impact et d'autres facteurs (chômage, exclusion, éclatement de la cellule familiale, crise des valeurs morales, etc...).

Mais, si les effets de la télévision et des autres médias sont difficiles à cerner et que la violence, qu'ils peuvent contribuer à stimuler, leur est antérieure, ils n'en sont pas moins généralement reconnus comme étant loin d'être anodins.

Ils peuvent stimuler l'agressivité et favoriser la propagation de la violence en la banalisant ou, au contraire, en l'exacerbant, en déclenchant des phénomènes d'imitation, en se surajoutant aux tensions réelles que la fracture sociale crée dans certains milieux (banlieues) ou chez certaines catégories sociales (chômeurs, exclus, drogués...).

Ceci est également vrai des images pornographiques et des violences sexuelles auxquelles elles peuvent indirectement inciter.

Par ailleurs, les manipulations auxquelles l'image peut très facilement se prêter, grâce, notamment, aux techniques numériques, sont susceptibles de faciliter d'autres abus : présentation tendancieuse ou fallacieuse de certains faits pouvant, dans des cas extrêmes, appuyer des tentatives de désinformation ou d'atteinte à la dignité de personnalités...

Dans ces conditions, il semble indispensable, dans l'éducation :

n de réhabiliter l'instruction civique et l'enseignement des valeurs morales indispensables à la vie en société, notamment celles que proclament la déclaration de 1789 et le préambule de la Constitution de 1946 : Droits et aussi devoirs des citoyens, respect des libertés et des opinions d'autrui, absence de discriminations fondées sur la race, la religion ou les croyances, égalité de l'homme et de la femme, tous principes garantis par la force publique, et non par des moyens individuels, pour l'avantage de tous ;

n d'apprendre comment une image est fabriquée et peut être truquée, de façon à pouvoir l'analyser pour la recevoir avec objectivité et lucidité ;

n de façon générale, développer l'esprit critique afin de permettre à l'élève, futur citoyen, de résister à d'éventuelles tentatives de manipulation ;

n Cette discipline d'apprentissage de l'image, du virtuel et des nouvelles technologies de l'information, tout à fait nouvelle dans son approche, devrait bénéficier d'un coefficient important, de même niveau que les matières fondamentales (Maths, Français, langues, etc...).

n Monsieur le Ministre de l'Education serait particulièrement bien avisé si il voulait profiter de la vaste et profonde réforme des enseignements au Lycée, qu'il a l'ambition de mener à bien, pour enfin enlever toute l'importance qui est réservée à la mémoire dans nos enseignements et ouvrir cette voie nouvelle de formation critique des adolescents sur la réalité du Monde.

Par ailleurs, la protection des mineurs contre la diffusion de contenus pornographiques ou violents, facilitée par l'interactivité et la profusion des canaux, n'en est que plus nécessaire. Aussi, il faut que le CSA sorte de son dogmatisme sur ce problème de la protection des mineurs en pensant qu'une simple signalisation sur les écrans peut faire régresser la vision par les enfants de scènes violentes ou choquantes à la télévision. Seule, comme vient d'ailleurs en convenir le Congrès américain après une longue réflexion, une puce anti-violence (V-chip) activée par une autorité compétente, implantée sur tous les téléviseurs peut faire régresser cet accès à des scènes violentes ou choquantes sur le téléviseur familial si les parents acceptent, enfin, de prendre conscience de leur responsabilité.

Comme le disait le sénateur Cluzel, en conclusion du colloque susvisé, il faut s'élever courageusement contre l'idée, qui peut servir de prétexte à tous les abus, selon laquelle la télévision ne serait qu'un miroir ou ne donnerait au public que ce qu'il demande.

La société de l'information requiert, on l'a vu, l'apprentissage du respect de valeurs de tolérance, d'ouverture, de partage et d'échange, aux antipodes des comportements d'agressivité engendrés par les difficultés de la civilisation industrielle et les excès d'une certaine urbanisation.

II. LES ACTIONS RELATIVES AU DÉVELOPPEMENT D'INTERNET EN FRANCE

La montée en puissance des modems câbles, offrant plusieurs mégabits, pour un prix forfaitaire acceptable (150 F par mois environ, sans limitation de durée), va accélérer réellement l'utilisation d'Internet.

Cela va obliger France Télécom à réagir.

La réponse la plus pertinente de sa part consisterait à proposer aux internautes un abonnement spécifique, couplant l'utilisation d'une ligne du Réseau Téléphonique Commuté (pour les communications vocales, fax, Minitel, etc.) et celle d'une ligne Numéris, reliée uniquement au fournisseur d'accès à Internet de l'intéressé, dans la même zone de taxes.

Je parle bien du couplage d'une ligne RTC et d'une ligne Numéris et non de deux lignes Numéris auxquelles l'Internaute devrait s'abonner.

Il ne faut pas que France Télécom puisse être accusé de faire un abus de position dominante en imposant à l'Internaute deux abonnements Numéris.

La ligne Numéris réservée à Internet ne doit être considérée que comme une alternative acceptable pour faire face au développement du « modem câble ».

Cette solution permettrait d'utiliser au mieux les équipements actuels de l'opérateur historique (Numéris est l'un des plus importants et des plus modernes réseaux numériques à intégration de services du monde).

Il paraît exclu de forfaitiser l'utilisation des lignes du R.T.C. (Réseau Téléphonique Commuté), sauf à dégrader la qualité du service par encombrement de la bande passante.

Cette ligne Numéris, réservée aux liaisons entre l'internaute et le fournisseur d'accès, pourrait être gérée de façon à n'être mise à contribution que durant les communications client-serveur effectives (consultation, envois de message). Un système de time-out (sur le canal « D » des données) activerait automatiquement la ligne dans ce cas et l'interromprait le reste du temps.

Si l'utilisation de la première ligne RTC, réservée aux communications vocales, continuerait à faire l'objet d'un paiement à la durée, celle de la seconde ligne Numéris, en revanche, serait rémunérée forfaitairement, ce qui permettrait aux internautes de laisser leur micro-ordinateur branché en permanence (leur vigilance serait ainsi continuelle, s'agissant, par exemple, de la réception de messages etc... les derniers modèles comportent des dispositifs de veille allant dans ce sens, avec des économiseurs d'énergie).

Cette ultime avancée répondrait à l'attente de très nombreux internautes, dans notre Pays, et conclurait, au niveau de l'offre, la formule « Avantage Numéris Internet » mise en place par France Télécom en Janvier 1998.

Pour aller jusqu'au bout de cette logique et contrer ainsi l'offensive des modem-câbles, France Télécom aurait certainement avantage, à terme, à installer des routeurs dans ses réseaux, afin d'éviter que ces lignes Numéris locales, dédiées aux liaisons internautes-fournisseurs d'accès, saturent ses autocommutateurs.

Mais, par ailleurs, toutes les technologies alternatives doivent être encouragées (ADSL, MMDS, radiocommunications, numérique hertzien terrestre et satellitaire...).

La France doit participer au déploiement dans l'espace de constellations de satellites à basse altitude permettant des liaisons Internet à large bande (cf. le projet Skybridge d'Alcatel qui s'est vu attribuer à Genève les fréquences qui lui étaient nécessaires, lors de la dernière conférence annuelle mondiale des radiocommunications, grâce à la solidarité de nos partenaires européens et des concurrents américains de Microsoft).

Pour les usagers grand public d'Internet, l'attribution d'une subvention de l'Etat ne me semble plus nécessaire, étant donné la baisse très rapide du coût des matériels (le prix d'un micro-ordinateur communicant est désormais comparable à celui d'un téléviseur couleur avec son magnétoscope).

En revanche, les entreprises doivent pouvoir mettre à la disposition de leurs salariés, à leur domicile, des ordinateurs personnels, dans des conditions comptables et fiscales conformes au droit commun (inscription à l'actif du bilan, même régime d'amortissement et de récupération de la TVA que tout autre investissement).

Les administrations (Etat, collectivités locales, hôpitaux, sécurité sociale, etc...), qui ont tout intérêt à se mettre rapidement en réseau, devraient aussi fournir aux fonctionnaires des micro-ordinateurs à leur domicile.

Dans le prolongement de ce qui a déjà été réalisé sur le site qui permet d'accéder, par Internet, au Journal Officiel et aux diverses décisions officielles, il faut que le Gouvernement tienne son engagement de mettre rapidement en ligne et accessibles à tous gratuitement toutes les informations publiques (Règlements, circulaires, Informations communiquées par les entreprises publiques dont les horaires complets de la SNCF, Délibérations des collectivités, Bilans des entreprises déposés aux Greffes des Tribunaux de Commerce, etc ...).

De même toutes les déclarations (Trésor Public, URSSAF, ASSEDIC, etc.) qui doivent être remplies régulièrement par les administrés et les contribuables (particuliers ou entreprises) doivent gratuitement être accessibles sur le réseau.

Chacun devra pouvoir répondre en ligne, en utilisant le protocole Internet et de plus si il effectue ses règlements sur le réseau par des procédures sécurisées il devrait bénéficier d'une bonification de 5 jours par rapport au délai limite accordé lorsqu'un règlement est envoyé par la voie postale.

Cette seule mesure aurait un effet très fort sur l'effort en investissement d'une micro-informatique connectée réalisé par les petites et moyennes entreprises.

Les engagements pris par les Gouvernements successifs depuis plusieurs années (plusieurs des mesures annoncées récemment étaient déjà dans la Loi Madelin de 1995) dans le domaine des Nouvelles Technologies doivent maintenant être mis en application, sans retard, dès ces prochains mois, car cela fait trop longtemps que certains membres de l'Administration traînent les pieds.

Car répétons-le, le développement d'Internet dépend également de l'exemple donné par nos édiles (responsables politiques, chefs d'entreprise, hauts fonctionnaires, etc...) qui ne doivent pas se contenter de discourir sur les nouvelles technologies mais les pratiquer personnellement et se doter d'adresses électroniques en s'engageant à répondre personnellement aux messages les plus pertinents qu'ils y reçoivent.

A) IL FAUT QUE LE GOUVERNEMENT PRENNE SANS
TARDER UNE DÉCISION AUDACIEUSE CONCERNANT
LA CRYPTOLOGIE :

Les décrets sur la cryptologie publiés le 25 Février 1998 vont dans le bon sens.

Toutefois, tout en respectant les règles de prudence nécessaires à la Sécurité de l'Etat, il faut que le Gouvernement français, si il veut que la France conserve, sur Internet, l'avance acquise dans le domaine du Commerce Electronique gràce au Minitel, doit se montrer « moteur » dans l'adoption de règles audacieuses qui devront être acceptées par les principaux acteurs mondiaux dans ce domaine majeur de la cryptologie.

Il faut également résoudre rapidement le problème irritant du « nommage » des adresses Internet qui fait que de plus en plus de français (entreprises et internautes) choisissent des suffixes internationaux (.com, .net, .org) à des moments où nous voulons tous défendre la place de la France sur le réseau Internet qui se reconnaît par le suffixe .fr .

B) MISE EN GARDE POUR METTRE FIN AU PARTICULARISME FRANÇAIS

Si la montée en puissance, très prochaine, surtout en France, d'Internet sur le terminal téléphonique (webphone) et d'Internet sur le téléviseur (WebTV, webbox, Netbox, etc...) est un cheminement astucieux pour faire migrer progressivement les utilisateurs du Minitel et les téléspectateurs vers le monde Internet, il faut toutefois bien veiller à ce que cette démarche ne soit pas une fin en soit mais bien un moyen pour aller plus loin.

En effet, comme je l'ai dit à plusieurs reprises dans cet ouvrage le développement particulièrement fort du fax auprès des particuliers et l'adoption massive du Minitel dans notre Pays, le fax et le Minitel étant deux machines qui n'ont aucune capacité propre de stocker de la mémoire, expliquent en grande partie le retard que nous pouvons encore constater, en France, dans l'usage de la micro-informatique .

Or si le « webphone » et les boîtiers « webbox » à poser sur les téléviseurs facilitent l'accès à des pages Web, ils ont le même défaut que leurs aïeux : ils n'ont pas de mémoire.

Ce handicap pourrait devenir majeur si les grands acteurs français que sont France Télécom et Alcatel voulaient orienter, de façon forte, les usages acquis par les français, grâce au Minitel, vers des machines sans mémoire.

Sans mémoire, on ne peut pas faire de bureautique mais on ne peut même pas archiver les messages reçus par Internet .

Or, toutes les études mondiales le montre, la bureautique et la messagerie sont les deux raisons essentielles qui incitent les particuliers à acquérir des micro-ordinateurs connectés.

Par ailleurs, sans mémoire, ce sont beaucoup d'autres applications quotidiennes, ne serait-ce que tenir un archivage du suivi de son compte en banque, et beaucoup de développements à venir dans le domaine du push-média qui ne seraient pas accessibles à ces « télé-internautes » français.

Aussi, si les opérateurs français affirment une stratégie claire en mettant en évidence que les « webphones » et autres « webtv » ne sont que des systèmes transitoires pour faire migrer plus aisément, grâce à la facilité d'utilisation, les usagers du Minitel vers Internet , je ne peux que partager leur approche.

Pour confirmer leur volonté d'entrer à pleins pieds dans le monde Internet, les dirigeants de France Télécom et d'Alcatel doivent sans retard présenter le « webphone » comme un Network Computer (NC) et préciser que leurs efforts vont se centrer sur des capacités large bande qui seront mises à la disposition de chaque abonné.

Par les avances que ces grandes compagnies de télécommunications ont dans le domaine technologique (ATM, ADSL, optique, etc.) leur démarche devient alors crédible et alors peu importe que les terminaux n'aient pas de mémoire puisque chacun pourra accéder, à très grande vitesse, à un serveur, où sera stockée la mémoire .

C'est ce manque de capacité qu'ont actuellement Sun, Oracle et même IBM de pouvoir disposer de réseaux « large bande » entre leurs NC et leurs serveurs qui malgré l'intérêt conceptuel évident, enlève, pour le moment de la crédibilité à leur démarche.

France Télécom et Alcatel ont, eux, la capacité de disposer de ces réseaux rapides.

Si la démarche initiée par le « webphone » est confortée par cette décision de construire ces réseaux du XXIe siècle, alors ils ont une réelle chance d'emporter le combat qui inévitablement alors les mettrait face aux « majors » de la micro-informatique .

Par contre si l'approche « webphone » est une nouvelle invention sortie de la tête de certains de nos technocrates pour maintenir le particularisme français aussi bien au niveau des paiement des services à la durée et non à l'acte que de la pratique d'Internet qui devient de plus en plus universelle, nos responsables mèneraient alors un combat d'arrière garde qui à terme pourrait coûter cher à notre Pays et serait un vrai gâchis tant les chances de la France sont grandes actuellement si nous savions transformer les 15 millions de français qui actuellement pratiquent le Minitel en usager d'un Internet universel...

Chacun prendrait alors conscience combien pèsent lourds sur la toile mondiale les savoir-faire emmagasinés depuis bientôt 20 ans par les français car acheter des machines est certes un point de comparaison aisé mais l'acquisition d'usages est un bien beaucoup plus précieux qu'il ne nous faut pas galvauder.

III. LES MESURES EN FAVEUR DES ENTREPRISES

A) L'AIDE À LA CRÉATION DE SOCIÉTÉS INNOVANTES

L'acquisition de start-up innovantes est devenue une activité stratégique des plus grands groupes, preuve de leur capacité à effectuer des percées technologiques décisives correspondant aux besoins du marché.

En témoignent le rachat de Web TV par Microsoft ou le passage sous la bannière américaine des françaises Chorus et O2, spécialistes, la première, des systèmes d'exploitation de réseaux intelligents, la seconde, de bases de données objet, acquises, respectivement, par Sun et Unidata.

Favoriser l'émergence et la croissance en France de ce type de sociétés et les y retenir est une priorité absolue.

Il faudrait commencer par en persuader tous les fonctionnaires qui, au sommet ou aux niveaux intermédiaires de leur hiérarchie, sont en contact avec elles.

Sans doute, devrait-on concevoir différemment, dans ce sens, les stages en entreprise des élèves de l'ENA et y assujettir ceux de l'Ecole nationale des impôts, de façon, dans le cas de ces derniers, à ce qu'ils comprennent que les start-up d'aujourd'hui sont les gros contribuables ou cotisants de demain.

Les trois principales déficiences du système français de financement et de développement de sociétés innovantes, après la création de fonds communs de placement spécialisés et du nouveau marché concernent :

- le capital d'amorçage,

- la constitution d'une «seed generation» de «business angels» (semeurs, messagers, parrains, comme on voudra, ou grands frères : ce sont des entrepreneurs ayant déjà réussi dans ce type d'aventures prêts à servir de modèles et à aider leurs émules en leur apportant des ressources financières et un capital d'expériences) ;

- enfin, le recrutement de collaborateurs, par les entreprises, et d'experts, par les institutions financières spécialisées, venant de l'étranger et des Etats-Unis en particulier.

1. Le capital d'amorçage

Concernant le capital d'amorçage, il est souhaitable que des initiatives comme celle de l'INRIA soient encouragées et relayées.

Spécialiste de l'essaimage réussi (23 sociétés ayant créé 800 emplois dont Ilog et O2 en sont issues), l'institut avait envisagé de réinvestir les gains en capital réalisés grâce à ces créations de filiales dans un fonds d'amorçage.

Il faut que les Pouvoirs Publics donnent leur accord définitif à une telle démarche.

Il est à souhaiter non seulement qu'il le reçoive mais que son exemple soit imité par d'autres établissements publics comme le CEA, le CNRS et le CNET.

En outre, il faut créer une Agence Nationale pour le Capital d'Amorçage, finançant le coût supplémentaire que représente, par rapport à un dossier de capital risque ordinaire, l'étude des dossiers correspondants par des investisseurs.

Il faut s'interroger, par ailleurs, sur l'opportunité de doter cette agence d'un fonds doté par l'Etat, qui pourrait être géré par la Caisse des dépôts, dont les interventions se limiteraient à inciter les fonds privés à investir en capital d'amorçage, en assumant une partie du supplément de prise de risque que cela comporte.

- une partie du capital d'amorçage (les premiers fonds nécessaires) provient, traditionnellement, des amis et de la famille de l'entrepreneur ainsi, aux Etats-Unis, que des « Business angels » évoqués ci-dessus.

Il conviendrait, tout d'abord, de faciliter la mobilisation de ces fonds par les entrepreneurs auprès de la famille et des amis, en modifiant les dispositions, complexes et restrictives (61(*)), de l'article 199 terdecies OA du code des impôts (réduction d'impôt au titre des souscriptions au numéraire de sociétés non cotées).

Il pourrait être envisagé notamment :

Ø d'élever les limites de déductibilité, en pourcentage des souscriptions et en valeur absolue (par exemple à 50 % et 500.000 F),

Ø de raccourcir la durée obligatoire de détention des parts de FCPI (à 2 ans compte tenu de la rapidité du développement des technologies), avec un régime d'imposition des plus-values favorable en cas de cession,

Ø d'étendre le bénéfice de ces mesures aux sociétés de service qui seraient susceptibles, après quelques années d'activité, de devenir des sociétés de produits.

2. Le parrainage

Concernant les «parrains» (business angels) de la jeune entreprise, ce sont souvent des personnes qui, ayant réussi, sont assujetties à l'ISF.

Leur décision d'aider au démarrage d'une start-up peut les amener, soit à vendre, à un moment défavorable du point de vue fiscal, une partie de leurs biens mobiliers et immobiliers, soit à abandonner leurs fonctions, tout en conservant leur outil de travail pour le mettre au service de la nouvelle société.

Il faudrait éviter qu'ils ne s'en trouvent pénalisés (leur patrimoine se trouvant évalué, quoi qu'il arrive, au 31 décembre, et l'exonération de leurs biens professionnels ne pouvant plus jouer).

Ces aménagements de l'ISF devraient pouvoir bénéficier à toutes les personnes qui contribuent à la naissance d'une société innovante.

3. Le recrutement de collaborateurs étrangers

Concernant le besoin de collaborateurs étrangers de qualité (surtout américains), associés à la gestion, soit des entreprises elles-mêmes, soit des fonds communs, soit du nouveau marché, leur recrutement dépend bien sûr de la rémunération, nette d'impôts, susceptible de leur être offerte.

Le meilleur moyen, pour des entreprises de croissance, d'attirer des collaborateurs étrangers (ou pourquoi pas des Français expatriés ?) demeure le régime de stock-options (options de souscription ou d'achat d'actions) qu'elle peut leur proposer.

Les plus-values, encaissées à l'occasion des levées d'option sur la vente de titres correspondants, récompensent le risque pris par des personnes qui ont abandonné un poste de responsabilité, bien rémunéré, dans une société solide, pour se lancer dans une activité nouvelle.

« Vouloir considérer les gains réalisés ainsi comme un salaire - souligne le livre blanc de croissance plus - introduit une injustice flagrante entre le traitement fiscal des plus-values mobilières réalisées par les autres actionnaires (fondateurs, institutions de capital risque...) et celles bénéficiant aux collaborateurs de l'entreprise ».

Or l'avantage tiré de la levée de l'option, lorsque le bénéficiaire vient à céder ses titres (différence avec le prix d'acquisition) est imposable à l'impôt sur le revenu soit comme plus-value sur valeurs mobilières, au taux spécial de 30 %, soit comme un salaire, sur option de l'intéressé.

La fraction des rabais (différence entre le prix d'option et la valeur du titre) qui dépasse 5 % est soumise à l'impôt sur le revenu comme salaire.

Même lorsque le régime des plus-values de cession mobilières s'applique, les gains sont assujettis au prélèvement social de 1 %, à la CRDS et à la CSG, ce qui porte le taux d'imposition réel à 34,9 %.

En outre, l'intégralité des charges sociales sur les salaires est prélevée, dans le cas où la cession survient moins de cinq ans après l'attribution de l'option.

Cependant, l'article 50 de la loi de finances pour 1998 a mis en place un régime, plus favorable d'imposition au taux privilégié de 16 % des gains réalisés à l'occasion de la cession de nouveaux bons de souscription de parts de créateurs d'entreprises.

Cette disposition s'applique à des salariés ayant au moins trois ans d'ancienneté, dans une entreprise existant depuis moins de sept ans, créée à compter du 1er janvier 1998.

Une exonération de charges sociales s'y ajoute.

Le bénéfice en a, en outre, été étendu aux sociétés issues d'un essaimage, ce qui constitue une excellente disposition.

Il apparaît toutefois souhaitable :

n pour les plans antérieurs à 1998, d'abroger l'assujettissement aux charges sociales tel qu'il résulte de la loi sur le financement de la Sécurité sociale du 27 décembre 1996 et de la loi de finances rectificative pour 1996 ;

n pour le dispositif de la loi de finances de 1998, de pouvoir en faire bénéficier à la fois des entreprises plus anciennes qui, étant encore en période de maturation, ont toujours besoin d'attirer des collaborateurs, notamment étrangers, de qualité, et les salariés embauchés depuis au moins un an, à charge pour chaque société de fixer elle-même ses règles de levée d'options.

Un autre moyen de pouvoir recruter des collaborateurs étrangers de qualité, non plus dans les sociétés innovantes elles-mêmes, mais en tant que gestionnaires de fonds de capital risque, consiste à être en mesure de leur offrir l'équivalent des « carried interest » américains. Il s'agit de compléments de salaires, sous la forme d'une participation à un certain pourcentage (généralement 20 %) des gains réalisés par le fonds, considérée, fiscalement, aux Etats-Unis comme une plus-value mobilière.

S'agissant de fonds immatriculés hors de France, ces sommes sont considérées comme des salaires, soumis à l'impôt sur le revenu et aux charges sociales, ce qui, évidemment, freine les implantations en France d'agences ou de filiales d'institutions étrangères de capital risque.

4. Les FCPI

Concernant les Fonds communs de placement dans l'innovation, créés par la loi de finances pour 1997, certaines de leurs dispositions ne correspondent pas à la pratique des sociétés innovantes et devraient donc être revues, par exemple :

n l'obligation de détention de 50 % au minimum du capital des sociétés concernées par des personnes physiques (62(*)) qui ne tient pas compte de la dilution réelle des Fondateurs ;

n la nécessité d'investir 60 % des fonds durant l'exercice même de leur levée (alors qu'il faut 4 ans, en moyenne).

Les plafonds de déductibilité (25 % du montant investi dans la limite de 75.000 F par personne) pourraient être élargis et une sortie de l'assiette de l'ISF des dépenses correspondantes consentie.

Comme cela a été rappelé dans le précédent chapitre de cet ouvrage, les dispositifs précédents d'incitation à l'investissement outre-mer, dans le cinéma et l'audiovisuel, ou les chantiers navals, étaient beaucoup plus généreux (le soutien fiscal aux quirats de navire coûtait ainsi à l'Etat le double du montant total annuel des investissements des Fonds de capital risque français).

Or, l'aide fiscale à la création d'entreprises de croissance risque de payer en retour bien davantage l'Etat et la Sécurité sociale.

5. La valorisation de la recherche publique

Par ailleurs, comme le souligne Croissance plus, « de nombreux travaux originaux dans les laboratoires publics français ne débouchent sur aucune forme d'industrialisation par manque de filière structurée. Les chercheurs détenteurs d'une innovation majeure devraient être incités fortement à lever des fonds auprès des fonds de capital risque alors qu'aujourd'hui, ils sont pénalisés s'ils créent une entreprise parce que cela est incompatible avec leur statut de fonctionnaire ».

Il importe de reprendre les dispositions du précédent projet de loi, inspirées d'exemples étrangers et avalisées par le Conseil d'Etat, tendant à permettre à des fonctionnaires de participer à la création d'entreprises innovantes (mon collègue Pierre Laffitte a déposé une proposition de loi en ce sens).

Les laboratoires devraient aussi être incités à participer à cet effort, en entrant au capital des sociétés ainsi créées, afin de rentabiliser leur investissement de recherche, qui vient de trouver un débouché, et ne pas laisser le chercheur et les investisseurs privés en tirer seulement profit. Les gains réalisés à travers ces investissements seraient alors réinvestis dans de nouveaux projet.

Ces recommandations s'inscrivent dans la ligne de la priorité à accorder à l'essaimage, y compris celui du secteur privé (cf. DassaultSystèmes) et au capital d'amorçage.

Il faut, par ailleurs, favoriser la prise de brevet par les chercheurs français (l'office européen ne leur en a délivré, en 1995, que 3.464 contre 8.797 à des déposants allemands).

Dans un article publié dans la Recherche, en septembre 1996, le Directeur scientifique de l'Ecole Supérieure de Physique et Chimie Industrielle (ESPCI) de Paris rappelle les obstacles (63(*)) qui peuvent contrarier cet objectif sur les plans juridique (décrets de création ou règlements intérieurs contraignants des établissements), financiers, ou culturels (le chercheur qui réussit financièrement est peu ou mal reconnu et suscite une espèce de jalousie).

Il rappelle également que certains brevets nécessitent des investissements trop importants pour pouvoir être valorisés par une PME et qu'il est préférable, dans ce cas, de chercher un partenaire industriel et de conclure un accord de licence.

Le statut de la Fonction publique doit évoluer :

n désormais certains salariés auteurs d'une invention ou créateurs de logiciels bénéficient d'une rémunération supplémentaire (en vertu de deux décrets du 2 octobre 1996, relatifs à l'intéressement de certains fonctionnaires et agents de l'Etat, ou établissements publics, auteurs d'une invention ou d'une découverte) ;

n mais demeure interdite la prise d'intérêts par des chercheurs, enseignant-chercheurs ou techniciens de recherche, dans une entreprise qui entretient des liens avec leurs laboratoires (64(*)) d'où les difficultés, évoquées ci-dessus, rencontrées par Georges Charpak , concernant le subventionnement des travaux menés pour le compte de la société Biospace , qu'il avait créée, par un laboratoire de l'ESPCI (Ecole de Physique et de Chimie de Paris).

6. Les autres mesures souhaitables

Pour en revenir aux fonds communs de placement à risque (dont les FCPI sont une variante), la règle de l'exclusivité de leur objet social (qui doit se limiter à la gestion, à l'exclusion de toute activité de conseil auprès de sociétés extérieures) paraît inadaptée aux cas particuliers de projets d'acquisition qui nécessitent l'étude de la société cible (cf. La Tribune du 11 septembre 1997).

Une réforme, tant de la Directive européenne que de la législation française applicables, s'impose sur ce point.

D'autres mesures, de nature juridique ou fiscale, susceptibles de faciliter la création d'entreprises innovantes, sont souhaitables :

n on ne voit pas, par exemple, pour quelles raisons a été limitée à deux ans l'application du report d'imposition, prévu par la loi de finances pour 1998, des plus-values de cession de droits sociaux réalisées par les dirigeants de sociétés qui les réinvestissent dans des sociétés nouvelles créées depuis moins de cinq ans ;

n l'éventualité de l'ouverture aux « Start-up » du régime, très souple, des sociétés par actions simplifiées (article 262-1 et suivant de la loi de 1966) pourrait être mise à l'étude ;

n J'ai par ailleurs signé avec mon collègue Pierre LAFFITTE une proposition de Loi tendant à créer des entreprises à partenariat évolutif afin de pouvoir réévaluer, au cours de leur vie, les apports immatériels de capital compétence (innovations, inventions...) dont elles ont bénéficié initialement (ces apports, dont le droit français, de nature patrimoniale, ne tient compte que très imparfaitement, sont évalués, une fois pour toutes, à la création d'entreprise) ;

7. Pourquoi l'échec est-il fatalement frappé d'opprobre en France ?

N'est-il pas légitime de considérer l'absence de droit à l'échec comme l'une des principales entraves à la création d'entreprises en France ?

Alors qu'aux Etats-Unis, par exemple, un créateur d'entreprise ayant connu un échec bénéficie d'un a priori favorable pour créer une nouvelle entreprise, il est très regrettable qu'en France, un entrepreneur ayant été obligé par le marché ou par un manque de financement de déposer le bilan de son entreprise soit frappé d'« opprobre » par l'« establishment » alors que très souvent ces chefs d'entreprise ont acquis dans cette épreuve douloureuse un savoir-faire et une vigilance qui leur seraient précieuses pour mener à bien une nouvelle aventure.

C'est devant de tels comportements culturels que nous prenons conscience du fossé qui sépare une société de défiance d'une société de confiance...

Dans cette démarche de confiance, l'aide aux chômeurs créateurs ou repreneurs d'entreprises, considérablement restreinte, à partir de 1995, malgré le nombre croissant de candidats, mériterait-il d'être réactivée au profit de ceux qu'un échec, dans le domaine de l'innovation peut avoir rendus plus expérimentés. On pourrait envisager également d'associer les licenciés économiques aux bénéfices des stocks options de leur entreprise.

B) L'ORIENTATION DE L'ÉPARGNE LONGUE

Le capital risque, on l'a vu, doit être un capital patient. Ce n'est qu'à long terme que les gains par ici compensent, à coup sûr, et au-delà, les inévitables pertes essuyées par là.

Il importe donc :

- de lever les obstacles réglementaires qui ne permettent pas aux fonds d'assurance-vie (qui gèrent environ 2.500 milliards de francs) d'investir dans les fonds de capital risque.

L'essentiel des sommes collectées est placée, en effet, pour le moment, en titres obligataires.

L'impact psychologique des mesures fiscales limitatives prises récemment par les gouvernements successifs risque d'avoir été globalement négatif malgré l'exonération d'impôt sur le revenu dont bénéficient les produits des contrats investis en titres non cotés ou cotés sur le nouveau marché (étendue, par la suite, aux actions constituant 50 % au moins du placement de contrats comprenant par ailleurs au minimum 5 % de titres de capital risque) ;

n on attend, par ailleurs, avec impatience, le projet de loi, qui, réformant la loi Thomas (dans quel sens ?), devrait enfin aboutir - du moins on l'espère - à la création de fonds de pension à la française.

Il s'agit d'une évolution que les contraintes démographiques de notre pays rendent, en tout état de cause, absolument inéluctable et dont les conséquences sur le financement de l'innovation nationale pourraient être très positives (à condition que les produits de cette épargne soient orientés dans ce sens, comme il est souhaitable).

C) L'ENGAGEMENT DES BANQUES

Contrairement à ce qui se passe dans d'autres pays, notamment les Etats-Unis, la Grande Bretagne, et l'Allemagne, le système bancaire est en France peu impliqué dans le financement d'activités à risque.

Quatre projets seulement de créations de FCPI ont été à ce jour annoncés (65(*)).

Il semble que des dispositions inhibitrices de notre droit, telles que celle du «soutien abusif» (qui peut conduire les banques à combler le passif de l'entreprise) devraient être revues.

Des mécanismes pourraient notamment permettre d'éviter le dépôt de bilan d'entreprises, que les banques refusent de soutenir, quand elles rencontrent des problèmes liés à la rapidité de leur développement. Ces entreprises sont en quelque sorte victimes de leur succès : alors qu'elles sont en pleine croissance et que leur carnet de commandes est bien garni, elles se heurtent à des problèmes liés à la sous-estimation des coûts de développement ou des frais de lancement d'un produit ou tout simplement de leurs besoins en fonds de roulement (il faut payer les fournisseurs et financer la production avant que les factures des clients soient réglées).

D) LA SITUATION DES SOCIÉTÉS EXISTANTES

Le dynamisme de la création des NTIC provient pour une bonne part de la création de sociétés innovantes mais pas exclusivement. L'activité d'entreprises bien établies ou de grands groupes importe également.

Or :

n dans le domaine stratégique et créateur d'emplois, des semi-conducteurs, la France peine à attirer les investissements étrangers, en raison non seulement d'un différentiel défavorable en matière d'impôt sur les sociétés (de deux ou trois points) mais surtout d'un écart considérable (de 5 à 10) concernent les impôts locaux.

Il est indispensable de revoir, pour les entreprises de ce secteur, le plafonnement des crédits d'impôt recherche (qui n'est pas adapté aux montants des dépenses nécessaires) et surtout les mécanismes de calcul de la taxe professionnelle (qui pénalisent l'accroissement, souvent très important, du montant des investissements des entreprises concernées).

n concernant la surtaxe des plus-values financières des entreprises, décidée par la loi de 1997 portant mesures urgentes à caractère fiscal et financier, il paraît particulièrement regrettable d'avoir fait passer sous le régime du droit commun (taux de l'impôt sur les sociétés, majoré pour toutes celles réalisant plus de 50 millions de francs de chiffre d'affaires) les plus-values, auparavant taxées à taux réduit, relatives aux produits de la propriété industrielle et à la cession des brevets (selon M. Mercier, du bureau Francis Lefebvre, cette dernière disposition pourrait conduire bon nombre d'entreprises à délocaliser à l'étranger leurs départements de recherche).

Il est urgent de corriger les effets les plus nocifs de cette décision.

E) LES AIDES AUX TRANSFERTS DE TECHNOLOGIE
ET À LA VALORISATION DE LA RECHERCHE

Concernant les transferts de technologie, il importe, tout d'abord, de mettre de l'ordre dans le dispositif foisonnant actuel, et, à tout le moins, d'en mieux coordonner les actions (comme cela a été tenté, en ce qui la concerne, par la région Provence-Alpes-Côte-d'Azur avec la mise en place de la « route des hautes technologies »).

La différence entre création et utilisation de technologies nouvelle s'estompe, on l'a vu, l'innovation devenant, de plus en plus, le résultat d'un processus de création collective, sous l'effet, notamment, du développement des réseaux.

Il faut encourager cette tendance.

Autre préoccupation : orienter davantage les aides commu-nautaires (66(*)) vers les PME et, plus particulièrement les plus innovantes d'entre elles, qui ne sont pas nécessairement les plus douées pour la chasse aux subventions.

Comme le souligne mon collègue Pierre Laffitte : « Les procédures lourdes et bureaucratiques consécutives aux systématiques appels d'offres sur les thèmes définis par la Commission de Bruxelles, s'opposent à la souplesse des procédures Eurêka ».

Seules les PME qui ont su trouver les formules de lobbying appropriées peuvent espérer un retour sur les dépenses qu'occasionne pour elles la présentation d'un dossier.

Concernant la valorisation de la recherche française, elle reste insuffisante, si on en croit le dernier rapport de l'Observatoire des Sciences et Techniques, malgré le bon travail de terrain et de coopération européenne (dans le cadre d'Eurêka), réalisé par l'ANVAR.

Nos résultats s'améliorent quant aux publications, mais se dégradent en terme de brevets, particulièrement, s'agissant des TIC, en électronique et en sciences pour l'ingénieur.

Paris, l'Essonne et les Hauts-de-Seine, apparaissent, dans les deux cas, comme les plus souvent cités au niveau international, ce qui n'est guère satisfaisant sur le plan de l'aménagement du territoire et de la décentralisation de la recherche.

Dans ces conditions, le crédit d'impôt recherche, régionalisé, devrait être, plus que jamais, pérennisé, sans être dénaturé par l'abus de contrôles fiscaux exercés auprès de ses bénéficiaires.

Une mission d'évaluation de l'ensemble du dispositif français de valorisation de la recherche a été confiée à l'ancien PDG de l'ANVAR, Henri Guillaume, qui devra s'interroger, notamment sur le point de savoir s'il est satisfaisant qu'un tiers seulement des interventions de l'agence s'effectuent dans les hautes technologies et que 80 millions de francs, à peine, de son budget, soient consacrés, en 1997, à la création d'entreprises innovantes.

Concernant la valorisation de la recherche publique, le modèle de FIST (France Innovation Scientifique et Transfert), mériterait de faire école. Il s'agit d'une société anonyme, destinée à sélectionner, protéger, évaluer et négocier les projets d'innovation technologique issus du CNRS (et aussi d'autres organismes académiques et de PME).

70 % du capital devrait en être détenu par le CNRS et 30 % par l'ANVAR. Après s'être efforcé, dans un premier temps, de faire face à l'augmentation des dossiers de valorisation issus du Centre National, FIST s'efforce de prospecter de nouvelles clientèles, notamment les universités et les PME.

F) LE RÔLE DE L'ETAT

Il semble désormais tout à fait exclu que l'Etat prétende gérer lui-même des entreprises du secteur concurrentiel et se livrer, comme il l'a fait par le passé, à des parties de mécano industriel tendant à constituer des « champions nationaux » ou à restructurer de grands groupes.

Les politiques dirigistes de l'offre ne sont plus, on l'a vu, adaptées à un contexte marqué par l'accélération des évolutions techniques et commerciales et par l'intensification de la concurrence à tous les niveaux (national, européen, mondial) et dans tous les domaines.

Mais l'Etat, garant des intérêts supérieurs de la Nation et de l'intérêt général, de même, pour l'Union européenne et par application du principe de subsidiarité, que les autorités communautaires, ne peuvent se désintéresser de tout ce qui concerne :

n l'Education :

n la Recherche ;

n la Prospective (par-delà les évolutions à court terme du marché, dictées par les intérêts particuliers des compétiteurs) ;

n le Service Public Universel et l'égalité d'accès au NTIC ;

n Leur environnement normatif et juridique (standards, droit de la concurrence, régulation des contenus, attribution de fréquences, fiscalité...) ;

n Enfin, les infrastructures.

Concernant plus particulièrement les entreprises, qui nous intéressent ici, j'insisterai plus particulièrement sur :

n leur environnement fiscal et administratif qui doit être rendu plus favorable (cf. considérations qui précèdent) ;

n les infrastructures qui font l'objet de la sollicitude des Gouvernements japonais et américains (67(*)), tandis que, comme le note « Usine Nouvelle du 13 novembre 1997 », l'Europe risque d'être le parent pauvre d'Internet 2, avec les 34 Megabit/s de son réseau TEN-34 (Trans European Network) qui connecte les grands centres de recherche du vieux continent (son successeur Quantum, devrait, cependant, approcher les 155 mégabits/s, mais à quelle échéance ?) ;

- enfin, la recherche, l'intensification de la concurrence dans le secteur des télécommunications peut laisser craindre un pilotage de celle-ci par l'aval et une remise en cause du rôle éminent du CNET qui pourrait être tenté par un repli sur soi.

On doit à cet établissement beaucoup des acquis scientifiques et industriels français mais une trop grande dépendance à son égard de l'ensemble des acteurs de la filière, notamment des PME, constitue aujourd'hui un point faible. Des modalités plus souples et spécifiques de recherche associative, se substituant partiellement aux « grands projets » seraient nécessaires.

Le rapport de MM. Lombard et Kahn sur l'avenir de la recherche et développement française dans le secteur des télécommunications a préconisé, notamment :

n la fédération, en amont, des pôles de compétence en un réseau national de recherche (CNET, INRIA , CNRS , CEA , universités et écoles...) ;

n dans le domaine des applications, des coopérations entre opérateurs, chercheurs du secteur public et équipementiers, en veillant à y associer les PME, et avec le soutien des pouvoirs publics à de grands projets à forts enjeux de société (éducation, santé).

Je souscris à ces recommandations tout en estimant que ce rapport traite insuffisamment :

n des télécommunications spatiales (pour lesquelles un renforcement des compétences du CNES est absolument nécessaire) ;

n des implications de la convergence entre les télécommunications (notre point fort essentiel) et l'informatique (notre principal point faible) ;

n du rôle stratégique et industriel essentiel des composants.

La France pourra-t-elle demeurer un des seuls grands pays industriels dans lesquels l'Etat n'aide pas directement la R & D en télécommunications, les opérateurs étant déjà mis à contribution pour la péréquation géographique ?

Ne sommes-nous pas handicapés par l'insuffisante mobilité de nos chercheurs (entre laboratoires, du public au privé, vers les PME innovantes) ? ou par le fait que des coopérations naturelles en d'autres lieux (comme la Silicon Valley) laissent, chez nous, à désirer ?

Par ailleurs, la force de nos positions dans les télécommunications peut se trouver menacée par la faiblesse de celles que nous occupons en informatique La convergence, entre les deux, risque de s'effectuer au profit de cette dernière, dont le taux de croissance est beaucoup plus rapide et qui prend de plus en plus d'importance.

Deux domaines me semblent particulièrement cruciaux.

Le logiciel (qui permet de relever les défis de la surabondance de données accessibles et de la complexité engendrée par la diversification des techniques, des réseaux et des normes) ;

les composants et, plus particulièrement, les « média-processeurs » qui seront au coeur des multiples terminaux multimédia de demain (PC, décodeurs TV, mobiles...).

Le traitement des signaux multimédia, l'intégration dans le silicium des fonctions correspondantes, le génie logiciel susceptible d'améliorer la convivialité et l'interopérabilité des différents systèmes, me paraissent des priorités absolues. Or, dans ces domaines, le niveau d'investissement en R & D des géants américains (Microsoft et Intel) est particulièrement difficile à égaler.

Mais, d'une façon générale, je préfère à la subvention tout ce qui peut contribuer à améliorer l'environnement fiscal et administratif des entreprises et à donner leur chance aux jeunes sociétés innovantes.

Le Gouvernement vient d'annoncer 37 mesures de simplification administratives qui vont dans le bon sens (déclaration unique d'embauche généralisée, inscription en un jour au lieu de cinq d'une entreprise au registre de commerce, bulletin de paie allégé pour les sociétés de moins de 10 salariés...).

D'autres dispositions seraient souhaitables, notamment pour faciliter les procédures d'exportation ou en ce qui concerne les marchés publics d'un montant de moins de un million de francs ne donnant pas lieu à appel d'offres...

Mais, il reste surtout à mettre en oeuvre le fameux guichet unique concernant les aides et les transferts de technologie aux entreprises à un échelon qui demeure à déterminer (région, organismes consulaires, services régionaux du ministère de l'industrie ?..).

Des mesures fiscales spécifiques d'encouragement à l'utilisation de micro-ordinateurs en réseaux pourraient être envisagées à destination des très petites entreprises souvent exclues des dispositifs d'aide actuels (particulièrement dans le secteur des services et pour des investissements de faible montant).

Un rapport du Plan avait proposé d'accorder à celles nouvellement créées une aide généralisée d'environ 50.000 F, dans la limite de 50 % des capitaux engagés (sous la forme, par exemple d'une subvention remboursable à partir de la troisième année). Cette aide pourrait être adaptée à l'acquisition de matériels informatiques pour les petites entreprises nouvellement créées.

IV. LES OPPORTUNITÉS POUR L'AMÉNAGEMENT DU TERRITOIRE

Comme cela a déjà été souligné dans cet ouvrage, les nouvelles techniques d'information et de communication offrent à l'aménagement du territoire des opportunités certaines dont l'exploitation suppose cependant un effort particulier des collectivités concernées, avec l'aide de l'Etat.

Les opportunités des NTIC, du point de vue de l'aménagement du territoire, résultent des interactions vertueuses qu'elles permettent d'établir entre maintien ou localisation, dans des zones défavorisées, de populations et d'activités vitales.

Téléservices et télétravail se confortent mutuellement.

n Les téléservices (enseignement, santé, culture, adminis-tration...) améliorent la mobilité géographique des personnes actives et incitent au maintien sur place ou à l'installation de retraités (fraction croissante de la population de l'ensemble du pays et clientèle importante des commerces ou des autres services locaux).

n le télétravail qui, de son côté, peut entraîner l'installation, dans les mêmes régions en difficulté, d'activités spécifiques [travail d'arrière guichet (back office), télémaintenance, traitement à distance d'informations...], s'en trouve favorisé dans la mesure où il garantit aux personnes concernées et à leurs enfants l'accès à distance à des prestations de qualité notamment dans les domaines des soins et de l'éducation.

n Si les téléservices encouragent ainsi le télétravail, la réciproque existe : le télétravail consiste en grande partie en téléservices.

Le télétravail peut prendre plusieurs formes présentant chacune des avantages appréciables non seulement du point de vue de l'aménagement du territoire, mais aussi eu égard aux intérêts des entreprises et des administrations et à la satisfaction de leurs clients ou usagers :

n réduction des surfaces de bureaux donc des coûts immobiliers, le télétravail à temps partiel à domicile ou pendant les déplacements, entraînant l'utilisation collective et partagée, et non plus individuelle, des espaces correspondants (68(*)).

n gains de productivité du fait d'économies sur les temps de transports et du raccourcissement des délais nécessaires à l'accomplissement de certaines tâches (transmission de rapports de missions, établissements de contrats de ventes chez les particuliers...).

n décentralisation, pour mieux satisfaire la clientèle, de certaines activités (maintenance, services de proximité...) ou de tâches d'arrière guichet («back office» par opposition à «front office») pour revitaliser des zones dépeuplées ou défavorisées.

- développement de nouvelles formes d'organisation du travail (à temps partiel, en alternance sur plusieurs sites) susceptibles, par leur souplesse, de favoriser l'emploi local.

Mais ce n'est pas seulement à travers le développement du télétravail indépendant ou salarié que l'aménagement du territoire se trouve encouragé par les NTIC, mais aussi grâce aux possibilités qu'offrent ces dernières de s'affranchir de certaines contraintes géographiques (proximité de la clientèle, des donneurs d'ordre ou des sous-traitants, des partenaires...) dans l'implantation d'industries ou de services.

Ceci est particulièrement vrai des productions immatérielles (logiciels, télégestion...).

Rien n'est cependant acquis et le développement des NTIC n'entraînera pas ipso facto la localisation ou le maintien d'activités dans les zones en difficulté.

Les technologies de l'information, en effet :

n accroissent la concurrence de ce point de vue entre municipalités, pays, régions, Etats en même temps qu'elles leur donnent à tous de nouvelles chances.

n ne suppriment pas le besoin chez l'homme de contacts enrichissants et diversifiés, qui ne soient pas seulement virtuels, tels qu'il s'en établit dans des grandes métropoles ou des communautés comme la Silicon Valley.

n peuvent aboutir à accentuer la centralisation de certaines activités tertiaires (en ce qui concerne, par exemple, les réservations de billets d'avions ou les succursales de banques américaines en Europe, tentées de n'ouvrir qu'une seule agence à Londres, du fait du marché unique, plutôt qu'une dans chaque capitale européenne...).

Une politique volontariste, reposant sur les initiatives de la base (collectivités, entreprises, système éducatif) mais appuyée par l'Etat demeure donc indispensable. Rien ne se fera spontanément sans elle.

Elle doit tendre à :

n accorder aux investissements relatifs aux NTIC (enseignement et infrastructures) la même considération qu'aux transports terrestres (pour lesquels environ 100 milliards de francs sont dépensés chaque année), sans négliger pour autant ces derniers.

n encourager la mobilité professionnelle par le développement de téléservices également accessibles sur tout le territoire (soins et enseignement de qualité, services administratifs...).

n favoriser le télétravail, notamment dans les services publics (éducation, enseignement supérieur, recherche...) et en dotant les télétravailleurs indépendants d'un statut juridique et fiscal approprié.

n partir des atouts réels des territoires concernés (leur potentiel économique, environnemental, culturel...) sans succomber, au niveau national, au saupoudrage des moyens et à la dispersion de nos forces, ni privilégier, au niveau local, les créations d'activités nouvelles au détriment du renforcement des tissus régionaux existants, dans leurs composantes encore viables.

n laisser émerger les initiatives locales (qu'elles viennent des entreprises, des collectivités ou du système d'éducation et de formation professionnelle...), les fédérer et les appuyer.

n recourir à des expérimentations concrètes qui sont autant de moyens de sensibilisation des usagers.

n rationaliser les dispositifs de transferts de technologies vers les PME-PMI régionales ou locales.

Les NTIC, au fur et à mesure qu'elles se banalisent, deviennent en même temps un moyen de plus en plus déterminant mais aussi de moins en moins discriminant, de localisation des activités économiques.

Il ne faut donc pas tout miser sur elles et jouer aussi sur d'autres facteurs : la qualité de la vie et des hommes, l'environnement culturel.

En même temps que s'étendent les réseaux se renforce le besoin d'identification des hommes à un territoire et c'est tant mieux. Cela peut créer une forte motivation des acteurs concernés afin d'exploiter au mieux, grâce aux NTIC, les atouts de leurs régions.

Dans un monde de plus en plus exposé à la concurrence internationale, l'aménagement du territoire doit se servir des nouvelles techniques d'information de deux manières :

- en les utilisant, de façon diffuse, sur tout le territoire,

- en regroupant leurs moyens de conception et de développement dans des pôles compétitifs, nécessairement peu nombreux à l'échelon national (sortes de Silicon Valley à la Française) où peuvent s'effectuer les mêmes fertilisations croisées et se créer des synergies bénéfiques à l'ensemble du territoire.

CONCLUSION

« Réseau », « confiance », « pyramides », tels ont été sans doute les mots les plus souvent employés dans cet ouvrage.

Une récapitulation des réflexions que m'ont inspiré ces trois notions me permet de résumer ici les éléments de réponse que je propose d'apporter aux trois questions fondamentales qui se posent au citoyen et au responsable politique :

qu'est-ce que cette société de l'information si souvent évoquée ?

pourquoi et comment devons-nous y entrer ?

La société de l'information se caractérise en somme, à mon sens, par la substitution de réseaux à des pyramides mais cette société nouvelle ne peut se développer que dans la confiance.

1. Quels réseaux ?

La notion est complexe et il importe de ne pas se laisser prendre au piège de l'ambiguïté que peut créer toute confusion entre ses multiples significations. Le réseau est à la fois une technique, un concept et un phénomène social, une structure d'organisation et un mode de transmission de l'information, un ensemble de matériels et d'infrastructures et un marché sur lequel se vendent des services marchands ; une forme d'échanges intellectuels, une sphère d'influence ou un facteur de transformation de la société. Le mot réseau pouvait servir autrefois à désigner des systèmes organisés de fortifications aussi bien que de circulation des véhicules.

Aujourd'hui encore, le danger existe de ne se servir des réseaux que pour relier entre elles les citadelles du pouvoir, au sommet des pyramides.

A côté des réseaux décentralisés, interactifs, maillés et égalitaires, subsistent encore, comme le rappelle Pierre MUSSO dans son ouvrage « Télécommunications et philosophie des réseaux », des réseaux arborescents, centralisés et hiérarchiques, du type de ceux utilisés par la télédiffusion, qui suggèrent la domination de l'émetteur sur une multitude de récepteurs.

Ce sont évidemment les premiers plutôt que les seconds que l'évolution des techniques aussi bien que les valeurs de la société de l'information, analysées dans cet ouvrage, tendent à favoriser. C'est donc vers eux que doit se porter notre attention.

Les autoroutes de l'information, préfigurées imparfaitement par Internet, permettront d'allier les avantages des réseaux informatiques (débit, terminaux autonomes et intelligents, numérisation des données), téléphoniques (commutation, maillage, bouclage, réciprocité et égalité des échanges) et audiovisuels (transmission de sons et d'images animées).

C'est la multilatéralisation simultanée des échanges (messagerie, consultation de pages Web, visioconférence, forums de discussion) qui représente finalement, avec la mutation de l'informatique, devenue personnelle, communicante et multimédia, la conquête essentielle des années récentes.

Mais les prouesses de la technique, aussi admirables soient-elles, ne doivent pas conduire à faire de cette dernière une fin en soi, alors qu'elle ne demeure qu'un moyen.

Les réseaux ne sont qu'un instrument. Les considérer de façon pragmatique est le meilleur moyen d'éviter d'entrer dans les débats stériles et dépassés qui opposent les technolâtres aux technophobes ou de succomber aux utopies saint-simoniennes allant jusqu'à faire de la théorie des réseaux une religion.

C'est la raison pour laquelle j'ai tenu à n'idéaliser ni la technologie des réseaux elle-même, ni les usages qui peuvent en être faits : la première est perfectible et soumise aux sanctions du marché. Quant à ses utilisations, il convient tout d'abord de ne pas faire de la communication un absolu et de bien la distinguer de la notion d'information. Cette dernière, pour sa part, n'est, comme je l'ai montré, qu'un minerai de base qui ne peut acquérir de la valeur que grâce aux savoirs pour se transformer en connaissances et en expertise qui enrichiront notre culture et donneront plus de sagesse à nos peuples.

2. Que va devenir Internet ?

Le changement essentiel qui y a été récemment introduit est l'apparition de la notion de client avec la substitution à la cueillette gratuite, anonyme et totalement libre, pratiquée par l'internaute préhistorique, de la diffusion d'informations ciblées, à des personnes identifiées qui en ont fait la demande.

Les moteurs de recherche correspondants n'en sont toutefois qu'à leurs balbutiements et se montrent, en attendant l'arrivée prochaine d'agents intelligents performants, insuffisamment sélectifs.

Maintenant qu'ont été signés des accords internationaux sur la sécurisation des paiements et assouplies les conditions d'utilisation d'algorithmes de cryptage, la prochaine étape du développement du réseau des réseaux devrait être liée à l'essor que devrait y connaître le commerce électronique.

Viendront ensuite la téléphonie, déjà en plein essor, puis la visiophonie, au coût d'une communication locale, permettant de garder le contact avec ses proches expatriés.

Enfin, dès que la bande passante le permettra, des vidéos fluides de grande qualité remplaceront les images actuelles (fixes ou légèrement animées, avec des saccades et des dimensions restreintes).

Dans un rapport secret à la direction d'A.T.T., Alvin TOFFLER, plusieurs fois cité dans cet ouvrage, avait conclu dès 1972 qu'il fallait renverser les pyramides pour libérer les réseaux.

Le démantèlement du géant américain, en 1984, allait, douze ans plus tard, faire triompher son point de vue.

Dans un article paru un an après dans Futuribles, Jean VOGE, Président de l'IDATE (Institut de l'Audiovisuel et des Télécommunications en Europe), annonçait le passage «du linéaire au non-linéaire : des pyramides aux réseaux».

Il opposait le réseau technique de télédiffusion, équivalent à une pyramide organisationnelle, au réseau de télécommunications, interactif et égalitaire. Cette contradiction reflétait à ses yeux celle existant, plus généralement, entre structures hiérarchiques et structures décentralisées.

De fait, le système pyramidal suppose une communication exclusivement verticale entre la base et le sommet (remontée d'informations et descente de directives) incompatible avec la communication horizontale, à tous niveaux hiérarchiques et entre tous organismes, qui caractérise la société de l'information. Aux cloisonnements entre les différents étages des pyramides peuvent s'en ajouter d'autres, à chaque niveau, entre ce que TOFFLER appelle les alvéoles, c'est-à-dire les cellules de travail de base mises en place dans les différentes administrations et entreprises.

Les structures institutionnelles ont naturellement tendance à empêcher les réseaux techniques de se développer ou à en confisquer l'usage à leur profit (il a fallu attendre le Second Empire pour que la télégraphie soit ouverte au public, le système Chappe ne l'était pas). Il ne faut donc pas sous-estimer la résistance de l'institution à la poussée naturelle du réseau qui menace les pyramides.

Il va de soi qu'aux changements nécessaires de types de communication et d'échange d'information doivent correspondre des modifications d'organisation et des processus nouveaux de prise de décision fondées sur la confiance.

La société de l'information est une société de confiance !

- confiance en soi et en autrui, dans les vertus du partage du savoir, de l'échange de connaissances, de la mise en commun des réflexions et des idées.

- confiance aussi en l'esprit d'entreprises, la mentalité des consommateurs, les mécanismes du marché.

Il ne s'agit pas pour autant, cédant à une vision utopique ou par trop idyllique des technologies de l'information, d'en ignorer les dangers : extorsion de données confidentielles, atteinte à la moralité ou à la sécurité publique, aux droits de la personne, plagiats en tout genre, etc...

Mais le jeu en vaut la chandelle et il y a plus à gagner qu'à perdre à pratiquer l'échange plutôt que la rétention d'information. Il y a sur Internet une sorte de surveillance mutuelle et d'automaticité de droit de réponse, par la possibilité de débats contradictoires, qui équivaut à une certaine forme d'autorégulation, sans doute insuffisante mais néanmoins réelle.

Les internautes peuvent acquérir de la sorte, en participant, notamment, de façon régulière, à des forums de discussions, une maturité et un esprit critique que ne leur offriraient peut-être pas d'autres médias moins interactifs.

Désormais, les responsables politiques ou économiques ne pourront plus, comme hier, imposer leurs décisions à la base si ils ne recherchent pas à légitimer leur démarche par de larges consultations et la recherche du « bon sens » sur les réseaux.

En contrepartie, il ne sera plus possible à des groupuscules, infiltrés dans des systèmes démocratiques sclérosés, d'imposer par la démagogie leurs idées minoritaires au plus grand nombre.

Cela ne signifie pas pour autant que toute autorité disparaîtra mais que celle qui subsistera devra être reliée à toutes les composantes des réseaux, pour être légitimée et ne plus fonder ses décisions sur des informations fournies par un petit groupe de hiérarques ou de militants.

- Pourquoi devons-nous, non plus entrer - puisque nous y sommes déjà- dans la société de l'information, mais nous y impliquer davantage pour rattraper notre retard et en devenir des acteurs majeurs ?

Ma réponse, là encore, n'est pas idéologique mais pragmatique, réaliste et simple : si nous ne savons pas saisir les chances que nous offre cette mutation à la fois majeure, inéluctable et durable, et exploiter, à cette fin, les atouts réels dont nous disposons, notre déclin sera irréversible.

Je l'ai affirmé et répété tout au long de cet ouvrage : l'avènement de la société de l'information comporte pour l'humanité tout entière et pour notre vieille Europe en particulier des avantages incontestables.

Elle peut ouvrir des perspectives nouvelles à un monde actuellement à la fois uniformisé et éclaté, dans lequel la production de masse, la standardisation des besoins, le nivellement des cultures coexistent avec les fractures sociales, la négation de l'individu et la loi du plus fort et du plus riche.

Elle permet en effet, je l'ai dit, la prise en compte des besoins des personnes (en remettant l'élève au centre du système éducatif, le citoyen au coeur de la démocratie et le client à la base du marché) en même temps qu'elle universalise l'accès au savoir et aux richesses culturelles de l'humanité, resserre le lien social, donne leur chance aux petites sociétés innovantes (la puissance étant déconnectée du nombre) comme aux zones défavorisées.

Si, tel l'étudiant récompensé par le diable boiteux, dans le roman de Lesage (XVIIIe siècle), un témoin hors de notre temps pouvait soulever par magie les toits de nos maisons pour regarder, chaque soir, ce qui s'y passe, que constaterait-il ?

Il s'étonnerait sans doute d'y surprendre quotidiennement, selon un rituel immuable, la presque totalité de notre population écoutant religieusement les grands prêtres du 20 heures officier sur nos écrans.

Loin d'emprisonner davantage l'homme, les nouvelles technologies ne vont-elles pas au contraire lui permettre de retrouver des espaces de liberté en lui donnant les moyens de choisir lui-même ses temps et ses modes de distraction, de loisirs et, demain, de travail ?

Le lien social peut-il être vraiment davantage menacé par les nouveaux médias qu'il ne l'est actuellement, quand on sait que chaque Français passe en moyenne plus de 22 heures par semaine devant son téléviseur, en y contemplant de surcroît, trop souvent hélas, des scènes excessivement violentes.

Quelles réflexions ont inspiré aux détracteurs d'Internet l'image émouvante, diffusée à l'occasion du dernier Téléthon, d'un enfant gravement handicapé qui semblait exprimer à son ordinateur connecté toute sa reconnaissance pour l'évasion et la liaison avec l'extérieur qu'il lui procurait.

Sur le plan économique - ce ne sont plus là des spéculations mais des vérités illustrées par l'exemple américain- les Nouvelles Technologies de l'Information sont susceptibles non seulement d'affecter les trois domaines traditionnels qu'elles font faire converger (informatique, télécommunications, audiovisuel) mais aussi de provoquer la création d'activités nouvelles avec, au total, un solde très positif en termes de croissance et d'emplois .

Les meilleurs spécialistes affirment qu'avec la montée en puissance de la Société de l'Information la moitié des métiers qui seront exercés dans 20 ans n'existent pas encore.

Il s'agit en outre d'un développement durable au sens écologique du terme, en ce qu'il préserve les ressources naturelles, mais aussi parce qu'il devrait se poursuivre sur le long terme par-delà les fluctuations de la conjoncture.

Dans le contexte actuel, la France et l'Europe disposent d'atouts particuliers : quelques rares points forts (comme les cartes à puce, les télécoms...), qui constituent d'heureuses exceptions à la suprématie américaine, mais surtout un socle multiséculaire de connaissances, source d'expertise et de sagesse qui correspondent aux degrés ultimes de valorisation de l'information.

Cette expertise (par exemple dans le domaine médical ou celui de l'urbanisme...) doit pouvoir être exploitée sur les réseaux.

L'avènement de l'Euro et du marché unique peuvent par ailleurs créer une dynamique sur notre vieux continent et contribuer, en resserrant les liens entre ses nations, à en faire une base mieux ancrée sur son socle culturel multiséculaire au milieu des turbulences déclenchées par la crise asiatique, dont les Etats-Unis pourraient souffrir plus que nous-mêmes.

La somme des expertises donnant la sagesse, l'Europe peut retrouver pour le troisième millénaire la place qu'elle a perdu il y a quelques décennies et qui l'avait fait constamment éclairer le reste du monde depuis le début de l'histoire moderne.

Si nous étions dans un monde où la puissance d'un pays se mesurait encore à sa capacité de lever des armées ou au nombre de ses producteurs et de ses consommateurs, la messe serait dite et notre démographie nous entraînerait inexorablement vers la déchéance et l'effacement.

Comme je l'ai dit à plusieurs reprises dans ce rapport, pour la première fois dans l'Histoire de l'Homme, la puissance se déconnecte du nombre, avec la Société de l'Information.

Demain, le rang des Nations ne se fondera plus essentiellement sur le nombre de ses habitants ou de ses soldats, ni son potentiel de production de biens matériels mais bien sur sa capacité d'ajouter des savoirs à un signal (une information) donc de valoriser son expertise et son haut niveau de sagesse.

Le pouvoir vient aujourd'hui du savoir et la puissance économique est de plus en plus dépendante aujourd'hui de facteurs immatériels, tributaires de l'intelligence humaine.

Or l'Europe n'en est pas, loin de là, dépourvue !

Comment réussir notre rattrapage dans la course aux nouvelles techniques d'information et de communication ?

La société de l'information ne se décrète pas - son édification part de la base mais ne peut être ignorée du sommet, sous peine de voir les communications horizontales, qui se développent spontanément, remettre en cause les circuits hiérarchiques verticaux d'information et de décision, sans même que nos plus hauts responsables ne s'en aperçoivent.

Les pyramides sont ébranlées dans leur fondement, les alvéoles éclatent.

Le recul des corps représentatifs (parlementaires, syndicats, représentants patronaux, etc.) constaté depuis plus de deux décennies dans l'opinion pour laisser de plus en plus place à des mouvements spontanés (relayés et amplifiés par les médias) s'appuyant sur des approches nouvelles de l'intérêt général (organisations non gouvernementales, associations, coordinations, etc.) mettent en évidence que nos structures pyramidales ne permettent plus aux représentants officiels de notre Société de prendre conscience, en temps utile, des attentes réelles des citoyens.

- La construction de la société de l'information est une oeuvre collective, à laquelle, comme jadis, pour celle des cathédrales, chacun peut apporter sa pierre.

- L'élaboration de la société de l'information est, enfin, une création permanente et complexe, qui ne repose pas sur des recettes miracles.

Le système éducatif et les entreprises en constituent, on l'a vu, les deux principaux piliers, les usages grand public devant se développer de surcroît.

La confiance en est le ressort.

Elle représente ce qui, moralement, nous fait le plus défaut, pour des raisons liées à notre passé.

La genèse de la société de l'information vient, en effet, de loin.

Or, l'histoire de la France présente, par rapport à celle d'autres pays, des singularités, étudiées dans ce rapport, qui ont conduit à en faire, à bien des égards, une société de défiance : une grande diversité géographique, culturelle et ethnique, de nombreux troubles (invasions - que n'ont pratiquement jamais connues les Etats-Unis et l'Angleterre, guerres, révolutions) nous ont conduit à nous retrancher derrière un Etat fort et centralisé.

Le modèle d'organisation hiérarchisée de l'Eglise catholique, à laquelle était liée la majorité des Français, nous a certainement aussi influencés dans le même sens.

Les valeurs de nos élites, enfin, fondées sur l'honneur et un manque d'intérêt marqué pour tout acte lié à l'argent, n'ont certainement pas favorisé le développement, dans notre pays, du commerce et de l'industrie, d'où les interventions de l'Etat dans ces domaines.

En bref, le centralisme, le dirigisme, les cloisonnements hiérarchiques et sociaux qui nous caractérisent constituent autant de sources d'inhibition susceptibles d'entraver notre entrée dans la société de l'information.

Mais l'espoir doit demeurer :

Notre potentiel est, en de nombreux points, remarquable.

Notre histoire économique a toujours été marquée par des alternances de phases de retard et de rattrapage. Les dernières études dont j'ai pris connaissance montrent que les français sont de plus en plus nombreux à vouloir entrer dans l'ère d'Internet. Les succès de certaines de nos PME dans le domaine des Nouvelles Technologies de l'Information sont éclatants.

La priorité doit aller à tout ce qui peut favoriser l'éclosion de nouvelles sociétés innovantes, créatrices de ces technologies, ainsi qu'à leur apprentissage dans le système éducatif.

L'enjeu en est capital puisque le pouvoir est aujourd'hui fondé bien davantage sur le savoir (qui permet - on l'a vu- de déconnecter la puissance du nombre) que sur la richesse ou la force.

Il faut absolument faire confiance à nos entreprises. Il ne doit pas y avoir de demi-mesure, s'agissant de soutenir celles qui innovent dans des secteurs d'activités à forte croissance liés aux TIC. Leur cause vaut bien, d'un point de vue fiscal, celle du cinéma et de l'audiovisuel ou des chantiers navals, pourtant, récemment encore, beaucoup plus favorisés. L'Etat risque, à terme, d'être bien plus largement récompensé de ses largesses, sous forme de recettes et de cotisations supplémentaires, s'agissant d'activités où les échecs sont plus rares que la moyenne et les progrès économiques plus rapides.

Mais, sous prétexte que la valeur ajoutée se trouve désormais davantage dans les contenus et les services, il ne faut pas se désintéresser de l'industrie.

Les études de l'OCDE montrent, en effet, que s'il est vrai, globalement, que l'industrie perd des emplois tandis que les services en gagnent, les pays ayant obtenu