Allez au contenu, Allez à la navigation



Les nouvelles technologies de l'information

 

CHAPITRE II

UNE SUITE DE RUPTURES ET DE CONTINUITES

Progressivité ou recommencement ?

De l'imprimerie à Internet, l'histoire des médias peut être étudiée de deux façons qui ne sont pas exclusives l'une de l'autre.

On peut, en effet, y voir :

- soit une succession d'inventions et de découvertes, qui semble constituer une progression linéaire dont la vitesse tend à s'accélérer ;

- soit une évolution plus cyclique, plus heurtée, marquée par la résurgence et par la répétition de certains phénomènes.

Cependant, autant le préciser d'emblée : même la première approche, qui tend à prendre du recul historique pour discerner les grandes tendances de long terme, laisse apparaître la coexistence de ruptures et de continuités.

De son côté, la seconde approche, plus événementielle, à tout le moins orientée vers l'étude de périodes moins longues, met en évidence des analogies entre différents faits, des constantes dans les évolutions, mais qui ne correspondent pas, le plus souvent, à de réels retours en arrière ou à la reproduction, à l'identique, de cycles (comme il peut en exister, par exemple, en économie).

I. LA PROGRESSION ACCELEREE DES TECHNIQUES D'INFORMATION ET DE COMMUNICATION :
NOUVEAUTES ET CONTINUITE

Dans l'évolution des techniques d'information et de communication, ce qui frappe tout d'abord, c'est son extraordinaire accélération.

Les découvertes, qui se succèdent et qui débouchent sur l'apparition de nouveaux médias, peuvent sembler constituer, à première vue, autant de points de ruptures, caractéristiques d'un mouvement heurté.

Mais, en réalité, il y a dans l'histoire des médias, malgré la succession d'innovations qui lui l'émaille, une continuité et une harmonie plus grandes que celles auxquelles on pourrait à bon droit s'attendre.

A) UNE PROGRESSION ACCELEREE

Le tableau ci-après tente d'établir une chronologie de l'apparition des principaux médias de masse ainsi que des composants, des équipements, et des moyens de transmission et d'enregistrement correspondants.

CHRONOLOGIE DE L'EVOLUTION
DES TECHNIQUES D'INFORMATION
ET DE COMMUNICATION

coller tableau

L'interprétation de ce tableau nécessite quelques observations préalables :

- les dates, tout d'abord, sont par définition approximatives et ne correspondent, le plus souvent qu'aux premières expérimentations probantes effectuées (et non pas à une exploitation opérationnelle des inventions concernées) ;

- le classement des médias par rapport à l'écrit, d'une part, et aux différentes catégories sensorielles d'autre part (ouïe, vue...) ne correspond pas, ensuite, à un enchaînement chronologique rigoureux. Ainsi, la télégraphie sans fil, postérieure au téléphone, qui va donner naissance à la radio, ne permet à ses débuts, que la transmission de messages écrits. On passera, par la suite, et de manière progressive, de la télégraphie à la téléphonie (réservée d'abord à des professionnels), puis à la radiodiffusion.

De même, le cinéma, qui peut être considéré, non seulement comme le septième art, mais aussi comme un média, précède la radiodiffusion sonore alors qu'il permet la reproduction d'images animées. La xylographie avait d'ailleurs devancé l'imprimerie, et la photographie, le télégraphe ; mais il est difficile de comparer des moyens de reproduction à des moyens de transmission qui, s'agissant de l'image, n'apparaîtront qu'avec la télévision.

L'impression d'ensemble qui se dégage de l'examen des dates de ces différentes découvertes est sans conteste celle d'une accélération.

Il faut d'abord se placer à l'échelle des millénaires en ce qui concerne le passage de l'écrit à l'imprimerie, puis à celle des siècles en ce qui concerne la période séparant l'invention de l'imprimerie de celle du télégraphe.

Il faut ensuite se placer dans l'ordre des décennies pour mesurer le temps qui sépare les grandes découvertes ultérieures : (40 ans environ entre le télégraphe et le téléphone, puis 20 ans, à peu près, pour passer aux liaisons sans fil et de la TSF à la radio, 15 ans de la radio à la télévision, et 10, de la télévision à l'ordinateur).

L'accélération concerne non seulement l'enchaînement des inventions, mais aussi la vitesse de transmission des informations correspondantes, puisque l'on quitte l'ère de la communication en différé (de l'écrit, de l'image ou du son) pour entrer dans celle de l'instantané.

L'informatique, enfin, et la généralisation du codage numérique binaire accélèrent ces tendances, jusque-là partielles et limitées aux regroupements et aux combinaisons des différents médias.

Cependant, cette vue globale laisse toutefois persister des disparités bien réelles.

Après le foisonnement de la fin du XIXe siècle, un ralentissement semble s'opérer dans la première moitié du XXe siècle, sans qu'il soit possible de dire s'il procède des effets des conflits mondiaux ou des difficultés de mise au point de certaines technologies nouvelles.

Par ailleurs, un certain décalage peut parfois se manifester entre l'apparition d'un nouveau média et la mise à la disposition du grand public des moyens d'enregistrement correspondants (les magnétophones à cassette sont ainsi commercialisés 40 ans après la radio, et les magnétoscopes 35 ans après la télévision, peut-être autant en raison d'appréhensions liées à la perception des droits d'auteurs que pour des motifs d'ordre technique).

D'autre part, les périodes s'écoulant, entre une invention et son exploitation à large échelle sont variables. Ainsi peut-on opposer la mise en application presque immédiate du télégraphe au développement plus lent des réseaux téléphoniques faisant appel à des techniques plus complexes (commutation...).

La TSF démarre en trombe (6 ans seulement séparent, en effet, la première expérience de Marconi, à Bologne, de la première liaison transatlantique) mais le passage à la radiodiffusion se révèle plus lent, de nombreuses difficultés techniques devant être résolues : la production d'ondes entretenues, stables et propices aux modulations nécessite, tout d'abord, des courants de haute fréquence. Puis l'électronique, sobre en énergie, naît en 1904, de l'idée de Fleming d'appliquer à la détection des ondes radio la découverte d'Edison concernant l'émission d'électrons par les métaux incandescents. Lee de Forest, deux ans plus tard, va ajouter à la première lampe de radio de Fleming, ou « diode », une troisième électrode. Il en résulte une nouvelle lampe révolutionnaire, ou « triode », capable non seulement de détecter des ondes, mais d'amplifier des courants (5(*)). De nouveaux montages, facilitant, au niveau de l'émission comme à celui de la réception, les oscillations électriques et modulations recherchées, deviennent possibles.

De façon analogue, on n'obtiendra, par la suite, que de faibles variations de courant entre l'émetteur et la base d'un transistor entraînent de fortes variations du courant entre l'émetteur et le collecteur. Mis au point, en 1948, par trois chercheurs américains des Bell Labs (Bardeen, Shockley et Brattain), ce nouveau composant à semi-conducteurs permet donc de réaliser les fonctions essentielles de l'électronique (génération de signaux, amplification, modulation-démodulation, commutation, etc.) et cela dans des conditions plus avantageuses que les tubes précédents, car ils se mettent en action immédiatement, sans dégager de chaleur. Leur durée de vie est en outre beaucoup plus longue et leur encombrement des plus réduits.

Le cas de la télévision se révèle également intéressant. Son démarrage commercial intervient en effet relativement longtemps après les premières expériences, en raison de difficultés techniques (liées à la mise au point de l'analyse électronique des images, préalable à l'abandon des procédés électromécaniques), et par conséquent d'un prix de vente, initialement élevé et du fait, peut-être aussi, des effets économiques liés à la Deuxième Guerre mondiale. Par la suite, le lancement aux Etats-Unis en 1951, par CBS, de la télévision en couleur, mais aussi incompatible avec le parc existant de récepteurs en noir et blanc, se solde par un échec.

L'accélération des découvertes ne signifie donc pas que les nouveaux produits techniques, qui en sont issus, aussi évolués et maîtrisés soient-ils, rencontrent nécessairement le succès. Il y faut, le plus souvent, des conditions économiques, sociales et culturelles propices, mais aussi la rencontre, grâce à des entrepreneurs motivés et audacieux, entre une offre technique et commerciale ainsi que l'élaboration préalable de contenus si nécessaire (notamment dans le cas de médias de diffusion) pour répondre à l'attente du public.

On notera d'autre part que, même si le rythme des inventions s'intensifie, l'apparition d'un nouveau média n'en nécessite pas moins, comme à l'époque de l'imprimerie, la maîtrise non pas d'une seule mais de plusieurs techniques, lesquelles doivent, dès lors se trouver disponibles simultanément ; tout cela exigeant en retour, bien entendu, certains délais.

B) DIVERSIFICATION, PERFORMANCES, CONVERGENCES

Diversité, performances, convergences : tels sont les concepts susceptibles de caractériser l'évolution en longue période des techniques d'information et de communication.

1. Diversification

La diversification la plus évidente qui se produit se manifeste sous la forme de la création de nouveaux médias avec, dans la foulée de l'invention de l'imprimerie, la naissance de la presse écrite, puis la floraison de nouveaux moyens issus des techniques électriques, électroniques et informatiques.

Après les placards luthériens de l'époque des guerres de religion commence à s'organiser, au XVIIe siècle, une presse artisanale. L'apparition de ce nouveau moyen d'information et d'expression est d'abord liée à l'amélioration des transports et des services postaux qui facilitent sa diffusion. Elle est aussi le résultat d'un phénomène jusqu'alors inédit : la naissance d'une « opinion publique ». Tandis qu'en France la gazette, créée en 1634 par Théophraste Renaudot, demeure un organe pseudo-officiel, et que les premiers journalistes se heurtent au XVIIIe siècle au mépris des Encyclopédistes et des philosophes, la presse se nourrit en Angleterre du débat démocratique.

L'existence d'un public nombreux (le taux d'analphabétisation y est, on l'a vu, beaucoup plus faible qu'en France), la vigueur des luttes politiques, la floraison de talents exceptionnels qui n'hésitent pas à braver les interdits de la censure pour rendre compte des débats de la chambre des communes, tout cela explique sans doute le fait que ce soit en Grande-Bretagne que naisse, en 1702, le premier quotidien du monde occidental : Le Daily Currant.

Le passage d'une presse artisanale à une presse de masse résulte de l'essor de la lecture, du progrès des libertés publiques et d'un certain nombre d'avancées techniques qui permettent à la fois de recueillir plus rapidement les nouvelles (par le biais du télégraphe et du téléphone) et d'augmenter les tirages en diminuant le coût de chaque exemplaire (par l'invention, comme on le verra, de la presse rotative, de l'héliogravure ou « offset », puis de la Linotype, en attendant la photocomposition et le traitement de texte par ordinateur).

Après être devenue un nouveau média de masse, qui participe d'une multiplication des moyens d'information, la presse franchit alors une nouvelle étape de son développement et tend à se diversifier avec l'apparition de magazines illustrés, puis de titres spécialisés autour de thèmes particuliers. Dans ce mouvement d'ensemble, elle bénéficie, bien entendu, de l'agrément de présentation que lui confèrent les moyens modernes d'illustration et, notamment, l'insertion de photographies.

A cette diversification de l'écrit s'ajoutent les effets autonomes de l'apparition des moyens de télétransmissions et de télécommu-nications, d'abord électriques puis électroniques, avec, on l'a vu, la télégraphie, suivie du téléphone, de la radio, de la télévision, et des réseaux de données.

Néanmoins, de nombreuses dualités techniques apparaissent (liaisons avec ou sans fil, utilisant les courants électriques ou les ondes hertziennes ; moyens électroniques ou optiques de transmission et de stockage (avec l'invention de la fibre, des lasers et des disques optiques) ; enfin, méthodes analogiques ou numériques de traitement des signaux représentatifs des messages échangés ou diffusés).

Les types de relations entre émetteurs et destinataires d'informations, deviennent également plus variés. Ainsi, à la traditionnelle distinction entre liaisons point à point (autrement dit communications bilatérales) ou point-multipoint (autrement dit radio ou télédiffusion) viennent s'ajouter de nouveaux modes d'échange :

- Les liens entre clients et serveurs, d'abord, (avec variantes « pull » ou « push ») ;

- Les téléconférences, ensuite, (communications multilatérales interactives) ;

- Les messageries électroniques, enfin.

Tandis que les terminaux se multiplient (télégraphe, téléphone, radio, télévision, ordinateurs...), le numérique permet d'envisager leur hybridation (Web TV, téléphones mobiles ou consoles de jeux avec certaines fonctionnalités d'Internet...), sinon leur fusion (PC-TV) souhaitée par certaines entreprises informatiques.

Enfin, les techniques utilisées par les réseaux, et par conséquent, les possibilités de ces derniers, foisonnent également : à côté des réseaux téléphoniques classiques à commutation de circuits se créent, à partir des années 60-70, des réseaux d'échanges de données informatiques, à commutation de paquets.

De son côté, la télévision n'est plus, quant à elle, diffusée seulement par voie hertzienne, mais aussi à partir de la création, dans les années 50, de réseaux en câble co-axial aux Etats-Unis. Par ailleurs, les relais hertziens ne sont plus uniquement terrestres dès lors que, dans les années 60, les satellites commencent à être utilisés pour toutes sortes de liaisons (téléphone, radio, télévision, trafic de données...). De nos jours, des systèmes de communications téléphoniques ou d'échange de données entièrement satellitaires sont même actuellement mis en place (Iridium) ou projetés (Skybridge, Télédesic, etc.).

Les moyens de monter en débit se multiplient : à côté de la fibre optique, aux très grosses capacités mais encore chère à déployer jusqu'à l'abonné, il est possible de recourir aux ondes millimétriques (techniques MMDS) ou, grâce aux techniques DSL, d'emprunter les terminaisons (en paires de fils de cuivre) des réseaux téléphoniques traditionnels.

Ainsi, sans attendre les futurs réseaux universels ATM, multimédia et interactifs, les possibilités d'utilisation des réseaux actuels se multiplient avec, notamment les projets concernant :

- la téléphonie sur le câble ;

- la télévision sur les réseaux téléphoniques (ADSL) ;

- la télévision ou le multimédia en onde millimétrique (MMDS ou LMDS).

D'autres techniques, également très variées, tendent à optimiser, autant que possible, les moyens de transmissions utilisés (multiplexage, modulations, transport hiérarchique synchrone, compression de données à la source...).

Ces différents moyens, fort nombreux, ne s'excluent pas mutuellement. Les données échangées sur Internet peuvent ainsi, par exemple, emprunter successivement différents supports filaires (fibre optique, coaxial, fil de cuivre) ou passer par un ou plusieurs satellites avant d'arriver à leur destination.

A cette prolifération des offres de techniques correspond, comme dans la presse écrite, une diversification des contenus avec, d'un côté, une « segmentation » de la clientèle (à laquelle correspond la création de chaînes de télévision thématiques) et de l'autre côté, l'exploitation des possibilités offertes par le multimédia et l'interactivité des réseaux (notamment dans le domaine des jeux éducatifs ou distrayants, ou avec le développement sur Internet de nouveaux services et de formes inédites de programmes ou de publicité audiovisuels...).

On soulignera par ailleurs le fait que la diversification qui vient d'être présentée s'accompagne, dans tous les domaines, de la recherche de performances améliorées.

2. Performances

Les gains de performances recherchés sont d'ordre à la fois quantitatif et qualitatif. Autrement dit, il s'agit de mettre à la disposition du plus grand nombre de personnes possible davantage d'informations et de capacités de communication, dans de meilleures conditions, en allant plus vite et plus loin.

La tendance est double : on assiste à la fois à une augmentation spectaculaire de la diffusion des médias et à un allégement des moyens de réception correspondants (réduction des formats des imprimés, miniaturisation et portabilité des appareils électroniques, des téléphones et des ordinateurs), en attendant la personnalisation de la satisfaction des besoins facilitée par l'interactivité.

De sorte qu'il s'avère légitime de se demander s'il y a une amélioration corrélée des contenus, autres que les messages échangés entre particuliers (articles de presse, programmes radiodiffusés ou télévisés).

Si la réponse à cette question est loin d'être évidente, il faut accréditer l'idée que la diversification que l'on vient d'évoquer touchant ce qu'il est possible de transmettre (musiques, images...) ainsi que l'amélioration de la qualité de certaines émissions (avec, par exemple, la modulation de fréquence, pour le son, et les images télévisées numériques), constituent en soi un indéniable progrès.

Ainsi, c'est l'accroissement des performances des techniques concernées qui va permettre, en tout cas, l'avènement d'une presse de masse au XIXe siècle, avec la création en Amérique des premiers grands quotidiens à faible prix (Le New York Sun et le New York Herald, fondés en 1833 et 1835 et vendus, à l'exemplaire, au prix de un cent).

Comme toujours, il est difficile de savoir si le progrès technique est ici la cause ou la conséquence de l'expression du besoin social nouveau qui se manifeste. Quoi qu'il en soit, le développement de la presse de masse coïncide avec la révolution industrielle du XIXe siècle.

Ses conséquences sont nombreuses :

n Le changement atteint d'abord la fabrication du papier qui se mécanise et remplace la chiffe par une pâte à base de fibre de bois.

n Dans le même temps, les presses s'automatisent et font de plus en plus appel au cylindre, pour l'impression comme pour l'encrage, jusqu'à la mise au point aux Etats-Unis, vers 1846, de la rotative, vingt-cinq fois plus rapide que tous les procédés existants.

n Les rendements de la composition, dont les techniques n'avaient pratiquement pas évolué depuis Gutenberg , augmentent considérablement grâce à l'invention, en 1886, de la linotype (6(*)).

n Issu de la lithographie, l'offset, inventé en 1904 et généralisé après 1930, représente ensuite un progrès tout aussi important. Un cylindre de caoutchouc sert d'intermédiaire entre le papier et le zinc (enroulé autour d'un autre cylindre porteur auparavant du papier). Il en résulte une meilleure adhérence et un rendement supérieur pour un moindre prix (le papier utilisé pouvant être de moindre qualité).

En outre ce procédé permet d'introduire la photographie dans l'imprimerie, même si, auparavant, les illustrations pouvaient cependant déjà être reproduites grâce, notamment, à la mise au point des techniques de la photogravure (7(*)), en 1876, puis de l'héliogravure (8(*)) en 1895.

L'ultime innovation apparaît à notre époque avec l'emploi de l'informatique (qui permet le traitement de texte par ordinateur) et de la photocomposition numérisée.

Bref, on le voit, l'apparition de nouveaux mass média électroniques n'a donc pas empêché les techniques d'impression de se moderniser en même temps que les techniques de transmission.

Récapitulatif des principaux perfectionnements

des techniques d'impression

1796 : Lithographie (1)

1822 : Photogravure (1)

1845 : Presse rotative

1872 : Héliogravure (2)

1884 : Linotype

1904 : Offset (impression sur feuille de zinc) (2)

1954 : Début de la photocomposition (lumitype) (2)

1960 : Premiers traitements de textes par ordinateur

1970 : Début de l'informatisation des imprimeries et des rédactions. Généralisation de l'offset et de la photocomposition

(1) Concerne surtout l'illustration.

(2) Textes et images

De leur côté, les performances des médias électroniques, sous l'effet conjugué des progrès que connaissent les techniques les plus récentes d'information et de communication, dont ils sont issus, vont s'accroître, très rapidement.

Les équipements correspondants incorporent des composants dont certains connaissent un essor continu et impressionnant. Ainsi en va-t-il des semi-conducteurs : on citera ainsi la fameuse loi de Moore selon laquelle le nombre de transistors intégrés dans une puce double environ tous les 18 mois, qui ne s'est pas trouvée démentie depuis 25 ans.

Ainsi, depuis son invention en 1971, le microprocesseur qui est à l'informatique, un peu ce que l'imprimerie a été à l'écrit, connaît une croissance exponentielle. Le nombre de transistors qu'il contient a été mis au carré en un quart de siècle et pourrait être compris entre 50 et 100 millions en l'an 2000. Quant au nombre d'instructions par seconde qu'il est capable d'effectuer, il aura été multiplié par 10.000 entre 1971 et l'an 2000. En 1971, le premier microprocesseur Intel , le 4004 était cadencé à une fréquence de 108 Khz, le processeur IBM comme le processeur Intel auront une fréquence atteignant 1,1 Ghz en l'an 2000.

Bien que la capacité des mémoires progresse, elle aussi, de façon exponentielle (on est passé de 1 kilobit, en 1970, à 256 mégabits aujourd'hui), celles-ci restent plus lentes que les microprocesseurs ; d'où le succès de nouvelles DRAM (9(*)) synchrones (dont le temps de cycle est calé sur l'horloge du microprocesseur) qui évitent d'abuser des mémoires « cache » très onéreuses.

L'intégration croissante des semi-conducteurs s'accompagne également d'une miniaturisation elle aussi forte et rapide : ainsi, la finesse de gravure s'améliore d'environ 12 % par an (on est passé de 5 microns en 1980, à 0,5 en 1996 ; la limite, en lithographie optique de 0,1 micron devant être atteinte en 2002).

L'augmentation des performances des semi-conducteurs constitue ainsi un bel exemple de progression linéaire. Ce phénomène est d'autant plus remarquable qu'il s'accompagne d'une baisse de prix (pour un résultat donné) et, le plus souvent, d'une moindre consommation d'énergie, l'électronique pouvant en effet être définie comme la science de la maîtrise des faibles courants.

Dans le domaine des transmissions et du stockage des informations, des améliorations notables sont également enregistrées.

S'agissant des transmissions, des progrès réalisés découlent soit de l'offre de nouvelles capacités, soit d'une meilleure utilisation de celles qui existent, soit, enfin, d'une compression efficace des données à la source.

Il est ainsi possible de mieux répondre par des moyens, on l'a vu, de plus en plus diversifiés, à des demandes, variées elles aussi, même si elles tendent généralement vers l'exigence de débits plus élevés.

Offre de capacités nouvelles, tout d'abord : celles de la fibre optique paraissent actuellement quasi-illimitées (plusieurs dizaines de terabits par seconde sur une seule fibre) et permettent d'envisager, dans un futur proche, des « réseaux gigabit ».

Dans le domaine hertzien, on a cru longtemps que seules les ondes longues permettaient les communications à grandes distances ; puis les longueurs d'ondes diminuèrent au fur et à mesure que se développaient des techniques spécifiques correspondantes.

L'occupation d'espaces jusque-là inexploités a ainsi toujours été un moyen naturel de rechercher de nouvelles possibilités de diffusion et de communications. En général, ce phénomène s'accompagne d'une montée en fréquences ce qui induit un raccourcissement des longueurs d'ondes :

n On l'a vu récemment avec l'exploitation des ondes millimétriques (faisceaux hertziens actuels, systèmes MMDS en cours d'expérimentation) qui permet, en outre, des débits relativement élevés (10(*)).

n Cela avait été le cas également en télévision au moment du passage de la bande VHF (Fréquences très hautes) à la bande UHF (Fréquences ultra hautes).

n C'est également ce qui se produit dans le domaine des satellites (où une relative saturation de la bande C peut conduire à recourir aux bandes Ku et Ka).

A côté de la création de nouvelles capacités (par le déploiement de fibres optiques ou par la montée en fréquences), des solutions existent, qui consistent à mieux utiliser les ressources existantes : au premier rang desquelles celle qui permet d'obtenir les résultats les plus impressionnants ayant trait à la compression de données.

En effet, le nombre de chaînes de télévision transmis par un répéteur de satellites ou un canal de réseau câblé peut s'en trouver multiplié par un facteur de 10 à 12 .

Des possibilités moindres (du fait de l'encombrement des ondes), mais toutefois réelles, existent également dans le domaine hertzien terrestre. La compression numérique peut y permettre de multiplier les émissions que les progrès de la directivité et de la sensibilité des matériels d'émission et de réception rendent possibles, dans les interstices de la planification actuelle des fréquences. Plusieurs chaînes numériques hertziennes terrestres sont ainsi déjà opérationnelles en Grande-Bretagne.

La compression, qui facilite également l'enregistrement des données au stade de la production vidéo, correspond à ce qu'on appelle le codage « de source » (qui tend, dès l'origine, à éliminer les redondances et à anticiper les mouvements des images animées à transmettre, afin de réduire la quantité de données nécessaires).

Des gains de performances ont également été obtenus au stade suivant qui concerne le codage dit de canal. Des techniques de modulation (11(*)) plus efficaces permettent, en effet, de maximiser le ratio bits/hertz, et d'obtenir par conséquent des débits plus élevés pour une meilleure occupation de la bande passante.

De son côté, l'occupation des voies des réseaux filaires peut, être optimisée par des techniques performantes de multiplexage et de transport (organisation des trames numériques) ainsi que par voie logicielle (notion de circuit virtuel...).

A l'avenir, les techniques ATM, en conjuguant les meilleurs effets des commutations de paquets et de circuits, et en raccourcissant la taille des cellules numériques de base, permettront de transporter, dans le même réseau, tout type de données correspondant à toute sorte de débits, des plus faibles (téléphone), aux plus élevés (vidéo, calculs informatisés...).

S'agissant, enfin, du stockage ou de l'enregistrement des informations, des progrès spectaculaires ont également été effectués.

Qu'on en juge :

Depuis son invention en 1956, le disque dur des ordinateurs a sans cesse vu ses capacités de stockage augmenter, tandis que baissaient ses dimensions et son prix.

n En quarante ans, la quantité d'informations qu'il peut enregistrer a ainsi été multipliée par 600, passant de 5 millions à 10 milliards d'octets.

n Sa densité, imprimée en bits par pouce carré, s'est accrue encore bien davantage, à tel point qu'il sera bientôt intégré, par exemple, dans un radiotéléphone.

n Dans le même temps, son prix chutait de 50.000 francs à 2 francs l'unité d'information.

n L'équivalent de 1,6 million de pages tiennent ainsi aujourd'hui dans le volume d'une cassette audio alors qu'il fallait, à l'origine, 50 plateaux de 60 cm de diamètre pour stocker seulement 2.500 pages.

n En outre, la vitesse de rotation des disques et surtout le débit d'information transmis (passant de 1 à 18 millions d'octets par seconde entre 1989 et 1997), ont également considérablement progressé.

- Quant au futur DVD, sa capacité maximale (4 couches sur 2 faces) devrait correspondre à 18 Giga octets, (soit neuf heures de vidéo de qualité MPEG2 alors que les 650 millions d'octets des CD actuels permettent de n'en visionner que 72 minutes)

Sur le plan qualitatif, les améliorations portent sur le son et sur l'image ; de nouvelles possibilités sont par ailleurs offertes à l'usager :

n Le perfectionnement de la qualité du son, grâce à la modulation de fréquence (12(*)), en radiodiffusion, puis à la stéréophonie et à la numérisation des enregistrements (CD) et des transmissions (DAB, son stéréo NICAM en télévision) ;

n Le progrès de la qualité de l'image, avec l'introduction de la couleur, les recherches relatives à la haute définition (qui n'a peut-être pas dit son dernier mot) et les effets de la numérisation des transmissions (moindre dégradation, nouveau format 16 :9).

n Enfin, de nouvelles possibilités sont offertes aux utilisateurs qui bénéficient d'un plus grand choix de programmes ainsi que d'avantages liés à l'interactivité (passage d'une télévision au menu à une télévision à la carte, accès à de nouveaux services de communication ou à caractère transactionnel, jeux, etc...).

Dans cet ensemble de performances, les progrès réalisés dans le domaine de la compression ont joué un rôle déterminant. Ils ont permis de maîtriser le flot impressionnant de données afférent au traitement d'images animées, ouvrant ainsi la voie à l'informatique multimédia et à la généralisation du numérique, désormais étendu à la transmission, dans le domaine de la communication audiovisuelle.

Or, le numérique importe à la fois à l'amélioration quantitative (nombre de programmes et de services) et qualitative (images et son, interactivité) des moyens d'information et de communication.

Cependant, force est de reconnaître que les performances techniques venant d'être décrites se sont accompagnées de certaines défaillances : qu'il s'agisse de la lente mise au point des écrans plats, en passe d'aboutir maintenant très prochainement avec les techniques à plasma ; des échecs essuyés par des expériences de télévision interactive en raison de coûts trop élevés ou d'une complexité logicielle excessive, etc.

Malgré tout, ces performances techniques n'en demeurent pas moins impressionnantes et permettent l'amorce de mouvements de convergence importants.

3. Convergences

Sans attendre le déclenchement du mouvement actuel de convergence, qui sera examiné plus loin, entre les télécommunications, l'audiovisuel et l'informatique, des rapprochements entre ces techniques relatives aux différents médias se sont déjà produits par le passé, qui aboutissent à la création de synergies.

C'est ainsi, tout d'abord, que les techniques d'impression ont tenté, dès l'origine, de marier l'image et l'écrit (la xylographie ayant d'ailleurs précédé les caractères mobiles). Et les plus grands services rendus à la science par l'imprimerie l'ont été, notent Febvre et Martin « par le biais de l'illustration, dans le domaine des sciences descriptives » (sciences naturelles, anatomie).

Des techniques comme la lithographie, puis la photogravure, l'héliogravure et l'offset ont ensuite facilité, on l'a vu en particulier dans la presse écrite, les combinaisons de textes et d'images.

Le cinéma va également constituer une synthèse de la photographie (dont il fait défiler des séries à un rythme de 16 puis 24 images par seconde) et des techniques d'enregistrement sonore.

La télévision, de même, bénéficiera plus tard des acquis du cinéma et de la radiodiffusion tout en étant capable de transmettre également du texte (procédés de télétexte comme Antiope...).

La presse écrite, on l'a vu, a pour sa part tiré profit du télégramme et du téléphone (elle utilisera ensuite le Bélinographe, inventé en 1907, qui permet la transmission de photos).

S'agissant du télégraphe, très vite lui ont été adjoints des procédés permettant d'imprimer directement les messages expédiés.

Qu'en déduire, sinon que les anciens et les nouveaux médias, loin de s'exclure ou de s'annuler mutuellement, tendent souvent à conjuguer leurs effets les plus favorables, créant par là même des synergies qui leur sont profitables à tous ?

Ainsi, la télévision, dont on a pu craindre qu'elle tue le cinéma, en représente aujourd'hui l'une des principales sources de financement (13(*)). La vidéo enregistrée, malgré les risques d'évasion qu'elle comporte du point de vue de la perception des droits d'auteur, procure, elle aussi, au septième art des recettes non négligeables et en constitue un moyen important de diffusion.

La convergence actuelle entre les télécommunications, l'audiovisuel et l'informatique consacre la suprématie de cette dernière (qui domine déjà par ailleurs, on l'a vu, le secteur de l'imprimerie) et de son langage, le numérique.

n Concernant les télécommunications, ce sont des ordinateurs qui contrôlent les noeuds des différents réseaux, dans la gestion desquels les logiciels jouent un rôle de plus en plus important. Grâce aux modems, une proportion croissante des terminaux branchés sur le réseau téléphonique commuté sont des ordinateurs personnels, clients des serveurs d'Internet. Sans attendre l'ATM, un rapprochement entre différents types de services et de données transportées se manifeste d'ores et déjà avec, depuis la fin des années 80, la mise en place de RNIS (réseaux numériques à intégration de services), qui permettent des applications telles que la visioconférence. Numéris, en France, a été, en 1987, un des premiers réseaux de ce type créés dans le monde.

n S'agissant de l'audiovisuel, plusieurs sortes de rapprochements coexistent :

· Avec les télécommunications, tout d'abord, puisqu'il est possible, on l'a vu, d'utiliser les mêmes infrastructures (câble ou réseaux téléphoniques) ou de recourir aux techniques hertziennes, qu'elles soient terrestres ou satellitaires, pour transmettre les différents types de communications existantes (téléphone, vidéo, données informatiques...).

C'est ainsi que, sans attendre les futurs réseaux multimédia, on peut envisager de diffuser des images télévisées sur le réseau téléphonique ou de faire de la téléphonie sur les réseaux câblés audiovisuels.

· L'informatique, d'autre part, joue un rôle croissant dans les techniques de télévision. Elle est apparue, dès les années 70, dans le montage vidéo. Depuis 1993, des micro-ordinateurs peuvent faire office de consoles de montage et permettent même, outre le pilotage des magnétoscopes, de générer des effets spéciaux.

L'informatique a introduit ce qu'on appelle le montage « virtuel » qui allie les avantages des techniques cinématographiques (non linéarité) à ceux des techniques vidéo (possibilités de modification à partir d'éléments puisés directement dans des stocks de données enregistrées).

L'industrie de la post-production est ainsi passée de l'utilisation d'équipements spécifiques vidéo dédiés à celle d'ordinateurs plus ou moins polyvalents ou puissants (de la station de travail au simple PC).

Dans le même temps, la manipulation de bandes vidéo cède la place à la manipulation de fichiers. Le concept de studio construit en réseau d'équipements informatiques (plusieurs stations de travail reliées à un serveur central) devient particulièrement attractif car il permet un accès partagé, instantané et souple aux différentes données enregistrées quel qu'en soit le format.

De son côté, le disque dur constitue, par ses qualités de rapidité d'accès et de débits de transfert, un excellent support de montage virtuel, même si le recours à d'autres moyens de stockage intermédiaire, (moins onéreux mais plus lents tels que les disques optiques), peut s'avérer nécessaire.

S'agissant de traitement de l'actualité, des camescopes à disques (disques durs amovibles ou disques optiques), dont l'utilisation ne peut que faciliter le montage des reportages prennent une place de plus en plus importante sur le marché.

Les avantages des solutions informatiques conduisent à ne plus les cantonner exclusivement dans le domaine de la production, mais à les employer également au stade de la diffusion. Des serveurs remplacent ainsi les robots qui effectuaient auparavant les enchaînements entre programmes préenregistrés. Et le montage (grâce aux techniques « virtuelles » précédemment évoquées) peut être composé au moment même de la diffusion.

Les technologies informatiques vont ainsi logiquement favoriser l'émergence de petites stations de télévision très automatisées (à l'instar des radios locales), à la gestion souple et économique. Les micro-ordinateurs, utilisés pour les montages et permettant des productions en 3 dimensions, commencent, en effet, à devenir des éléments essentiels de la programmation et de la diffusion.

S'agissant de la télévision interactive, les serveurs y jouent un rôle prépondérant comme les équipements spécifiques mis à la disposition des usagers (décodeurs et télécommandes), qui se mettent à ressembler de plus en plus à des ordinateurs, et au coeur desquels on trouve le même composant fondamental : le microprocesseur.

L'informatique est devenue ainsi le moteur de l'évolution de l'audiovisuel, preuve s'il en est du rapprochement des deux univers.

Elle tend à fédérer (on l'a vu pour le montage) les techniques du cinéma et de la télévision.

Elle a, ensuite, l'immense avantage de permettre de s'affranchir de la diversité des formats et des résolutions d'images, utilisés pour l'enregistrement, la transmission et la diffusion.

Ainsi, on se rangera à l'avis d'Olivier Landau et de Gilles de Peslouan concernant la révolution du numérique dans la production audiovisuelle et cinématographique : « l'informatique bouscule les clivages et propose des passerelles entre différents supports. L'image numérique permet d'échanger de manière totalement transparente pour l'utilisateur des images entre le cinéma, la vidéo et l'informatique... Il s'agit désormais d'une informatique de plein exercice capable d'imposer le pixel comme une sorte de tronc commun à tous les formats d'images (cinéma, vidéo, dessins animés, écran d'ordinateur...) ».

Par sa souplesse, l'informatique représente ainsi un moyen particulièrement adapté à la production, au stockage et à la diffusion d'images désormais numérisées et comprimables à souhait.

Cependant, la transmission et la diffusion, en temps réel, de la vidéo, même compressée, continuent à nécessiter des débits relativement élevés. Cela est particulièrement vrai pour ce qui concerne les liaisons dites « de contribution » (entre studios ou entre studios et émetteurs) mais aussi pour ce qui concerne la distribution, par le réseau téléphonique, d'images animées d'un bon niveau de qualité, que des supports ou des techniques comme l'optique et l'ADSL - on l'a vu - pourraient permettre.

S'agissant de la réception, plusieurs stratégies se dessinent. L'une, offensive, qui tend à fusionner l'ordinateur personnel et le téléviseur (PC-TV). L'autre, défensive, qui s'efforce de permettre au téléviseur d'offrir tout ou partie des avantages d'Internet (Web TV).

Des programmes de télévision, même diffusés par voie hertzienne, et des cassettes vidéo enregistrées, peuvent ainsi, moyennant certains équipements, être regardés sur un écran d'ordinateur. Et dans le cas, probable, d'un multi-équipement des foyers, le PC pourrait faire office de régie, orientant vers les différents écrans familiaux les programmes de différentes sources.

Il est possible, d'autre part, de fabriquer des téléviseurs connectables à Internet (Web TV) ou d'entremêler sur un écran de télévision des pages Web avec les images en cours de diffusion des différentes chaînes (procédé Intercast).

Tandis que la télévision permet dorénavant d'accéder à des services interactifs autres que la vidéo à la demande, des programmes à base d'images animées et à caractère distrayant sont diffusés sur Internet et de nouvelles formes de publicité s'y développent, ainsi que des modes de diffusion de l'information (push), plus proches de ceux des anciens médias, même s'ils répondent, théoriquement à une demande préalable des intéressés. Vidéo à la demande et récolte volontaire d'informations (pull) d'un côté, diffusion plus ou moins ciblée de programmes et de messages publicitaires de l'autre : la convergence entre Internet (qui préfigure les télécommunications multimédia de demain) et la télévision ne concerne donc pas seulement les types de récepteurs, elle affecte aussi les contenus.

Cependant, il semble probable que ces derniers demeureront variés, même si une certaine unification de leurs modalités de transport et de réception se produit. On ne conçoit pas de la même façon un programme destiné à être regardé de loin ou de près, individuellement ou à plusieurs, en vue de travailler et de s'éduquer ou de se reposer en se distrayant...

Il paraît donc également vraisemblable que subsisteront plusieurs types d'équipements correspondant à ces différents modes de visualisation, et résultant d'une certaine hybridation des usages du téléviseur traditionnel, d'une part, et de l'ordinateur communiquant d'autre part.

Chacun aurait ainsi une fonction principale (travailler, jouer, regarder, communiquer) et des fonctions secondaires empruntées aux autres.

Certains seront fixes, d'autres portables.

Concernant le stockage et l'enregistrement, l'avènement des nouveaux vidéodisques numériques optiques (DVD) devait également constituer un facteur de convergence. En effet, les principaux groupes mondiaux d'électronique de loisirs (autrement dit, les grands électroniciens japonais, plus Philips et Thomson ), s'étaient mis d'accord, à la fin de 1995, sur une norme mondiale tendant à faire la synthèse des deux projets en présence : celui de Sony et Philips d'un côté, de Toshiba , Matsushita et Time Warner , de l'autre.

L'avènement du DVD enregistrable donnait à l'industrie de l'électronique grand public l'espoir de renouveler le parc des magnétoscopes, et à l'industrie de l'informatique, celui d'augmenter sa pénétration dans les foyers, en améliorant très nettement la qualité de la vidéo susceptible d'être visualisée sur les écrans des ordinateurs personnels. Sans prétendre remplacer les disques durs magnétiques, le nouveau disque pouvait espérer succéder à la disquette informatique, accueillir de nombreuses applications actuelles et futures des ordinateurs personnels (traitement de texte, archivage, etc...) et unifier les supports amovibles de stockage de données dont la variété est aujourd'hui déroutante.

Malheureusement, Sony et Philips ont déterré, il y a quelques mois, la hache de guerre en proposant une nouvelle norme différente de celle qui résultait du compromis obtenu.

Le bon sens devrait toutefois l'emporter rapidement. Nous l'espérons.

D'une façon générale, la normalisation apparaît comme une des conditions à la fois la plus importante, mais aussi la plus difficile à réaliser, de la convergence des techniques d'information et de communication. L'adoption de la norme de compression vidéo MPEG représente, à cet égard, un succès particulièrement appréciable.

Le métissage, si l'on peut dire, des techniques de l'audiovisuel, des télécommunications et de l'informatique, sous l'emprise de cette dernière, apparaît ainsi comme l'aboutissement ultime de ces tentatives de rapprochements, cependant beaucoup plus limités et partiels, entre différents médias. Il en résulte de formidables bouleversements, non seulement techniques, mais culturels, sociaux, économiques et juridiques, et d'immenses possibilités de communication et de création (d'images de synthèse, notamment).

Cependant, des techniques de transmission à très haut débit devront parallèlement être développées pour permettre l'échange des données et l'interconnexion des réseaux.

De sorte que la fibroptisation des réseaux et le développement des technologies ATM apparaissent donc comme les conditions indispensables à la poursuite et à l'accentuation des convergences qui viennent d'être présentées. Lesquelles devant par ailleurs contrebalancer l'influence d'effets éventuellement déstabilisateurs du processus de diversification des techniques précédemment évoqué.

*

* *

Considérée d'un point de vue essentiellement technique, l'histoire des médias semble ainsi marquée par une progression accélérée du rythme des découvertes, orientée vers la recherche constante d'une diversification des moyens d'information et de communication, rendus plus performants, et tendant à converger dans leur utilisation.

Cette impression semble confirmée par le fantastique essor d'Internet, dont le nombre d'utilisateurs et de serveurs double environ chaque année, le trafic s'accroissant encore plus vite et tendant à comporter, en plus du texte, davantage d'images et de sons.

Mais tout ne progresse pas au rythme de la loi de Moore ou du développement du réseau des réseaux.

Même sur le plan technique, l'évolution n'est pas toujours, aussi régulière, rapide et harmonieuse qu'il y paraît.

C) DES FACTEURS DE BLOCAGE

Les blocages susceptibles de freiner la progression des techniques d'information et de communication et leur utilisation tiennent :

n à des difficultés ponctuelles de mise au point de certains procédés ou produits ;

n aux défis techniques que représentent :

· l'exploitation logicielle des capacités exponenti ellement croissantes des composants électroniques ;

· l'hétérogénéité des techniques, des matériels et des réseaux ;

· le traitement, le stockage et l'accessibilité de la masse considérable d'informations produites.

n à des problèmes de normalisation, d'inadaptation éventuelle du cadre législatif et réglementaire concerné, et d'aléas commerciaux.

1. Des difficultés ponctuelles de mise au point :

En ce qui concerne ces difficultés ponctuelles de mise au point, tout d'abord, force est de reconnaître que la numérisation complète de la chaîne de l'image a longtemps buté sur l'obstacle de la surabondance de données correspondantes à stocker et à transmettre. Il a fallu attendre les années 90 pour que la mise au point de puissants algorithmes de compression permettent de résoudre ce problème.

Mieux : ce qui semblait ainsi constituer au départ un des principaux inconvénients du numérique (qui s'était déjà cependant imposé au stade de la post-production et du traitement des images dans la réception) en est devenu, sur le plan économique, le principal atout, avec la multiplication des programmes susceptibles d'être diffusés dans un même canal de transmission. La mise au point des techniques de compression avait été facilitée par l'informatique, celle-ci en a ensuite bénéficié, puisque ce sont ces algorithmes qui ont permis, avec l'augmentation de la puissance des microprocesseurs, de rendre les ordinateurs personnels multimédia.

Autre obstacle qui vient d'être surmonté : celui des écrans plats. La mise au point de ces composants stratégiques, communs à un grand nombre d'équipements (TV, PC, radios, visiophones...), a été beaucoup plus lente et difficile que celle, par exemple, des semi-conducteurs. La technique des cristaux liquides domine le marché des ordinateurs portables ; celle du plasma, qui a beaucoup progressé, devrait s'imposer pour les téléviseurs grand écran auxquels elle est mieux adaptée.

Dernier exemple : la fibre optique, inventée en 1966, n'a commencé à être utilisée à large échelle qu'à la fin des années 80, après qu'eurent été suffisamment baissés ses coûts de production et résolus différents problèmes liés à la dispersion et à la régénération du signal et de la conversion optoélectronique.

Cela illustre bien les délais souvent nécessaires pour passer du stade de la découverte en laboratoire à celui de l'exploitation opérationnelle ou pour l'arrivée à maturité de procédés résultant de la mise au point, non pas d'une seule, mais de plusieurs techniques.

2. Des défis techniques à relever :

Outre la résolution de problèmes ponctuels, la progression des techniques d'information et de communication nécessite en effet de relever un certain nombre de défis d'ordre plus général :

n La capacité de certains semi-conducteurs (micro-processeurs, mémoires) croit, on l'a vu, de façon exponentielle. Est-il certain que l'esprit humain parvienne à exploiter au même rythme le surcroît de possibilités qui en résulte ?

Certes, le multimédia requiert de lui-même des puces de plus en plus puissantes (des « média processeurs »), mais encore faut-il être en mesure de les concevoir.

L'intelligence peut être mobilisée de façon optimale, dès la conception des circuits imprimés, ou intervenir dans une certaine mesure, par la suite seulement, de façon logicielle, dans la programmation des puces et de l'utilisation des équipements correspondants.

La mise sur le marché de consoles ludiques de plus en plus puissantes s'est accompagnée parfois d'une relative pénurie de logiciels correspondants, entraînant un choix initial restreint de jeux offert au consommateur.

n Un autre défi lancé aux capacités intellectuelles humaines résulte de l'hétérogénéité des techniques, des matériels et des réseaux. La diversification des moyens d'information et de communication n'exclut pas, on l'a vu, certaines convergences. Mais les deux tendances n'en demeurent pas moins souvent difficiles à concilier.

On s'en doute : la coexistence de l'analogique et du numérique, de l'électronique et de l'optique, pose certains problèmes.

La partie terminale des réseaux téléphoniques commutés n'est souvent pas encore numérisée, ce qui rend nécessaire des conversions, notamment par des modems, pour les communications entre ordinateurs. Il en ira toujours ainsi du son, que les exigences de l'oreille et les lois de l'acoustique obligent à restituer de façon analogique.

En revanche, l'image peut être saisie sous la forme d'un ensemble de pixels, prêts à numériser, dont le cerveau au travers de l'oeil est capable, au moment de l'affichage, d'effectuer la synthèse.

De même, des conversions optique-électronique demeurent indispensables en l'état actuel des réseaux, en attendant, d'une part, leur « fibroptisation » totale éventuelle jusqu'à l'abonné et, d'autre part, la généralisation d'amplificateurs optiques. Elles continueront à s'imposer, de toute façon, pour les équipements d'extrémité, à moins que des ordinateurs optiques ne se répandent, et même, dans cette dernière hypothèse, pour les liaisons avec les mobiles.

S'agissant des réseaux, la coexistence d'utilisations privatives et communes, intégrées ou spécialisées, de différents types de commutation (par produits ou par circuits, fixes ou virtuels), de liaisons non commutées (brassées et multiplexées), de débits variables, de nouveaux services diversifiés, pose des problèmes d'une redoutable complexité. Pour les résoudre, il est fait appel aux logiciels, de façon croissante, à des techniques telles que la hiérarchie numérique synchrone (SDH) ou encore, au concept de réseau intelligent.

Les succès d'un protocole comme celui d'Internet (TCP/IP), ou celui d'un langage comme java, tiennent précisément à leur capacité à transcender l'hétérogénéité des réseaux et des matériels informatiques (la plus redoutable d'entre toutes), de sorte que toutes les machines puissent communiquer ou exécuter certaines instructions.

Pour Michel Feynerol, directeur du CNET, le degré de complexité atteint par les systèmes actuels est, cependant si élevé, que son augmentation comporte des risques : « L'homme sera-t-il capable - s'interroge-t-il dans son dernier ouvrage (14(*)) - socialement ou collectivement, de gérer les fabuleuses possibilités qu'offrent les nouvelles techniques logicielles associées aux nouvelles techniques de communication et aux architectures réparties ». Et plus loin : « La complexité même des structures - poursuit-il - et l'autonomie accrue des acteurs augmenteront les risques d'incohérence et de perturbation du fonctionnement global des réseaux, ou de comportement aberrant du trafic ».

Autant dire que « Les spécifications sont devenues si complexes et si rapidement évolutives que plus personne ne les maîtrise dans leur ensemble ».

· Le traitement, le stockage et l'accessibilité d'une quantité surabondante d'informations produites constitue un dernier défi, et non des moindres à relever.

Force est de constater que les oracles des oiseaux de mauvais augure, prédisant « l'implosion » d'Internet, ne se sont pas réalisés, bien que les difficultés rencontrées par les internautes dans certaines circonstances soient bien réelles.

Les deux principaux dangers potentiels (saturation complète des infrastructures et submersion de l'usager par le flot de données accessibles) ont été, évités dans la mesure du possible.

Le langage multimédia HTML, les navigateurs et moteurs de recherche, les agents intelligents, enfin, ont permis à l'utilisateur de ne pas se perdre dans le labyrinthe des serveurs de la toile, ni de se noyer dans l'océan d'informations qu'ils charrient.

Mais dans les métiers audiovisuels où beaucoup de données sont aussi enregistrées, stockées et manipulées, la multiplicité des standards et des formats (15(*)) utilisés par les magnétoscopes (maillon essentiel de la chaîne de production de programmes) demeure cependant source de difficultés et conduit à un suréquipement qu'on ne peut que regretter.

S'agissant du transfert d'images vidéo sur ordinateur, il existe (en attendant les DVD) plus d'une cinquantaine de cartes différentes, et les fréquences ainsi que les modes de balayage ne sont pas identiques. Cette disparité crée des problèmes de synchronisation et des incompatibilités d'affichage qui compliquent les liaisons entre équipements informatiques et vidéo.

· Les derniers obstacles susceptibles de freiner les progrès des moyens d'information et de communication ont trait aux conditions qui leur sont nécessaires pour s'implanter : il s'agit de leur environnement normatif, législatif et réglementaire, économique et commercial.

A la frontière de la technique et du droit, la normalisation, est en même temps particulièrement nécessaire et concrètement difficile.

Nécessaire à la pénétration des équipements et à la diffusion des contenus : car l'incompatibilité des produits et des services est l'une des meilleures façons de décourager l'acheteur éventuel.

Et on peut à bon droit se demander si les ordinateurs personnels ne se seraient pas davantage répandus si, en plus de certaines difficultés d'usage, ne s'était pas posé le problème du dualisme de l'univers Macintosh et de celui du PC ?

Mais la normalisation est un exercice difficile. Quand elle est diligentée par des instances officielles, elle risque, d'une part, de s'effectuer trop lentement et donc de se trouver en retard sur l'évolution des techniques, très rapide dans certains secteurs, comme l'informatique.

Mais s'en remettre entièrement aux industriels comporte, par ailleurs, deux autres types de dangers : soit celui de l'imposition de facto d'une norme qui n'est pas nécessairement la meilleure possible pour l'usager (ainsi du format VHS pour les cassettes vidéo ou de ce qui a failli se produire avec le système japonais Muse de diffusion de la TVHD) ; soit celui de l'échec, partiel ou total, des tentatives de compromis effectuées, étant donné l'importance des enjeux pour les différentes catégories d'acteurs concernés (fabricants de matériels, producteurs et distributeurs de contenus...). C'est ainsi, par exemple, que des menaces planent sur l'adoption d'un standard commun en ce qui concerne la version enregistrable du DVD.

C'est pour les mêmes raisons également que le groupe européen DVB de normalisation de la télévision numérique, après avoir atteint rapidement des résultats remarquables, bute sur le problème de l'adoption d'un système commun de contrôle d'accès (simulcrypt ou multicrypt), tandis que ses recommandations peuvent laisser à désirer sur d'autres points (harmonisation des guides électroniques de programmes et entre les normes relatives aux différents modes de diffusion : câble, satellite, hertzien terrestre).

La mise au point d'une norme unique de télévision haute définition, aux Etats-Unis, s'est heurtée également à d'ultimes difficultés (l'accent a finalement été mis, par la FCC, sur la compatibilité entre la réception des images numériques sur les téléviseurs et sur les ordinateurs, bien davantage que sur la haute définition elle-même qui, contrairement à ce qui avait été prévu à l'origine, ne semble même plus correspondre aujourd'hui à une obligation...).

Aujourd'hui le problème du Minitel est en partie lié à celui de sa norme vidéotex qui n'a pas été adoptée par d'autres pays et qui, de surcroît, n'est pas directement compatible avec le multimédia et Internet (même si des passerelles peuvent être mises en place).

En revanche, d'incontestables succès ont été obtenus, par exemple, à l'échelle européenne, avec la norme de téléphone mobile numérique GSM (qui devra cependant bientôt affronter une technique américaine rivale dite CDMA) et surtout, à l'échelle mondiale, avec les spécifications MPEG2 relatives au codage d'images animées à la source (16(*)).

Les difficultés de normalisation (auxquelles n'échappe pas l'ATM) sont loin d'être nouvelles et peuvent laisser à penser qu'il s'agit d'un domaine dans lequel l'histoire se répète, comme nous le verrons plus loin.

D'autres problèmes, posés également à la frontière de la technique et du droit, ont trait à l'élaboration d'un cadre législatif et réglementaire, aux niveaux national et international, qui, à tout le moins n'entrave pas, sinon favorise le développement des applications des nouvelles techniques d'information et de communication.

Ce sont, par exemple, les règles relatives aux techniques de cryptage, dont dépendent la « sécurisation » des transactions ainsi que le maintien de la confidentialité des échanges, mais aussi à leurs modalités d'utilisation et d'exportation, aux conditions dans lesquelles le décryptage de messages par les autorités peut s'imposer pour des raisons de sécurité, etc.

Le commerce électronique sur Internet, la mise en conformité de ses contenus avec les règles juridiques nationales (protection des mineurs, des droits de la personne, de la vie privée...), la manière d'assurer le respect des droits d'auteurs, tout cela pose des problèmes nouveaux, même quand il n'existe pas, à proprement parler, de vide juridique.

La simple transposition de règles préexistantes, sans adaptation ni concertation avec les intéressés, notamment au niveau international, risque de s'avérer pire qu'inopérante : elle peut constituer un frein à la diffusion des nouvelles techniques et de leurs effets créateurs d'emplois.

· Mais la création d'un environnement juridique favorable (y compris sur le plan fiscal) ne suffit pas à prémunir des promoteurs de nouveaux systèmes d'information et de communication contre tout aléa commercial.

La situation des investisseurs potentiels est, en effet, on ne peut plus contrastée.

Par certains côtés, les coûts diminuent. Le prix de revient d'un titre multimédia est, par exemple, nettement inférieur à celui d'un film. L'informatisation de la production et de la diffusion audiovisuelles entraîne la baisse de divers postes de dépenses (en particulier les frais d'exploitation...) ; la diminution du prix de certains composants entraîne celle des équipements correspondants (par exemple les caméras à CCD, les micro-ordinateurs utilisés par de petits producteurs et diffuseurs) ; la compression numérique, quant à elle, divise de façon spectaculaire les coûts de transmission par satellite et par câble.

Mais d'autres éléments d'appréciation sont nettement moins favorables : dans des pays où la dette publique est lourde et la conjoncture difficile, les pouvoirs publics diminuent, voire suppriment la part qui était habituellement consacrée au financement d'infrastructures, en en laissant la charge au seul secteur privé. En outre, la demande vis-à-vis de nouveaux équipements ou de services d'informations et de communications risque de s'y trouver plus ou moins mal disposée, quand bien même il s'agit d'outils indispensables à la compétitivité.

D'autre part, dans le secteur audiovisuel, la profusion des capacités de diffusion qu'entraîne la compression de données, a tendance à faire monter les enchères en ce qui concerne l'accès aux contenus. L'escalade dans le secteur des effets spéciaux nécessite, par exemple, l'acquisition, par les producteurs audiovisuels, des derniers modèles de stations de travail, les plus puissants et les plus onéreux, et le recours à une main-d'oeuvre très qualifiée et très onéreuse.

Enfin, l'achat de certains équipements lourds (comme les serveurs vidéo de forte capacité ou les encodeurs MPEG) n'est pas encore à la portée de toutes les bourses, même si ces matériels permettent par la suite de réduire certains frais fixes d'exploitation et de diffusion. Tout le monde n'a pas non plus les moyens d'acquérir un parc de décodeurs pour offrir aux consommateurs le choix entre la solution de la location et celle de l'achat.

Dans ces conditions, le budget et le temps consacrés par les consommateurs à leurs différents écrans (TV, PC, consoles de jeux...) n'étant que modérément extensibles, certains retours sur investissement sont loin d'être assurés.

C'est sans doute l'une des principales raisons (avec des motifs liés à des difficultés techniques) pour lesquelles il ne semble plus envisagé, actuellement, de construire des réseaux du type de celui expérimenté par Time Warner à Orlando, en Floride (17(*)).

De ce point de vue, même l'entrée pleine et entière d'Internet dans la sphère de l'économie marchande comporte, de nombreuses inconnues. Il pourrait en effet en résulter un accroissement des exigences des utilisateurs, nécessitant des investissements, dont ceux-ci seront d'autant moins enclins à subir ensuite les conséquences, s'ils n'ont pas été habitués à payer à leur vrai prix les services rendus par le réseau des réseaux.

*

* *

Même considérée ainsi d'un point de vue essentiellement technique, l'évolution des médias s'avère donc moins linéaire et moins uniformément accélérée qu'il n'y paraît.

Si elle se révèle de plus en plus rapide, elle ne fait pas table rase du passé, d'une part ; et ne connaît pas partout, d'autre part, le rythme de la loi de Moore ou celui de l'essor d'Internet.

De sorte que s'il est incontestable que l'histoire des techniques se renouvelle sans cesse, des traces du passé y subsistent et des répétitions, on le verra, n'y sont pas impossibles.

Certains récepteurs (postes à galène ou à lampes, télévisions en noir et blanc) ou dispositifs de lecture et d'enregistrement (microsillons...) peuvent disparaître, mais les médias, eux, généralement, demeurent. Des normes des supports ou des techniques obsolètes peuvent « faire de la résistance », (comme le NTSC, qui date de 1941 ; le tube cathodique, inventé en 1929 ; ou la paire de cuivre téléphonique) et cela en raison, soit de blocages ou de considérations commerciales (effets de parc...) qui rendent difficile leur remplacement, soit de la mise au point de procédés (ADSL) permettant de « faire du neuf avec du vieux ». Enfin, les impératifs du maintien de la continuité d'un service considéré comme public, les aléas du recours à des technologies inédites, la vitalité propre à tout moyen de communication bien implanté, conduisent généralement à ménager les transitions (par exemple, entre l'analogique et le numérique) et, comme le fait remarquer Régis Debray « à ne pas faire d'additions sans reste ».

De fait, considérée du point de vue technologique, l'histoire des médias est marquée, certes, par des ruptures mais aussi par une certaine sédimentation ainsi que par une remarquable continuité.

La quête de nouveaux moyens d'informations et de communication, due à un insatiable appétit des nourritures correspondantes est une constante de l'humanité.

Les médias contemporains demeurent plus que jamais des « mass média » permettant l'accès d'un nombre de plus en plus important de personnes à une quantité croissante de données. Mais ils ont évolué, sur un plan qualitatif, en offrant non seulement l'instantanéité, mais aussi l'ubiquité, la variété des combinaisons multimédia possibles, mais aussi l'individualisation de l'accès à l'information. Bref, ils sont devenus non seulement « de masse » mais aussi intelligents et personnalisés.

La diversification des techniques a été telle qu'elle permet pratiquement de diffuser n'importe quel contenu sur n'importe quel support, vers toutes sortes de terminaux, universels (PC) ou hybrides. Dans ces conditions, pourquoi ne permettrait-elle pas aussi certains recommencements ?

En outre, la technique n'est pas tout, même si elle tend à devenir de plus en plus performante. Elle dépend des usages sociaux qui en sont faits qu'elle peut, en retour influencer.

Même si se sont créés, depuis, des médias qui permettent aux personnes non seulement de recevoir mais de créer des contenus échangés en temps réel, les règles dont le respect a permis le succès de l'imprimerie demeurent valables à notre époque : il faut que des entrepreneurs en ayant l'envie et les moyens, permettent la rencontre de la demande et de l'offre d'un ensemble de techniques et de contenus. Cet ajustement suppose l'adhésion de la société à un système de valeurs privilégiant le partage de l'information et du savoir, le désir de l'échange intellectuel et culturel et le goût de la communication.

C'est dans cette permanence des conditions du succès que l'histoire des moyens d'information peut donner l'impression de se répéter, quand elle est considérée d'un point de vue non seulement technologique mais aussi médiologique, en prenant en compte le rôle de tous les facteurs (psychiques, sociaux, économiques, culturels) susceptibles d'intervenir.

D) DES SIGNES VARIES DE RECOMMENCEMENT...

Finalement, l'histoire des moyens d'information et de communication, malgré sa dynamique de progrès, en apparence, linéaire semble donner des signes variés de recommencements, de résurgences, de répétitions, et cela y compris sur le plan technique.

Mais ces phénomènes se manifestent avec le plus d'acuité lorsqu'on les observe d'un point de vue médiologique ou lorsqu'on examine les conditions psychosociales, économiques ou culturelles, nécessaires au succès des nouveaux médias.

1. Sur le plan technique

Même la technique, domaine en apparence marqué par un perpétuel renouvellement, accuse parfois, elle aussi, certains recommencements.

C'est ainsi, par exemple, que le montage virtuel, permis par l'informatique, qui est au montage vidéo classique ce que le traitement de texte représente par rapport à la dactylographie d'antan, représente, selon Olivier Landau et Gilles de Peslouan, un « retour aux sources » : « il consacre, en effet, les gestes traditionnels du montage cinéma ».

Les circonstances de la naissance, au milieu du XXe siècle, de l'informatique elle-même, peuvent d'ailleurs se prêter à un parallèle avec celles de l'apparition de l'écriture, aux confins du Moyen-Orient, il y a cinq millénaires.

« Dans les deux cas - observent Philippe Breton et Serge Proulx - une nouvelle technique de communication naît du calcul et s'en détache progressivement ».

« Dans les deux cas, la nouvelle technique passe d'abord par une phase presque exclusivement consacrée à la mémorisation des données et au traitement passif de l'information ; dans les deux cas, cette technique va se mettre en mouvement pour devenir le support d'une intense activité de circulation des idées et des informations entre les hommes.

Concernant, ensuite, les normes, on pourrait espérer que les conclusions des leçons du passé ont été tirées. Or, à quelques exceptions près (MPEG2...) les guerres de standard se suivent et se ressemblent.

Après le MAC et le PC, les affrontements entre les standards de TVHD analogiques japonais et européens, les formats de cassette vidéo JVC et VHS, voici que l'histoire semble se répéter avec le DVD. D'ores et déjà, en ce qui concerne le lecteur, le codage européen du son en MPEG2 n'est pas compatible avec d'autres procédés (tels que Dolby Digital) ; Hollywood a obtenu le découpage de la planète en six zones géographiques pourvues de codes informatiques différents (pour protéger ses droits d'auteurs et conserver la maîtrise des dates de sortie des films en salle et sur disque). Et s'agissant du DVD enregistrable, Sony et Philips sont revenus, on l'a vu, sur l'accord prévu avec les autres fabricants japonais (Toshiba et Matsushita ).

La querelle sur l'intelligence dans le réseau ou dans le terminal qui jusque là opposait essentiellement les spécialistes des réseaux de télécommunications et de données (informatiques) a rebondi, de façon spectaculaire, avec l'irruption du langage Java (18(*)) qui permet d'envisager des logiciels « portables » sur n'importe quelle machine, serveur ou client. La question divise donc désormais aussi le monde de l'informatique lui-même, après avoir resurgi là où on ne l'attendait pas.

2. Sur le plan médiologique

Les médias parviennent le plus souvent à se succéder, non seulement sans se détruire, mais en développant même parfois, entre eux, des synergies. Cela n'empêche pas leurs relations de s'apparenter à des formes d'émulation, voire de rivalité, à des formes de concurrence, de rapports de force ou de domination.

Certaines craintes, on l'a vu pour les relations de la télévision et du cinéma, ne sont pas fondées. La télévision n'a pas tué le cinéma et celle-ci devrait survivre à l'ordinateur multimédia, en s'en démarquant par la qualité du son et de l'image ainsi que par le recours au grand écran (concept de cinéma à domicile).

Ainsi, la haute définition, que l'on a peut-être enterrée trop vite dans ses habits analogiques, pourrait resurgir parée de nouveaux vêtements numériques, dans le contexte d'une concurrence entre la télévision et l'ordinateur, d'autant qu'elle se prête, quel que soit l'écran, à des applications professionnelles (télémédecine).

D'autres types de résurgences méritent d'être mentionnés.

Ainsi, pour Mac Luhan , les époques de Gutenberg et de Marconi sont antithétiques car la civilisation, qui transporte l'homme barbare de l'univers de l'ouïe à celui de la vue, fait mauvais ménage avec celui de l'électronique. De sorte que « L'interdépendance nouvelle qu'impose l'électronique - affirme-t-il - recrée le monde à l'image d'un village global ». L'intellectuel canadien insiste beaucoup sur les perturbations que provoquent chez l'homme la modification, par les médias, de ses modes de perception sensoriels et sur les conséquences culturelles qui en résultent. Il évoque ainsi « la vision prophétique qu'a eue Pope du retour de la conscience tribale ou collective » ou « le dilemme de l'individu occidental face aux conséquences collectives ou tribales de ses technologies ».

La coexistence de technologies et de conscience, caractéristique de la nouvelle galaxie électrique, « traumatise - selon lui - toutes les personnes vivantes et les soumet à une tension. Elle a déjà pénétré profondément la galaxie Gutenberg ».

En bref, l'électronique consacre pour Mac Luhan le retour de l'oral et du collectif mais dans un contexte marqué par une coexistence de technologies, de média et de perceptions sensorielles correspondantes.

Pour Umberto Eco , en revanche, « nous ne vivons plus à l'époque de l'image : nous sommes revenus à l'époque de l'écriture... une époque de nouvelle alphabétisation accélérée... la plus grande part de ce que nous serons amenés toujours davantage à voir sur l'écran, dans les années à venir, sera parole écrite plutôt qu'image ; une parole qu'il nous faudra lire à une vitesse considérable ».

3. Comment trancher ?

Sans doute chacun de ces auteurs amène-t-il sa part de vérité. L'ère d'Internet a d'abord été celle de la navigation dans des bases de données, certes illustrées, mais essentiellement textuelles. Cependant, les progrès techniques et la tendance à la montée en débit vont dans le sens d'une circulation de plus en plus importante d'images animées sur les réseaux. Ainsi, l'idée selon laquelle nous sommes entrés dans une civilisation de l'image, popularisée à contre temps (- selon Eco -) par « la mass médiologie académique » risque de redevenir d'actualité. Et dans ce cas, le procès intenté par certains intellectuels à l'image qui, parce qu'elle ne laisserait pas le temps à le réflexion, s'opposerait à l'écrit, seul véhicule de la pensée, pourrait être rouvert.

Mais pour Francis Balle, l'idée selon laquelle l'image serait un obstacle à la pensée est fausse.

Nous le rappelions : Febvre et Martin avaient déjà insisté en leur temps sur l'importance des illustrations dans la contribution des premiers ouvrages imprimés à la diffusion des sciences « descriptives » (médecine, botanique...).

Et Balle souligne, à son tour, que « l'image est capable de produire du savoir et de la culture et que son apport devient de plus en plus essentiel... Les nouvelles technologies renouvellent ses atouts... Elle est devenue, en se mariant à l'informatique, le meilleur allié de la science (grâce à des représentations de la réalité en deux ou trois dimensions) et de la création ».

Autant dire qu'« elle jette un pont entre le sensible et l'intelligible ».

Consacrant une partie de ses « manifestes médiologiques » à la défense de l'image, R. Debray oppose au langage, qui signifie sans représenter, la force de l'image dont la signification s'épanouit dans sa valeur représentative.

L'image a en effet sur l'écrit une supériorité médiologique liée à sa charge émotive, au mouvement d'adhésion qu'elle suscite, à son caractère éminemment suggestif.

De sorte qu'on aboutit au paradoxe suivant : malgré son ambiguïté sémantique et son équivoque intrinsèques, l'image peut, par là-même, prétendre à l'universalité.

Comme le résume Debray : « Je ne peux pas lire toutes les écritures, je peux regarder, mal ou bien toutes les images, sans traducteur ou dictionnaire ».

Evoquant par ailleurs, plus généralement, l'influence de l'audiovisuel sur la déroute du communisme, il estime que ce qui a « coupé les jambes » à ce dernier « c'est l'obsolescence de ses usines à rêves, non compétitives avec Hollywood, les soap-opéras et les clips télévisés » autant que « son inaptitude à remplir les rayons de magasins de marchandises ». Et plus loin : « L'éternelle jeunesse des belles buveuses de Coca-Cola - poursuit-il - et la virilité du cow-boy fumeur de Marlboro, sans même parler de la musique rock, déstabilisation fondamentale car sensorielle, ont peut-être plus fait pour renverser le communisme en Europe de l'Est que les samizdats de Soljenitsyne ou les manifestes de Havel ».

Mais, en réalité, comme l'écrit Francis Balle, « l'écrit et l'image sont complémentaires et la construction du savoir et de la culture se nourrit de cette complémentarité ». En effet, derrière des apparences de répétitions, d'alternances, de domination de tel ou tel média, se dissimule une situation rendue entièrement nouvelle par la possibilité de combiner à volonté, et cela grâce au numérique, l'image, le texte et le son. Il devrait en résulter des interactions, des associations, des créations radicalement inédites.

Quoi qu'il en soit, on peut se poser, à l'égard de ces nouveaux modes combinatoires d'expression et d'accès au savoir, l'éternelle question de la formation et du niveau de maîtrise de ceux qui les utilisent.

Eternelle car, on s'en souvient, Platon s'exclamait déjà à propos de l'écriture : « toi, père de l'écriture - fait-il dire par le dieu roi Thamous à Theuth - tu lui attribues une efficacité contraire à celle dont elle est capable ».

Et plus loin : « Quand tes disciples auront beaucoup lu sans apprendre, ils se croiront très savants, et ils ne seront le plus souvent que des ignorants de commerce incommode, parce qu'ils se croiront savants sans l'être ».

En son temps déjà, Platon craignait en effet que « l'écriture produise l'oubli dans les âmes en leur faisant négliger la mémoire ».

A des siècles de distance, on s'interroge toujours sur la conservation de la mémoire, preuve s'il en est que si le débat est ancien, il n'en reste pas moins d'une actualité brûlante.

Avec l'allégement et la miniaturisation des supports de stockage, l'archive a trouvé les solutions techniques susceptibles de la faire échapper à l'étouffement par encombrement. Mais, note, à juste titre, Debray : « la mémoire va devenir une faculté coûteuse ». Car, on en conviendra : « L'industrie est un accélérateur d'obsolescence et la culture une sauvegarde de permanence ».

Paradoxe de la notion d'industrie culturelle, donc « l'industrie détruit ce que la culture doit stocker. Asservir l'oeuvre au produit c'est subordonner une chance de permanence à une certitude d'obsolescence ».

De sorte que la question se pose : « Comment donner longévité à l'éphémère ? ».

Au moment même où la technique permet d'accéder à distance aux documents d'archives, une culture doit-elle accepter d'oublier, de perdre ? Ne peut elle plus avancer qu'en effaçant ses traces ou certaines d'entre elles ?

La réponse à ces questions n'est pas seulement médiologique. Elle est aussi économique et politique.

E) SUR LES PLANS CULTURELS ET ECONOMIQUES
1. Toujours le clivage Nord-Sud

Jamais le développement de nos sociétés, sous tous ses aspects (économique, social, culturel), n'a autant dépendu de celui des nouvelles technologies en général et de celles relatives aux moyens d'information et de communication en particulier.

Jamais, par conséquent, ce développement n'a été autant tributaire de facteurs psychiques, culturels ou sociaux, susceptibles d'influer fortement sur l'utilisation de ces nouveaux moyens de communication.

Jamais, enfin, l'histoire n'a semblé autant se répéter, si on se réfère aux pourcentages de connections à Internet, aux taux de croissance et de chômage, qui laissent apparaître des clivages particulièrement nets entre pays du Nord et du Sud, protestants et catholiques (y compris l'Amérique).

coller graphique + tableau

 

Certes, il est impossible d'établir un lien de cause à effet entre passé catholique ou protestant, utilisation d'Internet et performances économiques d'un pays.

Certes, il y a aussi des exceptions (faible croissance suédoise, fort chômage finlandais).

Mais la coïncidence n'en est pas moins troublante.

La corrélation apparaît particulièrement forte dans le cas des Etats-Unis ou de la Norvège. Elle n'affecte pas l'emploi en ce qui concerne la Finlande.

Le clivage est très net entre pays protestants du Nord et catholiques du Sud en ce qui concerne :

· les raccordements à Internet ;

· les performances économiques, en matière de croissance et, surtout, d'emploi.

Mais le lien entre raccordements à Internet et résultats économiques n'est pas particulièrement évident à mettre en lumière, dans le cas de la Grande-Bretagne, et les performances de l'Allemagne, pays en partie protestant, apparaissent médiocres sur tous les plans (du fait probablement d'un « effet réunification »).

De façon générale, les pays de la communauté européenne connaissent souvent une croissance modeste (à l'exception de la Grande-Bretagne et des Pays-Bas), même lorsque, comme la Suède et le Danemark, ils ont relativement réussi à juguler le chômage.

2. La suprématie américaine

La suprématie des Etats-Unis (où le tiers de la croissance du PIB est lié à l'essor des nouvelles techniques d'information et de communication) est encore plus marquée que ne le laissent apparaître les statistiques rassemblées ci-dessus.

Les Etats-Unis sont en effet en position de monopole absolu en ce qui concerne les microprocesseurs, les logiciels d'exploitation des micro-ordinateurs et ils dominent de façon écrasante d'autres secteurs stratégiques tels que les équipements de réseaux.

Leur situation est également très favorable, on le sait, dans le domaine de la production audiovisuelle.

Enfin, leurs projets très ambitieux de constellations de satellites de téléphonie (Iridium) ou de transmission de données (Télédesic) peuvent déstabiliser le monde des télécommunications où les positions européennes (et françaises) sont encore assez fortes.

Les Etats-Unis ont, dans l'ensemble, joué un rôle éminent dans l'histoire des découvertes techniques qui ont jalonné l'évolution des télécommunications (avec, notamment, l'invention du télégraphe par Morse, celle du téléphone par Bell, puis la mise au point de la triode, du transistor...).

Peut-être est-ce sous la contrainte de la nécessité d'unifier un très vaste territoire, peuplé de population d'immigrants d'origine très diverses ?

Au fossé qui s'était creusé entre les Etats-Unis et l'Europe s'est donc ajouté récemment un écart, au sein même de notre continent, entre pays du Nord et du Sud (très net en matière de connections à Internet), et pays plus ou moins libéraux sur le plan économique (au bénéfice de la Grande-Bretagne et des Pays-Bas).

3. La persistance d'un mal français ?

Concernant la France, les résultats d'une enquête publiée à l'occasion de la dernière conférence interparlementaire des Etats membres d'Eurêka, qui s'est tenue à Londres, en mai 1997, semblent particulièrement préoccupants : cette étude réalisée auprès d'un échantillon de responsables d'entreprises et de consommateurs de cinq pays (Allemagne, Japon, Etats-Unis, Royaume-Uni, France) nous place systématiquement en dernière position, loin derrière nos concurrents, pour les réponses à toutes les questions posées : pourcentages de PC avec modems, avec lecteur de CD-ROM, équipement en portables, utilisation de l'informatique en réseaux sous toutes ses formes (courrier électronique, vidéoconférence, sites web, Intranet, et même échange de données informatisées).

La France est aussi, selon cette même enquête, le pays où la proportion de sociétés qui perçoivent l'importance, en matière de compétitivité, des technologies de l'information et de la communication, est la plus faible (même si, heureusement, elle est néanmoins largement majoritaire).

Faut-il y voir l'illustration de la persistance d'un mal français ?

En fait, nos faiblesses actuelles ne tiennent pas tant au niveau d'ensemble de l'équipement informatique de nos entreprises, qu'aux modes d'utilisation du matériel correspondant. En effet, l'ordinateur est encore souvent cantonné à des tâches de gestion administrative, employé selon une logique d'organisation centralisée et pyramidale. Et les personnes placées au sommet de la hiérarchie ne s'en servent souvent pas elles-mêmes.

De façon générale, la culture informatique des élites demeure beaucoup moins développée en France qu'aux Etats-Unis.

Trop souvent, l'ordinateur n'est pas encore devenu dans notre pays un moyen de communication, d'échange de l'information, d'accès au savoir et de conquête de nouveaux marchés.

C'est véritablement un problème de mentalité et de culture (lié, peut-être, à nos schémas d'organisation très centralisés et très hiérarchisés, hérités des siècles ; lié également à un traditionnel mépris pour les tâches manuelles auxquelles seraient assimilées les manipulations de claviers, etc.).

S'agissant de notre participation, non seulement à l'utilisation mais à la création de nouvelles techniques d'information et de communication, la France, patrie de Branly , des frères Lumière et pays de naissance de l'ATM, ne manque ni de capacités intellectuelles ni de talents d'innovation.

Le problème qui se pose à nous est bien plutôt celui d'une valorisation déficiente de nos recherches, d'une difficulté à exploiter nos découvertes pour des raisons variées, financières (insuffisances du capital risque, du crédit à l'innovation, d'incitations fiscales appropriées) ou mentales (cloisonnements entre recherche et industrie, réticences vis-à-vis du passage de la théorie à la pratique...).

Dans son ouvrage précité « la société de confiance », Alain Peyrefitte s'intéresse aux racines d'un mal français, qu'il analyse en comparant les caractères de l'innovation en Angleterre et dans notre pays.

L'innovation britannique lui paraît marquée par un passage beaucoup plus rapide de la théorie à la pratique, et par un plus grand intérêt pour les applications industrielles et commerciales.

En France, la science a un caractère plus désintéressé, tandis que les innovateurs sont le plus souvent, en Grande-Bretagne, les industriels eux-mêmes, stimulés par les défis de la concurrence.

La résistance au changement n'est pas plus forte chez nous que chez nos voisins britanniques, mais tandis que le progrès passe en force, dans un pays débarrassé du corporatisme, ce dernier, en France, « va figer - selon Peyrefitte - les forces vives de l'innovation dans un carcan étatique ». De sorte que les règlements, par leur caractère fixiste, entravent l'innovation.

« Combien d'industries étouffées - s'exclame l'auteur d'un ouvrage anonyme du XVIIIe siècle - combien d'inventions perdues par les entraves dans lesquelles nous avons enchaîné les talents ! ».

De fait, Peyrefitte cite plusieurs exemples montrant que la France néglige souvent de jouer ses propres atouts (il s'agit d'inventions d'aristocrates, coupables d'avoir dérogé, telles la machine à tisser le lin de Philippe de Girard ou le bateau à vapeur de Claude de Jouffroy).

Notre pays se trouve ainsi souvent « écartelé - selon l'auteur de la « Société de confiance » - entre son dynamisme et ses paralysies ».

De façon plus générale, l'histoire économique de la France est atypique : absence de décollage vraiment marqué, baisse précoce de la natalité, spécialisation dans les produits élaborés de haute qualité.

« La France, qui se situait en tête des puissances vers la fin du XVIIIe siècle, ne l'est manifestement plus vers 1913 », constate Jean-Charles Asselain . « Elle fait encore figure, au début du XXe siècle de nation semi-agricole, semi-industrialisée ».

Certains spécialistes ont ainsi développé une vision pessimiste de l'histoire de l'économie française, caractérisée - selon eux - par une croissance sans accélération exceptionnelle mais ponctuée par des phases de ralentissement marqué. Certains insistent sur le handicap charbonnier (qui n'en est plus un aujourd'hui) et le manque de matières premières ; d'autres sur des éléments sociologiques et culturels, dont certains peuvent avoir subsisté : manque d'esprit d'entreprise, déclin de l'élan vital français, fléchissement démographique, conservatisme de la petite entreprise familiale française, mépris traditionnel pour les métiers d'affaires, au profit des carrières intellectuelles ou administratives...

D'autres facteurs explicatifs sont encore invoqués, tels le caractère peu évolué des structures bancaires, leurs faibles liens avec l'industrie, l'exportation de capitaux, le protectionnisme, la centralisation, ou même, un Etat libéral dont l'interventionnisme serait selon F. Caron « empreint de mauvaise conscience ».

Jean-Charles Asselain estime pour sa part que « la plupart des explications traditionnelles du "retard français" paraissent médiocrement convaincantes ».

Pour lui, « l'évolution économique française se caractérise non par une médiocrité uniforme, mais plutôt par l'alternance de phases bien contrastées », notre pays se classant, sur l'ensemble du XIXe siècle, à un rang honorable, pratiquement à parité avec l'Allemagne.

Quelles leçons retenir alors de notre histoire économique pour aujourd'hui ?

Remettant en cause « le stéréotype de l'État libéral », Asselain note au contraire le développement dans notre histoire d'une tendance à l'accroissement des dépenses publiques qui s'exprime, notamment, à travers des subventions permanentes aux réseaux ferroviaires déficitaires, assortis d'une tutelle et d'un droit de regard sur la fixation des tarifs.

Il observe également la permanence d'un problème du financement des investissements industriels et des liaisons banque-industrie ; l'accumulation du capital industriel s'effectue en marge d'un système bancaire qui n'exerce que rarement un rôle d'impulsion en matière d'industrialisation (même s'il s'est globalement adapté aux exigences d'une économie moderne).

L'encadrement légal des activités bancaires freine en effet toute innovation dans ce domaine.

Enfin, la France a connu au XIXe siècle une dépendance à l'égard des techniques anglaises qui n'est pas sans rappeler celle que nous subissons aujourd'hui vis-à-vis des Etats-Unis.

Notre histoire économique montre donc la permanence dans notre pays de tendances au dirigisme et d'un problème de financement des activités nouvelles. Elle prouve aussi que nous sommes capables de nous ressaisir et de connaître des périodes fastes (fin de l'ancien régime, empire libéral de 1850 à 1860, années 1890 à 1913 précédant la grande guerre et, plus près de nous, « les trente glorieuses » d'après la deuxième guerre mondiale).

La France a connu, notamment au début du XXe siècle - selon F. Caron -, une innovation « structurelle », c'est-à-dire permanente et affectant l'ensemble de l'industrie.

Après avoir été le pays du 22 à Asnières, ne nous sommes nous pas dotés, plus récemment, en quelques années, d'un des réseaux de télécommunications les plus modernes du monde ?

L'invention de l'ATM et de la carte à puce, le savoir faire de France Télécom, le classement d'Alcatel parmi les tout premiers groupes mondiaux de télécommunications illustrent la valeur de notre potentiel technologique et industriel.

Et l'exemple du Minitel, précurseur en matière de système de relations client-serveur et de commerce électronique, montre de son côté que nous sommes capables d'innover, non seulement techniquement, mais aussi sur le plan des usages sociaux des techniques nouvelles.

Mais la médaille du Minitel a ses revers : celui d'une norme isolée et figée, devenue retardataire et aussi celui d'un modèle, en fin de compte, colbertiste, dont le succès a reposé sur l'impulsion et l'intervention d'un monopole public, France Télécom. C'est, en effet, l'opérateur national qui assure la fonction kiosque, essentielle à la sécurisation des transactions, et qui est, à ce titre, le responsable unique du transport et de la distribution des données, ainsi que de la gestion de la clientèle et du paiement des services.

Aujourd'hui, le développement d'Internet et des techniques d'information et de communications représente, pour les nouvelles entreprises innovantes, de formidables opportunités de croissance.

D'où vient alors le fait que beaucoup de jeunes talents français préfèrent aller tenter leur chance ailleurs que dans leur pays ? S'agit-il, là encore, d'une répétition de l'histoire, de la mise en évidence de la fatalité d'un mal français ?

4. De nouveaux huguenots ?

Selon certaines personnes que j'ai auditionnées, le nombre, difficile à vérifier, des français expatriés serait de 35.000 environ dans la Silicon Valley, et de 50.000 à Londres.

Tous ne sont pas des créateurs d'entreprises, ni des spécialistes des techniques d'information et de communication.

Il serait donc sans doute exagéré d'établir un parallèle entre les huguenots, contraints à l'exode par les persécutions religieuses, et ces compatriotes, dont on tenterait de montrer qu'ils ont été, pour leur part, victimes de tracasseries fiscales et administratives qui les a poussés à émigrer.

Mais des analogies ne peuvent pas néanmoins ne pas venir à l'esprit.

Il s'agit, en effet, comme dans le cas des huguenots, d'une faible part, certes, de notre population, mais d'une proportion sans doute beaucoup plus importante de nos élites entreprenantes et innovantes.

Ainsi, le dommage que représente leur départ pour l'économie française est, comme autrefois pour celui des huguenots, difficile à évaluer, mais l'importance de leur contribution au développement de leur pays d'accueil est, quant à elle, manifeste.

Eric Benhamou , par exemple, a créé en 1981 une société américaine Bridge Communications qui a fusionné en 1987 avec 3 Com, lequel vient de s'unir, à son tour, avec US Robotics . Le nouvel ensemble, constitué par les deux entreprises qui n'existaient pas il y a dix ans, pèse aujourd'hui autant que Bull en terme de chiffre d'affaires (25 milliards de francs) !

Un autre de nos compatriotes, Bernard Lacroute fait partie de l'équipe dirigeante de Sun Micro systems qui, depuis sa création en 1983, a embauché dix mille personnes et réalise 2 milliards de dollars de chiffre d'affaires.

On pourrait multiplier de tels exemples. Il n'en demeure pas moins qu'une question se pose : qu'est-ce qui manque à de jeunes entrepreneurs innovants français dans leur pays et qu'ils vont chercher aux Etats-Unis ? Un accès plus facile à des sources de financement plus abondantes (capital risque notamment), la proximité d'un véritable marché (qui contraint parfois des PME créées en France à s'exiler aux Etats-Unis pour venir au contact de la clientèle), un environnement administratif et fiscal plus favorable (régime des stock-options) et aussi, en même temps, plus stimulant.

Le désir légitime d'enrichissement n'est pas la seule motivation : il semble que joue aussi un besoin d'accomplissement personnel, plus facile à assouvir aux Etats-Unis car le succès y est, socialement, davantage accepté.

En même temps, un certain droit à l'échec y est aussi plus largement reconnu, ce qui facilite la prise de risque.

Une page du quotidien Le Monde consacrée, en septembre 1997, aux aventuriers français de la Silicon Valley publie des propos recueillis auprès de certains d'entre eux selon lesquels :

« Ici, (en Californie) on ne fait pas de quartier » mais « il y a de l'argent et l'argent attire les bonnes idées ». « Le système français est fait pour l'artillerie lourde... La lourdeur du cadre législatif des sociétés françaises et nos rigidités empêchent de restructurer facilement, de réajuster le tir technologique ».

Ou encore : « La formation scientifique est excellente en France. Nous avons un capital intellectuel de très grande valeur, mais pas les mécanismes financiers correspondants pour l'exploiter ».

La valeur des ingénieurs français, même s'ils ne sont pas sortis de Polytechnique ou de l'Ecole des Mines, est effectivement largement reconnue en Californie.

Dans le domaine de la production audiovisuelle, les talents français sont également très prisés, à tel point que les sociétés américaines viennent recruter à la sortie des écoles parisiennes des graphistes et des animateurs, spécialistes d'effets spéciaux.

La taille des prestataires européens est malheureusement encore trop faible, malgré leur savoir-faire, pour leur permettre d'absorber la charge de travail d'une superproduction hollywoodienne.

L'entrepreneur est le résultat, selon Michel Serres, d'une extraordinaire fusion du capital et de l'esprit d'aventure. L'un et l'autre font trop souvent cruellement défaut en France, on va donc les chercher en Amérique.

Combien d'emplois perdus, combien de dépenses d'éducation gaspillées, quelle perte de croissance résulte-t-il de ce processus ?

Le départ de France de créateurs d'entreprises est d'autant plus regrettable pour nous et profitable à leur pays d'accueil que leur situation d'émigré va les obliger à ajouter à leur savoir-faire, un art du faire savoir, de plus en plus essentiel à la diffusion de l'innovation aujourd'hui.

En outre, ce phénomène est loin d'être compensé par une immigration dans notre pays de personnes autant qualifiées.

« Alors que les français les plus habiles - note l'auteur d'un ouvrage anonyme précité du XVIIIe siècle - sont nombreux à s'installer à l'étranger (pas seulement à cause de la révocation de l'Edit de Nantes), les étrangers de talent équivalent ont beaucoup de mal à venir travailler en France... double abus dans notre législation qui tend, d'un côté, à dépeupler l'Etat et nous prive, de l'autre, des moyens de réparer nos pertes ».

5. Médias et pouvoir

La réflexion sur la répétition, à travers l'histoire, d'un phénomène de migration de nos élites, amène à méditer sur les relations entre les nouvelles technologies d'information et de communication et les Etats, ou le pouvoir en général.

La technologie est, à première vue, apatride et ne connaît pas la notion de frontières.

· Au niveau de ceux qui la maîtrisent tout d'abord ou qui veulent en profiter pour entreprendre : l'essaimage, dans toute l'Europe, des imprimeurs allemands à la fin du XVe siècle et au début du XVIe siècle n'est pas sans rappeler celui des spécialistes huguenots de l'industrie textile, de l'orfèvrerie ou de l'horlogerie un siècle plus tard, ou de nos spécialistes de l'informatique, des télécommunications ou de l'audiovisuel aujourd'hui.

· Au niveau des contenus, ensuite, l'imprimerie, comme plus tard Internet, a semblé à ses origines déjouer la censure. Des circuits se sont organisés pour la distribution des ouvrages interdits. Il est très difficile aujourd'hui, à l'époque des satellites de télécommunications et de la télévision interactive, de faire respecter une règle comme celle des quotas de diffusion d'oeuvres européennes ou nationales.

Les pouvoirs des gouvernants et ceux des médias peuvent s'affronter, comme en témoignent certaines campagnes de presse, mais les relations entre les technologies d'information et de communication et les différentes autorités sont subtiles et complexes.

Elles paraissent caractérisées par un certain nombre de dualismes, comme celui déjà étudié, qui voit coexister une diversification et une convergence des techniques concernées : depuis l'imprimerie, les nouveaux médias s'adressent à la fois à l'individu et aux collectivités (on a vu l'influence du livre sur l'utilisation des différentes langues européennes et l'émergence d'Etats nation). Aujourd'hui, leur impact peut être à la fois mondial et local, global ou spécifique. L'identité des minorités peut s'en trouver renforcée, les diaspora rassemblées.

En outre, comme le note Régis Debray , l'évolution technique n'oppose pas seulement les médias à l'Etat, elle modifie aussi l'équilibre des forces entre anciens et nouveaux moyens de communication : « chaque medium nouveau - écrit-il - court-circuite la classe des médiateurs issus du medium précédent » (ainsi de la remise en cause du pouvoir des prêtres par l'imprimerie ou de celui des écrivains et des intellectuels par l'audiovisuel...).

Ainsi, les techniques modernes d'information et de communication, comme jadis l'imprimerie, peuvent cultiver les particularismes aussi bien que tendre à imposer une culture dominante, sinon une pensée unique (l'anglais aujourd'hui, comme le latin à la Renaissance, est le langage véhiculaire qui facilite la communication à travers les réseaux et la diffusion des produits culturels américains s'accroît).

La notion de frontière peut resurgir dans le domaine technologique sous la forme de la création de normes incompatibles. Mais le succès aujourd'hui, du protocole Internet (TCP/IP) ou du codage binaire numérique, comme jadis celui des caractères d'imprimerie romains, substitués à toute une série de caractères gothiques manuscrits, démontre que le besoin de standardisation des moyens de communication de l'humanité est plus fort que les réflexes protectionnistes des industriels.

*

* *

L'impression que l'histoire se répète, sur de nombreux plans, conduit à tempérer les jugements qui pourraient se fonder sur l'apparent constat d'un renouvellement permanent et accéléré des techniques d'information et de communication.

Certes, leur évolution s'accélère, mais pas uniformément. Leur tendance à la diversification, à une efficience accrue, à une convergence est constante, mais justement, elle n'est pas nouvelle. Leur capacité à s'adresser à la fois aux masses et à l'individu, non plus, même si elle est renforcée par l'interactivité.

Cette dernière aussi, si on n'y réfléchit bien, ne constitue pas une entière nouveauté.

Elle s'exprimait auparavant sous la forme de courrier des lecteurs, de la publication de critiques littéraires ou musicales, de la participation à des jeux radiophoniques ou télévisés. Des messages pouvaient être échangés par le télégraphe, le téléphone, puis par la télécopie... cependant pas simultanément, à plusieurs, comme aujourd'hui.

Les médias, par ailleurs, - on l'a vu - ont toujours cherché à se combiner, avec le mariage du texte et de l'illustration, puis de l'image et du son ; le multimédia parachève aujourd'hui cette évolution, et l'avènement du numérique a représenté, de ce point de vue, pour les techniques de l'information et de communication, quelque chose d'un peu comparable à la découverte de la greffe en horticulture ou du croisement d'espèces en biologie : il est devenu ainsi possible d'apporter l'interactivité à l'audiovisuel, l'image au téléphone, le multimédia à l'informatique. Différentes sortes de terminaux offrant tout ou partie de ces possibilités avec, en prime, l'accès à Internet peuvent être envisagés (consoles de jeux, télévision, téléphone ou assistants numériques mobiles enrichis de fonctionnalités supplémentaires, ordinateurs personnels simplifiés...).

L'avènement du numérique, du multimédia, de l'interactif, permis par la compression de données, les progrès de l'information et la montée en débits constitue ainsi un point d'orgue (mais pas le dernier accord !) dans une évolution constamment orientée vers les mêmes objectifs : améliorer les moyens d'information et de communication à la fois quantitativement (ouverture à un plus grand nombre de davantage de données sur une plus grande distance) et qualitativement (un plus beau son, de plus belles images, des textes plus accessibles, transmis ou échangés multilatéralement partout, plus facilement).

Multilatéralisation simultanée des échanges (avec les vidéoconférences ou les forums de discussion ouverts à tous) et possibilités d'hybridation des divers types de récepteurs (plus ou moins interactifs) : tels paraissent être, en définitive, les acquis les plus inédits de la période récente.

De sorte qu'il est nécessaire à notre pays de participer plus activement à ce processus global, non seulement en tant qu'utilisateur des techniques concernées mais aussi en tant que créateur. Mais, pour ce faire, il est également nécessaire de méditer les leçons de notre passé et d'en surmonter les inhibitions séculaires.

* (5) Des petites perturbations de tension d'une grille insérée entre le filament de la lampe (cathode) et la plaque (anode) provoquent de franches variations du courant du circuit et cette dernière

* (6) Machine à composer réalisant la justification et la fusion des lignes de caractère métallique à partir de matrices typographiques appelées par un clavier - son rendement est de 9.000 caractères par heure.

* (7) Technique de gravure en relief sur métal que l'on peut incorporer au milieu des caractères en plomb

* (8) Procédé d'impression par un cylindre de cuivre gravé qui porte en creux l'illustration (ou le texte) à imprimer,permettant une plus grande richesse de tons et de demi-teintes.

* (9) DRAM (Dynamic Random Access Memory) : mémoires vides, volatiles, nécessitant un rafraîchissement de l'information.

Les mémoires « caches » servent d'interfaces entre un processeur et une mémoire beaucoup plus lentes. Elles sont à la base de SRAM (mémoires statiques, contrairement aux DRAM qui sont dynamiques), très onéreuses.

* (10) 140 Mbits/s en numérique pour les faisceaux hertziens

* (11) Les modulations sont des transformations qu'il faut faire subir au signal de base pour faciliter son transport. On peut moduler l'amplitude, la phase ou la fréquence du signal.

Les modulations numériques complexes à plusieurs états, en jouant à la foi sur des changements de phase ou d'amplitude permettent d'obtenir des débits plus élevés que les modulations analogiques.

* (12) La très bonne qualité du son résulte de l'utilisation d'une plus grande bande passante et de l'élimination des parasites.

* (13) Le financement des films d'initiative française est assuré pour plus de 40 % par les chaînes de télévision.

* (14) Télécommunication : Réalités et virtualités.

* (15) En numérique professionnel : DVCAM, DVCPRO, BETACAM SX, DIGITALS, etc... Et elle peut, d'autre part, comme le montre l'exemple de l'échec des normes MAC de transmission de la télévision, ne pas être acceptée par une partie des acteurs comme par le marché.

* (16) Cette norme, parfois critiquée, en production, parce qu'elle ne permet pas l'arrêt sur image n'en présente pas moins d'immenses avantages : standardisation des puces, compatibilité avec d'autres normes de production (4 :2 :2) ou de diffusion (DVB). Elle laisse, en outre, une certaine liberté à ses utilisateurs et ouvre donc la compétition dans certains domaines comme l'encodage (qui est au codage, ce que l'écriture est à la lecture).

* (17) Réseau haut débit à intégration de services multimédia, dit « Full Service Network », axé sur la vidéo à la demande, nécessitant des investissements considérables en matériels, logiciels, infrastructures...

* (18) Conçu à l'origine pour la télévision interactive et dérivée d'un langage de programmation C++ bien antérieur.