2. Des défis techniques à relever :
Outre la résolution de problèmes ponctuels, la progression des techniques d'information et de communication nécessite en effet de relever un certain nombre de défis d'ordre plus général :

n La capacité de certains semi-conducteurs (micro-processeurs, mémoires) croit, on l'a vu, de façon exponentielle. Est-il certain que l' esprit humain parvienne à exploiter au même rythme le surcroît de possibilités qui en résulte ?

Certes, le multimédia requiert de lui-même des puces de plus en plus puissantes (des " média processeurs "), mais encore faut-il être en mesure de les concevoir.

L'intelligence peut être mobilisée de façon optimale, dès la conception des circuits imprimés, ou intervenir dans une certaine mesure, par la suite seulement, de façon logicielle, dans la programmation des puces et de l'utilisation des équipements correspondants.

La mise sur le marché de consoles ludiques de plus en plus puissantes s'est accompagnée parfois d'une relative pénurie de logiciels correspondants, entraînant un choix initial restreint de jeux offert au consommateur.

n Un autre défi lancé aux capacités intellectuelles humaines résulte de l' hétérogénéité des techniques, des matériels et des réseaux . La diversification des moyens d'information et de communication n'exclut pas, on l'a vu, certaines convergences. Mais les deux tendances n'en demeurent pas moins souvent difficiles à concilier.

On s'en doute : la coexistence de l'analogique et du numérique, de l'électronique et de l'optique, pose certains problèmes.

La partie terminale des réseaux téléphoniques commutés n'est souvent pas encore numérisée, ce qui rend nécessaire des conversions, notamment par des modems, pour les communications entre ordinateurs. Il en ira toujours ainsi du son, que les exigences de l'oreille et les lois de l'acoustique obligent à restituer de façon analogique.

En revanche, l'image peut être saisie sous la forme d'un ensemble de pixels, prêts à numériser, dont le cerveau au travers de l'oeil est capable, au moment de l'affichage, d'effectuer la synthèse.

De même, des conversions optique-électronique demeurent indispensables en l'état actuel des réseaux, en attendant, d'une part, leur " fibroptisation " totale éventuelle jusqu'à l'abonné et, d'autre part, la généralisation d'amplificateurs optiques. Elles continueront à s'imposer, de toute façon, pour les équipements d'extrémité, à moins que des ordinateurs optiques ne se répandent, et même, dans cette dernière hypothèse, pour les liaisons avec les mobiles.

S'agissant des réseaux, la coexistence d'utilisations privatives et communes, intégrées ou spécialisées, de différents types de commutation (par produits ou par circuits, fixes ou virtuels), de liaisons non commutées (brassées et multiplexées), de débits variables, de nouveaux services diversifiés, pose des problèmes d'une redoutable complexité. Pour les résoudre, il est fait appel aux logiciels, de façon croissante, à des techniques telles que la hiérarchie numérique synchrone (SDH) ou encore, au concept de réseau intelligent.

Les succès d'un protocole comme celui d'Internet (TCP/IP), ou celui d'un langage comme java, tiennent précisément à leur capacité à transcender l'hétérogénéité des réseaux et des matériels informatiques (la plus redoutable d'entre toutes), de sorte que toutes les machines puissent communiquer ou exécuter certaines instructions.

Pour Michel Feynerol, directeur du CNET, le degré de complexité atteint par les systèmes actuels est, cependant si élevé, que son augmentation comporte des risques : " L'homme sera-t-il capable - s'interroge-t-il dans son dernier ouvrage (14( * )) - socialement ou collectivement, de gérer les fabuleuses possibilités qu'offrent les nouvelles techniques logicielles associées aux nouvelles techniques de communication et aux architectures réparties ". Et plus loin : " La complexité même des structures - poursuit-il - et l'autonomie accrue des acteurs augmenteront les risques d'incohérence et de perturbation du fonctionnement global des réseaux, ou de comportement aberrant du trafic ".

Autant dire que " Les spécifications sont devenues si complexes et si rapidement évolutives que plus personne ne les maîtrise dans leur ensemble ".


· Le traitement, le stockage et l'accessibilité d'une quantité surabondante d'informations produites constitue un dernier défi, et non des moindres à relever.

Force est de constater que les oracles des oiseaux de mauvais augure, prédisant " l'implosion " d'Internet, ne se sont pas réalisés, bien que les difficultés rencontrées par les internautes dans certaines circonstances soient bien réelles.

Les deux principaux dangers potentiels (saturation complète des infrastructures et submersion de l'usager par le flot de données accessibles) ont été, évités dans la mesure du possible.

Le langage multimédia HTML, les navigateurs et moteurs de recherche, les agents intelligents, enfin, ont permis à l'utilisateur de ne pas se perdre dans le labyrinthe des serveurs de la toile, ni de se noyer dans l'océan d'informations qu'ils charrient.

Mais dans les métiers audiovisuels où beaucoup de données sont aussi enregistrées, stockées et manipulées, la multiplicité des standards et des formats (15( * )) utilisés par les magnétoscopes (maillon essentiel de la chaîne de production de programmes) demeure cependant source de difficultés et conduit à un suréquipement qu'on ne peut que regretter.

S'agissant du transfert d'images vidéo sur ordinateur, il existe (en attendant les DVD) plus d'une cinquantaine de cartes différentes, et les fréquences ainsi que les modes de balayage ne sont pas identiques. Cette disparité crée des problèmes de synchronisation et des incompatibilités d'affichage qui compliquent les liaisons entre équipements informatiques et vidéo.

· Les derniers obstacles susceptibles de freiner les progrès des moyens d'information et de communication ont trait aux conditions qui leur sont nécessaires pour s'implanter : il s'agit de leur environnement normatif , législatif et réglementaire, économique et commercial.

A la frontière de la technique et du droit, la normalisation, est en même temps particulièrement nécessaire et concrètement difficile.

Nécessaire à la pénétration des équipements et à la diffusion des contenus : car l'incompatibilité des produits et des services est l'une des meilleures façons de décourager l'acheteur éventuel.

Et on peut à bon droit se demander si les ordinateurs personnels ne se seraient pas davantage répandus si, en plus de certaines difficultés d'usage, ne s'était pas posé le problème du dualisme de l'univers Macintosh et de celui du PC ?

Mais la normalisation est un exercice difficile. Quand elle est diligentée par des instances officielles, elle risque, d'une part, de s'effectuer trop lentement et donc de se trouver en retard sur l'évolution des techniques, très rapide dans certains secteurs, comme l'informatique.

Mais s'en remettre entièrement aux industriels comporte, par ailleurs, deux autres types de dangers : soit celui de l'imposition de facto d'une norme qui n'est pas nécessairement la meilleure possible pour l'usager (ainsi du format VHS pour les cassettes vidéo ou de ce qui a failli se produire avec le système japonais Muse de diffusion de la TVHD) ; soit celui de l'échec, partiel ou total, des tentatives de compromis effectuées, étant donné l'importance des enjeux pour les différentes catégories d'acteurs concernés (fabricants de matériels, producteurs et distributeurs de contenus...). C'est ainsi, par exemple, que des menaces planent sur l'adoption d'un standard commun en ce qui concerne la version enregistrable du DVD.

C'est pour les mêmes raisons également que le groupe européen DVB de normalisation de la télévision numérique, après avoir atteint rapidement des résultats remarquables, bute sur le problème de l'adoption d'un système commun de contrôle d'accès (simulcrypt ou multicrypt), tandis que ses recommandations peuvent laisser à désirer sur d'autres points (harmonisation des guides électroniques de programmes et entre les normes relatives aux différents modes de diffusion : câble, satellite, hertzien terrestre).

La mise au point d'une norme unique de télévision haute définition, aux Etats-Unis, s'est heurtée également à d'ultimes difficultés (l'accent a finalement été mis, par la FCC, sur la compatibilité entre la réception des images numériques sur les téléviseurs et sur les ordinateurs, bien davantage que sur la haute définition elle-même qui, contrairement à ce qui avait été prévu à l'origine, ne semble même plus correspondre aujourd'hui à une obligation...).

Aujourd'hui le problème du Minitel est en partie lié à celui de sa norme vidéotex qui n'a pas été adoptée par d'autres pays et qui, de surcroît, n'est pas directement compatible avec le multimédia et Internet (même si des passerelles peuvent être mises en place).

En revanche, d'incontestables succès ont été obtenus, par exemple, à l'échelle européenne, avec la norme de téléphone mobile numérique GSM (qui devra cependant bientôt affronter une technique américaine rivale dite CDMA) et surtout, à l'échelle mondiale, avec les spécifications MPEG2 relatives au codage d'images animées à la source (16( * )).

Les difficultés de normalisation (auxquelles n'échappe pas l'ATM) sont loin d'être nouvelles et peuvent laisser à penser qu'il s'agit d'un domaine dans lequel l'histoire se répète, comme nous le verrons plus loin.

D'autres problèmes, posés également à la frontière de la technique et du droit, ont trait à l'élaboration d'un cadre législatif et réglementaire, aux niveaux national et international, qui, à tout le moins n'entrave pas, sinon favorise le développement des applications des nouvelles techniques d'information et de communication.

Ce sont, par exemple, les règles relatives aux techniques de cryptage, dont dépendent la " sécurisation " des transactions ainsi que le maintien de la confidentialité des échanges, mais aussi à leurs modalités d'utilisation et d'exportation, aux conditions dans lesquelles le décryptage de messages par les autorités peut s'imposer pour des raisons de sécurité, etc.

Le commerce électronique sur Internet, la mise en conformité de ses contenus avec les règles juridiques nationales (protection des mineurs, des droits de la personne, de la vie privée...), la manière d'assurer le respect des droits d'auteurs, tout cela pose des problèmes nouveaux, même quand il n'existe pas, à proprement parler, de vide juridique.

La simple transposition de règles préexistantes, sans adaptation ni concertation avec les intéressés, notamment au niveau international, risque de s'avérer pire qu'inopérante : elle peut constituer un frein à la diffusion des nouvelles techniques et de leurs effets créateurs d'emplois.

· Mais la création d'un environnement juridique favorable (y compris sur le plan fiscal) ne suffit pas à prémunir des promoteurs de nouveaux systèmes d'information et de communication contre tout aléa commercial.

La situation des investisseurs potentiels est, en effet, on ne peut plus contrastée.

Par certains côtés, les coûts diminuent. Le prix de revient d'un titre multimédia est, par exemple, nettement inférieur à celui d'un film. L'informatisation de la production et de la diffusion audiovisuelles entraîne la baisse de divers postes de dépenses (en particulier les frais d'exploitation...) ; la diminution du prix de certains composants entraîne celle des équipements correspondants (par exemple les caméras à CCD, les micro-ordinateurs utilisés par de petits producteurs et diffuseurs) ; la compression numérique, quant à elle, divise de façon spectaculaire les coûts de transmission par satellite et par câble.

Mais d'autres éléments d'appréciation sont nettement moins favorables : dans des pays où la dette publique est lourde et la conjoncture difficile, les pouvoirs publics diminuent, voire suppriment la part qui était habituellement consacrée au financement d'infrastructures, en en laissant la charge au seul secteur privé. En outre, la demande vis-à-vis de nouveaux équipements ou de services d'informations et de communications risque de s'y trouver plus ou moins mal disposée, quand bien même il s'agit d'outils indispensables à la compétitivité.

D'autre part, dans le secteur audiovisuel, la profusion des capacités de diffusion qu'entraîne la compression de données, a tendance à faire monter les enchères en ce qui concerne l'accès aux contenus. L'escalade dans le secteur des effets spéciaux nécessite, par exemple, l'acquisition, par les producteurs audiovisuels, des derniers modèles de stations de travail, les plus puissants et les plus onéreux, et le recours à une main-d'oeuvre très qualifiée et très onéreuse.

Enfin, l'achat de certains équipements lourds (comme les serveurs vidéo de forte capacité ou les encodeurs MPEG) n'est pas encore à la portée de toutes les bourses, même si ces matériels permettent par la suite de réduire certains frais fixes d'exploitation et de diffusion. Tout le monde n'a pas non plus les moyens d'acquérir un parc de décodeurs pour offrir aux consommateurs le choix entre la solution de la location et celle de l'achat.

Dans ces conditions, le budget et le temps consacrés par les consommateurs à leurs différents écrans (TV, PC, consoles de jeux...) n'étant que modérément extensibles, certains retours sur investissement sont loin d'être assurés.

C'est sans doute l'une des principales raisons (avec des motifs liés à des difficultés techniques) pour lesquelles il ne semble plus envisagé, actuellement, de construire des réseaux du type de celui expérimenté par Time Warner à Orlando, en Floride (17( * )).

De ce point de vue, même l'entrée pleine et entière d'Internet dans la sphère de l'économie marchande comporte, de nombreuses inconnues. Il pourrait en effet en résulter un accroissement des exigences des utilisateurs, nécessitant des investissements, dont ceux-ci seront d'autant moins enclins à subir ensuite les conséquences, s'ils n'ont pas été habitués à payer à leur vrai prix les services rendus par le réseau des réseaux.



*

* *

Même considérée ainsi d'un point de vue essentiellement technique, l'évolution des médias s'avère donc moins linéaire et moins uniformément accélérée qu'il n'y paraît.

Si elle se révèle de plus en plus rapide, elle ne fait pas table rase du passé, d'une part ; et ne connaît pas partout, d'autre part, le rythme de la loi de Moore ou celui de l'essor d'Internet.

De sorte que s'il est incontestable que l'histoire des techniques se renouvelle sans cesse, des traces du passé y subsistent et des répétitions, on le verra, n'y sont pas impossibles.

Certains récepteurs (postes à galène ou à lampes, télévisions en noir et blanc) ou dispositifs de lecture et d'enregistrement (microsillons...) peuvent disparaître, mais les médias, eux, généralement, demeurent. Des normes des supports ou des techniques obsolètes peuvent " faire de la résistance ", (comme le NTSC, qui date de 1941 ; le tube cathodique, inventé en 1929 ; ou la paire de cuivre téléphonique) et cela en raison, soit de blocages ou de considérations commerciales (effets de parc...) qui rendent difficile leur remplacement, soit de la mise au point de procédés (ADSL) permettant de " faire du neuf avec du vieux ". Enfin, les impératifs du maintien de la continuité d'un service considéré comme public, les aléas du recours à des technologies inédites, la vitalité propre à tout moyen de communication bien implanté, conduisent généralement à ménager les transitions (par exemple, entre l'analogique et le numérique) et, comme le fait remarquer Régis Debray " à ne pas faire d'additions sans reste ".

De fait, considérée du point de vue technologique, l'histoire des médias est marquée, certes, par des ruptures mais aussi par une certaine sédimentation ainsi que par une remarquable continuité.

La quête de nouveaux moyens d'informations et de communication, due à un insatiable appétit des nourritures correspondantes est une constante de l'humanité.

Les médias contemporains demeurent plus que jamais des " mass média " permettant l'accès d'un nombre de plus en plus important de personnes à une quantité croissante de données. Mais ils ont évolué, sur un plan qualitatif, en offrant non seulement l'instantanéité, mais aussi l'ubiquité, la variété des combinaisons multimédia possibles, mais aussi l'individualisation de l'accès à l'information. Bref, ils sont devenus non seulement " de masse " mais aussi intelligents et personnalisés.

La diversification des techniques a été telle qu'elle permet pratiquement de diffuser n'importe quel contenu sur n'importe quel support, vers toutes sortes de terminaux, universels (PC) ou hybrides. Dans ces conditions, pourquoi ne permettrait-elle pas aussi certains recommencements ?

En outre, la technique n'est pas tout, même si elle tend à devenir de plus en plus performante. Elle dépend des usages sociaux qui en sont faits qu'elle peut, en retour influencer.

Même si se sont créés, depuis, des médias qui permettent aux personnes non seulement de recevoir mais de créer des contenus échangés en temps réel, les règles dont le respect a permis le succès de l'imprimerie demeurent valables à notre époque : il faut que des entrepreneurs en ayant l'envie et les moyens, permettent la rencontre de la demande et de l'offre d'un ensemble de techniques et de contenus . Cet ajustement suppose l'adhésion de la société à un système de valeurs privilégiant le partage de l'information et du savoir, le désir de l'échange intellectuel et culturel et le goût de la communication.

C'est dans cette permanence des conditions du succès que l'histoire des moyens d'information peut donner l'impression de se répéter, quand elle est considérée d'un point de vue non seulement technologique mais aussi médiologique, en prenant en compte le rôle de tous les facteurs (psychiques, sociaux, économiques, culturels) susceptibles d'intervenir.