N° 212

SÉNAT

SESSION ORDINAIRE DE 1995-1996

Annexe au procès-verbal de la séance du 14 février 1996.

RAPPORT

FAIT

au nom de la commission des Affaires économiques et du Plan (1) sur le projet de loi, ADOPTÉ PAR L'ASSEMBLÉE NATIONALE, relatif aux expérimentations dans le domaine des technologies et services de l ' information,

Par M. Jean-Marie RAUSCH,

Sénateur.

(1 ) Cette commission est composée de MM. Jean François-Poncet, président ; Gérard Larcher, Henri Revol, Jean Huchon, Fernand Tardy, vice-présidents ; Gérard César, William Chervy, Jean-Paul Émin, Louis Minetti, Louis Moinard, secrétaires ; Louis Althapé, Alphonse Arzel, Mme Janine Bardou, MM. Bernard Barraux, Michel Bécot, Georges Berchet, Jean Besson, Claude Billard, Marcel Bony, Jean Boyer, Jacques Braconnier, Gérard Braun, Dominique Brave, Michel Charzat, Marcel-Pierre Cleach, Roland Courteau, Désiré Debavelaere, Gérard Delfau, Fernand Demilly, Marcel Deneux, Rodolphe Désiré, Jacques Dominati, Michel Doublet, Mme Josette Durrieu, MM. Bernard Dussaut, Jean-Paul Emorine. Léon Fatous, Philippe François, Aubert Garcia, François Gerbaud, Charles Ginésy, Jean Grandon, Francis Grignon, Georges Gruillot, Claude Haut, Mme Anne Heinis, MM. Pierre Hérisson, Rémi Herment, Bernard Hugo, Bernard Joly, Edmond Lauret, Jean-François Le Grand, Félix Leyzour, Kléber Malécot, Jacques de Menou, Louis Mercier, Mme Lucette Michaux-Chevry, MM. Jean-Marc Pastor, Jean Pépin, Daniel Percheron, Jean Peyrafitte, Alain Pluchet, Jean Pourchet, Paul Raoult, Jean-Marie Rausch, Charles Revet, Roger Rigaudière, Roger Rinchet, Jean-Jacques Robert, Jacques Rocca Serra, Josselin de Rohan, René Rouquet, Raymond Soucaret, Michel Souplet, Jacques Sourdille, André Vallet, Jean-Pierre Vial.

Voir les numéros

Assemblée nationale (10ème législ.) : 2358. 2487. 2502 et TA. 456.

Sénat 193 (1995-1996).

Communication

Mesdames, Messieurs,

Pour nombre d'observateurs, nous vivons aujourd'hui un de ces moments importants de l'histoire où une nouvelle forme de société tend à émerger des structures économiques et sociales autour desquelles la vie des hommes et des femmes d'un pays était organisée depuis longtemps. Tout comme la société industrielle est née de la société paysanne à l'aube du siècle précédent, en cette fin de millénaire, nos sociétés industrielles semblent entrées dans une période de mutation accélérée où commence à s'esquisser les contours de ce qu'on appelle, le plus souvent, la société de l'information.

Or, le projet de loi qui nous est présenté aujourd'hui a pour vocation de fournir aux pouvoirs publics mais aussi à nos entreprises et, par certains aspects, à nos concitoyens les moyens d'information qui leur permettront d'orienter cette marche vers la société de communication. Il tend, en effet, à permettre d'expérimenter localement, et de manière restreinte, certains des outils qui paraissent destinés à jouer un rôle majeur dans le développement de la nouvelle économie qui s'annonce, à savoir : d'une part, les télécommunications à haut débit et les technologies novatrices de diffusion audiovisuelle qu'on désigne communément sous le nom d'autoroutes de l'information, ainsi que, d'autre part, une large gamme de services dits multimédias que ces autoroutes rendent possibles.

Ce texte a donc, de ce fait, une très forte portée symbolique.

Cependant, sa portée juridique demeure extrêmement limitée puisqu'il ne remet nullement en cause les principes sur lesquels sont actuellement fondés notre législation relative aux télécommunications et celle relative à la communication audiovisuelle.

II permet simplement d'y déroger d'une manière temporaire et selon des procédures rigoureuses afin que puissent être mises en oeuvre certaines des expérimentations les plus innovantes qui ont été proposées par les différents acteurs économiques ou locaux.

C'est pourquoi, avant de présenter en détail les dispositions du projet de loi, le présent rapport s'attachera tout particulièrement à décrire le contenu et les enjeux de la notion d'autoroute de l'information.

EXPOSÉ GÉNÉRAL

CHAPITRE PREMIER - LA NOTION D'AUTOROUTE DE L'INFORMATION

Au sens le plus couramment accepté, une autoroute de l'information est un réseau de communication disposant d'une capacité de débit suffisant pour faire passer, sous une forme numérisée, en temps réel et, le cas échéant, de manière interactive, des messages sonores, des données informatiques, des textes et des images fixes ou animées.

Techniquement, le très haut débit étant indispensable dans le sens émetteur/utilisateur mais pas nécessairement dans le sens inverse, une telle autoroute peut être construite à partir de réseaux de satellites ou à partir de réseaux filaires comportant, pour partie au moins, un support en fibre optique. Cependant, le satellite offrant de très faibles capacités d'interactivité, il peut être comparé à une autoroute à sens unique. Aussi, en l'état actuel des techniques, les seules inforoutes à double sens pouvant être envisagées supposent l'existence d'un fil disposant d'une voie de retour et assurant le passage de larges flux de données numérisées.

Les initiatives prises, ces dernières années, en faveur du développement de telles infrastructures reposent sur la conviction que les progrès enregistrés dans le domaine des technologies de la communication, annoncent l'avènement d'un nouvel âge économique où la prospérité dépendra de l'aptitude à faire circuler rapidement des quantités volumineuses d'informations complexes.

1. UN CONCEPT NÉ DES PERSPECTIVES ÉCONOMIQUES OUVERTES PAR LES PROGRÈS DES TECHNOLOGIES DE L'INFORMATION

A. LA CONVERG E NCE DES PROGRÈS TECHNIQUES DANS LES DOMAINES DU CODAGE, DU TRAITEMENT ET DE LA TRANSMISSION DE L'INFORMATION

1. la généralisation de la numérisation

La numérisation est la traduction d'une information en langage binaire. Ce langage, qui utilise un alphabet à deux valeurs, 0 et 1, permet d'exprimer des messages complexes sous une forme élémentaire (à base de longues séries de 0 et de 1) assurant leur lecture et leur traitement par un ordinateur.

Depuis longtemps appliqué au texte, ce type de codage a été étendu à la voix (téléphone numérique), à la musique (CD audio) et à l'image de synthèse (dessin, jeux vidéo). Aujourd'hui, il est également possible de traiter de cette manière des images fixes et animées qu'elles soient en noir et blanc ou en couleur.

Le développement des techniques de numérisation permet donc, désormais, de transcrire, de manière identique, sous une forme informatique aisée à stocker et à traiter, tous les types d'informations, quelle qu'en soit la présentation : message sonore, texte écrit, image fixe, image animée.

Cette unification des techniques de gestion du signe entraîne un effacement des frontières existant entre les supports de documentation jusqu'alors différents : le livre, le disque, la photographie, le film. C'est-à-dire qu'un même support, dit multimédia (CD-Rom ou CDI) peut contenir un mélange de texte, de musique, de conversations enregistrées, de photos et de séquences cinématographiques. Cela signifie également qu'un même appareil (micro-ordinateur pour le CD-Rom ou télévision pour le CDI) peut permettre d'accéder à cet ensemble d'informations là où, hier, plusieurs étaient nécessaires.

Ceci devrait enfin entraîner un renouvellement de la conception, de la présentation et du contenu des produits concernés, mais aussi la création et le développement de nouveaux produits ou services dont la jeunesse de l'outil multimédia ne permet, aujourd'hui, d'avoir qu'une vue bien approximative. Il suffit, pour s'en persuader, de se rappeler ce qu'eurent comme conséquences les grandes inventions intervenues dans les secteurs concernés : le micro-ordinateur, la télévision, la radio, le cinéma, le téléphone et... l'imprimerie.

2. L'augmentation exponentielle de la puissance des ordinateurs

L'évolution vers la numérisation de tous les types de messages s'est longtemps heurtée aux limites des capacités informatiques. Si la dactylographie, d'une page de texte sur un ordinateur, mobilise quelque 20.000 unités de code numérique (ou bits), l'enregistrement des images qui composent une seconde de film vidéo réclame 27 millions de bits. Un rapport de 1 à 1.000 !

C'est, en définitive, le formidable accroissement de puissance des micro-processeurs -le moteur des ordinateurs- qui a engendré la banalisation du support numérique. La loi formulée de manière empirique, en 1965, par Gordon Moore (l'un des fondateurs d'Intel) s'est, en effet, constamment vérifiée depuis : à prix constant, la puissance des micro-processeurs (ou puces) double tous les dix-huit mois.

Cela signifie que, pour le prix d'un micro-ordinateur acquis en 1980, on pouvait acheter un équipement 4 fois plus performant en 1983, ce rapport passant à 16 en 1986, à 64 en 1989, à 256 en 1992 et à ...1.000 en 1995.

Pour les experts, il est probable que la loi de Moore va continuer à jouer pendant encore une vingtaine d'années. Si c'est le cas, dans quinze ans, à prix constant, un micro-ordinateur sera 1.000 fois plus rapide qu'aujourd'hui -un million de fois plus qu'en 1980 !- et, en 2016, un calcul qui réclame actuellement 24 heures de traitement durera à peine plus de 5 secondes.

Avant-hier, un super-calculateur aurait été nécessaire pour manipuler les informations numériques représentant une minute de film vidéo ; hier, c'était possible sur une grosse station de travail ; aujourd'hui, un microordinateur suffit ; demain, une calculette de poche y pourvoira...

3. Le développement des techniques de transmission

Numérisation de tous les types de messages, essor des capacités informatiques sont perçus comme annonciateurs d'une véritable explosion de la diffusion et de la consommation d'informations parce que ces évolutions s'accompagnent d'importants progrès dans les techniques de transmission : compression de données, numérisation de la chaîne de transmission, commutation temporelle asynchrone (ATM) et utilisation de la fibre optique.


• Il est certes très pratique de savoir tout convertir en représentations numériques mais -nous l'avons vu- le nombre de bits nécessaires au codage de la totalité d'une information complexe peut être considérable. Le stockage d'une heure et demie de film vidéo en réclame près de 2,5 milliards, l'équivalent de ce qui est nécessaire pour emmagasiner 150.000 pages de texte. De telles quantités de codes peuvent noyer la mémoire d'un ordinateur ou mettre un temps considérable à circuler entre ordinateurs.

D'où le caractère fondamental pour le traitement et la communication de données multimédia des techniques de compression dont, pour ce qui concerne l'image, la mise au point n'a abouti que récemment car les composants électroniques nécessaires aux programmes d'exécution étaient irréalisables auparavant. Fondées sur les théories du mathématicien Claude Shannon, ces techniques permettent d'identifier et d'éliminer, comme redondantes, toutes les données qui ne fournissent pas une information unique. Or, il y a beaucoup de redondances dans les images qui composent une seconde de film vidéo. Pour une retransmission, on peut compresser l'information de 27 millions de bits à 1 million...

Dominique Nora, dans son livre « Les conquérants du Cybermonde » relève d'une formule très expressive l'intérêt d'une telle opération : « Comme la déshydratation d'un jus d'orange pressée, la compression de données multimédia change considérablement l'économie de la matière première. Dans une bouteille de capacité donnée, vous pouvez transporter beaucoup plus de concentré que de jus frais... ».

Ainsi, dans le domaine de la télévision, la combinaison des techniques de numérisation et de compression va permettre de diffuser des dizaines de programmes là où un seul était transmis. Il devrait en résulter une explosion de l'offre.

Cependant, les progrès de la compression peuvent aussi avoir comme effet de revaloriser des supports de transmission très répandus, mais ne pouvant pas transporter de très hauts débits : les fils de cuivre qui composent la plus grande partie du réseau téléphoniques. D'ores et déjà, certaines technologies assurant de très fortes compressions de l'image permettent d'assurer la circulation de l'équivalent de six programmes de télévision en simultanée sur les fils du téléphone. En bref, grâce au « tassement » des données, on peut désormais faire passer de plus en plus d'informations dans des « petits tuyaux », sans avoir à en augmenter le diamètre ou à les remplacer par des « pipe-line ».

En d'autres termes, si les avancées technologiques enregistrées en ce domaine se poursuivent, on pourrait envisager parallèlement aux grandes inforoutes à hauts débits, la transformation à moindre coût des chemins vicinaux de l'information en voies expresses départementales pouvant répondre à beaucoup des demandes des particuliers.


• Parallèlement, on assiste au début de la numérisation de l'ensemble de la chaîne de transmission (de l'émission du signal à sa réception, en passant par sa commutation). Ceci permet d'éviter les distorsions, pertes d'information ou lenteurs d'acheminement qui résulteraient de la communication d'un volume important de données sur un mode analogique (qui transforme les informations en impulsions électriques et non en code informatique).

Alors que la transmission analogique est lente et susceptible de dégradation ou de parasitage en cours de manipulation, la transmission numérique assure la reconstitution du signal originel dans toute sa pureté.

Déjà, en France, le réseau Numéris offre cette continuité numérique, mais uniquement à bas débit.


La commutation temporelle asynchrone (ATM), conçue par le Centre national d'études des télécommunications (CNET), participe au premier plan à cette adaptation des techniques de transmission aux exigences des transferts multimédia.

Elle permet d'établir des liaisons à débit variable selon la demande, et de garantir la continuité du débit avec un retard acceptable pour les communications audiovisuelles. Énorme avantage, elle permet donc de traiter indifféremment des liaisons vocales, de données et audiovisuelles, et de commuter efficacement les signaux à très haut débit.

Adoptée en 1988 par la Comité consultatif international télégraphique et téléphonique, organisme de l'Union internationale des télécommunications chargé de la normalisation, cette technique n'est pas encore déployée dans l'ensemble des réseaux de télécommunications, mais des expérimentations ont eu lieu dans de nombreux pays, et en France dès 1993.

La même technique étant également proposée par les constructeurs d'informatique pour les réseaux locaux d'entreprise, on devrait ainsi obtenir pour la première fois une homogénéité technique entre les réseaux locaux informatiques et les réseaux publics de télécommunications.


• Quelles que soient l'efficacité des nouveaux modes de transmission et celle des programmes de compression, il n'en demeure pas moins que la circulation de produits multimédia sophistiqués sur un réseau ne peut s'envisager que si ce réseau peut débiter rapidement d'importants volumes d'information.

Pour fixer les idées, rappelons si, au sein d'un même foyer, deux téléviseurs fonctionnent simultanément pendant que l'un des membres de la famille opère une consultation multimédia, la sollicitation du réseau suppose un débit 1.000 fois supérieur à celle d'une télécopie et 10.000 fois supérieur à l'emploi du Minitel.

C'est pourquoi, le support de transmission le plus souvent associe aux autoroutes de l'information est la fibre optique. Ce fil de verre ou de plastique de quelques microns d'épaisseur où les signaux binaires se déplacent sous forme de lumière modulée présente en effet le double avantage :

- d'assurer la transmission du signal sur de très longues distances (80 kilomètres in situ) sans qu'il soit nécessaire d'en prévoir une régénération et une réamplification (au contraire de ce qu'imposent les câbles électriques) ;

- de réaliser des transmissions à très haut débit dans les deux sens (une seule fibre peut véhiculer simultanément 4.000 communications téléphoniques).

France Télécom a commencé à utiliser ce support au début des années 1980 pour ses réseaux international et national. L'opérateur l'a depuis étendu à son réseau régional. A la mi-1995, il avait installé un peu moins de 50.000 kilomètres de câble en fibre optique sur l'ensemble du territoire français.

L'opérateur national ne néglige pas pour autant l'hypothèse de l'introduction de la fibre optique dans ses réseaux locaux. En 1990, il a chargé le CNET d'une mission d'étude sur ce thème, baptisée Radôme. France Télécom a ainsi exploré les diverses contraintes technico-économiques associées à trois grands scénarios : la FTTC (Fibre To The Curb, fibre jusqu'au trottoir), la FTTB (Fiber To The Building, fibre jusqu'à l'immeuble) et la FTTH (Fiber To The Home, fibre jusqu'au domicile).

Les deux premières solutions sont les moins onéreuses, car elles permettent de desservir des groupes d'abonnés et de réduire ainsi les coûts. La fibre optique s'arrêtant soit en bas de l'immeuble soit au niveau du trottoir, le client accède ensuite aux équipements communs par un raccordement classique. Les grandes entreprises de la région parisienne connaissent déjà ce type de services avec le plan de « raccordement optique flexible » (ROF). C'est un programme d'envergure, mais sans commune mesure avec une décision qui consisterait à amener un câble optique dans tous les foyers. Dans ce dernier cas, les coûts seraient beaucoup plus importants.

B. L'ÉMERGENCE D'UNE INDUSTRIE DU MULTIMÉDIA

La généralisation de la numérisation et l'unification des « techniques de gestion du signe » qui en résulte, associée aux autres évolutions qui viennent d'être décrites, entraîne une disparition des clivages existant entre des métiers et des secteurs économiques jusqu'alors séparés. Ils tendent à se fondre dans un ensemble encore flou qu'on désigne communément sous le terme « multimédia ».

Cette industrie du multimédia est en voie de constitution. Elle a vocation à englober les entreprises de télécommunications, en possession du savoir-faire, du « contenant », et les entreprises de l'informatique, de 1'audiovisuel et de la communication, qui proposent des produits ou des prestations utilisant des réseaux électroniques, c'est-à-dire le « contenu ».

1. Les regroupements d'entreprises

Les cinq dernières années ont été marquées par l'apparition accélérée d'une nébuleuse presque planétaire d'alliances, constituées par le jeu de fusions-absorptions ou des prises de participation, entre les divers pôles industriels concernés. Ces alliances ont été motivées par la recherche de complémentarités entre des entreprises qui maîtrisent les technologies de la communication et celles qui offrent des services d'information.

Il ressort ainsi d'une étude de la société Apredia, dont les résultats ont été publiés en novembre 1995, que, si 15 accords avaient été conclus en 1993, 56 l'avaient été en 1994 et 141 l'ont été sur les seuls huit premiers mois de 1995.

Sans fournir la liste exhaustive de ces alliances, ont peut citer :

Microsoft/Intel/General Instrument
Microsoft/NBC
Walt Disney/ABC
Westinghouse/CBS
MCI/NewsCorporation
AT&T/NTT/Sony/Apple
AT&T/MCA/TimeWarner/3DO
Microsoft/TCI
Viacom/Paramount
US West/Time Warner
Time Warner/TBS (CNN)
Time Warner/TCI/Sega

On remarquera que les entreprises américaines sont omniprésentes dans ces alliances. Elles sont impliquées dans 72 % d'entre elles, alors que les Japonais n'y participent que pour 20 % et les Européens pour 42 %.

S'agissant de notre pays, on évoquera quelques partenariats : France Télécom/France Télévision ; Canal Plus/CLT 1 ( * ) / Bertelsmann/ Philips. On peut, de même, rappeler la prise de contrôle de Canal Plus par la Compagnie Générale des Eaux et la Société générale, ainsi que le lancement de Multivision par la Lyonnaise-Communication, France Télécom, la CLT et TF1. On peut, enfin, évoquer la confirmation, au début de février 1996, de l'alliance entre France Télécom, Deutsche Telekom et Sprint pour les services de télécommunications aux grandes entreprises. Mais on trouve aussi un consortium regroupant le français Thomson et Toshiba ainsi que Time Warner pour le développement du CD-Rom de grande capacité (DVD).

Ces alliances en série ne remodèlent donc pas seulement l'avenir des Américains, mais aussi le nôtre. Les participations croisées qui ont été prises depuis cinq ans, entre des secteurs industriels a priori aussi disparates que ceux qui viennent d'être cités, sont autant de signes esquissés sur la carte d'un futur incertain.

2. Un enjeu économique considérable

La cartographie que dessinent ces alliances révèle les lignes de force de ce que pourrait être une économie de multimédia. Les enjeux que recèle cette émergence sont, à la fois sur le plan planétaire et pour notre pays, considérables.

a) Sur le plan international, les services vont connaître l'expansion : du téléloisir au télétravail

Beaucoup d'observateurs estiment qu'avec des réseaux à « large bande », trois grandes catégories de services sont promis à un fort développement : la télévision interactive, le télé-dialogue, la télé-consultation de données.


La télévision interactive

Susceptible d'attirer des millions de consommateurs au prix d'investissements physiques peu importants, la télévision interactive peut être, à l'heure actuelle, considérée comme un des axes du développement des services multimédias.

Selon une étude réalisée en 1994, les dépenses des prestataires de télévision interactive en Europe passeraient, de 1995 à 2005, de 649 millions de dollars à 11,4 milliards de dollars pour un revenu qui passerait, dans le même temps, de 120 millions de dollars à 13,1 milliards de dollars.

La télévision interactive permet trois services distincts, dont certains sont déjà familiers aux Français :

- la télévision à la carte ou télévision à paiement à la séance, qui consiste à diffuser « en boucle » les programmes, le téléspectateur se connectant quand il le souhaite. En France, c'est le « Visiopass » ;

- la vidéo à la demande, où le spectateur choisit sur catalogue un programme qui lui est diffusé à l'heure qu'il souhaite ;

- le dialogue avec les téléspectateurs, grâce auquel ceux-ci pourront, en temps réel, en direct, dialoguer avec l'animateur. Le câble vidéo, associé à une caméra filmant le téléspectateur, permettra ce dialogue dont le principe existe déjà sur les chaînes françaises avec des moyens téléphoniques.


• Le télédialogue
: du forum à l'entreprise virtuelle ?

En dehors de toute intervention des chaînes de télévision, les réseaux électroniques ouvrent de nouvelles formes de dialogue entre les hommes :

- les jeux entre un ou plusieurs utilisateurs et un serveur, sur la base d'un logiciel, sont une forme de ce dialogue ;

- le télédialogue ou télécourrier permettra l'échange de textes, d'images, de sons ou de données informatisées (EDI), constituant, progressivement, un forum de discussion.

Sur cette base, peuvent se constituer de véritables entreprises « virtuelles », regroupant des employés voire des apporteurs de capitaux ou de savoir-faire, dont l'implantation géographique pourra n'être matérialisée nulle part, à l'exception de la boîte postale de leur siège social. Ces entreprises, à l'instar de ce que l'on constate déjà sur Internet, peuvent être fugaces, se constituant pour un objet conjoncturel et se défaisant dès que celui-ci sera atteint. Existant déjà au niveau de la PME, elles sont parfois transnationales. Demain, elles pourraient être de grande taille et de dimension planétaire.


La téléconsultation de données : les téléservices

Les autoroutes de l'information offriront les services « en ligne », que sont les services de consultation de banques de données, de textes, d'images, de films, de bandes musicales, ou de services commerciaux : téléachat, télémarketing, services de réservation, renseignements touristiques -éventuellement avec visionnage des sites-, livraison à domicile, banque à domicile, services transactionnels divers.

Une des applications les plus attendues est la prestation de services éducatifs ou culturels (visite de musées, consultation de catalogues, visionnage d'oeuvres d'art, etc.). Des expérimentations s'appuyant sur le présent de loi sont, d'ailleurs, envisagées en ce domaine. Les éditeurs français ont commencé à se lancer dans la conception de programmes (Hachette, Larousse, Bordas....) parfois en recourant à l'image de synthèse ou image virtuelle.

Une étude commandée par le ministère de l'intérieur et de l'aménagement du territoire et réalisée en 1993-1994 à partir des données du BIPE, de l'INSEE et de l'IDATE a présenté des prévisions de croissance des téléservices français, qui sont rassemblées dans le tableau ci-après.

LA CROISSANCE PRÉVISIBLE DES TÉLÉSERVICES EN FRANCE

Selon le consultant Big Stratégic Decisions, la progression des téléservices en Europe -dont 70 % concernent la téléphonie vocale- devrait se maintenir à hauteur de 7 % l'an jusqu'en 1998, année au cours de laquelle ces services représenteraient quelque 200 milliards de dollars.

b) Sur le plan national : l'aménagement du territoire devra accompagner l'essor industriel et l'équipement des ménages


• L'enjeu que représente, en termes d'ingénierie civile et de coût, le câblage en fibre optique est d'importance.

Le réseau national français comportait, à la mi-1995, environ 17.000 km de câbles en fibre optique ; à la fin de 1996, il en comptera 21.000 km. Dans les réseaux régionaux, 30.000 km de câbles existent ; il devrait en exister 80.000 km en l'an 2000. Au total, France Télécom prévoit d'installer, entre 1995 et 1999, quelque 200.000 km de câbles en fibre optique.

Il a été estimé que le câblage (ou le re-câblage) de tous les Français en fibre optique coûterait au minimum 150 milliards de francs.


• Deuxième enjeu au niveau national : l'équipement des ménages en matériels et services multimédia.

Il faut savoir qu'au 31 novembre 1995, on ne comptait qu'un million huit cent mille abonnés au câble, y compris les abonnements collectifs. On ne comptait, de même, que 570.000 lecteurs de CD-Rom et que 300.000 foyers équipés d'un ordinateur bénéficiant d'une configuration multimédia.

Potentiellement, le développement du marché français est loin d'être négligeable si on le rapproche du nombre d'abonnés au téléphone (31,6 millions) et du nombre de récepteurs de télévision (23,2 millions).

Selon le BIPE, dans les cinq années à venir, le parc français de micro-ordinateurs sera de 5 millions d'unités (soit 25 % des foyers), dont 80 % seront équipés d'un CD-Rom et 25 % d'un modem.

En outre, des produits nouveaux vont se substituer aux traditionnels téléviseurs : décodeurs de télévision par satellites (DSS), compact-disques interactifs (CDI, CD photo), décodeurs numériques, lecteurs de DVD (c'est-à-dire de CD-Rom de très grande capacité) et mini CD-Rom. A ce niveau, se livrent actuellement d'importantes batailles entre les constructeurs d'ordinateurs individuels et les constructeurs de téléviseurs.


• Mais l'essor industriel et l'équipement des ménages vont devoir être accompagnés d'une vigilante politique d'aménagement du territoire.

L'équipement à réaliser pour le maillage de notre territoire en réseaux électroniques de grande capacité peut, d'une certaine façon, se comparer à ce qui a été fait, dans notre pays, dans la seconde moitié du XIXème siècle pour la construction des lignes de chemins de fer. L'enjeu et ses conséquences prévisibles sont considérables.

On notera que l'article 20 de la loi n° 95-115 du 4 février 1995 d'orientation pour l'aménagement et le développement du territoire -qui sera analysé par ailleurs- a fixé un cadre général à la préparation de cet équipement. Si les commentateurs s'accordent pour estimer qu'en 2005, toutes les villes de 10.000 habitants et plus devront être raccordées à de la fibre optique, la question est, en effet, de savoir quel sera le taux de raccordement des villes moyennes et petites et de l'espace rural.

3. Des estimations positives mais limitées pour l'emploi

Les autoroutes de l'information créeront des emplois : c'est un espoir. Elles en supprimeront : c'est une inquiétude. Des secteurs économiques comme la presse, l'édition, l'imprimerie, la poste, les télécommunications, l'enseignement sont en cause.

* Le télétravail, né de la rencontre du téléphone, du fax et du micro-ordinateur va -du moins peut-on le penser- connaître un essor grâce aux autoroutes de l'information.

L'application la plus répandue est le travail à domicile. Une enquête réalisée en 1994 a montré que 43 % des Américains effectueraient une partie de leur travail chez eux. Dans notre pays, la situation du télé-travail est plus modeste mais beaucoup considèrent qu'elle devrait croître. Le travail féminin, des mères de famille notamment, devrait en être facilité.

La sous-traitance devrait être stimulée, donnant lieu à la création de multiples petites et moyennes industries ou entreprises, notamment en matière de standard téléphonique, de comptabilité, de surveillance, de maintenance, de secrétariat voire même de consultation, de contrôle de gestion, d'audit.

Enfin, le télé-travail devrait permettre une certaine relocalisation d'emplois. 158.000 emplois seraient concernés à l'horizon 2005. De ce point de vue, le télé-travail pourrait constituer un outil de reconquête du territoire, ainsi que l'a montré la Mission sénatoriale d'information sur l'aménagement du territoire 1 ( * ) . On notera cependant que le rapport au ministre de l'Intérieur déjà évoqué sur les téléservices en France affirme : « Lorsqu'il n'y a pas de volonté affichée d'avoir un impact sur l'aménagement du territoire, les téléservices ont plutôt tendance à s'installer en zones urbaines » 1 ( * ) .

Par ailleurs, dès lors qu'il rendra possible une délocalisation de l'activité, le télé-travail pourrait aboutir à de nouvelles dénationalisations d'activités au profit de pays à faible coût de la main d'oeuvre.

Les effets éventuellement néfastes du télé-travail ne doivent donc pas être négligés.

* La mondialisation de l'offre et des marchés qu'impliquent les téléservices aura, enfin, un effet sur l'emploi. Cet effet sera toutefois limité.

Selon le rapport, déjà cité, sur « Les téléservices en France » 2 ( * ) , les emplois créés grâce au développement des téléservices pourraient, au mieux, atteindre 90.000 à l'horizon 2005 et les emplois supprimés pourraient atteindre, au pire, 30.000 dans le même délai. On voit que l'impact de l'évolution reste relativement modeste sur la décennie à venir.

L'emploi, selon le même rapport, serait créé par des offres à relativement faible valeur ajoutée. Les applications comme le téléenseignement et la télémédecine ne devraient avoir que des impacts marginaux en termes d'emploi.

C. UN PROJET FORMULÉ OUTRE-ATLANTIQUE

1. Une image simple à usage de campagne électorale

Si l'actuel Vice-Président des États-Unis, Al Gore, n'est pas le père du concept que recouvre l'expression « d'autoroutes de l'information », il est sans conteste celui de ses promoteurs qui a su en assurer le succès médiatique.

Il a popularisé la formule, à l'automne 1992, au cours de la dernière campagne présidentielle américaine, pour illustrer auprès des électeurs sa proposition d'entreprendre la conquête d'une « nouvelle frontière » : celle de l'information, à l'image du défi spatial que John Kennedy avait décidé de relever en 1961.

Derrière le projet, il y a la conviction que la mise en place d'un système de transport de l'information à haut débit -permettant notamment de connecter les foyers et les entreprises américaines aux millions d'ordinateurs stockant et traitant des masses considérables de données- aura un impact équivalent, sur le développement économique et social des États-Unis, à celui des investissements publics dans les infrastructures de transport au 19e siècle.

Le nom retenu aurait, d'ailleurs, été choisi par référence à la construction, engagée à l'époque d'Eisenhower, du réseau des autoroutes inter-États qui maille aujourd'hui l'ensemble du territoire américain.

2. Une réalité plus subtile

La métaphore routière est parlante. A preuve, son succès ! Elle n'est pas non plus sans pertinence. Il s'agit bien de construire un nouveau réseau de communication.

Cependant, elle ne reflète que partiellement l'idée qu'elle recouvre. Elle suggère, en effet, une géographie et une nécessité de déplacement. Or, le réseau dont il est question a pour première caractéristique d'éliminer les distances. Il permet, indifféremment, la connexion à un ordinateur situé dans l'immeuble d'en face ou à un autre installé aux antipodes.

Bill Gates, le Président-Directeur général de Microsoft, parle plutôt de « système d'information au bout des doigts » pour souligner que le changement fondamental induit par un réseau multimédia réside davantage dans le service que dans l'infrastructure.

Dans son dernier ouvrage, « La route du futur », il avance le terme de « marché ultime », exprimant sa conviction que ce réseau multimédia deviendra « le grand magasin planétaire », « l'endroit où les animaux sociaux que nous sommes vendront, négocieront, investiront, marchanderont, choisiront, débattront, flânerons, se rencontreront ». Et il exhorte : « Quand vous entendez « autoroutes de l'information », ne pensez pas route, mais plutôt place ou Bourse. Imaginez la foule remuante de Wall Street ou d'une foire aux bestiaux. Ou bien une librairie remplie de clients en quête d'informations et d'histoires palpitantes. ».

Cette dernière image rend, sans doute, mieux compte que celle d'Al Gore de ce qui fascine aujourd'hui les « Internautes », les utilisateurs d'Internet, la préfiguration de ce que pourrait être le futur réseau multimédia planétaire.

3. Une préfiguration : Internet

Internet constitue, en effet, le plus vaste maillage informatique existant. Ce « réseau de réseaux » est, en quelque sorte, à la fois brouillon et architecture des futures autoroutes de l'information.


Naissance et croissance de la « planète Internet »

En 1969, quelques jeunes scientifiques américains, commandités par l'Agence pour les projets de recherche avancée du Pentagone (ARPA), ont cherché un moyen de relier entre eux les ordinateurs de recherche des grandes universités américaines.

En pleine guerre froide, les États-Unis cherchaient ainsi à bâtir une infrastructure de communication capable de résister à une déflagration nucléaire.

C'est ainsi qu'est né le réseau Arpanet, financé par l'ARPA.

Mais, loin de ne servir qu'aux échanges scientifiques, le réseau est vite devenu un moyen de communication à part entière, les chercheurs ayant rapidement commencé à l'utiliser comme système de messagerie électronique pour s'envoyer des correspondances.

Il a ensuite été étendu à un certain nombre de pays étrangers. La connexion de normes très différentes a nécessité la mise en place d'un ensemble de protocoles de transmission et de routage, conçus par Vinton Cerf, qualifié pour cette raison de « père » d'Internet.

Ce système est caractérisé par « une grande faculté d'adaptation technologique, l'inter-opérabilité entre des systèmes hétérogènes, ainsi qu'un mode de transmission assez robuste pour continuer à fonctionner, même en cas de rupture de certaines liaisons » 1 ( * ) .

Comme l'explique Dominique Nora 2 ( * ) , « chaque message est en réalité coupé en petits paquets de moins de 2.000 caractères, qui peuvent emprunter des voies différentes (réseaux câblés, téléphoniques ou informatiques, ondes satellitaires) avant de venir se reconstituer sur le disque dur du destinataire final. Si, pour une raison ou pour une autre, le chemin le plus direct est interrompu, ces lots de données sont automatiquement réaiguillés sur des itinéraires alternatifs. Si bien que l'Internet se trouve parfois être la seule voie de communication fiable vers une région coupée du monde : par exemple Moscou, pendant le coup d'État d'août 1991, ou Los Angeles, après le tremblement de terre de février 1994 ».

C'est, en fait, à partir de 1986 que l'on a mesuré l'étendue des potentialités commerciales que recèle Internet et que le monde des affaires a commencé à s'y intéresser.

Depuis, le nombre d'utilisateurs connaît une progression exponentielle : + 10 % par mois en 1994.

D'une infrastructure militaro-scientifique héritée de la guerre froide, Internet est ainsi devenu, en deux décennies, un ensemble de plus de 35.000 réseaux, reliant quelque 3,5 millions d'ordinateurs hôtes et probablement plus de 30 millions d'usagers dans une centaine de pays.

Depuis 1988, le Net double chaque année le nombre de ses utilisateurs et de ses réseaux ainsi que le volume de son trafic. Si cette tendance se maintient, c'est 180 à 200 millions d'ordinateurs qui pourraient se connecter sur le réseau à la fin de l'année 2000, c'est-à-dire 600 à 700 millions de personnes. Aucune technologie électronique mise à la disposition des consommateurs ne s'est développée aussi rapidement dans le passé.


Une véritable « toile d'araignée mondiale »

En fait, le véritable facteur d'explosion d'Internet réside dans la popularité de l'un de ses sous-réseaux : le « World Wide Web », qui a été développé en 1992 et a commencé à se répandre dans le réseau en 1993.

L'idée de base du « web » est de tisser des liens entre les serveurs électroniques du monde entier. Il permet à l'usager de naviguer de façon très simple entre des dizaines de milliers de sites, rattachés les uns aux autres par des liens « hypertexte ».

La meilleure image pour se le représenter serait celle d'une « toile d'araignée mondiale », qui présenterait comme caractéristique novatrice la possibilité donnée à chacun d'être à la fois un consommateur et une source d'informations.

Le web repose sur trois concepts principaux : la navigation par « hypertexte », le support multimédia et l'intégration des services préexistants.

Comme l'explique Christian Huitema 1 ( * ) « L'organisation d'un document en « hypertexte » permet d'informatiser ce processus (de recherche itérative de l'information). Certains des mots peuvent être marqués comme des « clefs d'accès ». Quand on lit un paragraphe contenant une de ces clefs d'accès, il suffit de cliquer sur le mot correspondant pour en afficher la définition, pour continuer la lecture à la page où le mot est défini. Le web est organisé autour de ce concept. Quand on conçoit une « page web », on peut marquer certains mots comme des clefs d'accès et y associer un pointeur vers une autre page. L'autre page n'est pas tenue d'appartenir au même livre, au même serveur.

(...)

L'utilisateur du web navigue de page en page et peut ainsi parcourir l'Internet.

(...)

Le web permet des mises en pages sophistiquées. On peut organiser le texte en listes et paragraphes, insérer titres et sous-titres. On peut aussi y insérer des images et des illustrations sonores, réalisant ainsi des documents « multimédias ». On peut associer des pointeurs vers d'autres pages non seulement aux mots du texte, mais aussi aux images, voire à un morceau de ces images.

(...)

On peut aussi s'en servir pour charger des documents préexistants, par exemple des fichiers contenant des textes déjà mis en pages, des images, voire des séquences vidéo. Les dialogues entre clients et serveurs du web permettent en effet aux serveurs de signaler le « type de contenu » de la « page » accédée, en utilisant d'ailleurs exactement les mêmes codages que MIME, l'extension multimédia de ta messagerie. Pour utiliser le web, il faut activer un programme, comme par exemple Mosaic ou Netscape. Quant le client « clique sur un pointeur », ce programme envoie une requête au serveur. Si le type de contenu fait partie de ceux qui, comme le texte, les images ou le son, ont été « pré-programmés », le programme se charge lui-même de les « présenter », c'est-à-dire de les écrire, de les dessiner ou de les jouer. Sinon, si par exemple il s'agit d'une séquence vidéo, on la recopiera dans un fichier puis on appellera un autre programme pour la jouer à l'écran.

Cette capacité à traiter des documents multimédias explique pour une large part le succès du web. Mais la vitesse avec laquelle ce système s'est déployé dans l'Internet s'explique aussi par sa capacité à intégrer des services préexistants. Chacun de ces services (...) a sa propre structure de dialogue, son propre protocole d'accès. En principe, ces protocoles sont incompatibles ». Pour Christian Huitema, essayer de les brancher entre eux, c'est un peu comme : « essayer de parler hébreu à un chinois. On aura de la peine à communiquer. Mais heureusement, les protocoles d'échanges sont plus faciles à apprendre à un ordinateur que l'hébreu ou le chinois. On peut donc facilement programmer un logiciel d'accès au web pour qu'il parle plusieurs langues (...). Cela va permettre de créer des pages web qui pointent non seulement vers des serveurs web, mais aussi vers des serveurs de news, de fichiers ou de documents ».

C'est ce qu'on appelle l'inter-opérabilité ou la connectivité universelle, qui explique le succès d'Internet.

Il s'agit là d'un véritable forum de l'échange électronique, que Dominique Nora décrit ainsi :

« Les réseaux de proximité comme ECHO -en français « babillard » pour traduire le Bulletin Board System américain- ne sont que les petits « villages » d'une véritable planète de l'échange électronique. Aux États-Unis, ce mode virtuel de la communication par ordinateur, cet « au-delà de l'écran » immatériel, a un nom : le cyberspace. Le cybermonde forme à présent un univers à part entière. Il a sa matrice : l'Internet, ou réseau des réseaux, qui relie une trentaine de millions de personnes dans le monde entier. Il a ses nombreuses mégalopoles : la demi-douzaine de grandes banques de données commerciales comme Prodigy, Compuserve ou America Online totalisant mi-1995 plus de 7 millions d'abonnés. Il a, enfin, ses innombrables petits villages ou babillards comme ECHO. Les États-Unis en compteraient, à eux seuls, 45.000, soit 12 millions d'utilisateurs réguliers.

Mais, qu'ils conversent sur Internet, sur America Online ou sur ECHO, les membres d'un même groupe développent un tel sens d'appartenance qu'ils forment une véritable « communauté virtuelle », défiant souvent les contraintes de la géographie et des fuseaux horaires ».


• L'avenir de la « cyberaventure »

Géant décentralisé, présentant les avantages de la flexibilité, d'une large diffusion et d'un faible coût, Internet pourrait, selon M. Gérard Théry 1 ( * ) , « devenir, après amélioration, le vecteur américain prioritaire des autoroutes de l'information, avec le bénéfice d'une implantation internationale et d'une avance concurrentielle en termes de services et d'équipements ».

D'aucuns craignent cependant que cette sorte de « mémoire universelle » ne soit l'outil d'une société globale, voire totalitaire, du type « Big Brother ».

Mais, le caractère décentralisé du réseau prémunit contre tout excès de cette nature, puisqu'aucune autorité centrale ne gouverne Internet, qui n'est à proprement parler dirigé par aucune « tête ».

Il est pourtant vrai que les avantages d'Internet marquent aussi ses limites. Certains risques sont ainsi dénoncés, qui tiennent au non respect de la vie privée, à la propagation de la pornographie, du terrorisme, voire à la possible atteinte à la sécurité de l'État, dans la mesure où le Net ne comporte aucun système de sécurité. On sait, en effet, par exemple, que les réseaux informatiques du Pentagone ont été infiltrés.

En outre, son mode de fonctionnement coopératif, la complexité des moyens de facturation disponibles en font encore un réseau mal adapté à la fourniture de services commerciaux. Sans compter qu'il n'existe pas d'annuaire de ses utilisateurs ou des services proposés. En 1993, le chiffre d'affaires mondial qu'il engendrait ne correspondait qu'au douzième de celui du Minitel.

Cependant, son succès témoigne de la naissance, certes quelque peu anarchique, d'un monde riche de perspectives prometteuses.

Avec un chiffre d'affaires estimé à 500 millions de francs en 1994, le marché démarre à peine. Internet est aujourd'hui considéré comme une source de revenus potentiels considérables.

On peut d'ailleurs observer que nombre de personnes passent d'un comportement de crainte à une attitude très constructive à l'égard du réseau.

Selon M. Gérard Théry, Internet est un « instrument déterminant de structuration des initiatives en matière industrielle et de services ».

Les militants du « cybermonde » ne pourraient-ils pas avoir raison quand ils pronostiquent que, au début du 21e siècle, « il sera aussi ridicule d'être dépourvu d'adresse électronique que de ne pas posséder aujourd'hui de numéros de téléphone ! » 1 ( * ) ?


La nouvelle donne française

La France doit donc prendre sa place dans le monde Internet.

Conscient des enjeux, M. François Fillon, Ministre des technologies de l'information -et lui-même cybernaute...- en a fait une de ses priorités.

C'est dans ce contexte que France Télécom vient d'annoncer deux mesures très positives :

- l'ouverture d'un kiosque Internet qui, s'appuyant sur le savoir-faire en matière de Minitel, permettra à tous de « surfer sur le Net » au tarif téléphonique local (soit un maximum de 73 centimes pour 3 minutes), quelque soit la provenance de l'appel. Le kiosque rémunérera les fournisseurs d'information à la durée. Il s'agit là d'une excellente mesure en matière d'aménagement du territoire, puisqu'antérieurement dans les zones ne disposant pas d'un point d'accès à Internet -et c'était le cas de la plupart des zones rurales- l'utilisation du « réseau des réseaux » se faisait au prix des communications interurbaines ;

- l'extension de l'annuaire électronique à Internet. On disposera ainsi d'un annuaire unique incluant l'adresse électronique, à côté des numéros de téléphone et de télécopie.

Certes des incertitudes demeurent sur :

- le rythme de croissance d'Internet en France. Le prix du service complet restera, en effet, élevé en raison de la facturation à l'unité de communication, alors que pour un abonnement d'une quinzaine de dollars par mois, un américain peut faire partie du monde des « Internautes »... ;

- les risques de saturation des fournisseurs d'accès à Internet.

Quoiqu'il en soit, il faut être conscient qu'Internet n'est pas un simple phénomène de mode, chacun -administrations, universités, entreprises...- voulant afficher sa « cyberdevanture ». II s'agit véritablement d'une préfiguration de ce que seront les autoroutes de l'information.

Il est certain, comme le dit Gérard Théry, qu'Internet ne saurait « dans le long terme, constituer à lui tout seul, le réseau d'autoroutes mondial ».

Mais il est, de façon certaine, le précurseur dans ce domaine et il prouve « qu'il existe une demande fortement croissante pour un réseau universel capable de véhiculer des informations de toute nature, et en particulier du multimédia ».

4. Des incidences sociales encore difficilement évaluables

En dépit des premières illustrations données par le fonctionnement d'Internet, les incidences des autoroutes de l'information dans la sphère du social ne peuvent encore qu'être ébauchées ou soupçonnées. Certains commentateurs assurent toutefois que les conséquences culturelles, à l'échelle de la civilisation, des autoroutes de l'information pourraient être aussi importantes que celles de l'invention de l'imprimerie. La tentative d'inventaire qui suit doit donc être considérée comme relevant plus de la mise en ordre d'interrogations éparses que d'une description scientifique.


• Le concept de l'entreprise et le droit du travail, la fiscalité des entreprises
seraient fragilisés. A la limite, conserveraient-ils un sens, s'agissant d'entreprises virtuelles, fugaces, aux personnels délocalisés et aux prestations peu saisissables dans leur matérialité ? Quelle signification conserveraient des notions aussi essentielles de notre droit que : siège social, immobilisations, bénéfice consolidé ?

Ne va-t-on pas vers une redéfinition de la notion de temps de travail si se multiplient télé-travail et travail mixte ? Enfin, quelle place va tenir l'ergonomie, c'est-à-dire l'aménagement des postes de travail dans l'évolution du droit du travail et des négociations professionnelles ?


Le droit de la propriété intellectuelle, le droit de la presse et de l'édition pourraient, de même, être profondément déstabilisés. Quelle signification aurait l'interdiction de vente d'un livre sur le territoire national si on peut le lire en empruntant les autoroutes de l'information ?

Va-t-on, comme l'avancent certaines Cassandre, vers une culture hégémonique ? Peut-on parler d'un risque de « canonnière culturelle » 1 ( * ) ?

Comment pourront-être perçus des droits d'auteur si aucun organisme de contrôle -au niveau mondial- ne s'assure de leur mise en jeu ? On imagine les effectifs humains nécessaires à un tel contrôle.

Comment protéger l'enfance contre l'agression des images ou de logiciels à caractère violent ou pornographique ? Comment interdire la circulation d'images ou de logiciels de caractère raciste, ou incitant à la violence ?


Le concept de « défense tous azimuts » qui est celui de notre pays depuis plus de trente ans va devoir intégrer les potentialités de contournement que recèlent les autoroutes de l'information. La gestion médiatique des crises conduites par nos dirigeants politiques comme militaires devra désormais les prendre en compte en temps réel. Les techniques débrouillage, de masque, de leurre conservent-elles un sens dans un tel paysage ? Les règles de la censure militaire conservent-elles une logique ?


L'urbanisme pourrait, à plus long terme, être affecté, selon les plus imaginatifs des commentateurs, par les autoroutes de l'information.

D'aucuns s'attendent à ce qu'une partie de la population active soit tentée, une nouvelle fois, de rester groupée dans les centres-villes ou les quartiers d'affaires plus aisément desservis par la fibre optique.

Pour d'autres, à l'inverse, la concentration des citoyens actifs dans des immeubles voir groupes d'immeubles à usage de bureaux deviendrait moins nécessaire, du fait de la diffusion multimédia, et le marché de l'immobilier de bureaux pourrait, selon les plus pessimistes, en être affecté durablement à la baisse.

Pour la plupart, en tout état de cause, les nonnes de construction des immeubles devraient être sensiblement modifiées.


L'exclusion sociale constitue, pour finir, un risque. Après l'illettrisme, l'inadaptation à l'informatique et à la télématique pourrait être un facteur d'exclusion. Pour maintenir la cohésion sociale, une réflexion sur notre appareil d'enseignement, de formation professionnelle et d'apprentissage au regard des inforoutes s'imposerait.

5. Des interrogations sur la rentabilité

Les perspectives ouvertes par Internet ne peuvent que fasciner et, par là-même, renforcer l'intérêt pour la généralisation de réseaux large bande assurant l'accès dans les meilleures conditions au « Nouveau Monde » des services électroniques en ligne.

Cependant, la rentabilité des investissements considérables que réclamerait la construction de telles infrastructures n'est pas sans susciter certaines interrogations.

Ainsi, une étude publiée à la fin de l'an dernier par le cabinet américain Mercer Management Consulting estime, après une analyse du marché multimédia pour le grand public aux États-Unis, que : « La forte demande des consommateurs pour le marché à large bande ne sera probablement pas suffisante pour couvrir l'énorme investissement des industriels dans les nouveaux réseaux ».

Principal problème mis en lumière par cette étude : la vitesse de pénétration des nouveaux produits et services dans les foyers a fortement diminué. Alors que plus de la moitié des foyers américains étaient équipés en télévision ou en radio moins de dix après le lancement de ces produits, vingt-cinq ans après le lancement des réseaux de télévision par câble, le nombre d'abonnés dépasse à peine les 10 %. Ce phénomène se répercute donc sur le taux de croissance du marché des services multimédias. Selon l'étude citée, évalué à 60 milliards de dollars (300 milliards de francs) actuellement, ce marché n'atteindrait que 101 milliards de dollars en 2010, tandis que les analyses financières traditionnelles considèrent le plus souvent qu'il pourrait s'élever à cette date entre 140 et 190 milliards de dollars. La différence est de taille !

Autre enseignement intéressant de l'enquête du cabinet Mercer : le souhait principal des consommateurs porte sur les services de vidéo à la demande. Or, si la fourniture de tels services n'appelle pas d'investissements financiers importants, elle ne réclame pas, non plus, le développement d'infrastructures sophistiquées.

Par ailleurs, selon les auteurs, les principales conclusions de l'étude sont, en partie, transposables en Europe.

De ce point de vue, le rapport présenté, le 9 janvier dernier, au Conseil économique et social par M. Raphaël Hadas-Lebel donne, de ce côté-ci de l'Atlantique, un écho aux conclusions du cabinet américain.

Dans ce rapport consacré aux effets des nouvelles technologies sur la télévision de demain, l'auteur conclut :

« Notre hypothèse est que le rythme des changements du secteur audiovisuel, ainsi que ses modalités -triomphe de l'ordinateur interactif ou de la télévision intelligente- sera avant tout dû à la réponse des consommateurs aux nouveaux produits qui leur sont proposés, aujourd'hui à titre expérimental, demain à titre massif.

Elle relativise donc tout programme ambitieux d'équipement en infrastructure qui serait décidé non en fonction des tendances du marché mais d'un volontarisme a priori. Un tel programme ne peut, en effet, être financé que sur le long terme sans que rien ne puisse garantir que le choix technique financé au début de la mise en oeuvre du programme ne soit pas obsolète, vingt ans plus tard. »

Face aux colossaux enjeux du dossier et aux incertitudes qu'il inspire, on peut donc comprendre que le débat engagé, sur le sujet, en France ait conduit à l'adoption d'une position équilibrée consistant à évaluer plus finement le potentiel du marché multimédia avant de prendre des décisions lourdes de conséquences.

II. UN DÉBAT APPROFONDI EN FRANCE

A. LES RÉSEAUX EXISTANTS ET LEURS LIMITES

Si l'on peut dorénavant envisager de distribuer ensemble la voix, les données et l'image, n'en reste pas moins posée la question du choix des moyens de diffusion. Ce choix se trouve conditionné par la satisfaction relative que pourront donner les différents réseaux ou techniques de transmission envisageables face au développement des offres de communication.

1. L'évolution envisageable de l'offre de services

Mieux qu'une longue explication, un tableau mettant en regard, d'une part, les différents services déjà proposés et ceux commençant à émerger, avec, d'autre part, leurs exigences en capacité de débit des réseaux permet de mieux comprendre les enjeux du débat.

Les deux tableaux ci-dessous illustrent de façon chiffrée la portée exacte de ces enjeux.

LES BAS DÉBITS* QUI SE MESURENT EN KBIT/S (1)

LES HAUTS DÉBITS* QUI SE MESURENT EN MBIT/S (2)

Source (I) et (2) : Rapport au premier ministre sur les autoroutes de l'information fait par M. Gérard Théry (La Documentation française, 1994).

* Sur un réseau électronique, le débit est mesuré par la quantité de « bits » transmis par seconde et on le quantifie soit en milliers de bits par seconde (kbit/s) soit en millions de bits par seconde (Mbit/s).

2. Les réseaux de distribution disponibles

a) Les principaux éléments de classification

Les réseaux électroniques existants se déclinent autour de trois paramètres centraux :

- le support de transport qui peut être soit une onde hertzienne, soit un fil ;

- le mode d'organisation du trafic qui conditionne le potentiel d'interactivité du réseau ;

- la nature du trafic : services audiovisuels ou services de télécommunications.

S'agissant du support de transport, l'onde hertzienne peut être diffusée par des émetteurs terrestres ou par des satellites de communication tournant en orbite autour de la planète et le fil peut être soit un conducteur de nature électrique, soit un conducteur de nature optique (fibre optique). On distingue habituellement deux types de conducteurs électriques : la paire de fils de cuivre isolés et torsadés et le câble coaxial qui comprend un conducteur en cuivre entouré d'une couche d'isolant plastique elle-même entourée d'un blindage en tresse de cuivre. La « paire torsadée » constitue l'essentiel du réseau téléphonique local ; le câble coaxial est utilisé pour les circuits téléphoniques à longue et moyenne distance, ainsi que pour les circuits locaux de distribution de télévision par câble.

Concernant le mode d'organisation du trafic, on distingue entre :

- les réseaux en « étoile », dits aussi commutés, qui permettent à chacune des personnes connectées d'entrer en relation avec toutes les autres individuellement et où la ligne part de l'abonné pour se disperser ensuite vers tous les autres abonnés par l'intermédiaire de centraux d'aiguillage qui assurent sa connexion au faisceau des autres lignes et la commutation, c'est-à-dire la bonne orientation des trafics (cette architecture typique des réseaux de télécommunication assure la plus large interactivité) ;

- les réseaux en « arborescence » où la ligne descend du central puis, à l'instar des réseaux de distribution électrique, se subdivise et se ramifie à la manière des branches d'un arbre pour rejoindre l'abonné (à « l'état pur », cette architecture typique des réseaux de distribution audiovisuelle n'autorise pas ou peu d'interactivité).

Les services audiovisuels se sont longtemps satisfaits d'un mode unidirectionnel de diffusion alors que les services de télécommunications du téléphone à Transpac, ont toujours été développés sur un mode interactif. Ceci n'est pas sans importance pour comprendre la situation actuelle car, par maints aspects, les messages à transmettre ont influé sur la structure du média de transmission.

b) Les principaux réseaux disponibles


Les réseaux filaires de France Télécom

Le tableau ci-après décrit les différents réseaux actuellement gérés par France Télécom en précisant leur capacité et leur niveau d'extension.


Les réseaux de distribution audiovisuelle par câble

Ce sont des réseaux distincts des réseaux téléphoniques qui ne disposent pas de commutateurs, ni d'infrastructures de transmission à grande distance et qui demeurent, de ce fait, purement locaux.

A l'heure actuelle, les réseaux câblés tendent à faire circuler information dans un seul sens mais, sous réserve d'un équipement adapté, ils peuvent disposer d'une « voie de retour » autorisant l'interactivité. En France, à la différence des États-Unis, la grande majorité des réseaux câblés possèdent une voie de retour (à 20 Mégahertz) et des câblo-opérateurs, telle la Lyonnaise des Eaux, ont annoncé leur intention d'y transporter des données.

Il n'en demeure pas moins que la mise en place de services à forte interactivité sur le câble supposerait d'importants travaux d'infrastructures. Cependant, dans l'hypothèse où ces travaux seraient effectués et où la réglementation le permettrait, il suffirait d'interconnecter un réseau câblé avec des réseaux commutés pour que des services dits « point à point », c'est-à-dire similaire à ceux que permettent les réseaux téléphoniques, puissent être proposés sur ledit réseau câblé.

Trois types de réseaux câblés coexistent en France : les réseaux du Plan Câble qui couvrent en majorité les grandes villes, les réseaux antérieurs et les réseaux postérieurs concessifs ou privés.

Les principaux opérateurs sont les suivants :

- Compagnie générale Vidéo communications (Générale des eaux), qui dispose de 2,6 millions de prises pour 400.000 raccordés ;

- Lyonnaise communications (250.000 raccordés) ;

- l'ancien réseau de la Caisse des Dépôts, Communication Développement, qui a été partagé en 1995 entre la Lyonnaise des Eaux et France Télécom ;

- TDF qui est le quatrième câblo-opérateur français en termes d'abonnés (enquête Avica juin 1995) ;

- France Télécom, qui exploite techniquement une grande partie des réseaux (4 millions de prises sur 5,5 millions de prises commercialisables, 940.000 raccordées pour le compte de différents opérateurs) et est lui-même opérateur commercial sur certains réseaux (150.000 foyers raccordés) ;

- le groupe EDF (80.000 raccordés).

LE CÂBLE EN FRANCE

(Extraits du rapport précité de M. Hadas-Lebel devant le Conseil économique et social)

Les objectifs du Plan Câble fixés par le Conseil des ministres du 3 novembre 1982 prévoyaient l'installation de 1,4 million de prises entre 1983 et 1985 et l'implantation devait ensuite se poursuivre au rythme d'un million de prises par an. Le coût total de ce plan ambitieux était fixé à 20 milliards de francs pour 10 millions de prises.

La Cour des Comptes a estimé que le Plan Câble a, en définitive, coûté 30 milliards de francs pour 50 sites urbains et qu'il génère 1 milliard de francs de pertes par an pour seulement 6 millions de prises installées au 1er février 1995, malgré la relance du programme en 1990.

Aujourd'hui, seulement 27 % de la population française peut se raccorder, contre 95 % aux États-Unis et 70 % en Allemagne. I1 convient de noter cependant que sur les 20 millions de foyers que comptent la France (recensement 1NSEE 1992), 13,5 ne sont pas raccordables pour des raisons géographiques, parce que situés dans des zones difficilement accessibles.

Hormis quelques investisseurs américains, le programme de construction est à l'arrêt, dès lors que les opérateurs perdent de l'argent. Les principaux câblo-opérateurs français connaissent en effet des difficultés économiques importantes (350 millions de francs de pertes en 1994 pour la Compagnie générale de Video communications).

Sur les foyers raccordables, seulement 23 % ont choisi de s'abonner au câble.

Le câble souffre ainsi d'une double insuffisance : peu de foyers raccordables, peu de foyers effectivement câblés, ce que résume la statistique suivante : 1,6 à 1,8 million de foyers abonnés pour 6 millions potentiellement raccordables. De plus, le câblage a principalement profité aux grandes villes, ce qui n'est pas satisfaisant en termes d'aménagement du territoire.

Le développement du câble a été handicapé par trois types d'erreurs :

1. Le choix prématuré de la fibre optique multimodale alors que l'ensemble des acteurs avait opté pour des structures hybrides (fibre optique et câble coaxial).

2. Le fait que les investisseurs (France Télécom, communes, opérateurs commerciaux) ne sont pas toujours les exploitants (câblo-opérateurs) et nourrissent des intérêts divergents.

(...)

3. Enfin, le nombre élevé de chaînes hertziennes (6 généralistes).

Le succès de la télévision à péage hertzienne et les conditions de son attribution ont accentué ce déséquilibre, Canal Plus contrôlant 7 chaînes thématiques sur les 10 qui existent en France et mettant en oeuvre une stratégie qui repose sur le hertzien terrestre et satellitaire.

Pendant longtemps, le câble n'a pas possédé de contenu spécifique pour faire face au hertzien gratuit et à Canal Plus.

De même, la concurrence entre câble et satellite s'est trouvée déséquilibrée en raison des autorisations nécessaires à la transmission de certaines chaînes sur le câble.

Si le câble constitue pour les collectivités locales l'unique moyen d'offrir des services de proximité, ces derniers n'existent pas encore du fait de la réglementation qui interdit, par exemple, la publicité pour le secteur de la distribution.

En bref, le câble offre des capacités de débit élevées (jusqu'à 100 Mégabits), il peut être interactif, mais n'assure qu'une couverture locale, a un coût d'établissement assez élevé et enregistre aujourd'hui encore un taux de pénétration commerciale plutôt faible.


• Les réseaux terrestres de diffusion hertzienne

En France, ils servent actuellement à la diffusion de six chaînes de télévision (TF1, France 2 et France 3 sur tout le territoire ; Arte, M 6 et Canal Plus sur une grande partie du territoire) et au développement des réseaux mobiles de communication personnelle (système de téléphonie et de messagerie mobile, numérique -GSM- ou analogique - ex : Radiocom 2000-).

Ils fonctionnent autour de réflecteurs paraboliques ou de stations relais qui concentrent les ondes hertziennes en faisceaux. Les réseaux hertziens permettent de s'affranchir de tout support physique. Cependant, ce mode de transmission utilise une ressource limitée et rare, parce que beaucoup sollicitée : le spectre des fréquences hertziennes.

La transmission de programmes télévisés utilise notamment un large spectre de fréquences, car chaque émetteur doit utiliser une fréquence différente de celle de l'émetteur voisin pour ne pas le brouiller.

Votre rapporteur tient à souligner que la gamme de fréquences attribuées à l'audiovisuel est d'ores et déjà saturée par la diffusion de six chaînes à vocation nationale et que le coût de ce type de diffusion est supérieur à celui permis par un recours aux technologies utilisant le satellite. Du fait que la transmission hertzienne de programmes de télévision numérique -et non analogique comme actuellement- aggraverait encore ce phénomène de saturation, il considère qu'il est urgent de réfléchir aux moyens d'utiliser au mieux la ressource rare qu'est « l'hertzien » en la réservant au système de communication mobile (téléphone et messagerie), ainsi qu'à la couverture des zones peu denses où la pose d'infrastructures filaires peut difficilement être rentabilisée.

A défaut d'une politique rationnelle et rigoureuse en ce domaine, on assistera à un gaspillage d'une ressource précieuse pour un aménagement équilibré du territoire et au cantonnement, pour longtemps, du réseau hertzien à des services interactifs à bas débit.


• Les réseaux de télédiffusion par satellite

Quelque soit le mode de réception, un réseau de télédiffusion par satellite comprend :

- une station terrestre transmettant les flux d'informations (programmes audiovisuels, télécommunications) vers le satellite ;

- un satellite réémettant ces signaux vers une large zone géographique.

On distingue traditionnellement entre les satellites de transmission, qui transportent les informations jusqu'à des réémetteurs terrestres (par exemple : têtes de réseau câblées pour la télévision ou réémetteurs de télécommunication), et les satellites de diffusion directe qui permettent, grâce à l'achat d'une antenne parabolique, de capter directement les chaînes désirées.

Le satellite permet une diffusion à un coût minimum sur de très vastes territoires, mais il n'est que faiblement interactif.

Cependant, son intérêt ne doit nullement être négligé. Il est le support le plus économique pour une diffusion monodirectionnelle.

Il permet d'accéder à des bases de données, d'interconnecter des réseaux locaux distants, de télédécharger des fichiers importants... Déjà, des centaines de réseaux informatiques sont reliés par satellites. Nombreux sont les secteurs d'application : l'assurance (Azur), la banque (Réseau Carte Visa en Europe par France Câbles et Radio), les réseaux de concessionnaires automobiles (VAG : 1.000 points en Europe, Renault en ex-RDA), les pétroliers (Elf Aquitaine Production, Exxon), la grande distribution (Casino), l'hôtellerie (Holyday Inn), les transports (Scac-Delmas-Vieljeu et CGM...).

Son premier intérêt est de diminuer les coûts de télécommunications de 30 à 50 % par rapport aux réseaux filaires. D'un seul jet de transmission, on arrose, quel qu'en soit le nombre, tous les destinataires d'un même fichier informatique, tandis qu'avec un réseau terrestre, il faut établir une communication pour chaque site.

En outre, les coûts sont prévisibles, voire presque fixes, même si le débit augmente considérablement. D'après les experts, si le volume de trafic double, la hausse de la facture n'est que de 20 % ; s'il quadruple, cette hausse ne dépasse pas 35 %. Ceci, indépendamment de la distance ! Or, les entreprises savent que, dans les cinq prochaines années, leur trafic va considérablement augmenter, ainsi que leurs frais de transmission, même si elles ignorent quand et dans quelles proportions. La possibilité de prévoir et de maîtriser ces coûts justifie donc leurs investissements dans le satellite.

Quant au déploiement du réseau, il est assez rapide. En procédure standard, une station s'installe en moins d'une semaine. De plus, le satellite semble avoir pris une avance notable dans le domaine de la numérisation des programmes et des équipements de diffusion.

Comme le signale le rapport Hadas-Lebel déjà cité :

« Depuis avril 1994, DSS (Digital satellite System), le premier satellite de télévision numérique dont Direct TV est, aux États-Unis, le service commercial le plus connu, connaît un foudroyant succès ; il comptait 600.000 abonnés à la fin de 1994 soit 200.000 de mieux que les prévisions.

Le satellite de Hugues Electronics, filiale de General Motors, offre 150 chaînes de TV et 30 programmes de radio, une qualité d'image numérique, une forme d'interactivité grâce au guide des programmes et à l'accès au « pay per view », le tout par le biais du système DSS composé d'une petite antenne de 46 cm de diamètre, d'un décodeur-décompresseur numérique de la taille d'un magnétoscope, pour un prix abordable (699 dollars au début de 1995). Cet équipement a été fabriqué et commercialisé par Thomson sous le label de sa filiale RCA. En avril 1995 le groupe français avait vendu un million de décodeurs.

Trois millions d'abonnés sont attendus d'ici 1999 tandis qu'un deuxième satellite a été lancé en août 1994. Ce succès d'une ampleur imprévue, et dont une extension est à l'étude pour l'Amérique du Sud, inquiète les câblo-opérateurs américains. "

Principale limite : le satellite convient surtout à des débits relativement peu élevés (de 9.600 à 19.200 bits par seconde) et à des applications qui supportent des temps de réponse assez longs, puisque la durée de transmission ascendante et descendante est d'une demi-seconde par requête. Il est donc assez peu adapté à des échanges bidirectionnels de forte intensité.

Cependant, ce handicap pourrait s'estomper sous l'effet des progrès technologiques (développement d'antennes émettrices à haut débit d'un coût abordable) et de la mise en oeuvre de certains projets visionnaires qui proposent la construction de réseaux de satellites à basse altitude permettant davantage d'interactivité que des satellites géostationnaires (projet Teledesic de Bill Gates, le patron de Microsoft, et de Craig Mac Caw, le milliardaire américain du téléphone mobile ; projet Sativod d'Alcatel).

B. LE RAPPORT THÉRY

En février 1994, M. Édouard Balladur a chargé M. Gérard Théry, directeur général des télécommunications de 1974 à 1981, d'étudier l'avenir des autoroutes de l'information en France.

Rendu public à la fin du mois d'octobre 1994, ce rapport a marqué le début d'une mobilisation -assez tardive par rapport aux États-Unis et à l'Allemagne- des différents acteurs français sur ce sujet.

Donnant la priorité aux infrastructures, le rapport Théry prône un service universel de diffusion du progrès technologique reposant sur une politique d'équipement massive et volontariste de la France en fibre optique.

Il suggère donc au Gouvernement de se fixer un double objectif :

- « la mise à disposition de tous les citoyens, d'ici à l'an 2015, des autoroutes de l'information, chez eux et sur tous leurs lieux d'activité ;

- l'égalité de tous dans l'accès aux autoroutes de l'information, c'est-à-dire l'élargissement aux nouveaux services offerts par les autoroutes du service universel déjà applicable au téléphone. »

L'équipement de l'ensemble du territoire en fibre optique devait, selon M. Théry, permettre la création de 300.000 emplois. Le coût des investissements nécessaires à sa réalisation était évalué entre 150 et 200 milliards de francs.

Selon le rapport, quatre actions de base devraient être conduites pour permettre la réalisation de cet objectif :

- procéder à un premier déploiement rapide de 4 à 5 millions de lignes de fibre optique de façon à rentabiliser les investissements industriels ;

- mettre en place des plates-formes pour expérimenter les services sur les réseaux en fibre optique, et tester les marchés ;

- développer les logiciels de service et de contenu ;

- accélérer le développement de l'ATM (Commutation temporelle asynchrone) dans les réseaux.

L'opérateur public, France Télécom, devait jouer un rôle essentiel dans cette stratégie du « tout optique ».

La stratégie proposée s'est cependant heurtée à deux obstacles majeurs. Le premier tient à son coût, dont on a vu qu'il était assez considérable : 150 à 200 milliards de francs. A cet égard, rappelons que, pour France Télécom, la facture liée à la réalisation du réseau Minitel s'est élevée à 56 milliards de francs sur dix ans. Tant la situation d'endettement que la disparition du monopole de France Télécom sur la téléphonie de base à compter de 1998, ont amené à considérer comme prohibitif ce coût du câblage optique.

Le second obstacle tient à la nécessaire prudence à laquelle ne peut qu'inciter la succession des déconvenues qui ont marqué les politiques publiques volontaristes menée, en France, en matière audiovisuelle au cours des cinquante dernières années. Il suffit de rappeler les échecs patents qu'ont représentés le bi-standard de télévision, le SECAM, les satellites à forte puissance, le plan câble, le D2 Mac...

Tous ces éléments expliquent que le Gouvernement ait, en définitive, arbitré dans un sens sensiblement éloigné de celui prôné par le rapport Théry.

C. LE CHOIX PRAGMATIQUE DU GOUVERNEMENT

Plutôt que de se lancer dans une politique volontariste, privilégiant une technique au détriment des autres, le Gouvernement a opté pour le pragmatisme.

Il est certes probable qu'à terme les autoroutes de l'information se développeront de façon privilégiée sur la fibre optique. Il n'en est pas moins évident que, dans les vingt prochaines années, les différents réseaux seront nécessaires pour permettre à l'ensemble du territoire d'être irrigué par les nouveaux services multimédias.

Le Gouvernement a donc choisi de donner la priorité au développement du contenu de ces services, à la recherche et au développement.

Il a souhaité privilégier les expérimentations susceptibles de tester techniquement et commercialement les services et les techniques en grandeur réelle.

A cette fin, il a décidé de mettre en place, fin 1994, un comité interministériel chargé de sélectionner les expérimentations à mettre en oeuvre.

Un appel à propositions fut lancé auprès de toutes les entreprises ou collectivités intéressées.

Sur 635 propositions, 170 projets qualifiés « d'intérêt public » ont été retenus à ce jour, ceci en plusieurs phases.

Le 28 février 1995, ce sont 49 projets qu'il a été décidé de mettre en oeuvre immédiatement.

Par ailleurs, 218 projets furent déclarés éligibles au regard des critères définis dans l'appel à propositions, mais leur mise en oeuvre fut différée en raison des obstacles réglementaires ou financiers qu'ils rencontraient. Le comité interministériel, sous la présidence du Premier Ministre, estima que 287 projets nécessitaient un approfondissement et en écarta 81 qui ne répondaient pas aux critères.

Le 16 octobre 1995, le comité retint 121 projets supplémentaires, ce qui porta leur nombre à 170. En outre, il sélectionna 194 projets qui nécessitaient un complément d'analyse avant une éventuelle décision de mise en oeuvre.

M. François Fillon, ministre délégué à la poste, aux télécommunications et à l'espace a annoncé 1 ( * ) que 80 projets supplémentaires seraient prochainement labellisés.

Les 170 projets labellisés à ce jour se répartissent ainsi :

- plates-formes : 55, dont 3 plates-formes nationales 2 ( * ) , 30 plates-formes régionales d'infrastructures expérimentales et 4 plates-formes à vocation internationale, 9 plates-formes nationales et 9 plates-formes régionales qui n'expérimenteront pas de nouveaux services ;

- télé-enseignement et éducation : 27

- téléservices : 24

- place de marché financier, économique ou commercial : 15

- culture : 11

- administration : 7

- audiovisuel : 6

- presse : 6

- santé : 6

- transports : 6

- recherche : 5

- tourisme : 2

La liste ci-après permet d'avoir une vision exhaustive des 30 plates-formes régionales classées par thème.

PLATES-FORMES REGIONALES D'INFRASTRUCTURES EXPERIMENTALES

D. LES TRAVAUX DU SÉNAT

Le Sénat n'a pas attendu le dépôt du projet de loi commenté dans le cadre du présent rapport pour avancer sa réflexion sur les autoroutes de l'information.

Comment s'en étonner d'ailleurs quand l'on sait que son Président, M. René Monory, est le fondateur du Futuroscope, que le technopole de Sofia-Antipolis a été créé à l'initiative de M. Pierre Laffitte, membre de sa Commission des Affaires culturelles et rapporteur pour avis du texte examiné, et qu'en leur qualité d'élus locaux beaucoup de sénateurs ont, dans leur commune ou leur département, impulsé de nombreux développements dans le domaine des services télématiques et de la communication audiovisuelle.

1. Les réflexions des commissions, de l'Office des choix technologiques et de la Mission d'information sur l'Aménagement du territoire


Les instances permanentes du Sénat ont donné un large écho à la curiosité qu'ont éveillée chez les sénateurs les perspectives ouvertes par les nouvelles techniques de communication.

Votre commission des Affaires économiques a, elle même, participe à ce mouvement d'intérêt. Le rapport d'information sur l'avenir du secteur des télécommunications en Europe présenté en son nom, en novembre 1993, par M. Gérard Larcher, soulignait le profond remodelage qu'avait déjà subi ce secteur, au cours des quinze dernières années, sous l'influence des changements technologiques et s'attachait, tout particulièrement, à exposer pour l'avenir « les bouleversements pouvant résulter des convergences multimédias ».

Avant même la publication de ce rapport, votre commission avait d'ailleurs saisi l'office parlementaire des choix technologiques de l'intérêt que présentait l'engagement d'une étude sur les réseaux à haut débit et leur contenu.

D'autres commissions ont également examiné de près ce dossier. Ainsi, une délégation 1 ( * ) de votre commission des Affaires culturelles a effectué, en septembre 1994, une mission d'information aux États-Unis afin d'y étudier le développement des nouveaux services de communication visuelle et de l'industrie multimédia. Le rapport sur les autoroutes de l'information et la mise en place d'une industrie globale de l'information aux États-Unis qu'elle a publié à la suite de ce déplacement, en avril 1995, insistait notamment sur la mobilisation des pouvoirs publics américains sur ce dossier. Il relevait toutefois l'implication progressive des opérateurs en mettant en avant « l'incertitude des marchés ».

L'office parlementaire des choix technologiques a, lui aussi, fortement contribué aux investigations menées par notre Haute Assemblée.

Saisi par votre commission des Affaires économiques, il a confié à M. Pierre Laffitte, le 24 novembre 1993, le soin d'élaborer un rapport sur les réseaux à haut débit et leur contenu. Le rapporteur a tenu de nombreuses auditions sur ce thème au cours des années 1994 et 1995. A l'issue de ces travaux, l'office a organisé, le 11 octobre 1995, un colloque au Sénat au cours duquel une large confrontation d'idées a pu avoir lieu. Un rapport concluant ces investigations poursuivies pendant près de deux ans devrait être édicté prochainement.

Parallèlement, saisi en janvier 1993 par le Bureau du Sénat, l'office avait donné mandat à M. Frank Sérusclat de préparer un rapport sur « Les nouvelles techniques d'information et de communication : l'homme cybernétique ? ». Ce rapport a été publié en mars 1995 (Sénat, n° 232, 1994-1995) et, en prolongation aux échos qu'il a suscité, M. Frank Sérusclat a patronné au Palais du Luxembourg, en novembre 1995, un colloque sur le thème : « Hic et nunc - Les nouvelles techniques d'information et de communication : des usages sociaux de l'entreprise à la cité ».


• Antérieurement à la conclusion de ces travaux d'envergure entrepris dans le cadre de l'office, la Mission commune d'information sur l'aménagement du territoire -constituée à l'initiative de la commission des Affaires économiques- avait proposé un certain nombre d'orientations concrètes.

Dans les propositions qu'elle avait soumises à discussion publique en janvier 1994 1 ( * ) , elle avait notamment été amenée à examiner la question du câblage de la France en fibre optique.

Elle avait estimé que des réseaux tels « Numéris » et « Transpac » avaient des niveaux de performances qui leur permettaient de répondre à l'essentiel des demandes. Elle avait également observé que le câblage en fibre optique exigeait des investissements considérables pour une utilisation encore relativement restreinte en milieu rural. Aussi la Mission n'avait-t-elle pas, par souci de réalisme, préconisé que les campagnes soient toutes équipées en fibre optique à l'horizon de quelques années. Elle avait simplement demandé que, dans le cadre du programme lancé par France Télécom pour relier en fibre optique toutes les villes de 100.000 habitants, soient dégagés les moyens nécessaires « pour financer la desserte expérimentale en fibre optique des bourgs ruraux où des projets viables de téléservices, nécessitant une telle infrastructure, sont envisagés ».

Cependant, le même souci de réalisme l'avait conduit à estimer indispensable le câblage optique de la totalité du territoire à l'horizon 2015/2020.

Plusieurs raisons l'avaient conduite à cette conclusion.

Elle était, tout d'abord, convaincue que les métiers de demain exigeront qu'on mette à la disposition des professionnels des réseaux à très haut débit d'informations car, selon toute probabilité, la plupart de ces métiers devraient exiger la manipulation en temps réel d'images animées complexes.

Sans mésestimer les possibilités ouvertes par les techniques de compression d'images pour répondre aux besoins des cinq à dix prochaines années, elle les avait jugées insuffisantes pour répondre à l'évolution des besoins en considérant que le recours à la compression se heurterait ensuite à deux obstacles :

« l'exigence d'une qualité d'images de plus en plus élevée ;

la perspective d'investissements (et donc de coûts) sans cesse croissants dans les systèmes de compression, avec une efficacité marginale progressivement décroissante ».

Au vu des capacités de la fibre optique qui offre des débits physiques 10 millions de fois supérieurs à ceux du câble coaxial -débits qui peuvent être, eux mêmes, démultipliés par la compression de l'information- elle avait donc conclu qu'il était indispensable de prendre, sans délai, « les moyens d'inverser les tendances lourdes qui conduisent à la ségrégation territoriale ». Les investissements coûteux qu'impliquaient le câblage optique des villes et des campagnes lui paraissait, à l'aune de l'ambition de revitalisation rurale, parfaitement supportables si on en étalait le financement sur 20 à 25 ans.

2. La position prise lors de l'examen de la loi d'orientation pour l'aménagement et le développement du territoire

Cette analyse a fortement influencé les travaux de la Commission spéciale constituée au Sénat pour l'examen du projet de loi relatif à l'aménagement et au développement du territoire.

Lors de l'examen de ce texte en première lecture par la Haute Assemblée, son rapporteur, M. Gérard Larcher 1 ( * ) a proposé un article additionnel visant à établir le principe d'un schéma national des télécommunications ayant à définir les modalités de réalisation de trois objectifs :

- organiser, à l'horizon 2015, le développement des réseaux interactifs à haut débit de manière à ce qu'ils couvrent la totalité du territoire et qu'ils soient accessibles à l'ensemble de la population et des acteurs économiques ;

- fixer le cadre des politiques industrielles et de recherche à engager à cet effet ;

- préciser les conditions dans lesquelles l'État peut favoriser la promotion de services utilisant des réseaux interactifs à haut débit, à travers notamment la réalisation de projets expérimentaux.

Convaincue que les réseaux à haut débit constituaient un enjeu fondamental, tant au plan économique qu'au plan de l'aménagement du territoire, la Commission spéciale puis le Sénat dans son ensemble avaient adopté cet article additionnel. Il avait notamment été argué que « si demain, dans l'espace rural, l'information circule sur des « chemins vicinaux » et non sur des « autoroutes », les problèmes auxquels sont confrontés ces territoires auront, peut être, changés de forme mais ils ne seront pas résolus ».

Et en séance publique, le rapporteur avait fait valoir que pour relever un tel défi, la France ne pouvait se contenter de s'en remettre aux forces du marché et qu'il convenait que l'État prenne ses responsabilités pour que les moyens industriels et de recherche soient mobilisés à la hauteur des ambitions du pays dans le secteur des télécommunications.

Le dispositif retenu par le Sénat avait été assez sensiblement amendé par l'Assemblée nationale en seconde lecture mais la commission mixte paritaire l'avait, à une modification formelle près, rétabli dans sa rédaction initiale. Il est devenu l'article 20 de la loi définitive. Son contenu est rappelé ci-après :

ARTICLE 20 DE LA LOI N° 95-115 DU 4 FÉVRIER 1995 D'ORIENTATION POUR L'AMÉNAGEMENT ET LE DÉVELOPPEMENT DU TERRITOIRE

« Un schéma des télécommunications est établi. Il organise le développement des réseaux de télécommunications, notamment des réseaux interactifs à haut débit, de manière que, à l'horizon 2015, ces derniers couvrent la totalité du territoire, qu'ils soient accessibles à l'ensemble de la population, des entreprises et des collectivités territoriales et qu'ils offrent des services équitablement répartis et disponibles, notamment dans les zones rurales.

« Le schéma détermine les moyens à mettre en oeuvre pour développer les équipements et les logiciels nécessaires à la réalisation de ces objectifs. Il fixe le cadre des politiques industrielles et de recherche à engager à cet effet. Il évalue les investissements publics et privés nécessaires au financement de ces politiques. Il définit les charges qui en résultent pour le ou les opérateurs de télécommunications autorisés.

« Le schéma arrête les principes que devraient respecter les tarifs du ou des opérateurs précités. Ces principes tendent à assurer, d'une part, l'égalité des conditions d'accès aux services de télécommunications conformément aux dispositions de l'article 1er, et, d'autre part, l'égalité des conditions de concurrence entre les opérateurs.

« Le schéma définit également les conditions dans lesquelles l'État peut favoriser la promotion de services utilisant des réseaux interactifs à haut débit, à travers notamment la réalisation de projets expérimentaux et le développement de centres de ressources multimédias. En application du principe d'égalité d'accès au savoir fixé à l'article 1er, le schéma examine les conditions prioritaires dans lesquelles pourraient être mis en oeuvre les raccordements aux réseaux interactifs à haut débit des établissements et organismes éducatifs, culturels ou de formation ».

Par bien des aspects, la loi d'orientation et les débats qu'ont engendrés, parallèlement à son élaboration parlementaire, les conclusions du rapport Théry ont conduit à infléchir la politique du Gouvernement dans la direction que traduit le projet de loi qui nous est soumis aujourd'hui.

* 1 Compagnie luxembourgeoise de télédiffusion

* 1 Cf rapport n° 343 (Sénat 1993-1994) p. 377-383.

* 1 Cf « Les téléservices en France. Quels marchés pour les autoroutes de l'information ». La Documentation française 1994 p. 582.

* 2 Ibidem p. 53-55.

* 1 Extrait de « The Internet System Handbook » - Daniel Lynch et Marshall Rose - Addison-Wesley.

* 2 Dominique Nora : « Les conquérants du Cybermonde ».

* 1 Christian HUITEMA : « Et Dieu créa Internet... ».

* 1 Gérard Théry - Rapport au Premier ministre : « Les autoroutes de l'information ».

* 1 Cf« Les conquérants du cybermonde » précité.

* 1 Le Monde, 25 septembre 1995

* 1 Cf. audition du ministre par la Commission des Affaires économiques le mercredi 7 février 1995.

* 2 Projet Renater II d'ici fin 1996 (nouvelle génération du réseau national pour la technologie, l'enseignement et la recherche à l'intention des centres de recherche, des établissements d'enseignement supérieur, des universités et des entreprises) ; projet de mise en réseau des lycées, collèges et écoles de 13 académies au travers du réseau Renater ; projet de réseau national ATM (commutation temporelle asynchrone) de France Télécom.

* 1 Présidée par M. Adrien Gouteyron aujourd'hui Président de la Commission des Affaires culturelles.

* 1 c'est-à-dire près de neuf mois avant la publication du rapport Théry.

* 1 qui était également l'un des rapporteur de la Mission commune d'information.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page