II. LA RENCONTRE DES MONDES DE L'INFORMATIQUE DES TÉLÉCOMMUNICATIONS ET DE L'AUDIOVISUEL : UNE RÉACTION EN CHAÎNE

Ce qui forme aujourd'hui la " trame " de la société de l'information est la convergence entre les trois univers longtemps distincts de l'informatique des télécommunications et de l'audiovisuel.

A cette dimension vient s'ajouter une tendance très récente : la diffusion large bande par satellite revêt, beaucoup plus qu'on ne le pensait il y a seulement un an, une importance capitale. La France est bien pourvue dans ce domaine avec l'Aérospatiale, Matra et Alcatel, il lui reste à élaborer une politique spatiale tournée vers l'avenir.

Cette convergence, qui ouvre des perspectives considérables pour le développement de la société de l'information, est aussi un puissant vecteur de changement.

La mise en place de cette société de l'information, s'accompagne en effet d'un bouleversement de nombreuses habitudes et entraîne la remise en cause de visions traditionnelles, voire de situations acquises.

A moins d'accepter par avance l'échec de l'entrée de la France dans la société de l'information, les responsables politiques, économiques ou administratifs de notre pays doivent assumer avec lucidité et rigueur les exigences de cette ambition.

L'adaptation des structures et l'évolution des mentalités qu'implique cette ambition appelle une claire conscience des grands principes de la société de l'information : la diversité, la concurrence, la liberté et la démocratie.

A. DES UNIVERS EN EFFERVESCENCE

Précédant l'émergence du concept de société de l'information, l'évolution spectaculaire des mondes de l'informatique, des télécommunications et de l'audiovisuel est venue marquer les deux dernières décennies.

Sans prétendre à l'exhaustivité et sans vouloir faire un historique détaillé de chacun de ces mondes, votre mission d'information a souhaité mettre en lumière les lignes maîtresses de ce phénomène.

1. L'explosion informatique

Le développement des ressources informatiques et la démocratisation de l'ordinateur constituait, à n'en pas douter, le " cur du réacteur " de la société de l'information.

a) Le " cur du réacteur " : les supports de stockage et le processeur

La matière première, la source d'énergie, " l'uranium " de ce réacteur est formée, d'une part, par les supports de stockage et, d'autre part, par le processeur.

Le développement de l'informatique, souvent définie comme l'ensemble des processus concourrant au traitement automatisé de l'information, dépend en effet directement des capacités de stockage de l'information et de la rapidité du traitement de cette information.

Or, ces deux fonctions ont connu des progrès considérables.

· Les capacités de stockage

Qu'elles soient magnétiques ou optiques, les capacités de stockage se sont accrues dans des proportions qu'aucun ingénieur des années 1950 n'aurait pu imaginer. Ce phénomène est d'autant plus frappant qu'il s'accompagne d'une formidable miniaturisation des supports physiques de stockage.

à Lorsque la société IBM inaugurait en 1956 le 305 Ramac (random access method of accounting and control), son nouveau système de stockage des informations sur disque dur magnétique, celui-ci permettait de stocker 5 millions de caractères ou octets (un octet correspondant à une séquence de huit bits), soit 2.500 pages de texte, et comportait 50 plateaux de 60 centimètres de diamètres intégrés dans une vaste armoire.

Depuis cette date, la capacité de stockage a été multipliée par plus de 600, tandis que la taille du support physique de stockage passait de celle de l'armoire à celle de la cassette audio. Aujourd'hui on peut en effet stocker plus de 3 milliards de caractères (3 gigaoctets, Go), soit plus de 1,5 million de pages de texte, sur un support qui pèse environ 100 grammes et dont l'épaisseur est légèrement inférieure au centimètre 5( * ) . Cette progression de capacités de stockage s'est en outre accompagnée de celle des caractéristiques d'exploitation des disques durs.

Ainsi, le temps d'accès aux informations inscrites sur le disque dur a été divisé par 60, passant de 600 millisecondes à 10 millisecondes, tandis que la vitesse de rotation des disques durs était multipliée par 6, grimpant de 1.200 tours par minute à 7.200 tours par minute, décuplant ainsi le débit d'information du disque dur qui atteint aujourd'hui 15 mégaoctets par seconde. A cet égard, il convient de remarquer que ces caractéristiques continueront leur progression dans les années à venir.

à La naissance et l'accroissement des capacités de stockage optique des informations viennent ajouter leurs potentialités à celles des disques magnétiques.

Le principe du stockage optique de l'information est fondé sur la lecture par un microscopique faisceau laser des informations inscrites sur la surface d'un disque optique. Ces informations sont gravées sur une face réfléchissante sous la forme de creux et de pleins correspondant au langage binaire de l'informatique, " l'il " laser détectant ces variations par la variation de l'intensité lumineuse réfléchie, lisant ainsi l'information.

Cette technique de stockage a été appelée à un succès planétaire grâce à la naissance du disque compact (CD, compact disc en anglais), disque optique numérique d'un diamètre de 12 centimètres, dont l'exploitation a touché tous les domaines de l'information et dont les facultés ont connu et continuent de connaître des progrès formidables.

Né en 1982 , après la signature d'un accord entre les quatre sociétés conceptrices -Philips, Hitachi, JVC et Sony- le " CD " constituait tout d'abord une révolution dans le domaine du stockage de l'information musicale, où il a très rapidement supplanté son concurrent analogique, le disque vinyle.

Les possibilités offertes par ce nouveau support ont très rapidement ouvert des perspectives pour le stockage des autres types d'informations. Ainsi, dès 1985, apparaissait le CD-ROM (Compact disc read only memory, disque compact optique informatique accessible uniquement en lecture), extension informatique du disque compact audio. Le CD-ROM, ou cédérom, permet pour sa part de stocker plus de 600 millions de caractères (600 mégaoctets), soit plus de 250.000 pages de textes. Cette très forte capacité a très rapidement fait du cédérom un support privilégié de stockage tant dans le domaine de la documentation technique (souvent volumineuse dans sa version papier) que dans le domaine des logiciels comportant du son et des images.

Le Sénat s'engage activement dans l'ère du multimédia avec le lancement en septembre 1997 d'un cédérom exclusivement consacré à l'institution sénatoriale. Présentant à la fois l'histoire et le rôle du Sénat, ce cédérom permet aussi de découvrir en images le Palais du Luxembourg.

Parmi d'autres utilisations du disque compact il convient, par ailleurs, de signaler le CDI -compact disc interactive- destiné à la vidéo et le CD-photo qui permet le stockage en haute définition d'une centaine de photos sur un disque optique.

Ce petit disque optique de 12 centimètres de diamètres est actuellement en train de devenir le support d'une nouvelle gamme de produits, portant le nom générique de DVD-digital versatile disc. Reposant sur une nouvelle norme d'inscription des informations, le DVD possède des facultés de stockage très supérieures à celles des disques compacts actuels.

Ce disque est dit versatile dans la mesure où il permettra la mise en uvre de cinq formats différents correspondant chacun à un format spécifique, sachant que chacun d'entre eux sera très supérieur à son équivalent actuel.

La capacité de stockage du DVD s'étagera entre 4,7 et 17 milliards de caractères (4,7 à 17 gigaoctets) selon que soit utilisée une ou deux faces du disque et que ces faces comportent une ou deux couches d'inscription.

Cette nouvelle technologie touchera tous les domaines avec le DVD-Rom pour succéder au cédérom, le DVD-vidéo -qui permet de stocker 133 minutes de film par face- le DVD-audio, le DVD-R qui constitue une version inscriptible du DVD-Rom et le DVD-Ram qui sera pour sa part inscriptible, effaçable et réinscriptible.

· Le second élément essentiel de l'explosion informatique est constitué par les processeurs
L'accroissement des capacités de stockage n'aurait en effet, qu'une faible utilité -en dehors de l'archivage électronique passif- s'il ne s'était accompagné de la progression corrélative des capacités de traitement de cette information toujours plus volumineuse :

Véritable " cerveau " de l'ordinateur, le processeur (ou le microprocesseur) est un circuit électronique muni d'un jeu d'instructions comprenant les principales opérations arithmétiques et logiques, dont la fonction est de lire les séquences d'instructions qui composent un programme informatique et de les exécuter.

La puissance du processeur détermine donc directement la capacité d'un ordinateur à traiter l'information. Or, cette puissance s'est considérablement accrue, selon une tendance correspondant à un doublement de sa capacité de traitement tous les 18 mois, ce rythme de progression a été qualifié de loi de Moore 6( * ) .

Il est de fait que depuis le processeur 4004 de 1971, la puissance de cette composante vitale de l'ordinateur ne cesse de croître ainsi qu'il ressort du tableau ci-après.

PUISSANCE DES PROCESSEURS INTEL DEPUIS 1971

Processeurs

Date de sortie

Nombre de transistors

Vitesse d'horloge

4004

1971

2 300 0,1 MHz

8088

1979

29 000 5 à 8 MHz

80286

1982

134 000 8 à 12 MHz

386 DX

1985

275 000 16 à 33 MHz

486 DX

1989

1 200 000 20 à 50 MHz

Pentium

1993

3 100 000 60 à 166 MHz

Pentium Pro

1995

5 500 000 150 à 200 MHz

Pentium MMX

1997

4 500 000 150 à 233 MHz

Pentium II

1997

7 500 000 233 à 450 MHz

Suivant des principes d'évaluation comparables à ceux qui ont marqué les capacités de stockage de l'informatique, les composants du processeur ont aussi été caractérisés par un extraordinaire phénomène de miniaturisation. Ainsi, pour le processeur Pentium, le circuit de millions de transistors intégré sur la puce de silicium de quelques centimètres carrés du processeur aurait exigé une surface de plus de 100 mètres carrés avec l'utilisation de transistors classiques.

MICROPROCESSEURS : Intel n'est plus seul

Le numéro un mondial des microprocesseurs, conserve avec 85 % des ventes mondiales une position plus que dominante sur ce marché.

Les résultats de la société restent exceptionnels puisque avec une croissance annuelle moyenne de 30 % ils atteignent un chiffre d'affaires de près de 21 milliards de dollars en 1996 et dégageant un bénéfice net de 5,1 milliards de dollars, soit une rentabilité nette de 25 %.

L'émergence des concurrents sur ce marché est néanmoins un phénomène incontestable. Les deux principaux concurrents sont les sociétés AMD et Cyrix dont le potentiel est considérable.

Ainsi AMD, avec un chiffre d'affaires de 2 milliards de dollars -soit 10 fois inférieur à celui d'Intel- vient de lancer son processeur K6, plus puissant et moins cher que le Pentium II d'Intel.

Pour sa part, la société Cyrix, dont le chiffre d'affaires est de 200 millions de dollars, a mis sur le marché un processeur 6 x 86 MX équivalent au Pentium II, mais vendu à un prix deux fois inférieur.

Source : Figaro-Economique du 16 juin 1997

Progression de la puissance et miniaturisation font du processeur un élément de calcul surpuissant facile à intégrer dans les micro ordinateurs destinés au public.

LA PUISSANCE DE LA MACHINE :
la victoire de " Deeper Blue " sur Garry Kasparov

Un an après sa victoire sur " Deep Blue ", Garry Kasparov, champion du monde d'échecs, a été battu par " Deeper Blue " au terme de six parties qui se sont déroulées à New-York du 3 au 10 mai 1997.

Deux fois plus rapide que son prédécesseur, " Deeper Blue " possède une puissance de calcul lui permettant d'examiner près de 200 millions de positions par seconde.

C'est cette puissance qui, pour la première fois a permis la victoire de la machine sur un champion du monde d'échecs.

Bien que le détail de la technologie utilisée par IBM pour " Deeper Blue " n'ait pas été révélé, les aspects principaux de ce " supercalculateur " dédié sont connus.

Il ne s'agit en effet pas d'un ordinateur classique, mais d'une machine spécifique mettant en uvre le système parallèle RS/6000 SP d'IBM, formant une armoire de près de 2 mètres de haut et pesant 1,4 tonne. Au sein de cette machine figurent, notamment, 256 processeurs spécifiquement développés pour les échecs, eux-mêmes " pilotés " par 32 processeurs " généralistes " du type P2 SC.

Au-delà d'une démonstration de la suprématie de la puissance de calcul de la machine sur l'intelligence humaine, cette opération permet à IBM d'appeler l'attention de divers secteurs d'activité ayant à gérer de grandes masses d'informations sur l'intérêt de ce type de supercalculateurs.

b) La démocratisation de l'ordinateur

Ce formidable développement des capacités de stockage et de traitement de l'information a permis l'émergence d'un phénomène déterminant pour l'avénement de la société de l'information : la démocratisation de l'ordinateur.

· Le concept

L'accès du grand public aux micro-ordinateurs constitue la traduction concrète de la vision de Bill Gates , président et fondateur de la société Microsoft : un ordinateur sur chaque bureau et dans chaque maison. Sachant qu'il se vend dans le monde environ 100 millions d'ordinateurs par an, et que les perspectives de croissance du secteur restent fortes, force est de constater que cette vision s'est déjà très largement transformée en réalité.

Votre mission d'information souligne l'importance du phénomène de l'acquisition par le grand public d'un matériel dont ce dernier était encore largement ignorant au début des années 1980.

La demande, voire le désir, de posséder un ordinateur sont en effet le fruit d'une extraordinaire adaptation des moyens d'accès à une machine, qui il y a vingt ans à peine restait encore hermétique et peu attractive. A cette époque l'ordinateur offre un visage austère, puisque son utilisation exigeait la connaissance d'un langage de commandes informatiques permettant de faire exécuter certains traitements ou certaines opérations par la machine. L'homme ne communiquait alors avec l'ordinateur qu'au moyen du clavier et dans le langage de la machine.

· Les moyens
A cet égard, la société Apple avec le Macintosh, puis la société Microsoft vont être à l'origine d'une révolution conceptuelle permettant au grand public d'accéder à l'ordinateur au moyen " d'outils " logiciels et matériels entièrement nouveaux.

Dans le domaine des logiciels , la " révolution " provient de la définition d'une " interface graphique ", qui vient s'interposer entre l'homme et l'ordinateur. L'utilisateur ne se trouve alors plus devant un écran noir, mais face à un cadre d'accueil graphique dans lequel il peut sélectionner les commandes qu'il souhaite utiliser au moyen d'options dans des "menus"ou icônes.

Cette novation s'est accompagnée sur le plan matériel de l'arrivée de la "souris" . Ce nouvel instrument, dont l'appellation imagée a contribué à forger la popularité, complète le cadre graphique d'accès à l'ordinateur en permettant à l'utilisateur de "pointer", à l'aide du "pointeur" graphique situé sur l'écran, la fonction qu'il souhaite utiliser, cette dernière étant activée au moyen d'un "clic" sur un des "boutons" de la souris.

L'accès de l'utilisateur aux fonctions de l'ordinateur se trouve ainsi considérablement facilitée et n'exige, pour ainsi dire, qu'une formation minimale.

Facilitée par la baisse des prix, l'explosion du marché des micro-ordinateurs est allée de pair avec celle des logiciels. Ces derniers, de plus en plus variés, ont en effet connu un très large développement, facilité par les progrès des différentes techniques de stockage déjà évoqué dans le présent rapport.

C'est ainsi que se sont développés de nouveaux logiciels, dits " multimédia " , c'est-à-dire regroupant à la fois du texte du son et de l'image.

Donnant une dimension supplémentaire à l'ordinateur, ces logiciels ouvrent de larges perspectives aux utilisateurs qui peuvent maintenant accéder à d'impressionnantes collections de cédéroms culturels, pédagogiques ou ludiques.

Enfin, l'ordinateur est devenu " communiquant ", soit en étant raccroché à un réseau informatique, soit en utilisant les lignes téléphoniques au moyen d'un " modem ".

Cette démocratisation de l'ordinateur est cependant encore inégale et reste insuffisante en France. Ainsi d'après M. Bernard Vergnes, président de Microsoft Europe, entendu par votre mission d'information, le taux de pénétration des micro-ordinateurs reste encore faible en Europe et, notamment, en France. S'agissant de l'équipement professionnel, aux Etats-Unis, ce taux atteint 90 % parmi les employés à " cols blancs ", tandis qu'il reste inférieur à 50 % en Europe et en France. S'agissant de l'équipement familial, ce taux qui s'élève à 33 % aux Etats-Unis, descend à 11 % en France, alors qu'il représente 14 % en Grande-Bretagne et 20 % en Suède...

Votre mission d'information considère qu'un tel retard exige que des mesures déterminantes soient prises, dans ce domaine, pour résorber ce retard.

2. L'ébullition des télécommunications et de l'audiovisuel

Le développement fulgurant de l'informatique s'accompagne d'évolutions majeures dans le domaine des télécommunications et de l'audiovisuel.

Contrairement à l'informatique, ces deux univers, pourtant eux-aussi assez récents, se caractérisent par le poids important des réglementations et le rôle déterminant des pouvoirs publics.

De nombreuses novations ont entraîné et entraîneront encore d'importantes adaptations.

a) La télévision décuplée par l'arrivée du câble et du satellite

L'histoire française de la télévision est caractérisée par une singulière accélération à partir du milieu des années 1980. Avant cette date, en effet, la télévision en France avait déjà été marquée par une grande étape, passant ainsi de la chaîne publique unique aux trois chaînes publiques nationales. Mais, à partir des années 1980, cette situation amorce une évolution déterminante avec la multiplication du nombre de chaînes hertziennes nationales.

Aux trois chaînes existantes viennent en effet s'ajouter Canal +, chaîne hertzienne cryptée payante, et deux chaînes "généralistes", la 5 et M6.

Cet accroissement de l'offre hertzienne nationale a par ailleurs été complété avec le développement du câble et du satellite.

Le câble

L'implantation du câble en France a désormais plus de dix ans, puisque les premiers réseaux ont été ouverts en février 1987. L'ancienneté moyenne du réseau câblé n'est cependant que de quatre ans.

Le câble connaît son plus fort développement en milieu urbain, les taux de câblage les plus importants étant atteints dans les zones où la densité de population est la plus forte.

Dans son exposé présenté en mai 1997 dans la cadre de "Médiaville", M. Hervé Bourges, président du Conseil supérieur de l'audiovisuel (CSA) a dressé un bilan de la pénétration du câble en France, qui reste encore faible par rapport à certains pays étrangers.

Le président du CSA a souligné que l'ensemble des 617 réseaux câblés français avait représenté, en 1996, un chiffre d'affaires de plus de 2,5 milliards de francs , faisant du câble un support de diffusion significatif.

Il a remarqué la taille extrêmement variable de ces réseaux, 10 % des sites représentant près de 78 % des prises raccordables et comptant plus de 33.000 prises chacun. A cet égard, il a relevé que les trois principaux "câblo-opérateurs" -Lyonnaise Câble, Compagnie générale de vidéocommunication (CGE) et France Télécom Câble- représentaient à eux seuls 82 % des prises raccordables et 81 % des abonnés , alors qu'ils n'exploitent que 15 % des sites. Les autres opérateurs se partagent le solde, soit 18 % du marché.

RÉPARTITION DU MARCHÉ DU CÂBLE EN 1996

Prises raccordables

Abonnés

Taux de pénétration Total abonnés/
prises raccordables

Lyonnaise Câble

31 %

26 %

25,18 %

CGV (filiale CGE)

28 %

25 %

27,9 %

France Télécom Câble/TDF

28 %

30 %

34, %

ANOC

9 %

10 %

34,1 %

Divers

5 %

9 %

56,3 %

Source : CSA

S'agissant de la structure de ce marché, et notamment dans la perspective du désengagement annoncé de la Compagnie générale des Eaux (CGV), il apparaît que ce paysage est encore susceptible de connaître d'importantes évolutions.

En termes de pénétration, près d' un tiers des foyers TV (31 %) sont raccordables à un réseau câblé, mais seulement 10 % des foyers TV sont effectivement abonnés au câble, soit plus de 30 % des foyers raccordables, dont 22 % sont abonnés au service de base.

ÉVOLUTION DU CÂBLE DE 1990 A 1996

Evolution de la pénétration industrielle

1990

1991

1992

1993

1994

1995

1996

Total abonnés/
Foyers TV


2,5 %


3,7 %


5,0 %


6,1 %


7,5 %


8,7 %


10 %

Prises raccordables/
Foyers TV


13,8 %


18,4 %


22,5 %


25,3 %


27,0 %


29,2 %


31 %

Evolution de la pénétration commerciale

1990

1991

1992

1993

1994

1995

1996

Abonnés basique/
Prises raccordables


12,8 %


14,3 %


15,2 %


16,5 %


19,6 %


21,1 %


22,3 %

Total abonnés/
Prises raccordables


18,5 %


20,3 %


22,5 %


24,3 %


27,7 %


29,7 %


32,2 %

Evolution des taux de progression

1990

1991

1992

1993

1994

1995

1996

Abonnés

112 %

48 %

37 %

23 %

25 %

15 %

15 %

Prises raccordables

44 %

35 %

24 %

13 %

10 %

8 %

6 %

Source : CSA/AVICA

Ces pourcentages correspondent en valeur absolue à 6,7 millions de foyers susceptibles d'être raccordés au câble et à plus de 2,2 millions de foyers effectivement raccordés, dont 700.000 accédant à un service antenne et 1,5 million au service de base. A cet égard, il convient de rappeler que les objectifs du Plan câble fixés par le gouvernement en novembre 1982 prévoyaient l'installation de 1,4 million de prises entre 1983 et 1985, cette implantation devant ensuite se poursuivre au rythme d'un million de prises par an pour atteindre 10 millions de prises.

Se situant en deçà des objectifs initiaux et moins développé que dans de nombreux pays comparables, le câble en France a été handicapé par plusieurs facteurs. Outre le choix prématuré de la fibre optique multimode et les divergences d'intérêt entre certains investisseurs et certains câblo-opérateurs, l'importance de l'offre de chaînes hertziennes généralistes a été un véritable handicap pour le câble . Face à six chaînes, dont une chaîne à péage qui a connu un large succès (Canal +), le câble n'a pendant longtemps pas possédé de contenu spécifique, ce qui a incontestablement diminué son attractivité, d'autant plus que de nombreux "consommateurs" potentiels "épuisaient" le montant du budget qu'ils acceptaient de consacrer aux services télévisés en s'abonnant à Canal +.

En comparaison, il convient de noter qu'aux Etats-Unis 91 % des 95,2 millions de foyers TV sont raccordables à un réseau et que le taux de pénétration (abonnement effectif au câble) s'élève à plus de 65 %, soit près de 60 millions de foyers TV. En Allemagne, ce taux atteint plus de 52 %.

Le satellite

Dernier arrivé dans le domaine des supports de diffusion télévisés, le satellite connaît une rapide progression. A peine un an après le lancement par Canal + du "bouquet" 7( * ) de programmes CanalSatellite, fin avril 1996, la télévision payante par satellite dessert plus de 500.000 foyers TV . Ce marché est donc susceptible de connaître une évolution rapide et importante. Ainsi TF1, France Télévision, CLT, M6 et la Lyonnaise des Eaux se sont associées dans le projet "Télévision par satellite" (TPS), destiné à lancer des programmes numériques en France. La diffusion des premiers programmes de ce nouveau "bouquet" a débuté à la mi-décembre 1996, l'objectif de TPS étant de 35 à 40 % de part de marché en 1997, soit 240.000 abonnés fin 1997.

Il convient enfin de mentionner l'offre numérique lancée par AB Sat, filiale de la société AB Procuctions.

L'univers de l'audiovisuel se trouve donc profondément modifié par l'émergence de nouveaux supports de diffusion, qui accroissent considérablement le volume et la qualité de l'offre télévisée.

Pour sa part, le secteur des télécommunications ne reste pas à l'abri de profondes mutations.

b) La libéralisation du secteur des télécommunications

Après plus d'un siècle de monopole public, la date du 1er janvier 1998 marquera l'entrée en vigueur de la libéralisation du marché français des télécommunications, prévue par la loi n° 96-659 du 26 juillet 1996 de réglementation des télécommunications. Cette loi met fin au monopole de France Télécom pour l'établissement des infrastructures filiaires publiques et la fourniture au public du service téléphonique fixe. Par ailleurs, elle institue l'Autorité de régulation de télécommunications (ART) et l'Agence nationale des fréquences (ANF).

Tirant les conséquences de la résolution du Conseil européen arrêtée le 17 novembre 1994, la France a donc mis en oeuvre le cadre juridique dans lequel s'exercera la concurrence dans le domaine des télécommunications.

Ce domaine était déjà marqué depuis plusieurs années par une très forte évolution provoquée par les développements technologiques.

Sans prétendre analyser en détail ce phénomène, il convient cependant d'en faire ressortir les traits les plus saillants.

Les développements de la technologie ont en effet accéléré le processus de transformation des télécommunications en multipliant les possibilités de contournement des barrières réglementaires . Il s'agit notamment des systèmes de rappel automatique qui permettent de contourner le monopole national pour les appels internationaux, des cartes d'appel, des réseaux privés internationaux ou du développement des télécommunications par satellite.

L'aspect le plus évident de cette évolution concerne les réseaux de radiotéléphonie mobile qui disposent de leur propre infrastructure de transport et qui peuvent en conséquence contourner en grande partie le réseau public commuté fixe. La progression du radiotéléphone mobile s'avère en effet spectaculaire, à tel point qu'elle se trouve aujourd'hui au coeur de la croissance du marché mondial des télécommunications.

Selon l'Observatoire mondial des systèmes de communication, ce marché -services et équipements- devrait s'élever en 1997 à plus de 745 milliards de dollars , poursuivant sa forte croissance depuis 1991 avec une moyenne annuelle de + 5,6 %. L'Observatoire note que la croissance de ce marché est très largement due aux télécommunications mobiles, qu'il s'agisse de terminaux ou d'infrastructures. Ainsi, depuis 1991, la part des "mobiles" est passée de 5,1 % à 21,9 % (prévision 1997), soit 134 milliards de dollars, avec un parc de téléphones mobiles de l'ordre de 175 millions . Dans cet ensemble, le marché français des télécommunications se situe au quatrième rang au niveau mondial (4,5 % du marché) et au deuxième rang au niveau européen, après l'Allemagne, avec un montant estimé de 5,34 milliards de dollars pour les équipements et de 29,4 milliards de dollars pour les services.

La France se caractérise cependant par la faible pénétration du téléphone mobile. Ce retard est cependant en train d'être rattrapé grâce au fort développement des ventes. A cet égard, Itinéris, le service de téléphonie mobile de l'opérateur public France Télécom -qui détient près de 58 % du marché français- a passé la barre des 2 millions d'abonnés en juillet 1997. De fait, cet opérateur a vendu 700.000 abonnements depuis le début de l'année 1997, soit une quantité supérieure à l'ensemble des ventes de l'année 1996 (600.000). Cette tendance se vérifie très largement chez les autres opérateurs que sont SFR ou Bouygues Télécom.

Les évolutions de ces deux mondes "classiques" du téléphone et de la télévision viennent ainsi à la rencontre du monde "nouveau" de l'informatique provoquant dès lors une puissante réaction en chaîne porteuse de modernité.

B. DES CONJONCTIONS "IRRADIANTES"

Ce grand mouvement se caractérise par la multiplication des moyens techniques de diffusion de l'information. C'est dans un monde fait de diversité et de concurrence que naît la société de l'information.

Cette réalité aux multiples facettes constitue un véritable "éloge de la complexité" , qu'il serait vain de vouloir réglementer selon des visions traditionnelles, voire conservatrices.

L'observation, l'analyse et l'évaluation de ce monde de l'information, en constante évolution, exigent donc un grand pragmatisme.

Certains pensent à une unification future des réseaux et des terminaux. D'autres, au contraire, pensent à des réseaux spécifiques avec des terminaux spécifiques correspondant à des fonctions ludiques, des fonctions de gestion, des fonctions éducatives ou plus spécialisées.

1. Les réseaux : artères d'un monde unifié

a) Les différents types de réseaux et de supports

Les réseaux

Quelle que soit leur nature, les réseaux constituent le lien par lequel circulent les informations transmises d'un point à un autre. Cette circulation ou cet échange d'information peut s'effectuer sur plusieurs types de réseaux dont les principaux sont le réseau téléphonique, le réseau câblé, le réseau mobile, les réseaux de télédiffusion satellitaire ou hertzien.

- S'agissant du réseau téléphonique , celui-ci permet de "transporter" la voix, mais aussi des informations numériques qu'il achemine vers des télécopieurs ou des ordinateurs.

Au sein de ce réseau, on distingue le réseau commuté traditionnel et le réseau numérique à intégration de services (RNIS -en France, il s'agit de NUMERIS-), ce dernier permettant de véhiculer une plus grande quantité d'information à une vitesse bien supérieure à celle du réseau commuté analogique.

- Viennent ensuite les réseaux câblés . Ces réseaux, strictement locaux, sont en général constitués d'une tête de réseau (le plus souvent alimentée par satellite) et d'un réseau en fibre optique reliant cette tête de réseau à ces centres de distribution eux-mêmes reliés aux utilisateurs par un réseau de raccordement en câble coaxial. Ces réseaux câbles sont en principe caractérisés par leur architecture arborescente -et non en étoile comme le réseau téléphonique- et peuvent, au prix de légères adaptations, supporter une "voie de retour", c'est-à-dire une circulation de l'information du récepteur vers l'émetteur qui autorise ce qu'il est convenu d'appeler l'interactivité 8( * ) .

- Le réseau de la téléphonie mobile est, quant à lui, dit cellulaire . La norme GSM (Global System for Mobile), associée au réseau cellulaire, est un système de radiocommunications numériques -désormais mondial- mis au point par l'Institut européen de normes de télécommunications (ETSI, European telecommunication standard institute) siégeant à Sophia Antipolis. Ce réseau est dit cellulaire en raison de son principe de fonctionnement, fondé sur une division du territoire en une série de zones -appelées cellules - dotées chacune d'un dispositif d'émission-réception, un système de localisation des appels et de changement automatique des fréquences, généralement relayé par satellite, permet de maintenir la transmission en dépit du mouvement du récepteur.

L'augmentation du débit de ce réseau et la compression des données le rend compatible avec la transmission de tous les types d'informations numérisées.

- Il s'agit enfin des réseaux hertziens dont les faisceaux -analogiques ou numériques- sont utilisés en particulier par la télévision.

Ces faisceaux sont formés d'ondes concentrées par des réflecteurs paraboliques et/ou des satellites.

- Les satellites peuvent intervenir comme support de transmission pour divers types de réseau. Leur importance risque de devenir croissante dans l'avenir par suite des projets de satellites en batterie interconnectés. Des antennes paraboliques constituent les liaisons montantes ou descendantes.

Les supports

Les supports physiques utilisés,de façon spécifique ou combinée au sein de ces réseaux, sont, par leurs caractéristiques propres, déterminants pour l'acheminement de l'information. Le moins performant de ces supports est la traditionnelle " paire torsadée ", constituée par des fils de cuivre. Celle-ci n'est plus utilisée que pour relier les postes téléphoniques des domiciles des utilisateurs aux centraux téléphoniques.

Vient ensuite, pour les circuits à longue et moyenne distance, le câble coaxial -câble en cuivre, entouré d'une couche d'isolant, elle-même blindée d'une tresse en cuivre, l'ensemble étant coulé dans une gaine en plastique. Ayant très largement servi de support pour le développement de la télévision câblée, ce support possède une capacité supérieure de près de 300 fois à celle de la paire torsadée ; il permet de transporter entre 15 et 30 canaux de télévision en diffusion analogique. Cette capacité peut donc croître fortement en fonction de la compression des données permise par une diffusion numérique.

Vient enfin le câble à fibre (s) optique (s) qui permet de multiplier par 1.000 la capacité de diffusion par rapport au câble coaxial. Ce câble en fibre optique, généralement composé en silice, permet de véhiculer les signaux sous forme lumineuse, ce qui rend ces derniers insensibles aux perturbations électromagnétiques ou électrostatiques. Ce mode de transmission présente en outre l'avantage de ne nécessiter aucune amplification ou régénération sur longue distance, à la différence des signaux électriques diffusés sur support métallique.

Les réseaux hertziens et satellitaires n'ont pas besoin de supports physiques au sol autres que les antennes. Le débit transporté peut être fonction du nombre de canaux et des fréquences affectées.

b) L'unification tendancielle des réseaux : le phénomène Internet

Utilisant potentiellement tous les types de supports, le phénomène Internet (Interconnected Networks - réseaux interconnectés) préfigure l'avènement d'un monde unifié de l'information. Reliant en 1997 environ 60 millions d'utilisateurs, ce "réseau des réseaux" constitue l'aboutissement grand public d'un concept déjà ancien.

L'origine d'Internet remonte en effet à 1969, date à laquelle le ministère de la défense des Etats-Unis créa un réseau destiné à fédérer les organismes travaillant pour ce ministère. Ce dernier fut baptisé ARPANET, par référence à l'Advanced research projects agency (ARPA) du ministère de la défense qui l'avait conçu.

Ce réseau était caractérisé par un mode d'interconnexion de réseaux et d'ordinateurs le rendant peu vulnérable en cas de dégâts causés -par un conflit militaire en l'espèce- sur une partie de ces réseaux.

Le principe de ce nouveau réseau s'est ensuite très largement ouvert à l'ensemble de la communauté scientifique et universitaire américaine et mondiale. Jusqu'à la fin des années 1980, c'était pour l'essentiel un outil de communications entre chercheurs, dont le coût était partiellement pris en charge par les organismes publics. La philosophie initiale d'Internet se définissait par un souci de mise en commun et de partage de ressources intellectuelles. La plupart des " internantes " chevronnés sont hostiles à tout développement commercial sur le réseau des réseaux.

Depuis cette période, Internet a connu une évolution spectaculaire, tant quantitative que qualitative. Sans rentrer dans une analyse détaillée et technique d'Internet 9( * ) , il convient de noter qu'Internet n'a pas d'existence physique. Il s'agit d'une sorte de "galaxie" dans laquelle sont interconnectés des centaines de milliers de réseaux et d'ordinateurs . La majorité des utilisateurs y accède au moyen du réseau téléphonique classique, les différents sous-réseaux étant en revanche reliés par des lignes à haut débit. Internet ne propose aucun service ; il ouvre l'accès à de multiples services tels que des bases de données ou le courrier électronique qui sont chacun géré par un opérateur dont la fiabilité peut être de niveau élevé lorsqu'il s'agit d'un centre de recherche ou d'une bonne université par exemple, mais dont certains opérateurs sont moins crédibles.

Les connexions à Internet se font grâce aux liaisons assurées par des sociétés commerciales appelées prestataires ou fournisseurs d'accès. De ce fait, l'utilisation d'Internet ne constitue pas une opération gratuite, puisque le "consommateur" doit s'abonner auprès d'un fournisseur d'accès acquittant ainsi en général une somme forfaitaire (de l'ordre de 100 francs par mois) correspondant à une certaine durée de connexion autorisée, le principe étant souvent en France celui d'une tarification au tarif d'une communication locale -quelle que soit la localisation du serveur consulté. Dans d'autres cas, la tarification peut être nulle ou dépendant d'un abonnement fixé en fonction du débit garanti.

La facturation du seul abonnement national sans limitation de la durée de connexion constitue cependant une pratique de plus en plus courante, notamment aux Etats-Unis. Cette tendance est susceptible de se développer en France avec la libéralisation du secteur des télécommunications. Ainsi, au-delà des premières expériences de commercialisation d'Internet sur le câble au Mans, à Strasbourg et dans le 7e arrondissement de Paris, l'arbitrage, rendu par l'Autorité de régulation des télécommunications le 11 juillet 1997, devrait ouvrir la voie à une généralisation de cette pratique.

Cette décision comporte, en tout état de cause, une orientation essentielle pour favoriser la "remise à niveau" du nombre d'abonnés à Internet en France, qui ne s'élève qu'à environ 400.000, contre 60 millions dans le monde. En outre, l'utilisation de ce support permettrait aux utilisateurs de disposer d'une qualité d'accès et d'une rapidité très supérieure à celles que permet la ligne téléphonique traditionnelle.

Internet permet, en effet, dans ses principales composantes la messagerie électronique, les forums de discussion et le World Wide Web (WWW, W3 ou tout simplement "le" Web 10( * ) ) l'accès à un nombre considérable de serveurs offrant une très large gamme de services. Les fonctionnalités sont variées (par rapport aux fax et téléphone) : correspondance très économique, discussion de groupes interactifs, bases de données type cédérom, etc.

Les fonctionnalités graphiques, sonores ou visuelles du Web exigent d'importantes ressources de transmission en raison du volume de l'information. C'est pourquoi, l'accès par une simple ligne téléphonique exige souvent de longs temps d'attente, correspondant au "chargement" de l'information. Cet inconvénient est marqué si le volume global du "trafic" de l'information est dense. Ainsi, les "heures de pointes" que constitue, aux Etats-Unis (principal utilisateur d'Internet) la matinée, rendent souvent laborieux les accès au réseau en Europe vers les serveurs localisés aux USA aux heures correspondantes, soit entre 15 heures et 17 heures en particulier.

Une solution de plus en plus pratiquée est l'utilisation de serveurs miroirs (c'est-à-dire de la réplique en Europe ou au Japon du contenu informationnel d'un serveur placé aux USA ou au Canada.

2. La "longue marche" vers un terminal unique

Cet univers technologique en constante expansion se caractérise donc par une "interpénétration" croissante des différents modes de communication, qu'il s'agisse de l'informatique, des télécommunications ou de l'audiovisuel, et des supports de diffusion, qu'il s'agisse du réseau téléphonique, du câble, du faisceau hertzien ou de la fibre optique. Cette unité des différentes composantes de la société de l'information se trouve scellée par la possibilité de traduire chacune d'entre elles en un langage unique, le numérique.

L'évolution vers un terminal unique, rassemblant à la fois les fonctions du téléphone, de la télévision, de la chaîne audio et de l'ordinateur est parfois envisagé. Ainsi, cet univers fait de complexité pourrait se résumer, du point de vue du consommateur, à une seule machine universelle fournissant l'accès à toutes les fonctions de la société de l'information.

Cette vision reste encore largement utopique au regard de la tendance actuelle, qui tendrait plutôt vers une multiplication des terminaux qui peut correspondre à des usages spécifiques, y compris dans le grand public (salle de séjour, bureau à domicile, domaine des enfants pour pédagogie et jeux, etc.).

Les indices d'unité sont cependant nombreux, comme le montrent les quelques exemples suivants.

L'imbrication potentielle de la télévision et de l'ordinateur est illustrée concrètement de plusieurs façons. Ainsi, dans le cadre de Canal Satellité, l'offre télévisée par satellite de Canal +, le décodeur raccordé à l'ordinateur permet de télécharger des logiciels et des jeux vidéos sur un disque dur. Ce système permet aussi de regarder des programmes informatiques sur le téléviseur.

Par ailleurs, ainsi qu'il a déjà été dit, l'accès des ordinateurs à Internet au moyen des réseaux câblés de télévision , rapproche aussi ces deux terminaux.

Enfin, il faut préciser que le téléphone peut être traité par l'ordinateur au moyen d'Internet , et compte tenu de la possible gratuité du service, cette fonction est suceptible de se développer assez rapidement.

Il est difficile pourtant, dans ce monde changeant, de produire toute autre évolution que l'expansion rapide.

*

* *

Au regard de ces mondes en mouvement, notre mission d'information souligne la nécessité d'éviter qu'un décalage ne puisse se faire jour entre la tendance à l'unification des grandes composantes de la société de l'information (télécommunications, audiovisuel, informatique) et le cadre juridique auquel chacune d'elle est soumise.

De ce point de vue, la législation française a déjà accompli de très importants progrès au cours des dernières années.

Cet effort de rationalisation du droit doit cependant être poursuivi.

Dans le même esprit, votre mission d'information souhaite que les trois autorités respectivement compétentes dans les domaines de l'audiovisuel (le Conseil supérieur de l'Audiovisuel, CSA), des télécommunications (l'autorité de régulation des télécommunications, ART) et des fréquences (Agence nationale des fréquences, ANF) se rencontrent de façon périodique pour coordonner leur action en faveur de l'intérêt général.

Une telle démarche constitue, dans l'esprit de la mission d'information, une nécessité impérieuse. Si, d'aventure, cette voie devait être négligée, il serait alors nécessaire d'envisager une transposition du modèle prévalant aux Etats-Unis d'Amérique et au Canada.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page