Allez au contenu, Allez à la navigation



 

La France et la société de l'information - T2: annexes Techniques


Pierre LAFFITTE, Sénateur


Rapport de l'Office Parlementaire d'Evaluation des Choix Scientifiques et Technologiques No 213 (335) -7 février 1997

Table des matières


CHAPITRE I

GÉNÉRALITÉS
I.COMMUNICATION ET CODE
A.Quoi de neuf ?
a)Le numérique supplante l'analogique
b)La commutation
c)L'apparition de l'informatique communicante
d)Les ondes millimétriques
e)Le satellite
f)La fibre optique
g)La compression de données
h)Utilisation des fréquences, modulation et multiplexage de fréquences
i)L'agence des fréquences
j)Notions de débits
B.Une mutation de longue durée
II.UNE SITUATION DE PLUS EN PLUS COMPLEXE MALGRÉ DES CONVERGENCES
1.De réelles convergences
a)L'audiovisuel, les télécommunications et l'informatique se rapprochent
b)Une tendance que l'ATM doit favoriser
2.Une complexité qui demeure
III.LE TRIOMPHE DE L'IMMATÉRIEL
1.L'exemple d'Internet
2.Les techniques "orientées objets"
3.Les ordinateurs de réseaux
4.Les réseaux intelligents
IV.CONCLUSIONS
1.Une terminologie confuse et inadaptée
2.Les vrais apports des nouvelles techniques d'information et de communication
CHAPITRE II

DES CONSÉQUENCES MAJEURES QUI S'IMPOSENT AVEC UNE PROGRESSIVITÉ ACCÉLÉRÉE
I.DES CONSÉQUENCES MAJEURES
A.Les conséquences économiques
1.Une importance considérable
a)Des effets globaux
b)La modification des frontières des secteurs industriels traditionnels
c)Les secteurs des industries du contenu
d)Un potentiel favorable
2.Un bouleversement des conditions d'exercice des activités des entreprises
a)Une efficacité renforcée
b)Une remise en cause des modèles hiérarchiques traditionnels ?
3.Le télétravail
B.Les conséquences culturelles
1.De nouveaux moyens d'expression et de diffusion
a)Les nouveaux outils
b)Le multimédia interactif
2.Un accès élargi à la création et aux œuvres
a)L'accès aux moyens de créer
b)L'accès aux œuvres
3.Les relations entre les auteurs, les techniciens et le public
4.Des enjeux cruciaux pour notre rayonnement culturel et pour la francophonie
a)Le rayonnement culturel de la France
b)La francophonie
C.Les conséquences sociales
1.Les craintes
a)L'isolement des maniaques de l'ordinateur
b)Une accentuation de la fracture sociale
2.Les espoirs
a)Un facteur d'intégration
b)Un renforcement du civisme
D.Des services publics modernisés
1.L'éducation
2.La santé
a)La formation médicale continue
b)L'amélioration des soins
c)Une gestion plus efficace
3.Les télécommunications
E.La recherche
1.L'utilisation d'Internet
2.Les réseaux dédiés
II.UNE INTRODUCTION PROGRESSIVE ...
A.Les freins technico-juridiques
1.Les obstacles purement techniques
a)L'exemple de la vidéo à la demande
b)Autres cas ponctuels de difficultés
c)Les insuffisances des réseaux
d)La convivialité insuffisante des ordinateurs personnels
2.Les problèmes juridico-techniques
a)L'élaboration des normes
b)La sécurisation et le cryptage
c)Les droits d'auteurs et la propriété intellectuelle
d)Le contrôle des contenus
B.Les freins socio-économiques
1.Les facteurs d'incertitude
a)Les aléas du comportement des usagers
b)La conjoncture économique et budgétaire
2.L'exemple des services en ligne
a)Les expériences de télévision interactive aux États-Unis ont provoqué une grande perplexité des opérateurs quant à la possibilité de rentabiliser les très lourds investissements nécessaires (100 à 150 milliards de dollars dépensés à la fin de 1996 par Time Warner à Orlando).
b)Pour l'Europe et la France,
III.... UNE ÉVOLUTION QUI S'ACCÉLÈRE
A.Des solutions haut débit en attendant la fibre optique ?
1.L'ADSL (Asymetric Digital Subscription Line)
2.Le MMDS (Microwave Multiwave Distribution System)
3.Les solutions satellitaires
B.La dynamique Internet
1.Une cadence stupéfiante
2.Des défis relevés
3.De nouveaux concepts
4.Un effet d'attraction très fort
5.Vers une commercialisation
6.Le vrai marché porteur : les contenus
7.La nécessaire évolution d'Internet
C.Le phénomène Intranet
1.D'immenses avantages
2.Un nouveau marché potentiel
D.Des percées décisives
1.Les modems
2.Les processeurs
3.Les écrans
4.La reconnaissance de la voix et de l'écriture (selon Le Monde du 8 novembre 1995)
a)La voix
b)L'écriture
c)Le dessin
CHAPITRE III

POURQUOI LE RETARD EUROPEEN ?
QUELLES CARENCES ?
I.UN RETARD PRÉOCCUPANT
A.Dans l'organisation de l'europe
B.L'homogénéisation du marché européen
C.Des acteurs souvent en difficulté
1.Le contexte général
2.L'informatique en posture délicate
a)Une importance majeure
b)De rares points forts dans les logiciels
c)Les déboires de l'industrie des équipements
d)Les problèmes des sociétés de services
3.Un recul dans les télécommunications
a)Les résultats décevants des industries d'équipements
b)Des perspectives d'investissement en baisse chez les opérateurs
4.Les mécomptes de l'Électronique Grand Public
5.Une masse critique difficile à atteindre dans les composants
6.Des inquiétudes concernant la recherche
D.Les obstacles à l'émergence d'un marché des contenus
1.Le Minitel, un atout qui devient un handicap
a)Un précurseur exemplaire
b)Un système qui a aujourd'hui atteint ses limites
2.Un frein à l'utilisation d'Internet par les ménages ?
a)Un équipement réduit des ménages en ordinateurs personnels
b)Un accès à Internet plus limité encore
3.Internet n'a pas encore non plus pénétré le monde des entreprises
4.Des effets fâcheux
a)Une entrave à la création de nouveaux services et contenus
b)Des répercussions économiques regrettables
c)Des conséquences néfastes du point de vue culturel
II.DES OPPORTUNITÉS DE RATTRAPAGE
A.Un contexte très ouvert
1.De profondes innovations
a)De nouveaux composants pour le multimédia
b)Des systèmes partagés et conviviaux
2.Les effets déstabilisateurs de la dynamique Internet
a)La maîtrise de la surabondance d'informations
b)Des possibilités variées
3.3.Des chances pour tous
B.Un potentiel qui ne doit pas être sous-estimé
1.Les capacités de recherche européennes
2.La maîtrise de technologies clef
3.L'existence d'acteurs importants
a)Les industriels
b)Les opérateurs
c)Le domaine du contenu
4.Des P.M.E. innovantes
5.Une expérience et des savoir-faire précieux
III.QUELLES CARENCES ?
A.Carences de culture entrepreneuriale
B.Une mobilisation insuffisante et un manque d'ambitions industrielles
a)Au niveau européen
b)Au niveau français
2.Une mobilisation insuffisante
a)Au niveau budgétaire
b)En ce qui concerne la francophonie
3.Un manque d'ambitions industrielles
C.Les conséquences en termes d'emplois




N° 3335

ASSEMBLÉE NATIONALE

CONSTITUTION DU 4 OCTOBRE 1958

DIXIÈME LÉGISLATURE

N° 213

SÉNAT

TROISIÈME SESSION EXTRAORDINAIRE DE 1994-1995

Enregistré à la Présidence de l'Assemblée nationale
le 7 février 1997.
Rattaché pour ordre au procès-verbal de la séance

du 6 février 1997

Enregistré à la Présidence du Sénat le 7 février 1997.


_______

OFFICE PARLEMENTAIRE D'ÉVALUATION

DES CHOIX SCIENTIFIQUES ET TECHNOLOGIQUES

_______

RAPPORT

sur les réseaux grands débits et l'entrée dans la société de l'information,

par m. Pierre LAFFITTE,

Sénateur,

tome II

annexes techniques

______ ______

Déposé sur le Bureau de l'Assemblée nationale Déposé sur le Bureau du Sénat

par M. Robert GALLEY par M. Henri REVOL

Président de l'Office, Vice-Président de l'Office,


Télécommunications.


CHAPITRE I

GÉNÉRALITÉS

I. COMMUNICATION ET CODE

Tout contact interpersonnel repose sur un système de code. Les mimiques et expressions et le langage primitif articulé permettaient déjà une communication plus élaborée pour l'espèce humaine que pour les primates. L'invention de signes écrits, pictogrammes, idéogrammes et alphabets constituait un progrès sensible permettant le stockage et la transmission à distance.

Bien entendu, ces télécommunications primitives enrichies grâce aux techniques de l'imprimerie se sont accélérées avec l'utilisation de codes nouveaux. Le télégraphe de Chappe, les signaux optiques dans la Marine, l'invention par Morse en 1836 du télégraphe et de l'alphabet morse ont ouvert la voie des télécommunications modernes. L'utilisation systématique des applications de l'électricité et de l'électromagnétisme ont développé l'usage des télégrammes, du téléphone, du bélinogramme par voie de fils qui ont sillonné les pays industrialisés. La radiodiffusion et la télévision par voie hertzienne et depuis peu par voie satellitaire ont généralisé un système d'information et de communication au fil du siècle qui se termine.

Les techniques utilisées étaient variées mais utilisaient pour l'essentiel des systèmes d'ondes électromagnétiques ou électriques. Ce qui est nouveau, c'est désormais la simplification et l'unification possible des transmissions par l'utilisation d'un code simplifié binaire.

A. Quoi de neuf ?

a) Le numérique supplante l'analogique

Le code binaire est déjà présent dans l'alphabet morse (une brève ou une longue, c'est déjà le 0-1 de l'informatique. C'est l'unité élémentaire d'information, le bit (Binary digital unit)). Pour comprendre l'importance de ce code simple, il faut se rappeler les caractéristiques des fonctions exponentielles en mathématique.

La numérisation utilise des chaînes de codes élémentaires qu'on peut schématiser sous forme de succession de 0 et de 1 (par exemple : 01001110). Il y a ainsi 256 possibilités de combinaisons pour huit 0 ou 1 successifs.

Si vous multipliez un nombre par lui-même plusieurs fois par exemple 2 multiplié huit fois par lui-même, c'est ce que les mathématiciens appellent 2 à la puissance 8 (28), c'est-à-dire 256.

L'informatique, qui est basée sur le codage binaire, permet de stocker et manipuler des milliards de ces informations élémentaires en des temps infimes.

L'industrie informatique depuis plus de quinze ans multiplie par deux les capacités de traitement des matériels et des programmes qu'elle fabrique tous les dix-huit mois à prix constant. C'est ce que l'on appelle parfois la loi de Moore. Rien ne permet de penser que l'on approche d'une saturation et il est probable que les quinze ans à venir verront encore une multiplication par 2 à la puissance 10 (210), c'est-à-dire multiplier par 1024 les capacités à prix constant (ou diviser par 10 le prix et multiplier par 100 les capacités).

Il faut bien se rendre compte de ce que ceci représente. Aujourd'hui, un micro-ordinateur coûtant 10.000 francs, c'est-à-dire accessible à la majorité des PMI, des commerçants, des professions libérales et d'une partie du grand public, est aussi puissant que ce qui coûtait 1 million de francs et nécessitait une salle climatisée il y a quinze ans. Bien entendu, ceci était réservé à des entreprises de taille confortable.

Dans le même temps, les systèmes de télécommunications s'adaptent. Les matériels de commutation numérisés permettent de gérer des réseaux à grand débit (on parle de Mégabit, soit 1 million de bits par seconde, et de gigabits, soit 1 milliard de bits par seconde). Les fibres optiques, les réseaux de satellites, tout est en place pour gérer les grands débits.

Dans quinze ans, avec des micros cent fois plus puissants coûtant mille francs, raccordés à des réseaux mondiaux grands débits, c'est une certitude.

Le tout numérique est en marche. Comment transformer un texte, une image, des sons en successions de codes binaires.

•  Pour un texte, il suffit d'afficher l'une des 256 combinaisons qui sont liées à une série de 8 bits (un octet) à une lettre minuscule, majuscule, accentuée ou à un chiffre ou un symbole mathématique. Si l'on considère que ceci ne suffit pas, car l'on veut ajouter des lettres grecques, cyrilliques, arabes, chinois, etc..., il suffit de prendre deux octets. Ceci donne 256 x 256 combinaisons, c'est-à-dire plus de 66.000.

•  Pour les images et les images animées, on introduit un codage qui utilise la décomposition d'une image en carreaux élémentaires, les pixels.

Il convient de noter que la photographie correspond (par le noircissement des grains de la pellicule photographique) à une démarche physique analogue. La finesse de définition d'une pellicule photographique est liée à la taille des particules élémentaires qui noircissent sous l'action des photons. Pour la numérisation, une image peut être découpée en bandes horizontales et en bandes verticales. Souvent, pour la commodité, on prend un nombre correspondant à une puissance de 2 par exemple 512 lignes (c'est-à-dire 2 à la puissance 9). Une image carrée pourra ainsi être découpée en 512 lignes et 512 colonnes. Chaque petit carreau pour une image de 50 cm aura alors près de 1 mm de côté. Il sera repéré par 9 + 9 = 18 bits et on peut lui affecter une nuance de gris ou une couleur. Dans les prospectus pour micro-informatique, on parle parfois de 256 nuances de gris ou de 1 million de couleurs. Ceci correspond à 8 bits pour la nuance de gris (2 à la puissance 8) et 20 bits pour la couleur (2 à la puissance 20).

Transcrire en numérique une image est simple, mais cela nécessite un grand nombre d'informations élémentaires. Dans note exemple, nous avons 512 x 512 pixels chacun repéré par 26 bits (son abscisse, son ordonnée, sa teinte de gris). Des logiciels de compression permettent de diminuer le nombre d'informations élémentaires qui transcrivent les caractéristiques d'une image. Il en va de même pour des images animées. On comprend donc que dès qu'il s'agit de transmettre des images, il faut de grands débits.

Dans les transmissions de données ou d'images, il est possible d'utiliser des logiciels de compaction qui diminuent momentanément la définition des images (ou même supprimer en cas d'images animées, certaines images) si les débits ne sont pas suffisants pour transmettre la totalité des informations désirées. Certes, le résultat sera moins bon, mais néanmoins acceptable. Pour le son, par contre, une insuffisance de débit peut être catastrophique.

•  Un son pur est caractérisé par une fréquence de vibration. La combinaison de fréquences de vibration d'intensité différente et parfois diphasées, produit des sons composites comme les voix, la musique, etc.

Dans le cas des transmissions analogiques du téléphone, le microphone transforme physiquement les diverses fréquences et leurs intensités en phénomènes vibratoires de même fréquence et dans le même rapport d'intensité transmis par voie électrique et éventuellement retransmise par voie électromagnétique. Le récepteur retransforme ces vibrations électriques en vibrations sonores.

Il est possible de coder de façon numérique, pour chacune des vibrations émises, la fréquence, l'intensité, la phase et reconstituer l'ensemble. A l'arrivée, les codes numériques seront décodés et retransmis.

•  La numérisation présente de très grands avantages sur le plan de la qualité de transmission, sur les systèmes de stockage de données notamment.

L'altération de signaux transmis en analogique est irrémédiable. Or, des impondérables existent notamment dans le cas de transmission d'ondes électromagnétiques dans l'atmosphère (les perturbations atmosphériques par exemple).

La souplesse du numérique permet des redondances et donc la détection automatique et la réparation d'erreurs fortuites introduites accidentellement dans une série (un paquet) de données élémentaires. Les techniques de transmission par paquets disposant chacun d'un code repère, permet de faciliter l'optimisation des circuits. La combinaison de transmission sans altération (avec corrections automatiques de celles qui se produisaient) de données images et sons est une percée technique importante. Le cryptage et décryptage -donc la confidentialité- est rendue techniquement plus aisée. Et l'industrie du numérique poursuit sa marche ascendante dans des secteurs les plus variés de l'économie.

b) La commutation

Ce mot n'est pas issu du langage des informaticiens, il vient du milieu "télécommunications". Connecter à la demande par des moyens simples des personnes entre elles est depuis toujours le métier des personnes engagées dans le téléphone. Initialement, on utilise des moyens manuels. Les célèbres demoiselles du téléphone installées dans des centrales d'aiguillage connectaient un interlocuteur repéré par sa fiche, soit avec le numéro qu'il demandait repéré par sa fiche, soit avec un autre central qui pouvait disposer de la fiche du numéro demandé, ou le réaiguiller vers sa destination finale. Le demandeur parisien ou lyonnais se connectait ainsi au 22 à Asnières, passant parfois par des centraux éloignés.

Cette commutation a fortement évolué mais reste le cœur du métier des télécommunicants.

Les centraux de commutation, lorsque tous les signaux transmis étaient analogiques, étaient basés sur des systèmes analogiques et le sont encore totalement ou partiellement dans de nombreux pays. Ils sont peu à peu transformés en appareils de commutation numérique et la France à cet égard a une certaine avance.

Elle avait aussi une certaine avance dans les systèmes et logiciels de transmission numériques par paquets.

c) L'apparition de l'informatique communicante

Les échanges de données informatiques peuvent se passer de commutation en recourant à des réseaux locaux à ressources partagées (à structure en anneau, style Ethernet, ou token ring ou en ligne) ou, pour les grandes distances, à des liaisons spécialisées, le plus souvent louées aux opérateurs publics.

En outre, les informaticiens se sont longtemps distingués des "télécommunicants" par le mode non connecté de leurs liaisons (sur les réseaux téléphoniques, vous décrochez, vous avez la tonalité, la ligne est disponible. Dans les réseaux informatiques, pour qu'une liaison soit établie, un protocole de communication doit d'abord être établi entre deux machines).

Enfin, les informaticiens considéraient souvent que l'intelligence doit résider dans le terminal, contrairement aux télécommunicants pour lesquels l'intelligence doit résider dans les nœuds de leurs réseaux, les centraux. On notera, à cet égard, l'évolution del'informaticien qui, avec les network computeurs et des serveurs puissants, tend à prendre une coloration franchement télécommunicante.

L'accès à la commutation des réseaux informatiques a contribué à les rapprocher quelque peu des réseaux téléphoniques, mais il s'agit de deux modes de commutation initialement différents. Dans les réseaux téléphoniques, la communication suivait toujours le même trajet pendant la durée de la liaison (les mêmes lignes sont utilisées) ; il y avait commutation de circuits. Pour les échanges informatiques, les données numérisées sont regroupées en paquets qui peuvent emprunter des itinéraires différents, au gré des échanges, pour arriver à destination, en fonction de l'encombrement des différentes voies du réseau. Il y a commutation de paquets. Ceux-ci sont remis en bon ordre à l'arrivée.

La technique des réseaux à grands débits avec ATM combine les avantages des deux formules.

Internet, dont on connaît le succès mondial, utilise la commutation par paquets, tout en empruntant, au besoin, les infrastructures du réseau téléphonique commuté. Les modems permettent, en effet, aujourd'hui, de convertir le langage de l'ordinateur en signaux compatibles avec le parcours des réseaux téléphoniques (même dans leurs parties encore analogiques).

• • •

La numérisation de la transmission de toutes les données et l'avènement de réseaux informatiques commutés a donc des conséquences très importantes :

•  permettre à l'image et au son d'être véhiculés sur tous les réseaux téléphoniques et informatiques ;

•  donner la possibilité de rendre ainsi "multimédia" les terminaux qui, à la différence des téléviseurs, ne l'étaient pas encore (ordinateurs, visiophones) en ajoutant de l'image et/ou du son ;

•  stocker sur le même support images, son, texte ;

•  multiplier les capacités de diffusion grâce à la compression de données qui sera évoquée plus loin ;

•  accéder à distance à la demande, en temps réel, à des données multimédia à travers les différents réseaux (grâce à la nouvelle architecture informatique client/serveur).

Cette même période de l'après-guerre a vu aussi apparaître des moyens nouveaux de s'attaquer à l'éternel problème des télécommunications, évoqué plus haut, à savoir la saturation progressive des capacités disponibles.

d) Les ondes millimétriques

En ce qui concerne la transmission par les ondes électromagnétiques ("le hertzien") la solution classique pour acquérir des capacités de diffusion supplémentaires était et demeure la recherche d'autres bandes de fréquences.

Après les grandes ondes, les ondes moyennes, puis les ondes courtes, on en est aujourd'hui à explorer les possibilités d'ondes millimétriques ou micro-ondes auxquelles correspondent les systèmes de diffusion MMDS (en anglais Micro Waves Multipoint Distribution System), dont il est beaucoup question en ce moment.

e) Le satellite

Par ailleurs, le recours au satellite, comme relais de diffusion ou de communication, permet de pallier la rareté des fréquences disponibles au sol (les interférences sont évitées grâce à des directions de propagation, montantes et descendantes, différentes de celles utilisées à terre). Mais des problèmes d'encombrement d'orbites et de fréquences commencent aussi à se poser dans l'espace.

f) La fibre optique

S'agissant des systèmes filaires de transmission, après le câble coaxial, est apparu en laboratoire, à la fin des années soixante, un nouveau matériau : la fibre de verre ou fibre optique. Si l'idée d'utiliser les ondes optiques dans le domaine des télétransmissions n'est pas nouvelle, les progrès techniques (transmissibilité, pertes d'énergie, ....., etc.) de ce nouveau support place les télécommunications dans une situation inédite. Les capacités de transmission de la fibre optique semblent actuellement suffisantes pour supporter de très grands débits, d'autant plus que leur coût a fortement chuté.

g) La compression de données

Autre rupture complète avec le passé : la "compression de données" permet, pour la première fois, d'agir également sur la demande de capacités de transmission (que l'on arrive à réduire pour un signal donné) au lieu de se contenter de chercher uniquement à augmenter systématiquement l'offre de capacité.

Les progrès réalisés dans ce domaine ont été tels que ce qui paraissait constituer le principal obstacle du numérique (la maîtrise d'un flux considérable de données) en est devenu l'un des principaux atouts. La compression numérique de données permet, par exemple, de multiplier par un facteur de cinq ou six le nombre de chaînes de télévision passant par l'intermédiaire d'un répéteur de satellite.

La compression de données correspond à ce que l'on appelle le "codage source" du signal. Ce codage permet, par l'utilisation d'algorithmes complexes, de réduire à l'origine le débit de données numériques à transmettre en éliminant les redondances, en reconstituant à l'arrivée des éléments manquants, etc... C'est la compression de données qui a permis, comme cela a déjà été mentionné, la numérisation, capitale, de la transmission des images et, notamment, des images animées.

h) Utilisation des fréquences, modulation et multiplexage de fréquences

Les ondes électromagnétiques sont caractérisées soit par la longueur d'onde, soit par la fréquence, nombre d'ondulations par seconde mesurée en hertz ou mégahertz. Une transmission par voie hertzienne utilise une bande de fréquences. Ainsi, l'espace alloué en France à chaque chaîne de télévision terrestre hertzienne est de 8 mégahertz, ce qui était nécessaire pour transmettre par voie analogue les images animées.

Les bandes de fréquences de radiodiffusion sont moins larges. Les fréquences sont une ressource rare et le développement des usages conduit à contrôler leur utilisation et à l'optimiser. Ce sera le rôle de l'agence des fréquences créée par la loi de 1996.

Pour optimiser l'usage des fréquences, on a mis au point des techniques de modulation de fréquences et de multiplexage analogiques. Désormais, peu à peu le numérique substitue des techniques plus performantes de multiplexage temporel (pour lesquelles l'unité de base n'est plus la bande de fréquences mais un intervalle de temps). Le multiplexage temporel a notamment l'avantage de permettre des commutations sans démultiplexage.

Quant à la modulation de fréquence, bien connue des mélomanes, elle sera peu à peu remplacée par la radiodiffusion numérique avec meilleure qualité de son et transport simultané de données ou d'images sur récepteurs radio dotés d'un écran. C'est déjà le cas pour les produits diffusés et expérimentés en Europe par le Club DAB initié par Roland Faure, ancien responsable de Radio France et membre du CSA.

i) L'agence des fréquences

Soulignons ici que l'affectation de bandes de fréquences de 8 mégahertz à des chaînes de télévision hertzienne n'est que provisoire, car l'autorisation donnée est limitée à la diffusion d'un programme. Dès lors qu'avec la même bande on pourrait diffuser jusqu'à dix programmes, il n'est pas pensable de ne pas remettre à la disposition de la nation les neuf dizièmes de ces bandes affectées qui peuvent être utilisées par exemple à d'autres méthodes de communication : téléphonie mobile, système de soins, urgences en matière de sécurité civile, etc. L'agence des fréquences a été créée pour cet objectif et la gestion des fréquences ne saurait rester pour cette raison aux mains d'un organisme qui, tel le CSA, ne s'occupe que d'un mode d'utilisation de l'espace hertzien et dont le rôle essentiel est le contrôle des contenus.

j) Notions de débits

La notion de débit est relative. On parle aujourd'hui de hauts débits à propos de visioconférences ou de transferts de fichiers à 2 Mégabits (2 millions de bits) par seconde, par comparaison au trafic d'une voie téléphonique qui n'est que de 64 Kbit (64 mille bits) par seconde. Une image de qualité SECAM nécessite entre 5 et 6 Mégabit/s. La limite supérieure actuelle avoisine 140 Mbit/s (télévision haute définition, liaisons spécialisées informatiques). Mais, pour demain, il est question de "réseaux gigabits" (milliards de bits), voire terabits (milliers de milliards !).

Quelques exemples de débits numériques

•  S'agissant de la parole, le nombre d'échantillons est de 8000 à 256 niveaux (codage à 8 bits) par seconde.

Le débit est donc de 8000 x 8 = 64 kbit/s.

•  Pour le signal de télévision, 625 lignes, contenant chacune 370 éléments d'image (points dénommés "pixels) avec 24 bits de couleur, sont balayées au rythme de 24 images par seconde ; s'y ajoutent les 64 kbit/s de son.

Le débit de la source est donc de 370 x 625 x 24 x 24 + 64.000 =133.60 kbit/s arrondis à 140 Mbit/s.

Après compression, ces débits peuvent être ramenés à 16 kbit/s (bientôt 8) pour le téléphone et, selon la qualité, de 30 Mbits (liaisons entre stations) à 5 ou 6 Mbit/s (réception SECAM) pour la télévision.

B. Une mutation de longue durée

La principale conclusion de ce survol est que la mutation conduisant à l'avènement de la société de l'information ne s'est pas faite du jour au lendemain. Cette mutation a été permise par une avancée continue dans le domaine des composants depuis l'invention du transistor en 1948, en passant par celle des circuits intégrés dix ans plus tard, puis des microprocesseurs en 1971 qui constituent en quelque sorte le moteur des ordinateurs personnels.

Les progrès de l'optoélectronique sont récents (la fibre optique date de 1966). De même, la commutation par paquets (1960). Mais la percée décisive la plus récente et la plus rapide a été la prodigieuse poussée de la puissance des micro-ordinateurs, la pratique de la mise en réseau par Internet, les progrès des logiciels et notamment ceux de la compression de données. En moins d'une dizaine d'années, la numérisation, la transmission et le stockage du son et des images animées, la diffusion généralisée des mobiles de plus en plus performants (téléphone, autoradios numériques) et de l'informatique domestique et répartie changent la nature des possibilités.

L'informatique a joué un rôle majeur dans ces évolutions : en imposant son langage, le numérique ; en tant qu'instrument de recherche pour la mise au point des logiciels et des algorithmes de compression des données ; pour la gestion des réseau (dont les nœuds et les commandes sont régis par des ordinateurs) ; en devenant communicante et multimédia, enfin, permettant ainsi de traiter de façon combinée le texte, le son, l'image (ce qui a conduit, notamment, à l'informatisation des régies de production audiovisuelle) et d'accéder, par les réseaux, aux données correspondantes ou de les échanger de façon interactive.

Cette évolution ne fait que commencer et rien n'indique que sa vitesse diminue. La commutation optique, la reconnaissance de la voix et de l'écriture, l'arrivée de nouveaux disques optiques de stockage des données appelés DVD (de l'anglais Digital Versatile Disc), de nouveaux concepts font l'objet de recherches fondamentales (ordinateurs neuronaux ou quantiques, composants à puits quantiques, etc...).

L'essentiel reste dans les aspects non techniques mais culturels et sociaux de l'adaptation de notre société et de la maîtrise de ses conséquences.

II. UNE SITUATION DE PLUS EN PLUS COMPLEXE MALGRÉ DES CONVERGENCES

La situation héritée de ces évolutions est -et demeurera- très complexe malgré les convergences auxquelles on assiste.

1. De réelles convergences

a) L'audiovisuel, les télécommunications et l'informatique se rapprochent

On a beaucoup parlé d'un rapprochement entre les secteurs des télécommunications, de l'audiovisuel et de l'informatique (auxquels il faudrait d'ailleurs ajouter l'édition). De fait, il existe une certaine convergence :

•  les produits audiovisuels peuvent être distribués avec une certaine interactivité, même à travers le réseau téléphonique. Le téléviseur va s'enrichir de nouvelles fonctionnalités et accéder à de nouveaux services (et même au réseau Internet), grâce à des décodeurs perfectionnés. L'ordinateur permet d'assister à des émissions télévisées, après être devenu, comme on l'a vu, communicant, puis multimédia.

•  le monde du téléphone accède à l'image : la visioconférence est rendue possible par le RNIS (Réseau Numérique à Intégration de Services), avec des performances encore limitées.

•  l'accès des réseaux informatiques à la commutation les a rapprochés -on l'a vu- des réseaux téléphoniques. Les techniques ATM vont sans doute accentuer cette convergence et l'étendre à l'audiovisuel.

b) Une tendance que l'ATM doit favoriser

L'ATM (Asynchrone Transfer Mode) est un mode de transfert de commutation par paquet, qui tire parti de la commutation de circuits.

Pour l'essentiel, les techniques ATM consistent:

•  en la structuration des données numériques en cellules de dimensions fixes et réduites (ce qui facilite l'acheminement, la commutation, etc...) ;

•  au report à la périphérie du réseau de certaines fonctions complexes (traitements d'accès, contrôles de flux...).

Le transfert, c'est-à-dire le transport des éléments constitutifs du message transmis, s'effectue, comme dans les réseaux de paquets, de façon asynchrone. Cette solution permet une allocation de la bande passante en fonction des besoins, plus dynamique, plus souple et plus efficace que les méthodes synchrones.

La solution asynchrone est en outre compatible avec les hauts débits, comme l'ont montré les travaux du CNET dès 1982.

Cependant, la diffusion par paquets, si elle s'accommode bien de débits variables ou sporadiques (comme ceux occasionnés par les échanges de données informatiques), est mal adaptée aux services temps réels (comme le téléphone ou la vidéo) qui nécessitent une bonne synchronisation.

Les paquets des techniques ATM comportent des fonctions d'adaptation aux services à débit constant (avec compensation de la variabilité des temps de propagation et reprise d'horloge) qui les rapprochent de la commutation de circuits.

L'ATM cumule les avantages de la commutation de circuits (transparence à l'information et transmission en temps réel) et de la commutation par paquets (débits variables et occupation maximisée de la bande passante). Il permet d'envisager des réseaux uniques de transferts pour différents services (voix, vidéo, données) alors que le RNIS ne réalise pas vraiment de fusion des réseaux à commutation de circuits et de paquets, même s'il leur offre des interfaces uniques.

Les plaques expérimentales ATM de 155 Mégabits de France Télécom par exemple à Sophia Antipolis et les Alpes maritimes permettent de familiariser les utilisateurs avec ces techniques et de préciser les normalisations internationales qui restent nécessaires.

2. Une complexité qui demeure

Malgré les perspectives offertes par l'ATM, la perspective d'intégration des différents réseaux paraît encore très lointaine et la situation du présent et du proche avenir restera complexe.

Les facteurs de complexité sont en effet nombreux :

•  persistance de l'analogique notamment pour la saisie du son, d'où la nécessité de conversions en données numériques ;

•  conversions aussi entre l'électronique et l'optique pour le transport en fibres optiques ;

•  explosion des communications hertziennes numériques (aujourd'hui surtout le téléphone, mais déjà les échanges d'autres données) qui oblige à compléter les réseaux filaires par des réseaux cellulaires hertziens qui leur sont raccordés par des bornes spécifiques ;

•  hétérogénéité des terminaux, de leurs standards et de leurs normes ;

•  enrichissement de l'offre de services ;

•  concurrence entre opérateurs, qui oblige à prévoir des interconnexions et une inter-opérabilité entre des infrastructures différentes.

Enfin, les anciens supports, revigorés, accèdent aux hauts débits :

•  la bonne vieille paire de cuivre peut ainsi offrir des débits accrus grâce à de nouvelles techniques comme l'ADSL (modulation permettant des débits de plusieurs Mégabits sur de courtes distances par l'utilisation de fréquences inexploitées lors du transport de la voix) ;

•  les réseaux câblés audiovisuels peuvent offrir l'interactivité et, grâce à des modems spécifiques, des accès à Internet à des débits plus élevés que ceux du réseau téléphonique ;

•  en mode hertzien, les ondes millimétriques autorisent de vrais hauts débits. Le MMDS peut ainsi se prêter à la diffusion de programmes audiovisuels ou de données. Des solutions sont actuellement à l'étude pour la voie de retour qui rendrait, en outre, ce système interactif.

•  en ce qui concerne l'espace, l'ambitieux projet TELEDESIC de Bill Gates et Craig Mac Caw prévoit la mise en orbite d'une constellation de 840 satellites défilant en orbites basses susceptibles d'offrir à 20.000 personnes dans le monde entier des liaisons Internet à 1,5 Megabit/s.

Ces différentes solutions peuvent laisser penser à certains que la "fibroptisation" complète des réseaux jusqu'à l'abonné, n'est plus une priorité indispensable. A vrai dire, ce point est lié aux coûts qui, en matière de connectique optique, sont décroissants. De toute façon, comme on l'a vu, la mobilité croissante des communications rend indispensable le recours au "sans fil".

On se trouve ainsi en présence de réseaux concurrents, hétérogènes et hybrides qui font appel, à la fois au fil et au sans fil, au cuivre, au coaxial et à la fibre optique d'un côté, au satellite et au hertzien terrestre, de l'autre.

Si l'ATM, comme il faut l'espérer, parvient à s'imposer, il devra s'accommoder de ces différents réseaux. Il coexistera avec d'autres techniques de transport, notamment celle que l'on appelle le SDH (ou Synchronous Digital Hierarchy), adoptée pour les hauts débits par de nombreux opérateurs dont France-Télécom. Des solutions permettant d'utiliser en superposition ces deux techniques (l'une asynchrone, l'autre synchrone) sont possibles. Elles sont complexes mais solubles. Rien n'est impossible à la technologie moderne.

Cette complexité croissante des réseaux s'accompagne d'un renforcement des exigences de la clientèle qui réclame, outre une utilisation transparente de l'ensemble des techniques et des infrastructures, et en priorité des terminaux toujours plus conviviaux.

C'est dans cette convivialité accrue que réside à mon avis les progrès essentiels à venir.

III. LE TRIOMPHE DE L'IMMATÉRIEL

La maîtrise de la complexité représente ainsi un des défis majeurs de l'avenir des télécommunications. Le succès, dans ce domaine, suppose une victoire de l'intelligence sur les obstacles physiques, un véritable triomphe de l'immatériel.

Les succès récents d'Internet ou de certains logiciels "orientés objet" comme Java sont dus à des constructions de l'intelligence tendant à masquer l'hétérogénéité des normes ou des matériels, ou à dépasser les cloisonnements entre différents types de bases de données.

1. L'exemple d'Internet

Ainsi, Internet n'est pas un réseau -au sens physique du terme- mais un protocole, c'est-à-dire un ensemble de conventions informatiques, définissant un format de paquets standard et une méthode d'adressage reconnaissable par des routeurs (qui sont des ordinateurs) inter-réseaux. Il s'agit donc, en quelques sorte, d'un réseau de réseaux qui fait appel à la commutation de paquets pour échanger différentes sortes de données et rendre des services variés dans le monde entier à toute personne équipée d'un ordinateur (même un simple micro-ordinateur) muni d'un modem. Le succès de l'application de ce protocole, baptisé alors "Intranet", aux réseaux internes d'entreprises, réside dans le fait qu'il permet à des ordinateurs différents de travailler ensemble.

Mais la faveur dont jouit Internet est également liée aux logiciels qui lui sont associés (un logiciel est un ensemble d'instructions destinées à faire exécuter par l'ordinateur certaines tâches). Que serait Internet sans les logiciels essentiels qui facilitent les recherches dans les surabondantes bases de données disponibles sur les serveurs du monde entier ?

On peut citer :

•  les logiciels issus des technologies "hypertext" ou "hypermédia" qui rendent possibles les recherches par thèmes en reliant les informations correspondantes par mots ou références clé. Ces technologies utilisent le langage HTML (Hyper Text Markup Language) et le web, sorte de toile d'araignée mondiale, qui tisse des liens quasiment transparents entre les bases de données du monde entier ;

•  ce sont des navigateurs ("browsers" en anglais, expression que l'on peut traduire aussi par "butineur" ou "feuilleteur") qui permettent d'aller chercher l'information sur le web. Les plus connus sont Navigator de Netscape et Explorer de Microsoft.

2. Les techniques "orientées objets"

L'évolution des logiciels tend à dépasser les cloisonnements initiaux entre bases de données. On est passé, ainsi, de bases de données initiales monofichiers à des bases reliées entre elles puis aux bases actuelles "orientées objet" qui permettent des liaisons et imbrications d'objets (modules d'informations relatives à un même thème), empruntés à des bases différentes, qui conservent leur format et leurs propriétés d'origine.

Java dont on parle beaucoup actuellement est, en quelque sorte, l'aboutissement ultime de cette notion. Ce langage informatique mis au point par Sun autorise un accès quasiment transparent pour l'utilisateur à n'importe quelle base de données du marché. Il permet de télécharger sur n'importe quelle machine de petites applications (applets en anglais) d'images animées, complémentaires de pages web.

3. Les ordinateurs de réseaux

Cette possibilité de téléchargement de logiciels sur les terminaux d'Internet est à la base du concept lancé par Sun et Oracle, de "network computer" ou "cybertels" auquel Microsoft et les fabricants d'ordinateurs personnels tentent de répliquer en proposant des machines elles aussi simplifiées et moins chères, mais plus autonomes par rapport au réseau. Cette rivalité fait rebondir le vieux conflit entre l'intelligence dans le réseau ou dans le terminal.

4. Les réseaux intelligents

Du côté des exploitants de réseaux de télécommunications, le choix est clair, seul le concept de "réseau intelligent" permet de concilier la diversification de l'offre de services et l'inter-opérabilité entre infrastructures concurrentes et hybrides. Cette notion revient à séparer les fonctions de base, qui consistent à transporter et commuter des flux numériques de données, des fonctions de commande et gestion des services. Au dessus de l'acheminement banalisé des informations numérisées, apparaît ainsi une spécialisation des points de traitement des services par des plates-formes informatiques.

• • •

Ainsi, la convivialité des terminaux, la transparence des réseaux, la navigation dans des bases de données plus nombreuses et fournies nécessitent des protocoles, des langages et des logiciels dont la complexité s'accroît. L'économie des réseaux est de plus en plus immatérielle en ce sens que les investissements logiciels prennent le pas sur les investissements physiques.

IV. CONCLUSIONS

1. Une terminologie confuse et inadaptée

Les termes le plus souvent utilisés sont ambigus.

•  La métaphore inforoutes ou "autoroutes de l'information" ne rend pas compte du fait qu'il s'agit d'échanges instantanés, d'informations, de communications personnelles (messages) et de services (transactions à distance par exemple).

On ne voit pas non plus apparaître le caractère varié des voies de transmissions (réseaux filaires, transmission hertzienne terrestre ou satellitaire).

•  L'"interactivité" dont on parle existe à des degrés divers. Le simple passage d'une consommation "au menu" à une consommation "à la carte" de programmes audiovisuels est une forme très élémentaire d'interactivité. La consultation de bases de données ou la réalisation de transactions est déjà plus élaborée. Mais l'interactivité maximale existe en téléphonie et dans le travail en commun effectué à l'aide d'ordinateurs en réseau, par exemple reliés en ATM grand débit. Le débit nécessaire pour la voie de retour n'est évidemment pas du tout le même dans tous ces cas. Il va de quelques kbit/s à plus de 10 Mégabit/s

•  Le terme multimédia est lui aussi ambigu. Il désigne non pas le vieux multimédia (cinéma, télévision) mais le récent (accès par ordinateurs à de nouveaux supports de stockage magnéto-optiques).

Il vise à la fois le transport (texte, image et son) et le contenu (combinaison de ces mêmes données dans des documents spécifiques...). Le multimédia c'est, en définitive, la possibilité d'ajouter de l'image, du son ou d'autres données à des médias qui, jusqu'alors, ne le permettaient pas. Ainsi les postes de radio numériques automobiles qui permettent d'afficher des cartes routières sur leurs écrans ou les places d'hôtel libres, avec éventuellement photo de la chambre, sont multimédia...).

•  Le mot "virtuel", enfin, est ambigu et trompeur. Il désigne la simulation du réel et des créations purement imaginaires. S'agissant de réseaux, il signifie que les structures physiques des réseaux ne sont pas affectées à un seul usage mais à plusieurs utilisateurs ou services simultanément, à tout instant (notion de conduits ou de circuits "virtuels"). Il peut aussi désigner des réunions bien réelles comme une conversation téléphonique avec vision de partenaire.

Il désigne enfin des individus qui sont des personnes physiques bien réelles reliées par le réseau sous forme de communautés virtuelles ou des magasins imaginaires qui présentent des images permettant d'acheter à distance des biens réels, etc...

A mon sens, ce terme virtuel a un effet néfaste sur l'opinion de même que l'excès de recours à la notion de cyberespace, cybernaute, etc. A lieu de simplifier ceci ajoute à la confusion mentale.

2. Les vrais apports des nouvelles techniques d'information et de communication

Les technologies de l'information reposent sur des découvertes.

Il s'agit pour l'essentiel du fruit d'une évolution technique et économique accélérée, plus rapide que celle des esprits et en avance sur les usages, ce qui caractérise la notion de révolution et de révolution culturelle qui reste à faire, alors que la révolution technique est là. La mise à disposition, instantanée, dans le monde entier, à un nombre croissant d'individus, d'une quantité multipliée d'informations de toute sorte.

Ubiquité, instantanéité, multimédia, interactivité, croissance du nombre de données échangées et d'utilisateurs, tels sont les principaux apports des nouvelles techniques d'information et de communication.

Il est difficile à tout un chacun, artisan ou artiste, patron de PMI ou homme de loi, élu local ou ministre, de se sentir transporté dans un monde où des millions d'individus peuvent presque gratuitement être informés, sollicités ou touchés.

Il est difficile à un financier de comprendre qu'une petite société qui vient d'être créée dépense des dizaines de millions pour fabriquer un produit qu'elle met gratuitement à disposition de millions d'utilisateurs. Et que, à la suite de cette opération, le PDG de cette société devienne en quelques mois aussi riche que le prestigieux Bill Gates, patron de Microsoft, l'homme le plus riche des États-Unis.

Il est difficile d'imaginer ce que sera un monde où chacun peut avoir accès à toute l'information mise à disposition par les sociétés, les consultants. C'est proprement l'anarchie, la non hiérarchie. Est-ce la démocratie du XXIe siècle ? Et comment reconstruire une nécessaire organisation du monde économique et de la société ?

• • •

CHAPITRE II

DES CONSÉQUENCES MAJEURES QUI S'IMPOSENT AVEC UNE PROGRESSIVITÉ ACCÉLÉRÉE

I. DES CONSÉQUENCES MAJEURES

L'essor des nouvelles technologies d'information et de communication affecte, sous pratiquement tous leurs aspects, les activités économiques, culturelles et sociales, le fonctionnement des services publics et le développement de la recherche.

A. Les conséquences économiques

1. Une importance considérable

a) Des effets globaux

Ce qui frappe, dans l'incidence économique des nouvelles techniques d'information et de communication, c'est son caractère global. Ces techniques impliquent, en effet, la production massive de biens et services nouveaux auxquels ont recours, à grande échelle, les principaux secteurs (sociétés, ménages, institutions, administrations) et la plupart des grandes branches de l'économie (industrie, commerce, services marchands, transports et télécommunications...).

Il s'agit à la fois de biens d'équipement professionnels et ménagers (ordinateurs), de biens intermédiaires (l'informatique, les télécommunications et l'électronique grand public représentent 80 % des débouchés des semi-conducteurs) et de biens de consommation (CD-ROM, jeux vidéo).

Le développement des technologies considérées accentue la "tertiarisation" et la mondialisation de l'économie, puisqu'il affecte dans une plus grande mesure les services et universalise les transactions et l'accès aux données. Il accélère aussi la diffusion des savoirs et renforce ainsi la tendance à faire de la maîtrise des connaissances un facteur clé de compétitivité dans le monde d'aujourd'hui.

b) La modification des frontières des secteurs industriels traditionnels

L'avènement de la société de l'information touche en priorité les acteurs industriels majeurs Télécom et informatique.

Le rapport des force était le suivant en 1993 :


Chiffre d'affaires en milliards de $ % du PIB mondial Taux de croissance annuel
Télécom 510 1,92 + 3,0 %
Informatique 445 1,67 + 6,7 %

Source OMSYC, 1993

Si les tendances que traduit ce tableau se confirmaient (ce qu'il est permis de penser), le chiffre d'affaires de l'informatique dépassera, en l'an 2000, celui des télécommunications[1].

Chacun des deux secteurs subira, en son sein, des modifications de répartition d'activités :

•  croissance des services au détriment des équipements dans les télécommunications (malgré le développement rapide actuel des mobiles et des équipements pour satellite) ;

•  augmentation toujours très forte, dans l'informatique, du chiffre d'affaires des logiciels et des ventes de micro-ordinateurs et d'équipements et services de réseaux ; déclin des gros ordinateurs ("mainframe" et même station de travail) et des grands systèmes propriétaires ;

c) Les secteurs des industries du contenu

Ces chiffres ne tiennent pas compte, ou fort peu, de l'industrie des services, des contenus et des programmes. L'édition et l'édition électronique, de même que le secteur audiovisuel et de la radiodiffusion, vont indiscutablement -et cette opinion est partagée par tous les experts- constituer un domaine où l'on voit très mal se structurer les industries du futur.

Citons quelques marchés émergents :

•  créations de nouveaux contenus pour de nouveaux supports (jeux vidéo, CD-ROM dont le marché, tiré par les ventes de jeux, d'encyclopédies et de titres ludo-éducatifs, explose littéralement...) ;

•  démarrage, encore timide, du commerce "en ligne" sur des réseaux privés ou sur Internet ;

•  autres téléactivités ou téléservices (informations, transactions financières, immobilières, services bancaires...) et offres de télétravailleurs indépendants ;

Quelques marchés émergent :

•  Jeux vidéo (consoles haut de gamme) : de 1,1 milliard de $ en 1995 à plus de 2 milliards en 2000

•  CD-ROM : 3,7 milliards de $ (+ 68 %) en 1994, dont 70 % de jeux

•  Services en ligne : environ 2,6 milliards de $ : 1,6 milliard en France (Minitel) et le reste, 90 %, aux USA.

•  certains estiment que le développement de la distribution en ligne de produits et services devrait aboutir à créer un lien beaucoup plus direct entre les consommateurs et les créateurs et éditeurs de contenus ou fournisseurs de services.

La nouveauté des techniques, des contenus et des services, la multitude des partenariats nécessaires et la complexité des problèmes à résoudre entraîneront par contre un recours croissant à des consultants, tiers de confiance, gestionnaires de bouquets de services, etc.

Les nouvelles techniques permettent en effet, s'adressant à un marché immense, de le segmenter finement en abolissant les distances et de personnaliser les services. Il devient ainsi possible, par des offres adaptées, de répondre aux besoins latents de certaines catégories de clients, par exemple des amateurs isolés de produits rares (vieux disques) ou de sports confidentiels (lutte gréco-romaine) rassemblés en communautés virtuelles de consommateurs, téléspectateurs et clubs de discussion.

Cette évolution correspond, par exemple, à ce que serait, dans le secteur de l'habillement, le passage d'une solution "prêt à porter" à une solution sur mesure ou, en agriculture, à celui de méthodes de monoculture extensive à une polyculture intensive.

d) Un potentiel favorable

Le potentiel économique des nouvelles techniques d'information et de communication apparaît comme étant globalement prometteur. En effet, la contribution de ces techniques à la croissance et, par tant, à l'emploi et à l'équilibre budgétaire, semble positive.

Tel est, en tout cas l'avis de l'O.C.D.E.[2] qui, de façon générale, affirme que "la technologie crée des emplois" ayant constaté, notamment, que les industries de haute technologie ont enregistré, de 1970 à 1993, une progression de leurs effectifs (contrairement à la tendance constatée dans le reste du secteur manufacturier), malgré d'importants gains de productivité.

S'agissant plus particulièrement des technologies de l'information, l'organisation estime qu'"elles sont une abondante source de produits, de services et, par conséquent, d'emplois nouveaux. (...) Elles concourent largement à créer de la valeur ajoutée et des emplois, d'abord en elles-mêmes, mais aussi par leur contribution indirecte à l'expansion de la production et des échanges dans de nombreux autres secteurs (...)".

Ce processus, toutefois, ne va pas sans entraîner des transferts de main d'œuvre entre entreprises et secteurs mais il s'agit, au total, d'une "destruction créatrice". "Dans le passé -note l'O.C.D.E.- les effets générateurs de revenus des technologies nouvelles se sont révélés plus puissants que leurs effets d'éviction de main d'œuvre ; le progrès technologique s'est accompagné, non seulement d'une production et d'une productivité plus fortes, mais aussi d'un niveau d'emploi globalement plus élevé."

Des inégalités apparaissent, cependant, entre les pays : "ceux qui se sont le mieux adaptés aux technologies nouvelles et ont orienté leur production et leurs exportations vers les marchés de haute technologie ont eu tendance à créer davantage d'emplois".

De fait, selon le magazine Business Week (numéro du 8 avril 1996), les secteurs de l'informatique, des communications et des loisirs ont créé au total 400.000 emplois en un an aux États-Unis (20 % du total des nouveaux postes) et le téléphone 54.000 (en deux ans), malgré la libéralisation.

En Europe, les effectifs dans les services liés aux logiciels et à l'informatique ont quasiment triplé depuis 1980 pour représenter 750.000 personnes. Dans les services audiovisuels, la croissance de l'emploi a été de 37 % entre 1983 et 1992.

Les perspectives restent bonnes dans ces secteurs à moyen terme. Selon un récent rapport, les effectifs dans le secteur du logiciel, par exemple, pourraient croître de 15 à 16 % jusqu'en 2000, ce qui correspondrait à la création de 97.000 nouveaux emplois...

En France, les effectifs dans l'industrie des semi-conducteurs qui étaient d'environ 15.000 personnes, se sont accrus de 10 % en 1995 et devraient continuer à augmenter. Une enquête réalisée par le magazine Usine Nouvelle (numéro du 12 septembre 1996) montre que l'électronique, l'informatique et les télécommunications sont les secteurs qui embauchent le plus de cadres actuellement (31 % des entreprises prévoient d'augmenter leurs effectifs.

Par ailleurs, des prévisions du B.I.P.E.[3] pour la période 1995/2001 font état d'un taux de croissance annuel moyen en volume bien supérieur à celui du PIB en ce qui concerne les semi-conducteurs, les matériels informatiques, les ventes de téléviseurs et les services informatiques ou les programmes de télévision.

Enfin, selon le rapport de Thierry Breton, les téléservices pourraient représenter en France de 200.000 à 400.000 emplois en 2005 (contre 65.000 en 1993).

Perspectives de croissance (exemples)

•  Télécommunications (selon l'OMSYC)

1995 626 milliards de $ (2,23 % du PIB mondial)

2000 731 milliards de $ (2,4 % du PIB mondial)

•  Micro-ordinateurs (selon Dataquest)

+ 17 % en moyenne à partir de 1996 jusqu'en 2000

•  Semi conducteurs (selon WSTS)

1995 144,4 milliards de $

1999 234,6 milliards de $

•  Marché de l'informatique et des télécommunications (selon l'Observatoire européen des technologies de l'information)

En 1996 : Europe + 8,7 %

USA + 6,5 %

Japon + 6,1 %

Du point de vue de l'aménagement du territoire, l'existence, dans le domaine des technologies de l'information, de pôles attractifs susceptibles d'accueillir des investissements étrangers ou français, constitue déjà un atout précieux pour quatre régions :

•  Provence-Alpes-Côte d'Azur avec les récents investissements d'Atmel et de SGS-Thomson et le développement de Sophia Antipolis, où plus de 10.000 personnes, pour la majorité cadres ingénieurs et chercheurs, travaillent dans le domaine des inforoutes ;

•  Rhône-Alpes qui bénéficie de l'implantation du LETI, d'un laboratoire du CNET et de l'usine SGS-Thomson de Crolles en ce qui concerne les semi-conducteurs et qui a accueilli à Grenoble des centres de recherche de Hewlett-Packard et de l'INRIA, sans compter le centre de développement de Bull à Echirolles ;

•  le département de l'Essonne, en Ile de France, avec l'ouverture à Corbeil d'une unité de production de mémoires électroniques (600 emplois directs) par IBM (Digital Equipment, Hewlett-Packard sont déjà présents dans la région) ;

•  enfin, en Bretagne, la métropole de Rennes avec France-Télécom et Thomson Multimédia, Mitsubishi, Canon, etc...

Le potentiel de croissance des nouvelles technologies d'information et de communication apparaît indéniable, au niveau de l'ensemble des pays de l'O.C.D.E. et de l'Asie.

Des défaillances statistiques

L'appareil statistique actuel rend difficilement compte de phénomènes tels que l'accroissement de l'investissement immatériel (parfois assimilé à une réduction de coûts de production).

La délimitation entre industrie et services et entre différentes catégories de services apparaît souvent par ailleurs comme floue.

Enfin, une curieuse évolution dénommée "paradoxe de la productivité" a été constatée ces dernières années. Il s'agit d'une chute de moitié du rythme d'augmentation de la productivité globale de la main d'œuvre par rapport à celui des années soixante-dix, malgré les progrès de l'investissement immatériel, et d'un maintien de la progression tendancielle de l'emploi, en dépit d'un net fléchissement de la croissance.

Les technologies de l'information et de la communication sont souvent invoquées pour expliquer ce paradoxe : la croissance en volume et les gains de productivité induits par l'utilisation de ces techniques seraient sous-estimés, l'accent serait davantage mis désormais sur la différenciation et l'amélioration de la qualité des produits et la création de nouveaux services. Autre explication, enfin, celle d'un décalage dû au temps d'assimilation nécessaire pour que les gains de productivité attendus des nouvelles techniques produisent leurs effets.

Leur importance économique relative devrait s'accroître notablement, du fait d'une croissance nettement plus rapide que celle de la production d'autres biens et services. D'ici la fin de ce siècle, le marché des industries de la communication et du traitement de l'information pourrait ainsi passer de 5 % à 10 % du PIB européen. D'ores et déjà, les chiffres d'affaires des industries de l'électronique, de l'informatique et des télécommunications sont du même ordre, en Europe, que ceux de la chimie et de l'automobile.

Au total, comme le rappelle Thierry Miléo dans son récent rapport, "le marché mondial des industries de la communication pris dans son ensemble (électronique grand public, informatique, télécommunications, médias, loisirs) devrait plus que doubler d'ici l'an 2005 pour atteindre 15.000 milliards de francs."

Cependant, pour que le développement de ces techniques tienne ses promesses en France et en Europe, un certain nombre de conditions, qui seront examinées plus loin, devront être respectées (en matière d'investissements, de formation, de mobilité professionnelle, de stratégie...).

Le contenu en emplois de la croissance sera enrichi par la création de services.

2. Un bouleversement des conditions d'exercice des activités des entreprises

L'utilisation par les entreprises des réseaux et des nouvelles techniques d'information renforce leur efficacité. Elle implique de leur part une réorganisation qui peut déboucher sur une remise en cause des modèles hiérarchiques traditionnels et un recours croissant au télétravail.

a) Une efficacité renforcée

Le téléphone demeure l'outil de communication de base des entreprises (dont la consommation représente 50 % du trafic total et les trois-quarts du trafic international). Mais bientôt le nombre de stations de travail et de micro-ordinateurs sera du même ordre de grandeur que celui des postes téléphoniques.

Après s'être dotées de réseaux téléphoniques internes, avec autocommutateurs, les entreprises ont relié leurs ordinateurs à l'intérieur de réseaux locaux. Ces derniers ont pu être progressivement étendus, soit par interconnexion mutuelle, soit par des liaisons à haut débit leur permettant l'accès à des serveurs éloignés ou à d'autres réseaux (constitution de réseaux de réseaux).

Les entreprises ont pu ainsi bénéficier successivement des effets du passage d'une informatique centralisée à une informatique distribuée, puis d'une augmentation progressive du rayon d'action de cette dernière.

Les nombreuses applications de l'informatique en réseaux se sont enrichies au fur et à mesure qu'elles s'affranchissaient des distances. On est passé du simple échange de données à une gestion et une utilisation commune de celles-ci, puis à des applications partagées simultanées (à l'occasion, par exemple, de visioconférences) pouvant déboucher sur une véritable prise en commun de décisions, parfois dès le stade de la conception d'un produit ou de l'ingénierie d'un projet.

Des pionniers du travail coopératif en réseaux

•  Schlumberger : mise en place d'un système de gestion des données techniques et d'une base de données "composants" communs aux différents sites (Clamart, Austin et Houston, Tokyo) et, plus tard, aux sous-traitants.

•  Renault : réseau ATM, visioconférence + partage d'applications, bibliothèque de composants sur un serveur WEB.

•  Aérospatiale (Cannes) et Alenia Spazio (Turin et Gênes) : mise au point commune d'un système de contrôle thermique embarqué sur satellite. Partage de données et de logiciels à distance + visioconférence. Réseau ATM (projet Adonis).

•  Dassault/ONERA/Université de Stuttgart : partage à distance de résultats de calculs aérodynamiques via des réseaux à haut débit, visioconférence.

D'après Usine Nouvelle, 21 novembre 1996

L'informatique communicante devient ainsi, à travers des applications variées de plus en plus interactives, un outil non seulement de partage d'informations, mais de gestion et d'aide à la décision (voir encadré).

Quelques exemples d'application de l'informatique en réseaux

1. En bureautique

•  EDI (échange de données informatisé)

•  GED (gestion électronique de documents)

•  Gestion de composants documentaires

•  SGDT (système de gestion de données techniques)

•  Workflow* (automatisation de la circulation de documents à travers les circuits de prise de décision)

2. En production

•  GPAO : gestion de production assistée par ordinateur (en réseau)

•  MES (manufacturing execution system) : suivi de production

•  CAO : conception assistée par ordinateur (en réseau)

3. Aide à la décision

•  SGBR : système de gestion de bases de données relationnelles

•  EIS : Executive Information System

•  Data Mining (prospection de données) : analyse de bases de données (détection de corrélations, d'écarts ou d'anomalies) pouvant déboucher sur des prédictions de comportements ou de tendances.

* Le workflow peut s'intégrer dans des offres de collecticiels (logiciels de travail en groupes, groupware en anglais) comportant d'autres fonctions : messageries, agendas de groupe (exemple : Lotus Notes).

Les relations clients/fournisseurs[4], la coordination avec les sous-traitants et les partenaires et entre les différents départements de l'entreprise (bureaux, laboratoires, unités de production) peuvent aussi bénéficier de ces techniques. Il en résulte au total, grâce à une rationalisation des modes de prise de décision et à un raccourcissement des délais de conception et de réalisation des produits, un effet favorable sur les facteurs de compétitivité des entreprises : réactivité, fluidité du processus de production (respect des impératifs "zéro stock" et "flux tendu"...), suivi de la qualité.

b) Une remise en cause des modèles hiérarchiques traditionnels ?

L'utilisation des applications partagées de l'informatique implique presque toujours une réorganisation préalable des structures de l'entreprise. Ces restructurations, destinées à favoriser un travail plus coopératif, peuvent conduire à une certaine remise en cause des modèles hiérarchiques traditionnels.[5]

Ce n'est cependant vraisemblablement pas vers un système d'autogestion que l'on s'achemine, mais plutôt vers une évolution de la notion d'autorité devenant moins coercitive et plus persuasive et plus liée à la sensibilisation et la formation.

Un travail plus coopératif à la base, une communication facilitée avec le sommet de la hiérarchie pourraient surtout affecter les échelons d'encadrement intermédiaires, sans remettre en cause la nécessité d'instances dirigeantes. L'information serait cependant accessible à tous et le processus de prise de décision deviendrait beaucoup plus ouvert, sinon collectif.

Mais les techniques modernes d'information peuvent aussi être un moyen d'uniformisation, de renforcement de divers types de contrôle, voire d'inquisition[6].

3. Le télétravail

L'essor du télétravail peut enfin constituer une des conséquences économiques importantes des nouvelles techniques d'information et de communication. Ce mode de travail, qui tire parti des outils téléinformatiques, est encore peu développé en France (16.000 personnes en 1993). Mais, selon le rapport Breton, il pourrait croître spontanément pour concerner 200.000 personnes à l'horizon 2000 et de 300.000 à 500.000 en 2005. Il s'agit d'une activité, indépendante ou salariée, exercée par une personne physique à distance et sans contrôle direct du donneur d'ordre.

Pour l'entreprise, l'avantage de cette formule peut consister à économiser des surfaces de bureaux ou à mieux coller, sur le terrain, aux besoins de la clientèle (activités de maintenance par exemple). Pour les commerciaux itinérants, les nouvelles techniques peuvent contribuer, soit à rendre leur mobilité plus efficace[7], soit, au contraire, à les sédentariser dans la mesure où les réseaux peuvent leur permettre de rentrer en contact avec le consommateur.

Du point de vue de l'aménagement du territoire, le télétravail ne saurait avoir le même impact que la constitution de pôles techniques spécifiques. Cependant, d'une façon plus diffuse, la lutte contre la désertification économique et sociale de grandes parties de notre territoire peut s'en trouver facilitée ainsi que le décongestionnement de la région parisienne (cf. l'encadré ci-après).

Exemples de télétravail (grandes entreprises)

•  IBM : 2500 ingénieurs commerciaux "nomadisés" en Ile de France à partir de 1994. Extension à la maintenance (5000 personnes touchées sur 12.500). Économie de 85.000 m2 et de plusieurs dizaines de millions de francs.

•  Andersen Consulting (Paris) : bureaux partagés. Réservation obligatoire et utilisation payante.

Sources : Le Monde et Usine Nouvelle

Dans le cas d'opérations de délocalisation, l'obstacle fréquemment rencontré du maintien de l'emploi du conjoint peut aussi, de la sorte, être surmonté.

Pour le télétravailleur, enfin, l'avantage de la formule réside dans la liberté qu'elle autorise, encore que les nouvelles techniques puissent permettre de surveiller de très près ceux, parmi les personnes concernées, qui se trouvent être salariés.

Beaucoup plus répandu qu'en France, dans les pays nordiques, ainsi qu'en Grande Bretagne et en Irlande, le télétravail représenterait déjà 15 % des emplois aux États-Unis.

Il s'agit aussi (voir plus loin la partie consacrée à la modernisation des services publics) d'un mode d'activité qui peut être pratiqué par les fonctionnaires en permettant, par la même occasion, de rapprocher l'administration des administrés.

B. Les conséquences culturelles

D'un point de vue culturel, les nouvelles techniques d'information et de communication :

•  offrent de nouveaux moyens d'expression et de diffusion ;

•  permettent d'élargir l'accès à la création et aux contenus ;

•  définissent ainsi de nouvelles relations entre les auteurs, les techniciens et le public ;

•  enfin, constituent un enjeu crucial à la fois pour le rayonnement de notre culture et pour la francophonie.

1. De nouveaux moyens d'expression et de diffusion

a) Les nouveaux outils

•  La possibilité de maîtriser des outils de création nouveaux, permettant l'élaboration de sons ou, dans un univers à 3 dimensions, d'images entièrement synthétiques permet aux auteurs de laisser totalement libre cours à leur imagination créatrice, de façon plus complète qu'autrefois.

•  L'informatique permet aussi de s'inspirer d'éléments préexistants (images, photos, musiques) pour les transformer en œuvres nouvelles : fictions à base de reconstitution en 3 dimensions d'animaux préhistoriques (film Jurassic Park), d'animation de jouets (Toy Story) ou de personnages célèbres (d'anciens présidents des États-Unis, par exemple, dans le film Forrest Gump). On se souvient de la Neuvième Symphonie de Beethoven reprise au synthétiseur dans Orange mécanique.

On peut désormais mêler fiction et réalité à l'écran de toutes sortes de façon : on peut reconstituer fidèlement des voix, animer et faire parler des statues, faire coexister des personnages dessinés et réels... et même cloner des acteurs !

Bien entendu, ceci interpelle la protection de la vie privée, le droit moral, le droit à l'image, les droits d'auteur. Il faut savoir que ceci existe et que des forces économiques, notamment les publicitaires ont pris des initiatives.

b) Le multimédia interactif

Les techniques numériques permettent :

•  de traiter informatiquement le multimédia (la production et la diffusion des médias) de façon à combiner beaucoup plus aisément le son, les images et le texte ;

•  d'accéder de façon interactive, c'est-à-dire en choisissant non seulement un programme ou un contenu, mais aussi la manière d'en prendre connaissance selon ses centres d'intérêt (angles de vue variés, détails supplémentaires à la demande en "cliquant" sur une souris d'ordinateur...) ;

•  un nouveau support est né, accessible en réseau ou hors ligne, le CD-ROM (disque compact optique dont la mémoire à semi-conducteur ne peut pour le moment qu'être lue (read only memory). Mais le temps où ceci peut devenir plus interactif n'est pas loin.

•  Les nouvelles techniques permettent aussi de rêver à la mise au point de "studios partagés" permettant au réalisateur, au producteur et à toute l'équipe de tournage d'intervenir à distance au même moment sur un film en cours de conception ou de réalisation.

2. Un accès élargi à la création et aux œuvres

a) L'accès aux moyens de créer

Les ordinateurs personnels augmentent leurs capacités de traitement de données ; il devient possible de s'en servir pour créer des œuvres multimédia.

Après avoir facilité le cinéma et la vidéo-amateur, le progrès technique démocratise ainsi la vidéo-informatique multimédia (prise de vue, montage, sonorisation, titrage, ajout de textes...).

En ce qui concerne cependant les applications "3 D" (en trois dimensions), c'est la visualisation qui gagnera d'abord le grand public. La création continuera vraisemblablement à nécessiter, pendant un certain nombre d'années, de puissantes stations de travail et de coûteux logiciels (voir plus loin). Leur prix toutefois baisse rapidement. Et la sensibilisation et la formation des publics concernés est une nécessité impérieuse.

D'ores et déjà, le grand public dispose déjà d'appareils de photographie numérique dont les images peuvent être tirées, manipulées, retouchées et stockées informatiquement.

Toutes ces applications peuvent faire l'objet d'échanges à travers les réseaux entre particuliers et/ou professionnels.

b) L'accès aux œuvres

Le développement de réseaux multimédia interactifs offre, à l'évidence, une opportunité d'élargissement de la diffusion de la culture en permettant à tous ceux qui le souhaitent, où qu'ils se trouvent, d'accéder économiquement à des musées virtuels, CD-ROM éducatifs ou autres ouvrages culturels...

3. Les relations entre les auteurs, les techniciens et le public

L'émergence de nouveaux moyens d'expression et de diffusion et la démocratisation de l'accès à la création et à la connaissance d'œuvres culturelles suppose l'établissement de nouvelles relations entre les techniciens, les auteurs et le public.

Les "techno-créateurs" jouent un rôle qui peut devenir de plus en plus important. L'interactivité met les œuvres davantage à la portée du public. Ce dernier voit s'enrichir ses moyens d'expression et de communication. Le créateur doit s'approprier les nouvelles techniques sans leur être asservi. S'il peut se faire aider de techniciens, il lui incombe de rester maître d'œuvre. D'où l'importance, dans ce domaine, des actions de sensibilisation et de formation.

Mieux éduqué, le public mesurera, pour sa part, la distance qui sépare sa propre expression de celle d'artistes véritables. L'interactivité ne doit pas, en effet, faire illusion, elle ne supprime pas la distance entre l'artiste et le public. Même si elle permet l'établissement d'une certaine connivence, elle est aussi une forme nouvelle de manipulation du spectateur par l'auteur.

4. Des enjeux cruciaux pour notre rayonnement culturel et pour la francophonie

a) Le rayonnement culturel de la France

Pour un pays comme la France, les nouveaux réseaux d'information et de communication représentent un moyen incomparable de valoriser son patrimoine (dont la richesse permet d'alimenter une production multimédia importante) et de faire rayonner sa culture à l'extérieur.

Il s'agit, d'autre part, d'un enjeu capital pour la communauté des pays francophones.

b) La francophonie

Le développement des autoroutes de l'information est parfois considéré comme un danger pour la langue française.

Près de 80 % des serveurs d'Internet sont localisés dans des pays de langue anglaise (64 % aux États-Unis et 13 % dans d'autres pays anglophones y compris en Europe).

En outre, la plupart des logiciels disponibles pour explorer le réseau des réseaux sont en anglais et méconnaissent les spécificités idiomatiques et graphiques de notre langue (notamment l'accentuation). La version française de Nestcape a ainsi, paraît-il, bien du mal à être opérationnelle.

Tout aussi préoccupant est le fait que l'usage des nouvelles techniques porte atteinte à la pureté même du français. Le langage utilisé par les informaticiens, par exemple, est fortement émaillé de termes anglais.

Un glossaire des termes recommandés de l'informatique vient d'être publié par la Commission ministérielle de terminologie compétente en la matière. Il est hélas incomplet et en retard sur l'évolution très rapide du jargon utilisé dans la pratique. Il n'empêche pas la presse (pas seulement spécialisée) de s'obstiner par exemple à préférer user de l'anglicisme groupware plutôt que du néologisme "collecticiel" pourtant très adéquat et explicite.

Ceci n'est évidemment que la traduction d'une suprématie technique américaine incontestable.

La contagion gagne, dans d'autres domaines, la langue de l'ingénieur (pourquoi utiliser "implémenter" plutôt que "développer" ou "mettre en œuvre" ?), puis le français courant ("supporter" au lieu de "soutenir", "vétéran" au lieu d'"ancien combattant", "conventionnel" au lieu de "traditionnel", etc...).

A mon avis, le développement des "inforoutes" devrait être considéré comme une chance plutôt que comme une menace pour la francophonie :

•  moyen de resserrer les liens entre pays francophones,

•  opportunité de créer un marché pour les contenus et les services francophones qui dépasse les frontières nationales,

•  instrument d'échange Nord-Sud et d'aide au développement,

•  contribution au maintien du français dans le pourtour du bassin méditerranéen, en Amérique du Nord...

Il est nécessaire de considérer la promotion du français sur les autoroutes de l'information comme un élément d'une défense plus large du multilinguisme, notamment européen. Il n'est pas interdit cependant de faire preuve d'une plus grande ambition en revendiquant pour notre langue un statut qui lui a été reconnu dans nombre d'instances internationales.

Les promoteurs d'Internet ont compris que l'extension, et plus tard la profitabilité des services en réseau, passaient par leur accessibilité en toutes les langues (cf. Business Week, du 1er avril 1996).

Il aurait pu être redouté que les contenus véhiculés par les réseaux subissent une uniformisation, mais ces derniers permettent de s'adresser, non seulement au plus grand nombre, mais aussi à des individus isolés, aux membres dispersés de diverses diaspora. Il peut donc en résulter autant une diversification qu'une standardisation des données transmises.

Ainsi, les enjeux des nouvelles techniques d'information sont considérables :

•  pour le rayonnement extérieur de notre culture (qui passe par la numérisation de notre patrimoine et la traduction de nos œuvres littéraires) ;

•  pour la survie, à l'intérieur de la francophonie, l'attrait, en dehors, et le maintien de l'intégrité de la langue française.

•  face à la tendance à la facilité, le glissement vers un basic american english généralisé, la France doit prendre la tête d'une croisade visant à développer, face à cette tendance, le recours à des langues riches, nuancées, enracinées dans leur culture autonome (y compris l'anglais de Shakespeare). La localisation, c'est-à-dire la transposition dans une langue et dans une culture locale d'un service ou d'un produit, devient une absolue nécessité pour la survie de la biodiversité culturelle. La France doit aider les sociétés de localisation. Or, l'une des plus importantes sociétés françaises de ce domaine vient d'être rachetée par une société américaine.

Les conséquences du développement des réseaux d'info-communication sont importantes, non seulement d'un point de vue économique et culturel, mais aussi au niveau social.

C. Les conséquences sociales

S'agissant d'évaluer les conséquences sociales des autoroutes de l'information, craintes et espoirs sont également confrontés.

1. Les craintes

Les craintes sont celles d'un isolement de l'individu, d'une accentuation de la fracture sociale par le creusement des inégalités et l'augmentation des exclusions.

a) L'isolement des maniaques de l'ordinateur

Certains individus pourraient être tentés de ne développer des contacts que par les réseaux, au détriment de leurs relations réelles avec leurs proches. Or, le contact avec les affiliés d'un réseau peut avoir quelque chose de factice. Le dialogue est masqué, médiatisé par la machine, il perd sa spontanéité et se prête à la dissimulation, à la manipulation d'autrui. Des maniaques du Minitel existent.

La fréquentation des réseaux peut devenir une véritable drogue, retranchant les personnes qui s'y adonnent de leur communauté naturelle (famille, village, bureau ou atelier).

Ces communautés constituant des intermédiaires nécessaires entre l'individu et la société, l'insertion sociale de certaines personnes pourrait s'en trouver menacée.

L'image des "cybercafés", par exemple, procure un sentiment de malaise : la convivialité des bistrots traditionnels a disparu. Chacun, concentré sur son clavier, sa souris et son écran, paraît ne plus faire attention à son voisin. Ce qui est gagné en relations interindividuelles avec des personnes éloignées, paraît perdu du point de vue des contact, de nature communautaire, avec les proches.

b) Une accentuation de la fracture sociale

Le danger d'un divorce entre ceux qui ont la chance d'être branchés et les autres, a été souligné à de multiples reprises. Sans éducation et sans accès universel, les inforoutes pourraient accroître les inégalités et les exclusions. La position inverse peut être soutenue par les "infoptimistes" à l'encontre des "infopessimistes". Comme la langue d'Esope, c'est l'usage des inforoutes qui peut devenir la meilleure ou la pire des choses.

2. Les espoirs

a) Un facteur d'intégration

Convenablement utilisées et rendues accessibles à tous, ce qui est aisé et peu onéreux, les nouvelles techniques, moyennant une aide appropriée, peuvent contribuer :

•  à rompre l'isolement de certaines catégories de population (personnes âgées, handicapés, habitants de zones rurales...),

•  à intégrer des jeunes de milieux défavorisés (banlieues...), placés à égalité avec leurs camarades plus privilégiés dans l'accès au savoir et à la culture et se voyant offrir un nouveau moyen d'expression.

Lors d'auditions organisées à l'occasion de ce rapport, nombre d'exemples démontrent que l'utilisation collective et conviviale des nouvelles techniques (télé-centre dans un district rural du Bas-Rhin, centre de formation de la production Sophia Antipolis, télé-centre dans un village d'Aquitaine, télé-centre de Villars de Lans, etc.) s'apprend et s'impose vite. D'autres correspondent à l'utilisation spontanée dans les bibliothèques branchées, à la Cité des sciences et de l'industrie. Enfin, la remarquable réussite des écoles primaires en réseaux, par exemple dans le pays de Grasse, dans le Vercors ou à Sienne et bien sûr en Californie, à New York, dans l'Ontario, au Québec, etc., démontre la puissance intégratrice dans l'enseignement.

b) Un renforcement du civisme

Les collectivités locales peuvent mettre en place, à travers des réseaux locaux interactifs, des services facilitant le dialogue avec leurs électeurs (renseignements, consultations...) et encourageant ainsi le civisme.

Les nouvelles techniques d'information et de communication recèlent un remarquable potentiel de modernisation de l'administration et des services publics (simplification des procédures, amélioration de l'efficacité des services pour un moindre coût, élimination des tracasseries...), non seulement au niveau local, mais aussi à l'échelle nationale.

D. Des services publics modernisés

Deux exemples seront cités : ceux de l'éducation et de la santé.

1. L'éducation

Depuis longtemps, les pédagogues se sont aperçus que les connaissances ne pouvaient être acquises de façon uniquement livresque et qu'il fallait recourir aussi à des explications orales, à des illustrations ou à des figures sur un tableau et au jeu des questions et des réponses.

En y ajoutant l'image animée, l'audiovisuel s'est avéré un précieux moyen d'enseignement, facilitant la compréhension et la mémorisation de la part des élèves.

Le multimédia a, à son tour, encore enrichi les possibilités de l'audiovisuel par l'interactivité. Celle-ci, par exemple, confère aux CD-ROM un aspect ludique qui augmente leur attrait pédagogique. Il en existe pour tous âges, tous niveaux, et dans toutes les disciplines (apprentissage de la lecture, mathématiques, droit de l'entreprise...).

Toutes sortes d'autres applications en réseau peuvent être imaginées (campus électronique, test d'auto-évaluation, information sur les formations et leurs débouchés, etc...). En Grande-Bretagne, la seule, l'Open University "accueille" 150.000 étudiants dont 70.000 post graduate dans un réseau de 250 centres de téléformation. Le taux de réussite aux examens est analogue, sinon supérieur, à celui des autres universités anglaises.

Aux États-Unis, les cours pour adultes de P.B.S. (Public Broadcasting Service) sont adressés par satellite aux enseignants des deux tiers des collèges, aux personnels des services de santé et dans les hôpitaux.

Il existe aussi une chaîne destinée aux hommes d'affaires, une autre spécialisée dans l'enseignement des mathématiques et un serveur WEB ("PBS on line") vient d'être créé.

L'exemple de l'Exploratorium de San Francisco est également tout à fait remarquable. Ce musée, un peu analogue à la Cité des Sciences de La Villette, permet, chaque semaine, à 250.000 visiteurs, empêchés de venir sur place, de se familiariser à travers Internet avec les sciences, de se livrer à distance à des expériences ou des manipulations interactives...

En France, le CNED (Centre national d'études à distance) utilise, comme PBS, le média de la télévision par satellite pour toucher 350.000 élèves dont 80 % d'adultes (20 % se trouvant à l'étranger). Ce télé-enseignement est complété par un "tutorat" téléphonique et télématique. Les élèves qui n'ont pas la chance de suivre les cours dans des locaux pourvus de dispositif d'émission, peuvent poser des questions par Minitel.

Les mises en réseau d'enseignement sont multiples, surtout aux États-Unis et au Canada, plus rares en Europe (réseau Nettuno en Italie, réseaux des lycées, dans l'académie de Nice, dans les académies pilotes, à Marne-la-Vallée, dans les Grandes Écoles. L'efficacité est grande.

Aux États-Unis comme en France, l'enseignement télévisuel à distance concerne de plus en plus la formation permanente.

Le télé-enseignement permet aussi de développer des relations avec les pays du Sud qui leur sont profitables ("désenclavement" de leurs universités par des contacts scientifiques fréquents et rapides...).

Certes, rien ne remplacera le face à face entre l'élève et le professeur et le rôle éducatif du lien social qui se crée dans une classe. L'enseignant verra cependant son rôle évoluer pour devenir moins un dispensateur unique de savoir qu'un guide, un accompagnateur, un pourvoyeur de techniques d'apprentissage. Un encadrement de proximité, quelque puisse être la valeur pédagogique des apports des nouvelles techniques interactives d'information, demeure indispensable dans la plupart des cas..

Il reste que ces dernières :

•  constituent un auxiliaire précieux, notamment pour l'ouverture d'esprit par la mise en réseau ;

•  sont un puissant facteur de motivation des élèves ;

•  permettent, en démultipliant la portée du travail des enseignants, de faire face à une explosion des besoins de formation et d'éducation : augmentation du nombre d'étudiants, recours croissant à la formation permanente (actualisation des connaissances, reconversions, actions dans les PME...) ;

•  autorisent enfin, du point de vue de l'aménagement du territoire, le maintien d'antennes universitaires de taille réduite en dehors des grandes villes.

•  permettent d'apporter des compétences rares (personnalités exceptionnelles, langues peu usitées, opérations chirurgicales, etc.).

L'appel aux nouvelles techniques pour moderniser le service public de l'éducation, de l'enseignement supérieur et de la formation professionnelle est donc une nécessité absolue.

2. La santé

La santé publique peut bénéficier elle aussi de la télématique de deux façons :

•  pour la formation initiale et continue,

•  pour la télésurveillance à domicile de certaines pathologies,

•  pour l'amélioration des soins,

•  pour celle de la gestion du service public correspondant.

a) La formation médicale continue

Il faut mentionner tout particulièrement la révolution apportée par les NTIC à la formation médicale continue du personnel médical et paramédical. L'interactivité est plus forte que dans les grands amphis et la relation pédagogique est meilleure dès que les professeurs ont surmonté les difficultés des modalités pédagogiques liées à la relation à distance. Dans les blocs opératoires, ceci implique un commentateur à côté du praticien.

b) L'amélioration des soins

La même conclusion s'impose qu'en ce qui concerne l'enseignement, il ne s'agit pas de remplacer le praticien, sauf cas extrêmes, mais de l'assister. Plutôt que de télémédecine, de télédiagnostic ou de téléchirurgie, c'est donc d'aide à distance (télé-assistance) au médecin et au chirurgien qu'il faudrait parler.

Cependant, les applications médicales des nouvelles techniques d'information et de communications sont nombreuses :

•  aide au diagnostic sous forme soit de consultation à distance de base de données, soit de téléconférences entre plusieurs praticiens (par exemple un généraliste et des spécialistes...) ;

•  assistance au chirurgien, en cas de mauvaise visibilité, grâce à la représentation du champ opératoire en trois dimensions... ;

•  réalisation de certains tests à domicile (rythme cardiaque, tension, température), les résultats étant transmis via un modem à un centre de traitement de données médicales.

Dans des cas extrêmes (immobilisation ou éloignement du patient embarqué, par exemple dans un bateau ou un avion), des télédiagnostics pourraient être pratiqués sans que l'examen clinique perde pour autant quoi que ce soit de son utilité.

Il existe déjà des cas, encore isolés, où le praticien opère à distance à l'aide d'un moniteur qui lui transmet les images du champ opératoire et où il aide à diriger les mouvements des instruments chirurgicaux.

Ces applications présentent un intérêt évident d'un point de vue d'économie de la santé (diminution des journées d'hospitalisation, des frais de déplacement...). Elles peuvent également avoir un avantage pédagogique (formation, par exemple, des chirurgiens par simulation d'opération sur un patient virtuel).

Elles supposent :

•  dans de nombreux cas des hauts débits de transmission (images haute définition véhiculées sur des réseaux ATM...) ;

•  une grande facilité d'usage des équipements pour le suivi des patients à domicile (surtout s'il s'agit de personnes âgées. Les aides-soignants, toujours nécessaires, voient leur rôle renforcé.

c) Une gestion plus efficace

L'efficacité non seulement des soins mais aussi de la gestion des dépenses de santé est améliorée par la télématique.

Ainsi, la caisse d'assurance maladie des Alpes-Maritimes fait effectuer la saisie informatique des renseignements figurants sur les feuilles de soin et la transmission automatique des données correspondantes à la caisse d'assurance maladie chargé du remboursement. Les chèques de remboursement partant le jour même pour toutes les dépenses pharmaceutiques d'infirmière, de kinésithérapeutes.

Le carnet de santé électronique[8] permettra de suivre les profils des patients et d'éviter la superposition d'analyses, de scanners, de radios, lorsqu'elles sont inutiles.

3. Les télécommunications

Une des conséquences majeures de l'évolution des techniques d'information et de communication a été d'entraîner une remise en cause du statut des opérateurs historiques dans la plupart des pays développés.

Le rapport n° 250, annexé au procès-verbal du 2 juin 1987 du Sénat, de la mission d'information du Sénat sur l'avenir des Télécommunications en France et en Europe (président : Pierre Laffitte, rapporteur : Jean-Marie Rausch) préconisait la mise à l'étude d'une Commission européenne des Télécommunications avec pouvoir en matière de normes et d'agréments et la transformation de la direction générale des Télécommunications en société nationale. Moins de dix ans après, une partie de ses recommandations est réalisée.

France Télécom restait en 1996 le seul des vingt premiers opérateurs mondiaux à ne pas être constitué sous forme de société commerciale. Ses alliances internationales, indispensables, risquaient de s'en trouver entravées. Personne morale de droit public, soumise -selon la loi du 2 juillet 1990- aux règles applicables aux établissements publics industriels et commerciaux, l'opérateur national a enfin été pourvu d'un capital social. France Télécom demeure cependant une entreprise nationale[9] dont L'Etat détient directement plus de la moitié des actions et dont une grande partie du personnel demeurera longtemps encore fonctionnaire ou régi par des contrats de droit public.

L'ouverture à la concurrence, la fin des monopoles et l'adaptation des opérateurs historiques apparaissent ainsi comme des phénomènes mondiaux absolument inéluctables qui peuvent faire naître des inquiétudes mais se révéleront, en fin de compte, profitables à la collectivité.

La libéralisation des télécommunications : un phénomène mondial

1974 •  Action antitrust du département de la justice américaine contre ATT et les 22 compagnies du système Bell

1982 •  Octroi d'une licence de télécommunications à Mercury

1984 •  Démantèlement d'ATT et du système Bell

•  Vente de 51 % du capital de British Telecom

1985 •  Privatisation partielle de NTT

1987 •  "Livre vert" de la Commission européenne sur les télécommunications européennes

1993 •  Décision du Conseil des ministres européens de généraliser la concurrence sur tous les services de télécommunications à compter du 1er janvier 1998

1996 •  Telecommunications Act américain (concurrence entre compagnies téléphoniques régionales et longue distance, cablo-opérateurs, diffuseurs hertziens...)

•  Lois françaises du 26 juillet (réglementation des télécom et statut de FT)

•  Privatisation de Deutsche Telekom

•  Les terminaux (depuis 1990) et services de télécommunications hors liaisons téléphoniques entre points fixes sur des infrastructures publiques sont déjà libéralisés en Europe (transmissions de données depuis 1993, mobiles, infrastructures alternatives...)

Les évolutions prochaines peuvent éveiller des craintes et aussi des espoirs :

•  chez l'opérateurs historique français, la crainte d'un écrémage des segments de marché les plus rentables, la complexité des nouvelles obligations (interconnexions, portabilité des numéros difficiles à mettre en œuvre, etc...), quelle compensation pour les charges liées au service universel, mais aussi l'espoir de conquête de parts du marché mondial en forte expansion ;

•  les usagers : hausse des abonnements mais diminution des coûts

•  chez les concurrents : difficulté d'entrer sur le marché, guerre des prix affaiblissant les marges dans le secteur jusqu'alors profitable de la téléphonie.

Les dispositions des deux lois de juillet 1996 ont écarté certains de ces dangers (service universel, péréquation géographique et sociale...).

Concernant les effets de la concurrence, beaucoup dépendront de la façon dont l'ART (agence, dite Autorité de régulation des télécommunications) s'acquittera de sa tâche. Comme l'indique le nom de cette institution, la situation nouvelle instaurée ne sera pas celle d'une loi de la jungle issue d'une déréglementation sauvage, mais d'une concurrence soumise à des règles du jeu dont le respect sera contrôlé. De même, la Commission supérieure des postes et télécommunications, organisme consultatif auprès du ministère, comportant une majorité de parlementaires, veille à la structure et à l'évolution du service universel.

S'agissant des réductions d'effectifs, France Télécom se trouve dans une situation relativement favorable du fait de la productivité honorable de ses agents[10] et d'une pyramide des âges de ses effectifs qui lui permet d'user de l'incitation à des départs volontaires anticipés à la retraite.

En tout état de cause, l'exemple des États-Unis montre que l'augmentation du nombre d'emplois dans le nouveaux services excède les réductions d'effectifs enregistrées chez les opérateurs traditionnels.

Les avantages (baisse de tarifs sur les grandes distances, les échanges de données, l'utilisation d'Internet, ...) l'emporteront fortement pour les usagers, surtout pour les entreprises, et notamment les PME.

A côté des cas ci-dessus examinés (Éducation, Santé, Télécommunications), d'autres exemples de modernisation des services publics auraient pu être étudiés. Ils sont innombrables.

Citons la nécessaire relation Armée/Nation, dont beaucoup estiment qu'elle est compromise par la réforme du service militaire obligatoire, nécessite pour le moins une action de communication majeure dont dépend l'avenir du civisme français. La semaine civique devrait sans aucun doute être préparée et suivie par un système moderne de communication entre des serveurs militaires et les citoyens, les jeunes et tous les intéressés.

On peut estimer qu'un rapport particulier de l'Office devra être consacré à la modernisation de L'Etat et des collectivités locales, grâce aux nouvelles technologies. Ceci est en dehors du champ de cette annexe technique.

E. La recherche

La recherche, qui s'apparente par certains côtés à un service public et, par d'autres, à une activité privée à but lucratif, est bien sûr l'un des principaux utilisateurs des réseaux d'information et de communication.

1. L'utilisation d'Internet

L'épine dorsale d'Internet aux États-Unis a été constituée par un réseau de la NSF (National Science Foundation), dédiée à la recherche, et reliant de gros ordinateurs : le NSFNET. Ce réseau avait pris le relais d'une infrastructure développée à partir de 1969 par le département des projets avancés de l'année américaine (ARPA) : ARPANET.

Inventé ainsi par des militaires, récupéré par les scientifiques, Internet est devenu un outil de travail indispensable à ces derniers. Il leur permet de confronter leurs idées. Il accélère leur travail quotidien en leur donnant les moyens d'échanger des documents par messagerie et d'accéder à des bases de données (bibliothèques universitaires...) dans le monde entier.

L'entrée massive sur le réseau des particuliers et d'entreprises privées a cependant quelque peu modifié, pour le milieu scientifique, les conditions d'usage d'Internet qui commence à souffrir des problèmes de congestion et d'insuffisance de débits.

Des bases de données scientifiques importantes continuent cependant à être créées, mises à jour et consultées sur Internet : le catalogue des étoiles observées par le satellite Hipparcos, par exemple, qui risque cependant de saturer les capacités du réseau ou le Brain Map (atlas du cerveau) qui a recours à des méta-données (données sur les données) et à un codage anatomique très concis pour rester dans les limites de débit imparties.

De plus en plus de revues scientifiques sont, par ailleurs, publiées en ligne.

Plusieurs solutions sont envisagées pour faire face aux difficultés liées à la congestion du réseau qui n'a pas été conçu pour des applications à haut débit et en temps réel : rendre l'accès payant (c'est déjà le cas, en dehors des campus, pour les étudiants d'universités et de collèges californiens) ; réserver aux universitaires et aux chercheurs des voies rapides particulières ou leur donner une priorité sur Internet ; multiplier les serveurs miroirs, avec contenu mis à jour aux heures creuses, pour satisfaire les demandes les plus fréquentes. Nous évoquerons plus bas le projet Internet lancé par les universités américaines avec l'appui d'industriels.

2. Les réseaux dédiés

Aux États-Unis, la colonne vertébrale (backbone) d'Internet a été privatisée en 1995. La NSF envisage de créer un nouveau réseau à très haut débit (155 Mbit/s) pour relier ses cinq principaux centres de calcul (very high speed backbone network service ou VBNS). Elle compte demander aux universités d'augmenter, de leur côté, les capacités de leurs propres réseaux pour accéder à la fois à cette nouvelle infrastructure ultra rapide et à Internet.

En Grande Bretagne, un nouveau réseau Super Janet, remplaçant l'ancien Janet (Joint Academy Network) et connecté au NSFNET, doit relier les universités britanniques et servir de support à la consultation de banques de données, à la confection de journaux électroniques interactifs ou à du télé-enseignement.

L'équivalent, en France, est le Réseau national pour la recherche (Renater) qui interconnecte par des liens à haut débit quelques 200 réseaux locaux et 15.000 postes de travail. Il vient d'être prévu d'y raccorder aussi progressivement un nombre croissant de lycées, collèges et écoles. Ces réseaux haut débit dédiés à la recherche sont liés à Internet (qui est un réseau de réseaux) et utilisent la commutation ATM. Comme le soulignait l'hebdomadaire scientifique britannique Nature (n° 380 du 14 mars 1996), le besoin de telles infrastructures est né davantage de la volonté des chercheurs d'utiliser de nouvelles méthodes de travail coopératives que de la congestion d'Internet dont ils auraient pu, tant bien que mal, s'accommoder.

Le projet Renater 2 envisage des débits de 600 Mégabits.

Les conséquences des nouvelles techniques d'information et de communication sont donc extrêmement variées et importantes puisqu'elles concernent pratiquement toutes les activités humaines, sous la plupart de leurs aspects, et changent la manière de les considérer et de les exercer.

L'introduction de ces techniques ne peut être cependant que progressive.

II. UNE INTRODUCTION PROGRESSIVE ...

La société de l'information se met en place. Les facteurs susceptibles de retarder l'utilisation de la technologie virtuellement disponible sont autant liés au manque de sensibilisation des utilisateurs et des pouvoirs publics qu'à des difficultés techniques ou économiques.

A. Les freins technico-juridiques

1. Les obstacles purement techniques

Les progrès spectaculaires des technologies permettent de concevoir des projets particulièrement ambitieux (en matière, par exemple, de vidéo à la demande ou de systèmes mondiaux de communication par satellites). Les solutions envisageables pour les différentes sortes d'échanges de données sont, par ailleurs, comme il a été montré, de plus en plus variées.

Mais si les techniques correspondantes paraissent globalement maîtrisées, l'hypothèse de difficultés ponctuelles de mise au point de certains systèmes ne doit jamais a priori être écartée.

a) L'exemple de la vidéo à la demande

Considérée souvent, malgré les réticences de certains, dont moi-même, comme l'une des applications les plus prometteuses des inforoutes, la vidéo à la demande s'est révélée, à l'expérience, comme décevante.

Aux États-Unis, le projet de Time Warner, le plus ambitieux d'entre tous[11], a accumulé des retards du fait de difficultés rencontrées dans la mise au point de l'énorme logiciel et la réalisation de la grande masse de connections nécessaires. En outre, le système n'est pas encore totalement fiable du point de vue de l'utilisateur, la télécommande (dénommée "Carrousel") se bloque parfois et les temps de commande sont longs. Les autres essais soit se déroulent à un rythme lent, soit ont été arrêtés. Deutsche Telekom vient, de son côté, d'abandonner son test de télévision interactive annoncé il y a trois ans comme le plus important d'Europe.

b) Autres cas ponctuels de difficultés

D'autres difficultés ponctuelles rencontrées illustrent l'inévitable incertitude qui accompagne l'émergence de technologies nouvelles :

•  l'échec en 1992, du projet Newton d'assistant personnel numérique d'Apple, techniquement immature,

•  les problèmes de mise au point des dernières versions des microprocesseurs (Pentium d'Intel ou du nouveau logiciel Windows 95 de Microsoft),

c) Les insuffisances des réseaux

L'inadaptation des réseaux peut aussi freiner le développement des applications. Internet, on l'a vu, n'a pas été conçu pour des utilisations à haut débit en temps réel et connaît des problèmes de saturation.

Certes, de nouvelles technologies peuvent permettre d'augmenter les capacités des supports traditionnels (l'ADSL sur la paire de fils de cuivre, le MMDS pour le hertzien terrestre).

Ces nouvelles techniques, pour prometteuses qu'elles soient, se trouvent pour la plupart dans une période probatoire.

d) La convivialité insuffisante des ordinateurs personnels

Un certain manque de convivialité des ordinateurs personnels autres que le Mac Intosh (il faut au moins une dizaine de jours pour se familiariser avec Windows 95, Word et Excel) peut freiner l'adoption par le grand public des nouvelles techniques d'information et de communication. Des progrès ont été faits mais beaucoup restent à faire. Ils nécessitent des logiciels qui, eux, deviennent de plus en plus complexes.

2. Les problèmes juridico-techniques

Le développement de l'utilisation des réseaux suppose la résolution préalable de problèmes situés aux confins du droit et de la technique : normalisation des techniques, sécurisation des échanges, respect des droits d'auteurs, contrôle des contenus... Il faut donc des solutions à la fois technologiques et juridiques.

a) L'élaboration des normes

La mise au point et surtout l'applicabilité de normes est un problème à la fois technique et juridique. Confiée à de nombreuses instances, nationales, internationales, officielles, privées, l'élaboration de normes techniques est une tâche à la fois particulièrement délicate et particulièrement importante.

La fabrication de composants et d'équipements, la diffusion de contenus de toutes sortes peuvent s'en trouver accélérées ou au contraire freinées, dans la mesure où il s'agit des conditions nécessaires pour gagner la confiance du public, donc pour qu'un marché se crée.

Un standard (pas toujours le meilleur), peut s'imposer de facto comme cela a été le cas pour les cassettes vidéo VHS. Dans d'autres hypothèses, plusieurs systèmes propriétaires coexistent et s'affrontent sur le marché (exemple du P.C. et du Mac Intosh ou, actuellement, des décodeurs de télévision en Europe...).

Actuellement, fabricants d'ordinateurs et de téléviseurs s'affrontent aux États-Unis pour le choix d'un système commun (progressif ou entrelacé) de balayage de l'image.

En Europe, la bataille fait rage dans le domaine du contrôle d'accès à la télévision à péage entre les tenants des systèmes existants (Syster de Canal +, videocrypt de B sky B, Irdeto de Filmnet) et les partisans de normes communes de type multicrypt ou simulcrypt.

La plupart des industriels commencent à penser qu'il est de leur intérêt de s'entendre sur des normes, comme en témoigne l'adoption de standards en matière :

•  de compression d'images à la source (normes MPEG définies par le Motion Pictures Engineers Group),

•  de télévision haute définition numérique terrestre aux États-Unis,

•  du nouveau format DVD de disque compact (Digital Versatile Disc).

En Europe, le groupe de travail DVB (Digital Video Broadcast) est parvenu, sur tous les points sauf l'accès conditionnel, à un accord en matière de télévision numérique qui crée un standard de fait incontournable.

GSM, la norme de téléphone mobile numérique, est un autre grand succès qui témoigne de ce que peut être l'efficacité des européens quand ils sont rassemblés. Elle a permis un décollage du marché en Europe et présente l'avantage d'être opérationnelle par rapport à sa nouvelle rivale américaine CDMA (Code Division Multiple Access), meilleure sur le papier.

Avec le problème du désaccord sur l'accès conditionnel en Europe, la lenteur du processus de normalisation de l'ATM, encore inachevé, constitue un des sujets actuels de préoccupation (mais la souplesse et l'adaptabilité de l'ATM en font néanmoins une solution immédiatement utilisable et ses avantages sont tels qu'elle ne risque pas d'être dépassée avant longtemps).

Comme le montre l'échec des normes européennes MAC de télévision avancée, une norme doit être acceptée par l'ensemble des acteurs concernés et les délais s'écoulant entre son adoption et sa mise en application ne doivent pas être trop longs. Cependant, une normalisation, même rapide, demande un minimum de temps, mais c'est un temps qu'il est indispensable de prendre. La normalisation est nécessairement moins rapide que le progrès technologique qu'elle freine donc dans une certaine mesure. C'est ainsi un facteur nécessaire de progressivité dans l'introduction des nouvelles techniques d'information et de communication.

Par ailleurs, toute normalisation empêche les innovations de se développer ou, du moins, leur imposent un cadre limitant. Il faut, sur ce plan, être attentif.

b) La sécurisation et le cryptage

Le développement des applications des réseaux, notamment sur Internet, et celui, en particulier, du commerce électronique, suppose que soit préservé le caractère confidentiel de certaines données échangées.

Le cryptage est l'un des moyens d'y pourvoir. A priori, les réseaux "propriétaires" utilisés par les principaux commerçants électroniques (America on line, Prodigy, Compuserve, Microsoft Network, Infonie) sont sécurisés. Mais ceux-ci souffrent de la concurrence des activités commerciales qui démarrent sur Internet à tel point que leurs opérateurs envisagent, pour la plupart, de migrer vers le réseau des réseaux.

Le problème devient dès lors de sécuriser Internet pour en faciliter l'utilisation commerciale (ou d'autres usages à caractère confidentiel : courrier électronique, échange de données scientifiques ou stratégiques...).

Des solutions variées, à la fois matérielles et logicielles (recours à des lecteurs de cartes à puce et à des algorithmes de compression) ont été proposées, supposant souvent l'intervention d'un tiers[12] ou l'usage de monnaie électronique.

Exemples de monnaie électronique

1. Systèmes avec intermédiaire sans cryptage

La Netbank (de Software Agent) crée des jetons électroniques (Netcash) achetables par chèque, circulant par courrier électronique sous forme de coupons virtuels numérotés comme des billets de banque et utilisables pour des transactions. Le client est débité in fine après prélèvement d'une commission de 2 %. Le cryptage est facultatif.

2. Systèmes avec cryptage

2.1. Digicash. Monnaie virtuelle émise par la First Digital Bank, achetée puis stockée sur l'ordinateur de l'utilisateur qui peut l'utiliser anonymement pour des transactions. Cryptage "à clé publique".

2.2. Cybercash. Cybercash sert d'intermédiaire entre la banque du vendeur et celle de l'acheteur. Garantit la confidentialité électronique de la transaction par carte bancaire (pour un surcoût de 2 %). L'argent qui circule sur le réseau est virtuel* (il a été prépayé par l'utilisateur à l'organisme de crédit qui règle le fournisseur).

* N.B. : on utilise aussi l'expression "porte monnaie électronique"

Outre le chiffre des numéros de cartes bleues et le codage en tout ou partie des messages ou documents échangés, la sécurisation des transactions et des échanges de données requiert l'identification des personnes concernées et l'authentification de leurs actes. Les algorithmes de chiffrement le plus souvent utilisés sont dits "à clé publique".

Les systèmes de cryptage à clé publique

Il existe deux grandes familles d'algorithmes de cryptage de données : les algorithmes symétriques et asymétriques.

Avec les premiers, l'émetteur et le destinataire disposent tous deux d'une clé identique permettant de chiffrer et de déchiffrer le message.

Les algorithmes asymétriques, beaucoup plus complexes, sont basés sur l'utilisation de deux clés différentes pour chaque utilisateur :

•  l'une qui permet le chiffrement est publique,

•  l'autre qui permet le déchiffrement est secrète.

Le principal avantage du point de vue de la sécurité est que les correspondants n'ont pas besoin d'échanger leurs codes (ce qui élimine les risques d'interception).

Le système de ce type le plus utilisé est le RSA, du nom de ses auteurs "Rivest Shamir Adleman".

Une version pour P.C. très utilisée sur Internet, et dont il existe plusieurs versions, est le programme PGP ("Pretty Good Privacy"), théoriquement interdit à l'exportation en dehors des États-Unis.

Par rapport aux solutions propriétaires, le recours à Internet présente l'immense avantage :

•  pour les vendeurs et les prestataires de services de toucher d'emblée une clientèle de 50 millions de personnes dans le monde par des moyens variés (catalogues électroniques, messages publicitaires, magasins virtuels...) ;

•  pour les consommateurs, de bénéficier de conditions d'accès économiques et d'un très grand choix.

•  enfin, le commerce interentreprises peut s'effectuer aisément et économiquement par ce réseau.

Le démarrage d'applications payantes sur Internet suppose donc le choix et la standardisation de techniques appropriées. Mais il nécessite aussi la levée d'obstacles juridiques en matière de contrats (dématérialisation du processus), de protection du consommateur (contre le démarchage abusif, le harcèlement télématique) et surtout en ce qui concerne la cryptologie.

Exemples de propositions de systèmes de commerce électronique

Infomarket d'IBM. Accès payant à des bases de données. IBM joue le rôle d'intermédiaire :

•  pour la recherche de l'information,

•  pour son paiement (à l'acte, pas par abonnement).

Kiosque Micro de France Télécom. Extension de Télétel au monde des micro-ordinateurs.

First Virtual Holdings. En échange du numéro de la carte de crédit de l'utilisateur, l'intermédiaire fournit à ce dernier un code qu'il peut utiliser pour acheter biens et services en ligne (pas de cryptage).

Le gouvernement américain vient, fort heureusement, d'assouplir les restrictions à l'exportation de logiciels de cryptage lorsqu'il s'agit d'applications liées au commerce électronique.

La législation française, qui était l'une des plus contraignantes du monde, a également été libéralisée par la loi précitée du 26 juillet 1996 portant réglementation des télécommunications. La disposition de cette loi, prévoyant le dépôt des clés de cryptage auprès de "tiers de confiance" ou "notaires électroniques", a cependant fait l'objet de critiques (voir plus loin le problème du contrôle des contenus véhiculés par les réseaux).

La cryptographie conditionne le développement du commerce électronique qui pourrait représenter 1000 milliards de dollars en l'an 2010 selon certains experts.

Il est préférable pour les consommateurs et pour les commerçants que des standards universels soient adoptés. Mais cela peut ne pas être l'avis des intermédiaires et des fabricants de logiciels et d'équipements. Si Visa et Master Card viennent ainsi d'interrompre leur collaboration dans ce domaine, un consortium regroupant un certain nombre d'entreprises intéressées et notamment des grands constructeurs informatiques (comme IBM, Digital, Sun ou Bull...) s'est, en revanche, mis en place en octobre 1996.

Les discussions seront longues, vraisemblablement, ce qui contribue à expliquer que l'introduction des nouvelles techniques d'information et de communication ne puisse être que progressive.

c) Les droits d'auteurs et la propriété intellectuelle

Un autre problème technico-juridique majeur, susceptible de freiner l'introduction des nouvelles techniques d'information et de communication, est celui de la protection des droits d'auteurs et de la propriété intellectuelle. Il s'agit d'un sujet trop vaste et difficile et situé trop aux frontières des compétences de l'Office pour que je puisse prétendre ici l'épuiser. Je renverrai donc le lecteur, pour une analyse plus complète, aux conclusions futures de la mission sénatoriale sur l'entrée dans la société de l'information, ainsi qu'aux rapports déjà publiés sur cette question (rapports Sirinelli, débats du Sénat et de l'Assemblée nationale lors de la transposition des directives européennes...).

Lors de son audition par l'Office, dans le cadre d'un colloque organisé pour préparer ce rapport, le ministre de la Culture, M. Philippe Douste-Blazy, a déclaré : "Je pense qu'aujourd'hui il n'y a pas matière à légiférer sur les rapports entre les partenaires du multimédia et, au demeurant, le droit d'auteur français a jusqu'ici démontré toute sa souplesse face aux innovations technologiques". Le ministre a par ailleurs estimé qu'"il y a plus à simplifier la mise en œuvre des droits qu'à modifier le code de la propriété intellectuelle".

Compte tenu de la rapidité des évolutions techniques et des lenteurs législatives, se préparer à légiférer en la matière est nécessaire. Il n'est pas exclu de devoir légiférer dans un avenir plus ou moins proche, ne serait-ce que pour se mettre en accord avec des directives européennes ou pour tenir compte d'éventuelles modifications de la Convention de Berne.

Par ailleurs, je partage le souci de simplification dont a témoigné le ministre, M. Philippe Douste-Blazy. La complexité et la nouveauté de la situation créée par l'irruption du multimédia et le développement des réseaux introduit toutefois une complexification dans le processus de gestion des droits et dans l'organisation éventuelle de gestion collective obligatoire.

•   S'agissant tout d'abord de l'œuvre multimédia, il est vrai que de nombreux textes trouvent à s'appliquer et qu'il ne saurait donc être question de "vide juridique". De nombreuses difficultés peuvent néanmoins apparaître du fait du caractère composite de l'œuvre :

•  Problème de qualification. S'agit-il d'une œuvre de l'esprit (distincte de simples données ou informations) ? D'une œuvre originale (la question se pose pour le logiciel) ou d'une œuvre dérivée ? D'une œuvre audiovisuelle (qui peut être interactive) ou d'un logiciel[13] ?

•  Problème d'identification de l'auteur et de répartition des droits. Une jurisprudence récente établit une différence subtile entre "œuvre de collaboration" et "œuvre collective" selon que l'apport des coauteurs peut être ou non distingué pour déboucher sur des droits distincts. Cette jurisprudence rend difficile l'assimilation d'une œuvre multimédia à une œuvre audiovisuelle, présumée "de collaboration"). D'autres questions délicates se posent : quels sont les droits des "technico-créateurs" ? Qui de l'utilisateur ou du concepteur d'un logiciel de création est l'auteur ?, etc...

•   Concernant la diffusion des œuvres en réseau, notamment sur Internet, la problématique est comparable : absence de vide juridique d'un côté, mais difficulté d'appliquer les textes existants de l'autre. Cette difficulté se trouve accrue du fait :

•  d'une diffusion de masse qui multiplie les occasions de piratage,

•  de la qualité de reproduction que permet le numérique,

•  du caractère transnational de la circulation des œuvres.

Là encore, on se trouve confronté à nombre d'embarras. Il est parfois difficile d'établir des distinctions entre :

•  droit de reproduction (libre, à titre privé) et droit de représentation (restreint). Qu'en est-il de l'affichage sur un écran ?

•  citation (autorisée) et copie (soumise à versement de droits),

•  consultation et utilisation

•  télédiffusion et correspondance privée (exemple de la vidéo à la demande).

Le régime des bases de données est, par ailleurs, nécessairement complexe : leurs contenus et leurs modalités de consultation sont susceptibles d'évoluer tandis que les parties concernées sont nombreuses (auteurs, fournisseurs, producteurs, serveurs, utilisateurs).

Enfin, comment traiter :

•  les données qui transitent successivement par plusieurs nœuds du réseau (faut-il solliciter une autorisation ou acquitter un droit pour les copies intermédiaires effectuées à chaque stade du parcours ?) ;

•  les logiciels utilisés sans être stockés dans la mémoire centrale de l'ordinateur ? (le nouveau langage de programmation Java permet le pilotage d'applications sur l'ordinateur d'un client depuis un serveur, grâce à un navigateur).

A l'évidence, les problèmes posés sont donc nombreux, complexes et souvent nouveaux. Deux rapports récents le soulignent :

•  celui de Mme Falque-Pierrotin qui insiste sur le "caractère spécifique et profondément novateur de l'Internet qui interdit toute transposition automatique de schémas préétablis",

•  celui de M. Sirinelli qui s'interroge sur la pérennité de la nature du droit d'auteur et le bouleversement de "notre conception traditionnelle de l'originalité et de l'intégrité de l'œuvre" qui risque de résulter de l'uniformisation née de la numérisation de la filière de production des œuvres.

L'influence de la technique et de la demande des utilisateurs de réseaux (qui tend à prédominer sur l'offre des auteurs) paraît de plus en plus importante.

La position des éditeurs, par ailleurs, compte tenu des risques financiers qu'ils courent, sera certes importante.

Les solutions apportées aux problèmes juridiques évoqués ci-dessus devront concilier les intérêts des auteurs, des utilisateurs et, dans la mesure du possible, des éditeurs traditionnels qui sont, en fait, les plus menacés par les évolutions en cours. Une défense trop rigide des prérogatives des auteurs[14] risquerait, en fin de compte, de leur porter préjudice en restreignant la publicité donnée à leurs œuvres, la diffusion de celles-ci et les droits qu'ils peuvent en retirer. Elle freinerait, par ailleurs, l'émergence d'une économie de réseaux susceptible, comme on l'a vu, de créer de nombreux emplois. Elle conduirait en effet, inéluctablement, à une délocalisation hors de France de toute activité d'édition électronique.

La France est un pays de droit écrit, mais ni la loi, ni même les contrats ne peuvent tout prévoir dans une matière si complexe et rendue si mouvante par le progrès technique. Si adaptation législative il y a, celle-ci ne devrait que fixer un cadre suffisamment souple, les précisions nécessaires étant apportées par voie jurisprudentielle. L'essentiel est de "simplifier la mise en œuvre des droits", en utilisant plus systématiquement certaines des possibilités qu'offre la législation.

Un recours plus large à la voie contractuelle, à la notion d'œuvre collective, à la qualification de logiciel[15] (qui nous rapprocherait du régime anglo-saxon de copyright) pour les œuvres multimédia, serait une façon de parvenir à certaines simplifications utiles, comme il est observé dans une des annexes du rapport Miléo.

S'agissant de la diffusion sur les réseaux, les techniques numériques permettent d'envisager des solutions à base de signature (ou tatouage) électronique, de comptage des copies, de contrôle des enregistrements, de télépaiement des droits de nature à protéger les intérêts des auteurs. De telles possibilités n'existaient absolument pas à l'apparition du magnétophone, de la photocopie ou du magnétoscope. Les réseaux peuvent ainsi présenter l'avantage :

•  d'élargir considérablement l'assiette des droits des auteurs (à condition que le montant n'en soit pas dissuasif), donc leurs revenus, grâce à une distribution à grande échelle ;

•  de donner par là même à leurs œuvres une publicité qui pourrait promouvoir éventuellement des supports d'édition et de diffusion plus traditionnels.

Il est probable, en raison de la complexité des procédures applicables, que les auteurs devront s'adresser de plus en plus à des sociétés de gestion collective des droits, comme il en existe pour les œuvres musicales ou dramatiques, et accepter des régimes souples de licences d'autorisation de diffusion. Le Sénat envisage d'ailleurs un groupe d'études sur ce thème qui, en liaison avec les auteurs et certaines sociétés de gestion française et européennes, ferait des propositions.

Ainsi, en contrepartie d'une plus large distribution de leurs œuvres et d'une augmentation probable subséquente de leurs revenus, les auteurs devraient consentir certaines concessions dans le domaine des droits de reproduction et des droits de représentation (le contrôle du respect du droit moral à l'intégrité de l'œuvre étant par ailleurs très difficile à assurer).

d) Le contrôle des contenus

Un certain nombre de déplorables incidents (incitations de mineurs à la débauche, réseaux de pédophiles, propagande nazie ou révisionniste...) ont conduit à poser récemment le problème du contrôle des contenus véhiculés par Internet. Il s'agit, là encore, d'une question délicate, la protection de l'ordre public devant être conciliée avec la défense des libertés d'expression et de communication et les critères (par exemple ceux de la décence) différant d'un pays à l'autre.

Comme dans les cas précédemment évoqués, les solutions, à la fois techniques, juridiques et politiques, passent par une coopération internationale.

D'un point de vue technique, il faut bien avoir à l'esprit qu'il est impossible d'intercepter un message en cours de trajet au niveau des routeurs (les contenus étant fragmentés en paquets qui peuvent emprunter des itinéraires différents pour être rassemblés à l'arrivée). Il faut donc tenter d'agir :

•  soit à la source, a priori (brouillage) ou a posteriori (au niveau des serveurs),

•  soit à l'arrivée, au niveau du terminal par des dispositifs de filtrage appropriés.

Le contrôle des contenus comporte deux aspects :

•  un qui relève plutôt du droit de la communication audiovisuelle et de la presse (protection des mineurs, conformité à la loi des données diffusées),

•  l'autre qui ressort davantage du domaine de la correspondance privée et peut concerner "l'écoute" des messages échangés par des malfaiteurs à travers les réseaux.

•   Du premier point de vue (communication audiovisuelle et presse), les contenus doivent respecter en France les règles de la décence (nouvelles dispositions du code pénal relatives à la répression des infractions commises par les services télématiques) ainsi que celles concernant la protection de l'ordre public (interdiction, notamment, des provocations au suicide ou des atteintes à la vie privée...).

La loi de 1982 sur la communication audiovisuelle peut impliquer par ailleurs la sanction, quand il y a eu préméditation (enregistrement avant diffusion), des diffamations et injures, provocation aux crimes et délits, à la discrimination, à la haine ou à la violence, ou propagation de fausses nouvelles.

Enfin, la loi informatique et libertés de 1978 interdit le détournement de leur finalité des informations nominatives.

S'agissant de faire respecter ces dispositions sur les réseaux, Mme Falque-Pierrotin estime que l'application aux services en ligne des règles de droit commun est préférable à celle du système de responsabilité en cascade qui prévaut dans la presse ou l'audiovisuel. Le droit commun lui paraît en effet beaucoup plus souple et donc mieux adapté à Internet car il permet de poursuivre au cas par cas et a posteriori seulement les vrais responsables d'une infraction dont le caractère intentionnel a été prouvé. En revanche, la présomption de responsabilité pesant avec le régime de l'audiovisuel, sur l'éditeur, l'auteur ou le serveur, découragerait la création en France de services Internet.

Je souscris à cette analyse ainsi qu'à celles, exprimées dans le même rapport, relatives :

•  au caractère illusoire d'une démarche purement nationale et à la nécessité de développer la coopération internationale,

•  aux spécificités d'Internet (caractère transnational, fugacité des contenus) qui peut justifier une adaptation aux services en ligne du droit positif et la création de procédures nouvelles (enquêtes, injonctions...),

•  à la nécessité de clarifier la responsabilité des acteurs (exonération du fournisseur d'accès quand son rôle n'est que purement technique, identification de l'éditeur, premier responsable...),

•  au souhait de voir les professionnels prendre eux-mêmes certaines mesures (code de déontologie...).

Aux États-Unis, le Telecommunications Act de 1996 oblige les cablo-opérateurs à crypter les programmes audiovisuels "sexuellement suggestifs" ; à défaut, la FCC leur interdit de diffuser de telles émissions entre 6 heures du matin et 10 heures du soir. Une autre loi, votée par le Congrès en février 1996 (Communication Decency Act), réprime l'introduction de contenus pornographiques et scatologiques sur le réseau. Elle impose aux entreprises de services en ligne d'offrir aux parents les moyens techniques d'interdire aux enfants l'accès aux sites douteux. La Cour Suprême devrait prochainement se prononcer sur la constitutionnalité de ces textes (au regard du premier amendement à la Constitution qui limite les restrictions à la liberté d'expression). Le négationnisme, en revanche, n'est pas interdit.

De leur côté, les députés européens ont voté, en février dernier, des amendements à la nouvelle directive "Télévision sans frontières" prévoyant l'obligation de munir d'un dispositif de filtrage des programmes tous les récepteurs mis en vente ou en location en Europe.

Mais la censure des réseaux audiovisuels et multimédia se révèle un exercice difficile à la fois techniquement et juridiquement.

Techniquement, la mise au point de dispositifs de filtrage peut s'avérer plus difficile que prévue et il n'est pas toujours possible de limiter l'accès à la seule partie répréhensible du contenu d'un serveur. C'est ainsi que des actions judiciaires en Allemagne, à l'encontre de sites encourageant la pédophilie et les idées néo-nazies, ont entraîné le blocage par le fournisseur d'accès, Compuserve, de 200 forums (auxquels 4,3 millions d'abonnés dans le monde ont, pour des raisons techniques, été empêchés de participer).

Des affaires analogues (diffusion de messages révisionnistes et accès à des réseaux pédophiles) ont provoqué aussi en France des interventions de la justice à l'occasion desquelles la question de la responsabilité des fournisseurs d'accès a été posée. Il a été démontré qu'il était impossible à ces derniers (ainsi que l'a observé Mme Falque-Pierrotin) de contrôler le contenu des millions de données quotidiennement mises à jour et consultées par des milliers de clients qui, au demeurant, pourraient très bien se connecter par d'autres moyens à Internet (fournisseurs concurrents, opérateurs...).

L'assimilation au régime Minitel (services télématiques) paraît irréaliste.

La mission d'information créée par le Sénat, et qui analyse l'entrée de la France dans la société de l'information, examine en ce moment ces questions (rapporteur : sénateur Alex Türk, pour les questions juridiques).

•   Par d'autres côtés, l'échange de contenus à travers Internet s'apparente à une correspondance privée. La distinction avec la communication audiovisuelle n'est du reste pas toujours facile à établir. Il y a ainsi correspondance privée, en droit français, lorsque le message est exclusivement destiné à une ou plusieurs personnes déterminées et individualisées.

L'organisation de forums de discussion va être regardée comme relevant de la communication audiovisuelle (du point de vue de la protection de l'ordre public) alors qu'on se trouve, cette fois, dans une situation beaucoup plus proche de celle de la correspondance privée. Or, les cas dans lesquels la justice a été saisie en France et en Allemagne concernaient précisément des forums de discussion (ou newsgroups) traitant de pédophilie ou donnant à des révisionnistes l'occasion de s'exprimer.

Il est cependant une hypothèse dans laquelle le contrôle d'échanges à caractère de correspondance privée peut se révéler indéniablement nécessaire, voire indispensable : celui des communications entre malfaiteurs (trafiquants de drogues, de médicaments interdits, mafia, etc...). Or, ces derniers ont les moyens, avec les systèmes de cryptage ci-dessus évoqués, de se servir des réseaux pour organiser, en toute impunité, leurs activités illicites.

C'est la raison pour laquelle la Maison Blanche avait projeté de doter tous les terminaux d'une puce dite "clipper" pouvant être activée de façon à permettre aux autorités gouvernementales de décrypter des messages échangés avec l'autorisation des tribunaux, lorsque le respect de la loi ou la sécurité de l'État se seraient trouvés menacés.

Aujourd'hui, le gouvernement américain propose un système de mise sous séquestre de clefs ("key escrow") de façon à pratiquer, en tant que de besoin, des écoutes sur les réseaux.

Pour les mêmes motifs, la loi française précitée de régulation des télécommunications, du 26 juillet 1996, a prévu un dispositif déjà évoqué de "mises sous écrous" de clefs auprès d'organismes agréés (tiers de confiance). Celles-ci devraient être communiquées et mises en œuvre à la demande des autorités judiciaires ou d'autres autorités habilitées. Or, selon un point de vue exprimé dans Le Monde par M. Vidonne[16], une simple obligation, dont le refus serait lourdement sanctionné, d'ouvrir a posteriori les systèmes de cryptage sur la requête de l'autorité judiciaire aurait été beaucoup plus simple et efficace. Il est en effet peu probable, comme le fait observer cet expert, que la Mafia ou un réseau pédophile remette spontanément ses clefs de codage, sans jamais en changer, à un notaire électronique.

B. Les freins socio-économiques

La marche vers la société de l'information est susceptible de se trouver contrariée par des problèmes d'ajustement entre l'offre et la demande. Tout d'abord, entre l'offre de technologies et les investissements des principaux acteurs concernés dans le domaine des infrastructures et des équipements correspondants (production et accès aux données). Ensuite, entre l'offre d'équipements, celle de contenus et la demande des usagers, en fin de compte déterminants.

Un triple décalage risque ainsi de se produire entre :

•  l'état de la technologie et celui des équipements disponibles,

•  la production de contenus et les capacités de diffusion,

•  enfin, entre la demande finale de l'usager, essentielle pour l'investissement, et l'offre de contenus et d'équipements.

Ce décalage diffère selon qu'il s'agit d'usagers privés ou professionnels et affecte Internet de façon tout à fait particulière (dans la mesure où la situation n'y est pour le moment pas celle d'une économie de marché, ce qui explique que la demande paraisse anticiper l'offre, d'où les problèmes, déjà évoqués, de congestion du réseau).

1. Les facteurs d'incertitude

a) Les aléas du comportement des usagers

L'investissement, souvent considérable, que nécessite le recours aux nouvelles technologies par les principaux acteurs concernés (opérateurs de réseaux, fournisseurs de contenus...) est déterminé par l'anticipation qu'ils font du comportement des usagers.

Le marché n'existe en fait que pur les grandes entreprises financières ou industrielles. Celles-ci sont quasiment contraintes de s'équiper en matériels performants et d'utiliser les réseaux (à proportion, naturellement, de leurs capacités d'investissement). Il y va de leur compétitivité qui, de plus en plus, dépend de leur accès à l'information et aux connaissances, des facilités de communication avec leurs clients, fournisseurs et sous-traitants et des gains de productivité et de qualité permis par les nouvelles techniques.

Pour les autres entreprises, la viscosité de l'information et la nouveauté conduisent à une apathie ou un attentisme : un récent sondage Louis Harris, publié dans le numéro d'octobre du magazine Enjeux, révèle que 65 % des patrons français considèrent Internet comme un phénomène de mode !

La dynamique du marché du grand public est affectée en revanche, comme l'a souligné le rapport précité, par de nombreuses incertitudes relatives à la demande.

Le consommateur peut être en effet dissuadé par plusieurs facteurs :

•  insuffisance de convivialité et prix encore élevé des ordinateurs personnels multimédia ;

•  obsolescence rapide des équipements en informatique ;

•  insuffisance de l'offre de services télématiques moyens et grands débits alors que l'offre télématique Minitel est importante ;

•  peur du changement et poids des habitudes.

Mais le facteur crucial, c'est surtout qu'il ignore tout de ce qui, dans son cas particulier, pourrait lui faciliter sa vie professionnelle, ou satisfaire ses habitudes ou ses passions.

Il faut par ailleurs noter que le public concerné n'a pas l'habitude de payer des services tels que l'enseignement, la formation professionnelle, la prévention médicale, ou même les soins de santé, l'information civique ou la culture. Il s'agit pourtant des services qui sont les plus importants en volume et en importance nationale que les inforoutes permettaient de développer.

Dans le rapport lui-même, j'ai insisté sur les problèmes que pose le cercle vicieux (ignorance par les usagers des services possibles, ignorance par les fournisseurs de services de la nature de la demande et des circuits financiers qui assurent la solvabilité de cette demande d'intérêt général) et enfin sur l'importance des expérimentations avec leurs effets d'anticipation d'offre d'infrastructure et d'offre de service pour des usagers qu'il convient, au préalable, d'informer, de sensibiliser et de former.

b) La conjoncture économique et budgétaire

Les aléas du comportement des usagers entretiennent les hésitations des investisseurs. L'État, les pouvoirs publics locaux et les industriels opérateurs doivent donc développer une politique de l'offre ?

Dans un article paru en novembre 1993, le magazine américain Business Week observait que le coût du déploiement généralisé d'inforoutes en cinq ans (1994/1998) serait du même ordre, en dollars constants, que celui afférent au programme de construction d'autoroutes inter-États (1959/1963) ou à la vague d'investissements immobiliers des entreprises durant la période 1985/1989.

Gérard Théry, pour sa part, avait préconisé, dans son rapport d'octobre 1994, la mise en place d'une politique dynamique de câblage en fibre optique. Permettant la réalisation d'économies d'échelle et enclenchant une dynamique de création de services interactifs multimédia, ce programme aurait représenté 150 à 200 milliards de francs d'investissements sur 20 ans, soit un coût annuel supérieur certes à celui des investissements réseaux de France-Télécom, mais du même ordre que le budget spatial français pour des effets économiques sans doute supérieurs.

Ce type de politique implique à mon sens que l'effort en matière d'infrastructures soit associé et même succède à un effort comparable pour lancer services et contenus et encore plus pour former, informer et sensibiliser les diverses catégories de public.

Compte tenu de l'interdiction faite à France Télécom par l'Etat d'augmenter ses ressources (augmentation de l'abonnement pourtant l'un des plus faibles d'Europe), France Télécom a limité certains investissements sur son réseau téléphonique pour privilégier son désendettement.

En tout état de cause, l'Europe vit une phase de dogmatisme libéral exacerbé, sous l'influence de certains commissaires européens. Ce libéralisme laissez-faire européen est plus important qu'aux États-Unis, au Canada ou au Japon. Toute politique industrielle est soumise au contrôle sourcilleux, et sans doute néfaste, de ces dogmatiques libéraux. Pourtant, l'entrée dans la société de l'information mérite une action délibérée des pouvoirs publics parallèle à la nécessaire suppression des monopoles : "Quos vult perdere Jupiter dementat".

Le retard regrettable pris dans la réalisation de réseaux transeuropéens pourtant recommandée par le livre blanc Croissance, compétitivité, emploi dès 1992, puis par le rapport Bangemann en 1994 n'ont pas pour cause unique les problèmes budgétaires des États. Le stade des déclarations d'intention n'a, à ce jour, pas encore été dépassé.

2. L'exemple des services en ligne

a) Les expériences de télévision interactive aux États-Unis ont provoqué une grande perplexité des opérateurs quant à la possibilité de rentabiliser les très lourds investissements nécessaires (100 à 150 milliards de dollars dépensés à la fin de 1996 par Time Warner à Orlando).

Un foyer américain loue en moyenne 2 films ½ par mois (soit un budget mensuel de l'ordre de 90 à 100 $). Certes, la vidéo à la demande peut être complétée par d'autres services (voir encadré ci-après), mais à condition que soient constituées des bases de données coûteuses elles aussi. Or, le supplément de dépenses que les Américains sont prêts à consacrer à l'ensemble des nouveaux services (télévision interactive, téléachat, jeux électroniques...) n'excède pas 50 à 60 francs par mois. Ce n'est pas dans de telles conditions que l'on peut espérer rentabiliser un investissement estimé à près de 10.000 F par foyer desservi dans le cas de l'installation d'un réseau large bande interactif !

Systèmes de vidéo à la demande

1. Principaux investissements

•  infrastructures,

•  serveurs (1,35 million de $ l'unité),

•  logiciels,

•  contenus.

2. Principales applications

•  loisirs, divertissements (films, jeux),

•  information, éducation,

•  transactions financières,

•  produits de nécessité (alimentation, timbres),

•  achats d'impulsion (vêtements, objets de décoration),

•  produits durables et semi-durables (renseignement sur les automobiles, les gros équipements ménagers.

3. Principales sources de revenus

•  abonnements,

•  paiements à l'acte,

•  recettes publicitaires,

•  commissions sur transactions,

•  ventes ou locations aux abonnés de matériels spécifiques (décodeurs, imprimantes).

Source : Omnium Services Partners

b) Pour l'Europe et la France,

il n'existe pas, pour l'instant, de services multimédia rentables financés par les seuls particuliers. En Grande Bretagne, la téléphonie laisse ainsi les cablo-opérateurs espérer, au mieux, un équilibrage de leurs résultats que la seule diffusion de programmes télévisés ne leur permettrait pas d'atteindre. Elle nécessite, en outre, des investissements coûteux et le recours à une technique encore imparfaitement maîtrisée. Enfin, l'ouverture à la concurrence du téléphone devrait entraîner une guerre des prix et une baisse des marges.

En France, la rentabilisation d'un système tel que celui prévu par le projet DORA[17] (desserte en fibre optique jusqu'au pied des immeubles) sera difficile à assurer assurée par les seuls services annoncés. L'expérimentation devrait montrer quels nouveaux usages doivent être mis en place.

Il existe aussi d'autres solutions qui pourraient permettre de tester rapidement les nouveaux services (voir plus loin : ADSL, MMDS, vidéo presque à la demande...).

La plupart des cablo-opérateurs américains espèrent aussi améliorer leur situation par un recentrage de leurs activités sur Internet (les réseaux câblés permettent des débits nettement plus élevés que le réseau téléphonique). C'est aussi l'impression que donnent les premières réactions à l'expérimentation de la Lyonnaise dans le VIIe arrondissement de Paris.

L'incertitude des retours sur investissement due aux aléas de la demande des usagers, peut donc constituer un frein à la généralisation de l'utilisation des nouvelles techniques d'information et de communication. Les évolutions dans ce domaine ont pourtant tendance à s'accélérer.

III. ... UNE ÉVOLUTION QUI S'ACCÉLÈRE

L'accélération de la marche vers la société de l'information résulte de plusieurs facteurs :

•  les chutes de prix à capacité constante en informatique,,

•  les progrès des logiciels de compression et la diversité des diffusions haut débit,

•  la dynamique Internet,

•  les dynamiques Intranet,

•  les percées technologiques prochaines dans certains domaines (écrans plats, reconnaissance vocale, etc...).

A. Des solutions haut débit en attendant la fibre optique ?

Des technologies encore expérimentales ou à l'état de projet, dont certaines ont déjà été évoquées dans ce rapport, pourraient, si elles s'avèrent performantes, hâter l'avènement de la société de l'information. Elles permettraient, en effet, de tester de nouveaux services en utilisant les moyens de transmission existants, donc en évitant les investissements très coûteux que nécessiterait une fibroptisation complète du réseau[18]. Elles offriraient aussi, en même temps, un moyen de décongestionner Internet au niveau de la "boucle locale" (partie terminale des réseaux) en y augmentant les débits.

Elles présentent un intérêt particulier pour des pays comme la France, où la pénétration du câble est faible (20,5 %). Il s'agit, essentiellement, de l'ADSL, du MMDS et de solutions satellitaires.

Les deux premières techniques (ADSL, MMDS) sont en cours d'expérimentation en France, mais ont déjà été testées, avec succès semble-t-il, aux États-Unis (dans un contexte qui n'est pas cependant nécessairement transposable dans notre pays).

Quant aux constellations de satellites d'échange de données, elles n'existent encore qu'à l'état de projet.

Des propositions de type télétexte avancé apparaissent également en ce moment[19]. Il est possible, enfin, de profiter de la multiplication des canaux, permise par le numérique en matière de diffusion par satellite et par câble, pour se contenter d'offrir aux téléspectateurs de la vidéo "quasi" à la demande[20], beaucoup moins coûteuse que la "vraie" vidéo à la demande.

Ainsi, selon le rapport Breton, 85 % des téléservices ou services multimédias aujourd'hui imaginés peuvent techniquement emprunter les réseaux existants pour atteindre les foyers (mais leur degré d'interactivité est cependant réduit dans ce cas).

1. L'ADSL (Asymetric Digital Subscription Line)

L'ADSL est la variante la plus couramment utilisée d'un groupe de technologies dites DSL (Digital Subscriber Line) inventées par les laboratoires Bell à la fin des années quatre-vingt. Des modems analysent les fréquences inexploitées lors du transport de la voix[21], qui sont utilisées pour transmettre, sur une paire de fils de cuivre traditionnelle, les données numériques de services audiovisuels ou télématiques.

Le débit obtenu, inversement proportionnel à la distance séparant le terminal du central téléphonique, atteint 1,5 Mbit pour moins de 5 km (ce qui correspond à 70 % des cas en France). Il devient ainsi possible d'acheminer par le réseau téléphonique de la vidéo à la demande ou, plus rapidement qu'auparavant, d'autres données véhiculées par Internet.

Débits pour une distance comprise entre 3,5 et 5 km

•  ADSL (Asymetric bit rate DSL)

voie de diffusion : 1,5 Mbit/s (une paire) - 6 Mbit/s (plusieurs paires)

voie de retour : 16 kbit/s (une paire) - 64 kbit/s (plusieurs paires)

•  HDSL (High bit rate DSL) : jusqu'à 2 Mbit/s

•  VDSL (Very high rate DSL) : 3 Mbit/s sur deux paires

Alcatel s'est lancé dans cette technologie après en avoir acquis la licence et France Télécom a décidé de la tester dans le cadre du projet Camille (cuivre asymétrique intégré sur lignes locales existantes). Le succès de l'ADSL dépendra du prix des composants (assez complexes) et des modems (qui devraient coûter moins de 2500 F).

2. Le MMDS (Microwave Multiwave Distribution System)

Testées depuis longtemps aux États-Unis en analogique et déjà utilisées en transmission par France Télécom ("faisceaux hertziens" à 140 Mbits), les micro-ondes présentent de nombreux avantages potentiels pour la diffusion de données numériques : installation économique, débit élevé permettant de distribuer jusqu'à une centaine[22] de chaînes de télévision. La portée des émetteurs est inversement proportionnelle à la longueur d'ondes.

Les États-Unis et certains pays européens envisagent d'utiliser la bande de 2,5 Gigahertz (employée en France métropolitaine par la gendarmerie mais dans laquelle vont être effectués des tests dans l'île de la Réunion). Des expériences sont en cours ou envisagées notamment au Mans, dans la Vienne ou en Ariège, dans l'intervalle des 10 à 12 Gigahertz. Cette gamme de fréquences étant déjà mise à contribution pour la réception des émissions par satellite, offre ainsi l'avantage de permettre de recourir aux mêmes décodeurs (mais les antennes doivent être suffisamment sélectives).

Thomson Multimédia (qui a remporté aux États-Unis un important contrat dans le cadre du projet MMDS "Tele T.V.") cherche pour sa part à exploiter la bande des 3,6/3,8 Gigahertz que TDF[23] serait prêt à lui concéder. Cette gamme de fréquences, elle, se prêterait à une utilisation des décodeurs des réseaux câblés mais nécessiterait de grandes antennes "en râteau".

Il est tout à fait envisageable, par ailleurs, de monter en fréquence pour aller dans la bande, vierge, des 20/40 Gigahertz qui intéresse plusieurs pays. Mais la portée des émetteurs serait, dans ce cas, beaucoup plus réduite (5 à 10 km), ce qui impliquerait une structure de réseaux cellulaire ainsi qu'une implantation en milieu urbain, donc une concurrence vis à vis des réseaux câblés.

C'est dans cette gamme d'hyperfréquences qu'est proposée une variante évoluée du MMDS, le LMDS offrant aux abonnés une véritable palette de services multimédias véritablement interactifs. Le LMDS comporterait, en effet, la voie de retour qui fait défaut au MMDS dont l'interactivité se limite à l'utilisation d'une voie téléphonique.

La loi du 30 septembre 1986, relative à la liberté de communication, considère la transmission d'émissions télévisées par micro-ondes comme des infrastructures de télécommunication, autorisées par le ministre compétent (après accord du CSA pour certaines fréquences) et conçues comme une extension, réservée aux zones d'habitat dispersé, des réseaux câblés (qu'il n'est pas question de concurrencer).

La loi d'avril 1996, relative aux expérimentations dans le domaine des technologies et services d l'information, est venue assouplir ce régime.

Le CSA (Conseil supérieur de l'audiovisuel) peut, en effet, autoriser l'usage d'hyperfréquences sur des parties limitées du territoire, sans passer par un appel à candidatures, mais à condition qu'il ne soit pas porté préjudice à un réseau câblé existant.

Les opérateurs, candidats aux expérimentations concernées, se plaignent parfois néanmoins de certaines dispositions de cette loi, notamment celles qui prévoient :

•  le conventionnement par le CSA, un par un, de chacun des services de communication audiovisuelle composant les bouquets prévus,

•  l'application, même globalisée, des obligations de quotas et de contribution au développement de la production cinématographique et audiovisuelle.

Les intéressés jugent ces contraintes lourdes et souhaiteraient, en ce qui concerne les contenus, être alignés sur le régime des cablo-opérateurs (le MMDS n'est-il pas appelé "câble hertzien" ?). Ces derniers s'estimant, pour leur part, victimes d'une discrimination par rapport aux chaînes télédiffusées directement par satellite.

La bande des 3,6/3,8 Gigahertz qui intéresse Thomson relève, de son côté, non du CSA mais de la DGPT (Direction générale des Postes et Télécommunications), au motif que sa réglementation toucherait au droit international[24]. Selon l'industriel, l'exploitation de cette gamme de fréquences est techniquement la plus avantageuse (zone de couverture étendue...) et la plus facile à mettre en œuvre (puissance limitée des émetteurs...). Thomson estime aussi que l'utilisation du MMDS diminue l'urgence de la numérisation de la télévision hertzienne terrestre dans les fréquences moins élevées actuelles (VHF et UHF).

Par sa souplesse, ses possibilités d'interconnexion, ses débits et son économie, le MMDS peut donc accélérer le déploiement des autoroutes de l'information. Il souffre cependant, en l'état actuel des techniques, d'un manque d'interactivité.

3. Les solutions satellitaires

Les principaux avantages des systèmes satellitaires tiennent :

•  à l'étendue de leur zone de couverture,

•  à la possibilité qu'ils offrent d'atteindre des populations non desservies par les réseaux terrestres (pays sous-équipés, zones d'habitat dispersé, individus isolés...).

En outre, le progrès technique permet aux satellites d'accéder aux services large bande et d'être utilisés pour les communications avec les mobiles[25].

Jusqu'à présent, cependant, les liaisons par satellite étaient surtout de type point à multipoint ou alors n'offraient que de relativement faibles débits pour atteindre des personnes difficiles d'accès.

L'augmentation de la puissance embarquée et l'amélioration de la directivité des antennes ont permis des applications plus souples, plus variées et plus rentables, dont la télédiffusion directe (la télévision représente aujourd'hui 80 % environ du trafic des satellites). Mais les utilisations vraiment interactives[26• • • ] demeurent pour le moment minoritaires. C'est ce qui fait l'intérêt des nombreux projets de déploiement futur de constellations de satellites. Celles-ci permettraient en effet, de façon indépendante ou en liaison avec les infrastructures terrestres, des échanges de données variées, jusqu'à des débits relativement élevés, entre points fixes ou mobiles, à travers le monde entier.

Exemples de projets de constellations de satellites

1. Téléphonie mobile principalement

•  GLOBALSTAR (Loral, Alcatel)

48 satellites reliés aux réseaux terrestres - 1,8 milliards de $

Opérationnel en 1998

•  IRIDIUM (Motorola)

66 satellites interconnectés - 3,7 milliards de $

Opérationnel en 1998

2. Système multimédia

•  SATIVOD (Alcatel)

64 satellites transparents - 3 milliards ½ de $

débits variables (techniques ATM) jusqu'à 60 Mbit/s par terminal

Premier lancement en 2001.

•  TELEDESIC (Microsoft - Mc Caw)

840 satellites interconnectés

5,1 milliards de $ (satellites)

+ 2,2 milliards de $ (lancement)

+ 9 milliards de $ (R&D)

débit moyen (liaison Internet) : 1,5 Mbit/s

Opérationnel en 2002.

N.B. : La diminution de l'altitude de l'orbite diminue le temps et la puissance nécessaires à l'acheminement des communications mais aussi la zone de couverture d'où le recours à une multitude de satellites.

Il deviendra ainsi possible, par exemple :

•  de décongestionner Internet en désencombrant la " boucle locale " ;

•  de faciliter l'extension du réseau des réseaux dans les pays en développement ;

•  de le rendre accessible n'importe où à des ordinateurs portables.

C'est en tout cas l'ambition du plus audacieux de tous ces projets, celui de Craig Mac Caw et Bill Gates, qui repose cependant sur des paris financiers et technologiques risqués et ne semble pas encore très au point actuellement.

TELEDESIC : un pari risqué

•  Technologiquement : •  maîtrise de la commutation à bord

•  liaisons intersatellites hyperfréquences (1,24 Gigabit)

•  Financièrement : •  16,3 milliards de $ minimum (cf. encadré précédent) selon une hypothèse très optimiste supposant des économies d'échelle importantes (le coût unitaire d'un satellite est estimé à 5,5 millions de $...)

•  Chronologiquement : •  lancement de 840 satellites en 2 ans (de 2000 à 2002)

N.B. : En outre, le logiciel n'est pas prêt et la technique de liaison intersatellite (onde radio ou rayon laser) n'a pas été choisie.

Selon The Economist (du 27 juillet 1996), le nombre très important de satellites (840) permettra à chacun d'entre eux de se concentrer sur un nombre d'usagers limités (dans un rayon d'action de 53 km) de façon à leur fournir des prestations satisfaisantes (capacité de 18 liaisons Internet simultanées à un débit de 1,5 Mbit/s).

La diversification de l'offre de technologies et la multiplication de projets qui viennent d'être décrits témoignent d'une sorte d'emballement du rythme de la marche vers la société de l'information.

L'explosion d'Internet en est une preuve plus éclatante encore.

B. La dynamique Internet

1. Une cadence stupéfiante

Le rythme de développement d'Internet est véritablement phénoménal !

On connaissait la loi de Moore en vertu de laquelle la vitesse des microprocesseurs double tous les 18 mois. Internet fait mieux : le nombre de ses usagers double tous les ans. Il est, actuellement, de l'ordre d'une cinquantaine de millions de personnes. Il est bien évident, dans ce cas du téléphone, que plus un réseau est développé, plus son intérêt pour l'usager est grand. C'est le même cas pour Internet.

La quantité de contenus véhiculée par Internet se développe plus vite que l'évolution du nombre d'utilisateurs même sans aller jusqu'à souscrire à la loi de Metcalfe qui estime que cet intérêt est proportionnel au nombre des connexions bilatérales possibles, c'est-à-dire le carré du nombre d'usagers.

Comme le nombre de clients, le nombre de serveurs double, lui aussi, approximativement chaque année (il y en avait plus de 6,5 millions en juillet 1995, selon l'AFTEL). Mais certains indicateurs (nombre de domaines répertoriés, quantité de serveurs commerciaux...) font état d'une croissance, à certains égards, encore plus rapide.

2. Des défis relevés

Cet essor spectaculaire d'Internet conduit à des défis : :

•  il faut éviter que les infrastructures soient saturées ;

•  l'usager doit pouvoir gérer les masses de données disponibles.

•   Sur le premier point (adaptation de la contenance des structures du réseau), le financement d'une multiplication par plus de 10.000 des capacités des grandes artères a pu être assuré (selon The Economist du 19 octobre 1996) par l'explosion du nombre d'abonnements.

L'efficacité de la méthode de transmission par paquets et l'amélioration des techniques de recherche des données (voir plus loin) ont contribué également à maîtriser le trafic. Il reste que le rythme de croissance de l'utilisation du réseau excède celui du progrès des capacités des composants des routeurs. Or, selon The Economist, c'est précisément aux intersections que se produisent les embouteillages.

Les universitaires américains et les grands opérateurs privés des États-Unis se réunissent le 22 janvier à San Francisco. Une centaine de structures universitaires sont impliquées et financent 25.000 dollars par an pendant 5 ans pour développer un nouveau système performant Internet 2 qui devrait voir le jour en 1998.

Plusieurs solutions (en partie déjà évoquées) sont possibles pour décongestionner le réseau :

•  superposer aux infrastructures actuelles des superstructures à haut débit, dédiées aux applications les plus consommatrices de bande passante (réseaux de recherche, Intranet d'entreprises...). Le caractère fédérateur des protocoles de transport et de routages TCP/IP permettrait de relier ces super réseaux à Internet par des passerelles ;

•  répartir sur un grand nombre de serveurs (serveurs miroirs locaux) les demandes les plus fréquentes ;

•  substituer à l'actuel système d'abonnement forfaitaire une nouvelle tarification basée sur les coûts d'usage réels, les degrés de priorité du trafic ou la consommation en bits ;

•  enfin, perfectionner le protocole d'Internet (IP) qui permet aux ordinateurs du monde entier de communiquer et d'échanger des données.

Dans son ouvrage Et Dieu créa Internet, Christian Huitema, Président de l'IAB (Internet Activities Board) annonce qu'une nouvelle version de ce protocole (IPv6) a été mise au point. Elle comporte à la fois des simplifications[27] et de nouvelles fonctions (en particulier en matière de sécurité) grâce à un quadruplent de la taille des adresses (désormais codées sur 128 bits).

•   Le deuxième défi (éviter la submersion de l'usager par le flot d'informations accessibles) a pu également être relevé, grâce à de nouveaux langages et programmes informatiques :

•  Tout d'abord, le langage HTML[28] permet de trouver des éléments recherchés, relatifs à un sujet donné, dans des bases de connaissance de la totalité des documents concernés. Ceci est rendu possible par une indexation à base de références ou mots clés, qui crée des liens associatifs entre fragments de différents ouvrages, donnant ainsi à l'utilisateur la possibilité d'aller chercher directement l'extrait qui l'intéresse et de passer très rapidement d'une donnée à une autre.

•  Les navigateurs[29]. Ce sont des logiciels installés dans le terminal de l'utilisateur, pratiquent le langage HTML pour aller chercher ces informations dans différents serveurs. Les deux actuellement les plus utilisés et connus sont Navigator de Netscape (80 % du marché) et Explorer de Microsoft.

Les prochaines versions des logiciels de navigation devraient être encore enrichies de nouvelles fonctions d'administration, de sécurité et de travail de groupe.

•  Les moteurs de recherche (ou glaneurs) sont capables de s'acquitter d'une tâche plus ardue que les navigateurs : trouver, pour y accéder, les adresses d'objets dont on connaît seulement le contenu.

Les deux plus connus sont Alta Vista, le plus puissant mis au point par Digital Equipment, et Yahoo, inventé par des étudiants de l'université de Stanford.

Alta Vista permet de fouiller 22 millions de sites au rythme de 30 pages par seconde (16 millions de pages indexées), ce qui lui permet de parcourir la totalité d'Internet en une dizaine de jours.

Il constitue ainsi un immense index des endroits où existent des références au thème de la recherche effectuée et procède ensuite à des interrogations pertinentes.

Yahoo, pour sa part, choisi par France Télécom, avait indexé, en septembre 1995, 60.000 sites classés en 10.000 catégories et cherche à affiner les techniques de questionnement de façon à en lever certaines ambiguïtés.

•  Les agents intelligents constituent un perfectionnement ultime des procédés de recherche d'information. Comme on l'a vu, ce sont des sortes de robots informatiques capables de détecter des liens entre données (corrélations, évolutions,...) ou de les comparer afin d'éclairer des décisions (notamment commerciales). Il en existe aussi qui gèrent des messageries électroniques ou permettent de reconstituer des données (par exemple des images), à partir de certains de leurs éléments, afin d'économiser de la bande passante.

3. De nouveaux concepts

En même temps que foisonnent des logiciels facilitant l'utilisation des données, de nouveaux concepts émergent qui font d'Internet le lieu d'un profond bouleversement de l'informatique. Deux exemples en seront cités : l'apparition du nouveau langage de programmation Java et le triomphe qui lui est lié, des "techniques orientées objet".

•   Java est un langage de programmation informatique mis au point par Sun Microsystems. Il permet notamment, en concurrence avec d'autres méthodes de programmation (Active X de Microsoft[30] ou Shockwave de Macromedia...) de créer de petites applications (applets en anglais) tendant à enrichir le contenu de pages WEB par des animations multimédia (ou à leur apporter d'autres améliorations). Mais, en fait, les conséquences en sont beaucoup plus profondes et peuvent se résumer ainsi :

•  n'importe quel terminal peut exécuter des instructions écrites en langage Java (à condition d'avoir été muni d'un "interpréteur" adéquat) ;

•  le programme Java sert d'intermédiaire entre le serveur et l'ordinateur du client ;

•  les instructions sont transmises par l'intermédiaire du navigateur qui assure le téléchargement du logiciel d'application ;

•  le programme n'a donc pas besoin d'être stocké dans le disque dur de l'ordinateur puisque son exécution est immédiate[31] ;

•  en résumé, les applications sont téléchargées en même temps que les données et exécutées sur la machine de l'utilisateur.

On mesure les avantages et les bouleversements qui peuvent résulter de ces caractéristiques :

•  Pour les entreprises, les inconvénients de l'hétérogénéité des matériels peuvent être surmontés moyennant une simple adaptation des logiciels d'application. Ces derniers sont centralisés au niveau du serveur (ce qui diminue les risques de piratage) et n'ont plus besoin d'être périodiquement renouvelés sur chaque terminal : Microsoft a du souci à se faire ! La réduction ainsi permise de la capacité de mémoire des ordinateurs personnels (plus besoin de disque dur) rend possible un abaissement de leur coût.

•  Les particuliers peuvent, à la demande, se procurer sur le réseau, auprès de tout fournisseur, des logiciels "jetables".

La prise en compte de ces différents facteurs débouche sur des concepts tels que l'ordinateur de réseau ou une nouvelle informatique "réseau-centrique" (dans laquelle serveurs et navigateurs jouent le rôle essentiel) succédant à l'informatique répartie du type "client-serveur".

Cependant, ce modèle n'est pas le seul concevable. On peut envisager aussi un système dans lequel chaque utilisateur peut être à la fois client et serveur, programmes et données étant échangés bilatéralement -moyennant une allocation dynamique et variable de bande passante- et la persistance des données dépendant de l'application (cf. numéro hors série d'Usine Nouvelle d'octobre 1996).

•   Java est un langage "orienté objet". Or, la technologie orientée objet, qui tend à se généraliser, marque une étape très importante dans l'évolution de l'informatique.

Dans le développement des logiciels, on est tout d'abord passé de méthodes empiriques ou artisanales à des méthodes structurées permettant, notamment, des applications partagées entre plusieurs utilisateurs et la mise au point de systèmes de gestion de données.

Victimes de leur complexité et des contraintes liées à leur hiérarchisation trop fonctionnelle, les méthodes structurées ont été remplacées par des méthodes objet qui ont sur elles de nombreux avantages :

•  universalité des concepts utilisés pour classifier les connaissances, les objets, les données et leurs réalisations ;

•  modularité, qui offre la possibilité de travailler, avec les mêmes applications, sur des systèmes d'exploitation ou dans des environnements matériels différents.

Les "objets", qui constituent les éléments de base de ces nouveaux systèmes (à la place des "données" et "fonctions" caractéristiques de leurs prédécesseurs), constituent des sortes de briques logiques pouvant être assemblées, comme dans un jeu de Lego et liées entre elles par des "héritages" ou des filiations (en botanique, par exemple, la classe "fleurs" hérite des propriétés de la catégorie "bulbes" ; bulbes, fleurs, fruits et légumes héritent de la propriété de la classe mère "graines"...).

Il en résulte :

•  pour le client, des interfaces plus conviviales et une plus grande souplesse d'emploi...

•  pour le serveur, une meilleure facilité d'exploitation, un coût réduit...

Les données et leur traitement peuvent être associées, ce qui permet les applications évoquées ci-dessus (applets) de Java.

L'approche "objet" est utilisée, par exemple :

•  pour la constitution et la gestion de base de données (la classification automatique de concept, introduite par la logique de description, permettant d'améliorer les performances en la matière) ;

•  pour simplifier l'adaptation des progiciels[32] à différents contextes en conception ou en gestion de production assistées par ordinateur (CAO, GPAO).

Le formidable succès d'Internet, facilité par les évolutions techniques qui viennent d'être décrites, explique l'effet d'attraction qu'il exerce sur presque tous les acteurs de l'informatique, des télécommunications, de l'électronique grand public et de l'audiovisuel.

4. Un effet d'attraction très fort

A la conférence d'ouverture d'un récent salon professionnel à Las Vegas, Bill Gates a déclaré : " Internet, c'est comme la ruée vers l'or et il y a de l'or ". Un autre intervenant a usé, pour sa part, du terme de "nouvelle frontière".

De fait, bien qu'il ne soit pas encore tout à fait rentré dans l'économie de marché, Internet suscite, en raison de sa formidable croissance et de la vague d'innovations technologiques qui la porte, à la fois des angoisses chez les champions de l'ordre établi et de fortes ambitions de la part de leurs challengers. Il représente ainsi à la fois des menaces et des opportunités, fait l'objet de convoitises ou de tentatives de récupération et se trouve au centre de toutes les stratégies.

L'enjeu est de déterminer si Internet se contentera d'être un fédérateur, ou s'il deviendra un intégrateur de réseaux et de technologies.

•   Internet n'est pas encore totalement entré dans l'économie de marché pour des raisons qui ont déjà été examinées dans ce rapport et qui tiennent à ses modes de tarification (qui ne reflètent pas ses coûts réels) et à la sécurité encore imparfaite des transactions à distance, qui y freine le développement des services en ligne et du commerce électronique. Cette situation est cependant susceptible d'évoluer rapidement.

En attendant, l'essor d'Internet a déjà provoqué d'éclatants succès. On peut citer :

•  Netscape, qui a réussi à prendre 85 % du marché des navigateurs. Son président, Jim Clark est devenu milliardaire en 18 mois (ce que Bill Gates avait mis 12 ans à accomplir !). Le chiffre d'affaires de la compagnie (75 millions de dollars) a été multiplié par cinq en un an. Sa capitalisation boursière de 2,3 milliards de dollars lui a permis, en payant sous forme d'actions nouvelles, d'acquérir Collabra Software, spécialiste du collecticiel (logiciels de conférence de groupe et de partage d'informations) et rivale de Lotus du groupe IBM (inventeur du fameux logiciel Notes de travail coopératif en réseau).

Les visées stratégiques de Netscape ont pour objet, non seulement le collecticiel, mais aussi le commerce électronique (association avec Mastercard, tandis que Visa s'est allié, dans ce domaine, à Microsoft).

C'est en offrant Navigator gratuitement sur le réseau que Netscape a conquis le marché correspondant. Il s'est rattrapé ensuite en faisant payer ses logiciels au niveau des serveurs.

Avec Sun Microsystems, Netscape ambitionne d'utiliser Internet pour concurrencer le monde du P.C. à la fois dans le domaine du logiciel (Microsoft), des composants (Intel) et des fabricants de serveurs et d'ordinateurs personnels (IBM, Compaq, Nec, etc...).

•  Sun Microsystems, pour sa part, a annoncé pour le deuxième trimestre de 1996 un chiffre d'affaires de 2 milliards de dollars, en augmentation de plus de 20 % (+ 22,4 %) par rapport à l'année précédente. Les trois-quarts de ses revenus proviennent de la vente de stations de travail et de serveurs et une part infime seulement est liée, pour le moment, au langage Java. Le marché des serveurs est estimé à plus de 6 milliards de dollars en 1996. Sun fournit plus de 50 % de ceux qui sont utilisés sur Internet. Selon The Economist du 7 septembre 1996, la firme californienne envisage de se lancer elle-même dans la fabrication de microprocesseurs et contrôleurs Java, ce qui pourrait lui rapporter 15 milliards de dollars par an, soit autant que toutes ses autres activités réunies.

Avec Netscape et surtout Oracle (numéro 2 mondial du logiciel), Sun développe la stratégie de "l'ordinateur de réseau" (simple et bon marché) et d'une informatique "réseau-centrique", concept qui correspond déjà au Pippin lancé par Apple et que pourrait bien rallier aussi IBM (selon le président-directeur-général d'IBM Europe, Lucio Stanca, les données et les logiciels seront désormais situés dans les grands "serveurs" des réseaux et non plus dans les ordinateurs personnels).

La cible pourrait être d'abord les Intranet, réseaux internes d'entreprises construits sur le modèle d'Internet. D'autres marchés, déjà importants, sont en forte croissance ; ceux des :

•  routeurs (contrôlé à 80 % par Cisco qui vient de conclure un accord avec le numéro un des P.C., Compaq) : de 6,5 milliards de dollars en 1995, les ventes devraient passer à 17 milliards en 1998. Le chiffre d'affaires de Cisco, fondée en 1984 par un couple de scientifiques de Stanford, est de 3 milliards de dollars en 1996 et sa capitalisation boursière de 35 milliards (le cours de l'action a été multiplié par plus de 80 depuis 1990) ;

•  gestionnaires de sites Internet (logiciels, services et solutions matérielles intégrés) : 12 milliards de dollars aujourd'hui, 210 en l'an 2000 ;

•  modems : le chiffre d'affaires du numéro un mondial, US Robotics (1,9 milliard de dollars) a pratiquement doublé depuis l'année dernière. La croissance des ventes continue à être soutenue aux États-Unis, pourtant déjà très équipés (+ 8,9 %), elle est forte en Europe (+ 30 % en Allemagne...).

Certains marchés, enfin, sont encore émergents, mais offrent des perspectives prometteuses :

•  les fournisseurs d'accès : de 300 millions de dollars en 1995, leur chiffre d'affaires pourrait passer à 5 milliards en 2000. Celui d'Ascend, start-up californienne, est passé de 39 millions de dollars en 1994 à 600 millions en 1996, ce qui lui a permis de se diversifier dans la technologie des "routeurs" et dont la filiale en Europe vient de s'installer à Sophia Antipolis ;

•  le commerce électronique : de 518 millions de dollars de ventes en 1996 à 6,6 milliards, selon Forrester Research, en 2000 ;

•  la publicité : 312 millions de dollars en 1996, 5 milliards en 2000 ;

•  les moteurs de recherche : la société californienne Verity, inventeur d'un moteur de recherche documentaire, a, par exemple, doublé son chiffre d'affaires cette année.

On comprend que de telles ambitions stratégiques et de tels succès ne laissent pas indifférents l'establishment. Pour les principaux acteurs en question du monde de l'informatique, des télécommunications, de l'électronique grand public, ou de l'audiovisuel, Internet peut d'ailleurs très bien ne pas représenter seulement une menace mais aussi des opportunités nouvelles à saisir.

Le phénomène Internet étant de toute façon irréversible, il serait vain de tenter de s'y opposer ou même de l'infléchir. Le mieux à faire est d'y être présent, de l'intégrer dans sa stratégie pour tenter de profiter de sa dynamique.

•   Dans l'informatique tout d'abord, le premier à être menacé et à avoir révisé sa stratégie, a été Bill Gates, le patron de Microsoft. Celui-ci a montré qu'il prenait désormais Internet au sérieux (après l'avoir quelque peu dédaigné en raison de son caractère "non marchand"). Lors de la visite de l'Office à Seattle pour la préparation de ce rapport, il y a dix-huit mois, les centres d'intérêt de Microsoft restaient axés sur le réseau propriétaire Marvel ensuite dénommé Microsoft Network. Seule une petite équipe suivait les questions Internet.

Avec l'architecture client-serveur, le numéro un du logiciel n'avait pas trop de souci à se faire. L'essor d'Internet pouvait favoriser les ventes de P.C. dont 90 % étaient de type "wintel" (c'est-à-dire équipés de microprocesseurs Intel et de logiciels Windows conçus par Microsoft). En outre, du côté serveur, les progrès des composants pouvaient laisser espérer que des micro-ordinateurs, munis du logiciel Windows NT, viennent concurrencer les machines sous Unix ou dotées de logiciels IBM. Enfin, comme le faisait remarquer The Economist, dans son numéro du 17 août 1996, les intérêts que rapportaient à Microsoft le placement de ses liquidités (7 milliards de dollars) équivalaient à la totalité des revenus annuels de Netscape.

C'est sans doute la menace représentée par la stratégie "réseau-centrique" de Netscape et Sun qui a provoqué la vigoureuse réaction du géant de Seattle. Intégrant désormais pleinement Internet dans sa stratégie, Microsoft a pris les mesures suivantes :

•  lancement en 1995 du navigateur Explorer (adopté par America On Line en 1996),

•  introduction des protocoles TCP/IP dans Windows 95,

•  intégration gratuite de fonctions WEB dans le logiciel serveur Windows NT,

•  compatibilité de MSN (Microsoft Network) avec le world wide web,

•  compatibilité avec Java d'Explorer et de Windows,

•  préparation d'une génération de micro-ordinateurs bon marché, concurrents des ordinateurs de réseau.

Ces actions ont été complétées par de nombreux rachats de Start-up et une prise de participation dans UUNET, l'un des principaux fournisseurs d'accès à Internet.

IBM, de son côté, a créé un nouveau service qui se consacre à la création de produits destinés à Internet et étudie une version de son collecticiel Notes spécialement adaptée au réseau des réseaux. Une mutation "réseau-centrique" d'entreprise d'IBM qui table sur l'informatique, conforme à la culture recentralisée partiellement.

•   Les acteurs des télécommunications sont à la fois inquiétés et attirés par l'essor d'Internet.

•  Inquiétés : la téléphonie sur Internet est possible (les logiciels correspondants se multiplient),

•  Attirés, dans la mesure où il leur est possible de tirer parti de la dynamique d'Internet.

Pour les opérateurs de réseaux, en effet, de nouveaux modes de tarification du trafic, potentiellement plus rémunérateurs, finiront sans doute par s'imposer. Internet pourrait, d'autre part, provoquer une intensification de l'utilisation des RNIS (réseaux numériques à intégration de services), comme Numeris en France. Il suffit que l'évolution récente des prix, qui va dans le bon sens, se confirme pour que le nombre d'abonnés à Numeris augmentant, l'attractivité s'accélère (loi dite de Metcalfe).

Les opérateurs s'engagent aussi directement dans la vente d'accès ou les services en ligne, comme France Télécom, à l'instar de son partenaire Sprint, l'a fait.

Les fabricants, de leur côté, proposent des terminaux téléphoniques mobiles dotés de possibilités d'utiliser Internet (avec écrans, modems et même lecteurs de cartes à puce intégrés). Certains commencent déjà à le faire (Philips, Nokia, Motorola...). Ces nouvelles fonctions prolongeront la croissance exceptionnelle du marché correspondant et retarderont son arrivée à maturité et sa saturation.

Selon certaines estimations, dont fait état le magazine Business Week dans son numéro du 24 juin 1996, 22 % des équipements d'accès à Internet en l'an 2000 ne seront pas des ordinateurs personnels.

La convergence permise par le numérique, de l'informatique, des télécommunications et de l'audiovisuel permet d'envisager toutes sortes de produits hybrides donnant accès à Internet.

•   L'électronique grand public peut, à l'évidence, profiter des techniques nouvelles et de l'engouement pour Internet, pour créer de nouveaux produits et augmenter ses ventes.

La cible, se sont la majorité des foyers dans le monde, même aux États-Unis, qui ne sont pas encore pourvus d'ordinateurs personnels. Soit ces personnes finiront par se rallier à l'informatique, devenue plus conviviale, et le P.C. multimédia détrônera le téléviseur, soit les caractéristiques des deux types d'appareils coexisteront, au sein d'un même appareil, le P.C.-T.V., dont le marché est estimé, par Frost & Sullivan, à 26 milliards de dollars en 2001.

Mais de récentes études de marché révèlent la préférence actuelle d'une majorité de consommateurs pour un accès à Internet par l'intermédiaire d'un téléviseur et d'une télécommande. C'est la raison pour laquelle apparaissent déjà sur le marché des "Web T.V.", produites par Sony et Philips, qui offrent un accès très convivial à Internet. Zenith, Philips et Mitsubishi ont également conçu des "Internet T.V." aux possibilités plus restreintes.

Le débat qui, il y a un an, opposait l'avenir de la télévision à celui de l'ordinateur est stérile Les offres techniques permise par le numérique évoluent si vite que les débats ou pronostics sont vite dépassés.

Il n'y aura pas plus de terminal unique que d'applications déterminantes (la fameuse "killer application"). Les besoins et les aspirations des individus et des groupes sont variés (travail, loisirs, distractions...) et s'expriment dans différentes situations (au bureau, à la maison dans diverses chambres, en déplacement...). La technologie permet de les satisfaire dans leur diversité, à travers les réseaux ou hors ligne.

Netscape Communication a d'ailleurs créé avec d'autres grands de l'informatique et de l'électronique (IBM, Oracle, NEC, Sony, Sega, Nintendo), une société nouvelle chargée de développer un logiciel pour toute une série de terminaux d'accès à Internet autres que le P.C. : télévisions, consoles de jeux, ordinateurs de réseau... Microsoft serait en train de mettre au point un produit similaire.

Déjà apparaissent sur le marché certains appareils hybrides, autres que le P.C.-T.V., pourvus d'un accès à Internet : consoles de jeux, téléphones (déjà évoqués), Diba Internet[33], Pippin d'Apple (avec lecteur de CD-ROM), etc...

•   Dans le secteur de l'audiovisuel aussi, Internet apparaît comme incontournable. Il peut intégrer les structures des réseaux actuels et représenter un nouveau moyen d'échanger ou de diffuser des contenus.

Les cablo-opérateurs, souvent lourdement endettés et peu bénéficiaires, voient dans Internet un moyen de rentabiliser leurs infrastructures. Ils peuvent offrir, en effet, aux usagers du réseau des réseaux des débits beaucoup plus élevés que ceux autorisés par le réseau téléphonique (10 Mbits au lieu de 28,8 kbits ou 128 kbits sur le RNIS, grâce à de nouveaux modems).

Mais si, comme on l'a vu, le contenu d'Internet peut aller à la télévision (cf. WEB T.V. et Internet T.V.), l'inverse n'est pas encore possible. Il est certes permis de téléphoner ou d'écouter des émissions de radio sur Internet, grâce à des logiciels spécifiques, ou encore de regarder des images animées spécialement conçues pour ce réseau. Mais, on l'a vu, Internet n'est pas actuellement adapté à la transmission en temps réel de hauts débits tels que ceux qu'exige la télévision. De toute façon, il n'est pas conforme à la vocation essentiellement interactive du réseau des réseaux de servir de vecteur à un média diffusé (même à la demande).

Dans ces conditions, c'est surtout la visioconférence qui doit faire l'objet d'efforts particuliers. Deux protocoles, non incompatibles, sont proposés à cette fin, le RTP (Real Time Protocol) de l'IETF (Internet Engineering Task Force), adopté par Netscape et IBM, et le RSVP, soutenu par Sun et les fabricants de "routeurs" Cisco et Bay, qui repose, dans une perspective de commercialisation du réseau, sur la réservation préalable de la largeur de bande nécessaire à un échange d'images animées.

Le logiciel de compression inventé par Boulanger à Sophia Antipolis dans une start-up rachetée par la SAT, filiale de la SAGEM, en liaison avec Apple computer, permet des visioconférences sur Numéris très flexibles et sans réservation préalable.

De leur côté, Microsoft et US West ont témoigné de leur intérêt pour cette question en participant au capital de VDO NET, firme californienne spécialisée dans les logiciels de compression d'images transmises sur des lignes téléphoniques.

Internet exerce ainsi une attraction très forte sur tous les acteurs concernés. Ce phénomène s'accentuera avec sa commercialisation et la migration de réseaux propriétaires vers le réseau des réseaux.

5. Vers une commercialisation

Par "commercialisation" de l'Internet, il faut entendre son entrée plus complète dans la sphère de l'économie marchande (subsistera une partie "service public" du réseau, peut-être le projet Internet 2 évoqué plus haut et les réseaux de type Renater en France et leurs équivalents européens). Cette évolution présente au moins deux aspects :

•  le développement du commerce électronique,

•  un mode de tarification différents de l'utilisation des infrastructures.

Ces deux mouvements paraissent inéluctables et pourraient s'accélérer sous la double pression de l'ouverture à la concurrence des réseaux de télécommunication et de l'impatience de tous ceux qui voient dans le fantastique essor d'Internet des possibilités de gains considérables.

•   Selon l'AFTEL[34], le commerce électronique désigne, dans son acceptation la plus courante, le fait d'acheter et de vendre des informations, des produits et des services sur un réseau. Mais il faut y ajouter l'utilisation des réseaux par les entreprises dans le cadre de l'ensemble de leurs activités (fonctions administratives et financières, conception et production de biens et services, échanges avec leurs homologues...). "Réseau ouvert, mondial et peu coûteux, l'Internet est en mesure -selon l'AFTEL- d'accélérer de manière formidable le développement du commerce électronique." Il reste cependant à "sécuriser" ces activités d'un point de vue juridique et technique, par des moyens déjà présentés par ce rapport.

INTERNET ET COMMERCE ÉLECTRONIQUE

Un cadre de référence

Mais Internet est d'ores et déjà un support du commerce électronique qui exerce un effet d'attraction sur les réseaux propriétaires déjà existants. Le succès du réseau des réseaux réside, on l'a vu, dans le caractère universel de ses normes. En tant qu'infrastructure de communication, il est susceptible de répondre de manière économique et performante aux besoins de la plupart des applications ouvertes de commerce.

Ses lacunes principales résident dans l'absence :

•  d'annuaire exhaustif de ses ressources et de ses usagers,

•  de protocole de sécurisation et d'authentification, et de système de paiement standardisé.

Concernant la sécurité, il est cependant possible, comme il a été montré, d'utiliser le cryptage PGP (Pretty Good Privacy). Mais, selon une enquête réalisée par le magazine Technologies internationales de l'ADIT[35], près de 50 % des achats des entreprises à travers Internet en 1996 sont effectués sans recourir à des systèmes spécifiques de sécurisation.

Le nombre d'entreprises ayant commencé à utiliser le réseau en 1995 a augmenté de 400 % par rapport à 1994 (à cette date, seulement moins de 25 % d'entre elles étaient cependant concernées).

S'agissant des particuliers, 15 % des consommateurs américains ont déjà effectué des achats "en ligne" selon le cabinet IDC, et les utilisateurs de services commerciaux sur réseau devraient passer de 10 millions en 1995 à plus de 100 millions en 1997.

Selon l'enquête précitée de l'ADIT, le secteur de la consommation grand public est désormais arrivé en masse sur Internet alors qu'il y a deux ans à peine l'informatique prédominait encore (échanges de fichiers et de logiciels...). Les deux outils les plus utilisés commercialement sont le web par la quasi totalité des entreprises étudiées) et le courrier électronique ou "E-mail" (dans les trois quarts des cas).

Près de la moitié des entreprises étudiées emploient déjà le réseau Internet pour vendre leurs produits et services, notamment aux États-Unis. Peu d'entreprises gagnent pourtant directement, actuellement, de l'argent sur le réseau, l'activité la plus rentable semblant être la vente d'espaces publicitaires et surtout les effets induits par une information disponible au plan mondial. Ainsi, les hôteliers de la Côte d'Azur bénéficieront-ils très directement des serveurs Web existant. Par ailleurs, signalons que le serveur de la chambre de commerce et d'industrie de Nice-Côte d'Azur a été classé n° 1 des services mondiaux en matière d'informations disponibles orientées clients pour des localisations d'entreprises par un évaluateur américain.

Internet constitue une vitrine et un moyen de promotion sans équivalent. Les activités de commerce électronique deviendront lucratives, si on en croit les estimations suivantes publiées par Business Week (numéro du 23 septembre 1996) :


1996 2000
•  Montant des ventes

•  Abonnements

•  Recettes publicitaires

518 millions de $

120 millions de $

312 millions de $

6,6 milliards de $

966 millions de $

5 milliards de $


En outre, la notoriété des entreprises ou localités présentes font que, pour le secteur du tourisme qui, rappelons-le, est la principale des industries exportatrices françaises, la présence culturelle et informative touristique sur les réseaux est indispensable sous peine de ne plus exister. Le Comité régional du tourisme de la Côte d'Azur et certaines villes l'ont bien compris.

Devant la concurrence que le Net leur fait déjà subir, les principaux réseaux propriétaires ont décidé de le rallier. Ils demeurent cependant indépendants mais ont été contraints d'intégrer un accès à Internet dans leur offre de prestations. Ils adaptent en conséquence leurs outils logiciels pour les rendre compatibles avec le web et le langage HTML.

Avant de réaliser cette mutation, les principaux intéressés ont traversé une période difficile (pertes ou résultats en baisse, licenciements, fuite de la clientèle, diminution des recettes publicitaires...). Des alliances ont été conclues :

•  Compuserve (filiale d'IBM) a créé avec Time Warner un service exclusif d'informations sur mesure (Personal Edition),

•  America On Line (AOL) bénéficiera des logiciels clients et serveurs de Microsoft pour accéder au web.

France Télécom, de son côté, a créé des passerelles entre le web et le monde Minitel (accès, il est vrai malaisé, à Internet à partir du Minitel, mais surtout "cartes d'émulation" permettant à un micro-ordinateur de bénéficier des services Télétel et proposition d'une norme VEMMI compatible à la fois avec le vidéotex, TCP/IP et le web).

Les conséquences, pour certains secteurs, sont capitales.

 Pour la presse, par exemple, dont les recettes sont assurées par la publicité (à proportion souvent de près de 50 %), les ventes au numéro et les abonnements, les coûts pourraient être réduits des deux tiers puisqu'il n'y aurait plus d'impression ni de reprographie. Le client ne paierait plus que les frais de communication et l'éditeur pourrait, au total, y gagner, la publicité suffisant désormais à couvrir ses dépenses.

 Les activités bancaires et financières représentent déjà près de 10 % de l'utilisation d'Internet par les entreprises d'après l'étude précitée de l'ADIT.

Pour les professionnels, les technologies de l'information représentent un outil indispensable qu'ils utilisent depuis longtemps (environ 100 milliards de dollars de dépenses annuelles selon The Economist).

Des agences comme Reuters se sont spécialisées dans la transmission de données financières. Beaucoup de transactions, notamment les achats et ventes de devises, s'effectuent "en ligne". Les banques d'affaires multinationales se font communiquer directement toutes sortes de statistiques (cotations des valeurs, cours de change...) et les analysent à l'aide, comme on l'a vu, de logiciels de plus en plus sophistiqués, pour en tirer des conclusions et préparer leurs décisions.

Selon la lettre Stratégie Internet (numéro du 3 septembre 1996) "les banques américaines investissent en masse sur l'Internet, autant pour prendre place sur un marché émergent que dans le but de défendre leurs positions, menacées par les transactions directes entre consommateurs et commerçants". 500 banques sont déjà présentes aux États-Unis sur le Net (contre 14 seulement en France). La première d'entre elles à avoir concentré entièrement ses activités sur ce réseau est la Security First Network Bank. Baybank, de son côté, a réussi en deux mois à attirer 10 % de sa clientèle (100.000 comptes) sur son site.

Une concurrence pourrait s'instaurer entre les cyberbanques et les intermédiaires financiers traditionnels (courtiers, conseils en investissements...), menacés par Internet, dès lors que leurs clients peuvent y avoir accès directement à toutes sortes de données et donc prendre leurs décisions et donner eux-mêmes leurs ordres.

Un autre effet d'Internet, signalé par Business Week (du 29 avril 1996), pourrait être d'influer sur les cours des principales bourses mondiales, voire d'y provoquer des paniques incontrôlées par la propagation de certaines nouvelles.

Au total, le chiffre en ligne mondial des services télématiques commerciaux était estimé par l'AFTEL à 73 milliards de francs en 1994, dont 40 pour les services en ligne mondiaux professionnels (bases de données financières, juridiques...).

Il est vraisemblable que le commerce électronique interentreprises se développera plus rapidement que celui concernant les particuliers.

6. Le vrai marché porteur : les contenus

Au total, le chiffre d'affaires des contenus (services en ligne, informations, commerce électronique) pourrait atteindre 10 milliards de dollars en 2000, dépassant de loin celui, actuellement le plus important, des équipements (2,5 milliards) et celui des services de réseau (5 milliards).

L'évolution serait ainsi la suivante :


Marchés en l'an 2000

en milliards de $

en 1995

en millions de $

•  Contenus

•  Services de réseaux

•  Logiciels

•  Équipements

10

5

4

2,5

50

300

250

500


7. La nécessaire évolution d'Internet

La caractéristique marquante de l'entrée d'Internet dans l'économie marchande devrait être une modification de la tarification de l'utilisation des infrastructures, et peut-être une séparation entre l'utilisation d'intérêt public (recherche, enseignement, culture, santé, etc.) et l'utilisation marchande encore que cette séparation soit très délicate.

La plupart des observateurs avertis de ces questions estiment que la situation actuelle ne durera pas. La tarification des communications sur Internet est indépendante tout à la fois de la distance et de la durée (du moins aux États-Unis où les communications sont gratuites ; en France, le prix est, depuis peu, celui d'une communication locale...).

Il n'est également pas tenu compte du débit, dans de nombreux cas, lorsque celui-ci ne dépasse pas celui d'une communication téléphonique normale (64 kbit/s). Généralement, cet élément n'intervient qu'au delà d'un certain seuil, mais il existe des systèmes forfaitaires. L'abonnement représente donc souvent l'essentiel de la dépense pour un particulier.

Internet est un système de communications bon marché dont la facturation ne reflète pas le coût réel, ce qui explique en grande partie son succès. La croissance exponentielle d'Internet est due à la simplicité de son mode de tarification autant qu'à l'efficacité de la transmission de données par paquets. Le coût de facturation est pour un opérateur télécom souvent plus cher que le coût de la transmission.

Pour un routeur d'une certaine capacité, le coût marginal de la connexion d'un client supplémentaire est quasiment nul. L'acheminement des communications Internet à travers le monde repose sur un système de troc entre grandes compagnies ou de location de liaisons spécialisées par de petits fournisseurs d'accès. Ces derniers sont souvent pénalisés par les coûts de ces liaisons.

Malgré les améliorations attendues de l'ATM et de la nouvelle version du protocole Internet (Ipv6), la situation ne saurait durer pour des raisons qui tiennent :

•  à la nécessité pour les systèmes universitaires et de recherche, inventeurs et utilisateurs prioritaires et anciens d'Internet, de se déconnecter du secteur économique qui provoque une saturation qui dégrade un système de communication indispensable à la vitalité du dynamisme technologique et scientifique mondial ;

•  à la croissance exponentielle du trafic ;

•  à la nécessité de financer et d'amortir des dépenses d'augmentation des capacités des réseaux, dans un contexte, pour les opérateurs, qui est celui d'une ouverture à la concurrence pouvant déclencher une guerre des prix.

Mais quel système adopter ?

•  une tarification au bit (comme les kilowatts/heure d'EDF) pénaliserait la transmission d'images qui apparaît comme la plus noble conquête du multimédia ;

•  une tarification à la durée risquerait de freiner l'essor des services en ligne.

On peut imaginer un système de tarifs forfaitaires hiérarchisés en fonction du degré d'urgence des communications, donc avec des priorités d'accès. En tout état de cause, le paiement de droits d'utilisation davantage basés sur les coûts réels apparaît comme un moyen privilégié de maîtriser, de rationaliser et de discipliner le trafic.

Les usages du réseau à caractère de service public (éducation...) devront rester très bon marché. S'agissant des besoins de hauts débits de la recherche, il faudra développer les voies rapides particulières (réseaux de type RENATER, Super Janet ou VBNS) superposées et raccordées à Internet, ou éventuellement un Internet 2, qui serait la suite logique des utilisateurs qui, depuis vingt ans, grâce notamment à l'Internet Society. L'Internet Society est une association privée fonctionnant grâce à ses membres. Elle se réunit chaque année (Montréal juin 1996, Kuala Lumpur juin 1997). Elle forme des cartes des pays en voie de développement. Elle étudie les problèmes indépendamment de tout pouvoir public.

A noter, les réflexions du Consortium Internet piloté en Amérique par une équipe du Massachusetts Institut of Technology, en Europe, Afrique, Asie (sauf Japon), par une équipe de l'INRIA à Sophia Antipolis, au Japon par une équipe qui vient de se créer.

N'oublions pas que le phénomène Internet, même s'il est envahi par des applications marchandes, présente un avantage fantastique pour l'humanité par ses applications non marchandes. Nous avons vu, en particulier pour l'Europe, que des secteurs tels que la santé, l'éducation, la cohésion sociale, la sécurité, l'organisation des pouvoirs publics, étaient sans aucun doute possible, fondamentalement touchés par les inforoutes. La recherche n'est, en la matière, que la partie la plus visible de l'iceberg Internet-intérêt-général, même si elle est la plus dynamique.

C. Le phénomène Intranet

1. D'immenses avantages

Intranet est un réseau d'entreprises à usage interne bâti sur des technologies souples et peu onéreuses qui ont fait le succès de l'Internet. Ce réseau peut comporter des passerelles vers Internet et se prêter à des extensions en direction d'autres entreprises ou de clients : on parle alors d'Extranet.

Les principales applications visées tendent :

•  à améliorer la communication au sein de l'entreprise (messagerie électronique avec listes de diffusion, forums de discussion...) ;

•  à faciliter l'accès à l'information (consultation de services web avec un seul et même navigateur) ;

•  ou encore à promouvoir le travail en groupe (collecticiels).

Les avantages sont nombreux et tiennent à :

•  l'utilisation de logiciels standard (windows, IBM...) et du protocole Internet qui permet de faire communiquer entre elles des machines différentes (P.C., Mac, etc...)

•  la possibilité donnée, dans ces conditions, aux entreprises de s'affranchir des solutions propriétaires, subordonnant certains types de logiciels à certains types de matériels ou des modèles d'ordinateurs personnels à des modèles de serveurs ;

•  l'amélioration, par rapport aux communications sur Internet, de la sécurité, la protection vis à vis d'incursions de l'extérieur étant assurée par des logiciels pare-feu (firewalls), sortes de barricades informatiques.

2. Un nouveau marché potentiel

Pour les sociétés de service informatique mises à contribution pour l'installation de ces réseaux, pour les fabricants de serveurs, selon le cabinet d'études IDC, les débouchés d'Intranet seraient potentiellement cinq fois supérieurs à ceux d'Internet (à condition, bien sûr, d'exclure des réflexions la plus importante contribution d'Internet, celle des services d'intérêt général). Un chiffre d'affaires de 13 milliards de dollars au total serait ainsi atteint en 1999 (d'après le Financial Times) au lieu de 2 milliards aujourd'hui.

Les signes de décollage du marché sont multiples :

•  16 % des cinquante plus grandes entreprises américaines sont dotées d'un Intranet et 50 % envisagent d'en installer un ;

•  les ventes de logiciels serveurs correspondantes devraient passer de 476 millions de dollars en 1995 à 4 milliards en 1997, puis à 8 milliards en 1998 ;

•  les achats de serveurs web destinés aux Intranet devraient dépasser en 1996 ceux afférents aux services grand public.

Il n'est pas étonnant, dans ces conditions, qu'Intranet fasse l'objet d'efforts particuliers de la part des développeurs de logiciels comme :

•  le groupement Microsoft- Digital Equipment (adjonction gratuite de fonctions adaptées dans le logiciel serveur windows-NT°)

•  le groupement Netscape- Hewlett Packard (applications Netscape Communicator : courrier électronique, groupe de discussion, système de conférence...),

d'autres ténors (Sun, IBM, Novell) et une pléiade de start-ups.

Parmi les entreprises pionnières d'Internet aux États-Unis, citons, outre tous les grands du secteur informatique, Lockheed, Federal Express, Boeing.

En France, Intranet devrait représenter le quart environ du marché des serveurs en l'an 2000 (contre 3 % aujourd'hui). CCF, Essilor, Bull envisagent, entre autres, d'installer ce type de réseau. L'IRCAM[36] a créé, sur ce modèle, une médiathèque, près du Centre Georges Pompidou, donnant un accès en ligne à des documents textuels, sonores et visuels. Un réseau Intranet devrait, enfin, relier les principaux ministères. (On notera que ceci est le cas dans divers pays du Sud-Est asiatique et est programmé en Tunisie.)

D'un point de vue strictement économique, le développement fulgurant du marché de l'Intranet est essentiel. En phase de décollage, Intranet représentera d'abord un marché d'équipements et de logiciels. Internet, plus proche de la maturité commerciale, s'orientera davantage vers la fourniture de contenus.

L'accélération très sensible de l'instauration de la société de l'information, dont témoigne le phénomène Internet et sa dérivée Intranet, peut également être constatée en ce qui concerne les progrès de certaines recherches.

D. Des percées décisives

De rapides progrès, déjà accomplis ou en cours, au niveau des équipements terminaux, accélèrent l'évolution des réseaux vers le multimédia. Quatre séries d'exemples en seront données qui concernent respectivement :

•  les modems RNIS et câble,

•  les processeurs,

•  les écrans,

•  la reconnaissance de la voix et de l'écriture.

1. Les modems

La rapidité avec laquelle ont été mis sur le marché des nouveaux modems à haut débit permettant d'accéder à Internet est un nouvel exemple des vitesses de réaction de l'industrie liée au numérique :

•  par le RNIS (modem Bitsufr de Motorola avec téléphonie et données simultanées ayant une capacité totale de 128 Kbit/s, quatre fois plus élevé que les modems précédents les plus performants ;

•  par les réseaux câblés (débits allant jusqu'à une dizaine de Megabit/s).

Time Warner, TCI et Comcast ont déjà commandé 500.000 de ces modems câbles, il y a un an, à Motorola et Hewlett-Packard. Zenith a sorti en même temps ses propres produits qui sont distribués en France par la SAT. Intel, considérant comme stratégique tout ce qui concourt à accroître la bande passante (car cela nécessite des processeurs plus puissants), compte travailler avec Hewlett-Packard dans ce domaine.

2. Les processeurs

Le développement du multimédia et sa diffusion dans le grand public dépendent, dans une large mesure, d'avancées dans le domaine des microprocesseurs. Actuellement, ces composants sont conçus selon deux types d'architecture :

•  l'une dite CISC (Complex Instruction Set Computer), complexe mais offrant une grande souplesse de programmation ;

•  l'autre appelée RISC (Reduced Instruction Set Computer) qui part du principe qu'un nombre d'instructions réduit suffit aux tâches les plus fréquentes, celles plus complexes pouvant être exécutées par logiciel.

A priori, l'architecture RISC permet une meilleure rapidité de traitement pour une consommation d'électricité réduite. C'est la raison pour laquelle elle a inspiré les premières puces pour terminaux Internet arrivées sur le marché (LSI Logic, Sun et Digital Semiconductor). Sun a, par ailleurs, proposé récemment des Java Processeurs destinés à accélérer l'exécution des applications programmées dans ce langage.

Mais les applications multimédia ne peuvent se contenter de microprocesseurs classiques, fussent-ils de plus en plus puissants, elles nécessitent des capacités de traitement très étendues et spécifiques (image, son, synchronisation des sources...).

De nouvelles puces, dites média processeurs ont donc été conçues[37], leur architecture ressemble souvent à celle des processeurs numériques de signaux (DSP) qui exercent des fonctions semblables (traitement de signaux audio et vidéo). Elles sont appelées, dans un premier temps, à jouer le rôle de coprocesseurs dans les ordinateurs personnels. Mais d'autres terminaux peuvent être aussi visés (téléphone, visiophone, fax/modems, etc...).

Selon Business Week du 13 mai 1996, c'est vraiment une ère nouvelle qui est ainsi ouverte :

•  des fonctions logicielles de plus en plus sophistiquées seront intégrées dans des puces de plus en plus intelligentes ;

•  celles-ci migreront du P.C. vers des terminaux fixes ou mobiles de plus en plus variés (décodeurs de télévision câblée, ordinateurs de réseaux...) ;

•  le marché potentiel est énorme[38] et la compétition très ouverte. Le quasi monopole d'Intel (dont les processeurs équipent 80 % des ordinateurs), n'est plus assuré. Ce dernier, se sentant menacé, a d'ailleurs lancé un programme de développement sur plusieurs années baptisé NSP (Native Signal Processing) pour la conception de nouveaux processeurs destinés au multimédia et à la communication, mais demeurant, semble-t-il, dans l'univers P.C. d'IBM.

3. Les écrans

L'écran a toujours constitué un obstacle à la progression de l'ensemble des techniques numériques audiovisuelles. Au fur et à mesure que la définition de l'image s'enrichit, la profondeur du tube cathodique s'accroît qu'il s'agisse d'un écran de télévision ou d'ordinateurs, pour atteindre des dimensions rédhibitoires dans le cas d'un récepteur de TVHD.

Pour la mise au point tant attendue d'écrans plats, des progrès considérables ont déjà été accomplis en matière d'écrans à cristaux liquides. Ceux-ci équipent désormais les ordinateurs portables, les assistants numériques personnels ou les petits téléviseurs que l'on trouve dans les avions long courrier.

Ce marché représente actuellement 6 milliards de dollars. Il est entièrement dominé par les Japonais (notamment Sharp, NEC et Toshiba...). La technique employée ne convient cependant qu'à des écrans de taille réduite (moins de 30 cm de diagonale).

Des dimensions plus importantes pourraient être cependant atteintes par d'autres procédés à la mise au point desquels des firmes nippones consacrent des sommes très importantes : il s'agit des écrans à plasma dont la technique semble en voie d'être maîtrisée. Les coûts sont encore prohibitifs (8000 $ pour un poste d'un mètre de diagonale).

NEC a investi 230 millions de dollars dans la construction d'une usine de production d'écrans de ce type à Kagoshima (150.000 unités par mois devraient être fabriquées en l'an 2000).

Hitachi suit avec retard. Quant à Sony, il a parié sur une technologie mixte (à plasma et cristaux liquides) développée conjointement avec l'Américain Tektronix.

Une autre technique, rivale de celle à cristaux liquides, est explorée par la société française Pix-Tech. Il s'agit d'une variété d'écran à émission de champ[39] mise au point par le LETI (laboratoire du CEA). La cadence de production ne dépasse pas encore quelques dizaines d'unités par mois, et la dimension des écrans 20 cm de diagonale. L'idée est séduisante et le procédé intéresse des partenaires étrangers de gros calibre (comme Motorola et Texas Instrument...). Les structures financières de capital risque et de capital développement en France, et même en Europe, ne sont malheureusement ni assez dynamiques, ni assez puissantes pour que ce procédé puisse bénéficier du financement initial lui permettant de conquérir les marchés mondiaux. Les gouvernements devraient mieux prendre en compte ce point essentiel de leur métier : prévoir !

4. La reconnaissance de la voix et de l'écriture (selon Le Monde du 8 novembre 1995)

a) La voix

Microsoft se donne cinq ans pour mettre au point un logiciel capable de répondre aux ordres vocaux sans l'intermédiaire du clavier, ni de la souris. Le vocabulaire employé sera au début réduit, la reconnaissance de la parole n'étant utilisée que lorsqu'il est impossible de s'en passer (cas des chirurgiens qui dictent, dans leur langage technique, parce qu'ils ont les mains occupées lorsqu'ils sont en train d'opérer).

La reconnaissance du langage naturel et la dictée correspondante restent un objectif à moyen terme.

b) L'écriture

Les informaticiens s'attachent également à résoudre les problèmes de l'identification de l'écriture manuscrite qui suppose, non seulement de reconnaître les mots présents dans les textes, mais d'en comprendre le sens, compte tenu du contexte qui permet de lever les ambiguïtés.

c) Le dessin

En revanche, selon Nathan Myrhrvold, responsable de la recherche chez Microsoft, "la puissance des microprocesseurs progresse si vite que le dessin en trois dimensions va se trouver rapidement à la portée des ordinateurs personnels. D'ici cinq ans, précise-t-il, les ordinateurs familiaux seront capables de dessiner des dinosaures tels que ceux qui ont été créés à grands frais pour Jurassic Park".

• • •

Ce qui est le plus fascinant dans l'évolution accélérée des nouvelles techniques d'information et de communication, c'est leur aptitude à concilier les contraires :

•  unité, permise par la syntaxe commune du numérique et diversité des techniques et de leurs applications (Internet, fédérateur de réseaux et transporteur des contenus les plus variés en est une illustration éclatante...) ;

•  convivialité (encore perfectible mais en grand progrès) et complexité, pour y parvenir.

Une véritable course de vitesse est engagée entre les progrès des capacités des composants et ceux de l'intelligence nécessaire pour en tirer parti. Parfois, ce sont les composants qui sont en avance sur les logiciels (cas des nouvelles consoles de jeux vidéo à 64 bits) parfois, c'est l'inverse et les fonctions logicielles dont directement gravées dans le silicium.

Beaucoup de conquêtes récentes (langage hypertexte, technologie orientée et même langage Java) correspondent à des concepts anciens qui deviennent brusquement réalité. La recherche ressemble ainsi parfois à une eau souterraine qui jaillit de façon imprévisible.

Grâce à ces acquis, les nouveaux médias sont devenus à la fois des mass media universels et des médias intelligents et personnalisés (car interactifs). Leur faim insatiable de contenus pourra ainsi être conciliée avec l'offre à l'usager de moyens de maîtriser le flot d'informations qui aurait pu le submerger. L'extraordinaire outil de communication entre les hommes est une ouverture vers le développement de groupes humains conviviaux pour lesquels la distance géographique ou la diversité sociale ou culturelle est abolie. Ceci est vrai depuis plus de vingt ans pour les scientifiques, familiers d'Internet, qui conversent chaque jour avec des partenaires ayant les mêmes pôles d'intérêt. C'est désormais possible pour tous.

La rapidité des changements en cours ouvre la possibilité de bouleversement de l'ordre établi. L'informatique du futur sera-t-elle "recentralisée", "réseau-centrique" ou davantage partagée entre des micro-ordinateurs, de plus en plus puissants, capables d'être à la fois clients et serveurs ? Sans doute les deux avec un progrès vers la convivialité. Tout reste ouvert : certains terminaux (ordinateur de réseau, P.C. multimédia, P.C.-T.V. ...) et des puces de plus en plus intelligentes susceptibles d'être implantées dans toutes sortes d'appareils.

Les enjeux de ces évolutions sont considérables et les gains potentiels énormes. Rien n'est jamais acquis, mais rien n'est jamais définitivement perdu non plus.

Pour profiter des nouvelles donnes possibles, il faut faire preuve de détermination, d'audace, de mobilité et de clairvoyance stratégique.

• • •

CHAPITRE III

POURQUOI LE RETARD EUROPEEN ?
QUELLES CARENCES ?

Les bouleversements en train de se produire dans le domaine des technologies de l'information remettent en cause l'ordre établi. Des possibilités de rattrapage s'offrent à la France et à l'Europe qui leur permettraient de profiter des mutations en cours. Malheureusement, certains carences, notamment psychologiques, nous retardent. Il importe d'y remédier.

I. UN RETARD PRÉOCCUPANT

A. Dans l'organisation de l'europe

Déréglementation

Le retard qu'accusent l'Europe et la France par rapport aux États-Unis ne trouve que pour partie son origine dans une ouverture plus tardive à la concurrence du secteur des télécommunications, mais surtout par suite de la frilosité informatique de l'Europe.

L'Europe a normalisé sa situation. La concurrence sur le service téléphonique ouvert au public et l'établissement des infrastructures sous-jacentes doit y être complète le 1er janvier 1998.

On notera que, contrairement à ce que beaucoup croient, la concurrence sur le marché local n'existe pas encore aux États-Unis car les règles d'interopérabilité et nombre de problèmes liés à la régulation ne sont pas encore fixées. La bataille fait même rage entre les autorités de régulation fédérales (FCC) et les autorités liées aux États.

B. L'homogénéisation du marché européen

Le marché des technologies de l'information présente aux États-Unis l'avantage d'être immense, homogène et dynamique. Beaucoup reste encore à faire pour en arriver là en Europe, notamment en matière d'infrastructures (réseaux transeuropéens numériques...).

L'inconvénient que représente, du point de vue de l'émergence d'un marché européen des contenus et des services en ligne, le morcellement culturel et linguistique de notre continent est, en fait, renforcé par des contraintes liées à la normalisation (malgré l'existence de l'ETSI, European Telecommunication Standardization Institute) et les préférences nationales affichées, notamment par les opérateurs dominants. La proposition du Sénat, en 1987, déjà évoquée, de créer l'équivalent européen d'une FCC, n'a été suivie d'aucun effet. Nous en payons les conséquences. Rien ne montre que l'on veuille aller dans cette voie.

C. Des acteurs souvent en difficulté

1. Le contexte général

Les délais nécessaires à la constitution d'un marché européen réellement unique et ouvert à la concurrence ont évidemment désavantagé les industries européennes par rapport à leurs rivales américaines ou japonaises.

Presque toujours la conquête de positions internationales favorables suppose de solides bases nationales ou régionales. S'agissant des acteurs des différents États membres de la Communauté, de telles "bases arrières" ne peuvent être qu'européennes, étant donnée l'étroitesse des marchés nationaux.

Dans un ouvrage intitulé Les 100 technologies clés pour l'industrie française, la Direction générale des stratégies industrielles estime que l'Europe souffre de plusieurs handicaps dans la compétition internationale, en matière de technologies de l'information:

•  un manque de cohésion des acteurs,

•  des coûts sociaux élevés (notamment par rapport aux pays asiatiques),

•  un développement international tardif et trop faible, alors que de nombreuses sociétés européennes sont sous contrôle étranger.

Enfin, les industriels européens ont toujours rencontré des problèmes pour transformer leurs avancées technologiques en produits industriels, puis en succès commerciaux. Il semble que s'y ajoutent des difficultés à produire, en gros volumes et avec de faibles marges, des biens de technologie évoluée. Or, cela devient un impératif, imposé par la concurrence, dans presque tous les domaines (électronique grand public, micro-ordinateurs...).

En résumé, le ministère de l'Industrie constate que "les technologies de l'information et de la communication apparaissent comme une zone de faiblesse majeure, tant de l'Europe que de la France, sur le plan industriel comme sur le plan scientifique (...) le décalage entre les positions scientifiques et industrielles étant particulièrement marqué".

On constate :

•  une interdépendance croissante entre industries situées en amont (biens d'équipements professionnels) et en aval de la filière (différents terminaux) et industries transversales (composants et logiciels) ;

•  une diffusion de masse de ces technologies devenues, à la fois génériques et applicatives, dans l'ensemble des secteurs de l'économie ;

•  enfin, une importance stratégique de plus en plus affirmée de la Recherche et Développement.

2. L'informatique en posture délicate

a) Une importance majeure

Comme ce rapport l'a déjà démontré, l'informatique joue, avec les composants qui y sont de plus en plus liés, un rôle majeur dans la transformation rapide des techniques de l'information. Les logiciels sont le facteur déterminant de la maîtrise de la complexité des matériels et des réseaux.

Les ordinateurs sont partout : dans les nœuds (routeurs) et à la commande des réseaux intelligents, au cœur de la fourniture des informations (serveurs), comme instruments de travail ou de communication des entreprises, enfin pour offrir aux particuliers des loisirs interactifs.

L'informatique directement présente dans tous les terminaux, les transforme, les décline en toute une gamme de produits portables ou fixes, personnels ou familiaux.

b) De rares points forts dans les logiciels

Dans le domaine du logiciel, l'Europe et la France possèdent un certain potentiel (voir plus loin). Cependant, la France n'est en position de force, selon le tableau suivant, que dans quatre secteurs : algorithmes de compression de données (image et/ou son), architecture massivement parallèle, ingénierie linguistique et reconnaissance de la parole :


Position scientifique Position industrielle
France Europe France Europe
Algorithmes de compression moyenne moyenne forte moyenne
Architectures massivement parallèles forte moyenne faible faible
Ingénierie linguistique forte forte moyenne faible
Reconnaissance de la parole forte moyenne faible faible

Source : Ministère de l'Industrie

Le décalage entre la position scientifique et la position industrielle de notre pays est toutefois préoccupant, dans la mesure où :

•  à une position scientifique forte ne correspond qu'une position industrielle moyenne (ingénierie linguistique) ou même, carrément faible (architectures massivement parallèles, reconnaissance de la parole) ;

•  notre avance dans la mise en œuvre industrielle d'algorithmes de compression pourrait être remise en cause par une position scientifique seulement moyenne.

Des faiblesses inquiétantes peuvent, en outre, être déplorées dans des technologies importantes, émergentes ou croissantes, telles que :

•  l'architecture client-serveur,

•  le middleware (connexion de machines et/ou d'applications différentes), sur le plan scientifique,

•  les images de synthèse,

•  les interfaces métaphoriques, essentielles en ce qu'elles sont destinées aux utilisateurs non spécialistes de l'informatique,

•  le génie logiciel (programmation), sur le plan scientifique,

•  la sécurité pour systèmes transactionnels,

•  les serveurs vidéo (où nous sommes inexistants),

•  ou les agents intelligents.

Dans d'autres secteurs d'avenir tels que la programmation orientée objet, la reconnaissance des formes (écriture) ou les navigateurs, notre situation n'est que moyenne.

On est effaré de constater que, loin de constituer une priorité, ce secteur clef et stratégique est, en matière de budget recherche, nettement moins bien traité que beaucoup d'autres, alors que les faibles montants de financement attribués, par exemple à l'INRIA, pourraient sans dommage majeur être doublés, quitte à prévoir des conversions d'équipes de fonctionnaires ailleurs.

De même, à la suite de la modification de structure de France Télécom, l'inquiétude concernant la recherche fondamentale en logiciels de base, jusqu'à présent réalisée par le CNET, constitue une question non résolue, car les moyens de recherche affectés aux écoles d'ingénieurs compétentes en la matière stagnent.

c) Les déboires de l'industrie des équipements

Bien évidemment, il est difficile de briller dans le logiciel lorsque la situation de l'industrie des équipements informatiques est ce qu'elle est en Europe. La dissociation en 1976 du consortium européen Unidata (CII, Siemens et Philips), pour constituer "une grande entreprise informatique française", a sonné le glas des espoirs d'unification européenne dans ce domaine. On en connaît les responsables.

La position trop protégé de CII n'a pas favorisé son dynamisme.

La nationalisation de facto de CII-Honeywell Bull par suite de celle de l'actionnaire majoritaire Saint-Gobain en 1982, a été suivie d'opérations presque toutes malvenues, mal préparées, ou ne tenant pas compte des nouvelles donnes du marché.

Certes, il est facile a posteriori de critiquer. Mais ainsi, au début de la création de Sun, les missions de l'École des Mines, de l'INRIA et de Bull se sont rencontrées dans la Silicon Valley. L'opinion des ingénieurs de Bull était que les stations de travail de Sun étaient un amusement de scientifiques sans aucun avenir, alors que les scientifiques de l'INRIA et de l'École des Mines présents leur en vantaient les mérites et suggéraient l'achat de Sun par Bull. On connaît aujourd'hui la suite et la valeur de Sun Microsystem. Le tournant vers la micro-informatique n'a pas été pris à temps. Or, c'est le marché le plus fort.


Progression des ventes mondiales d'ordinateurs personnels
1993 + 19 %
1994 + 23 %
1995 + 22,1 %

Selon Dataquest, le marché devrait continuer à s'accroître de 17 % en moyenne jusqu'en l'an 2000. Le groupe français, qui doit être prochainement privatisé, devrait en retirer quelques dividendes à travers sa participation de 20 % dans le capital de Packard Bell, auquel il a cédé ZDS.

En attendant, les déconfitures européennes dans la micro-informatique, devenue une industrie de gros volumes et de faibles marges, se multiplient :

•  la société allemande ESCOM a été placée en règlement judiciaire en juillet 1996,

•  Olivetti cherche et n'a, à ce jour, semble-t-il, pas encore trouvé un repreneur pour son activité d'ordinateurs personnels et pourrait se recentrer sur les télécommunications.

Les perspectives de croissance des ventes semblent pourtant particulièrement bonnes dans ce secteur, en Europe, le taux de pénétration des P.C. y étant encore relativement faible, par comparaison avec les États-Unis (moins de 15 % contre plus de 30 % dans les foyers).

d) Les problèmes des sociétés de services

Jadis considérées comme un des fleurons de l'informatique française, nos SSII (sociétés de service et d'ingénierie informatique) se trouvent, elles aussi, dans une situation difficile. La France, où il y a pléthore de telles sociétés, est le seul pays d'Europe ou ce secteur n'ait pas encore été restructuré. Résultat :

•  déjà cinq des douze premières sociétés de services informatiques sur le marché français sont américaines,

•  beaucoup de sociétés françaises sont à vendre ou à la recherche de nouveaux partenaires (les actionnaires fondateurs cherchant à se retirer faute de pouvoir répondre, notamment, aux augmentations de capital nécessaires).

L'internationalisation et l'industrialisation des prestations des SSII françaises sont insuffisantes. Basée sur l'infogérance, les services informatiques, l'ingénierie (intégration de systèmes, l'offre de progiciels (logiciels standard), l'activité de ces sociétés, à l'origine proches des grands constructeurs, a beaucoup évolué. La concurrence s'intensifie. L'ère de la croissance facile est terminée, la rentabilité est en baisse. Pour poursuivre leur développement, les SSII doivent :

•  trouver de nouveaux actionnaires, se restructurer et s'internationaliser,

•  à la fois industrialiser les offres et en concevoir de plus spécialisées,

•  adopter une vraie démarche commerciale.

Mais elles sont handicapées par une situation française médiocre, marquée par :

•  un sous-investissement global en informatique : en 1995, 1,67 % du PIB, contre 2,8 % aux États-Unis, 2,35 % en Grande Bretagne, 1,72 % en Allemagne ;

•  une croissance moyenne du secteur des logiciels (de l'ordre de 4 à 5 %) au lieu de + 15 % au Royaume Uni et + 10 % Outre Rhin ;

•  un développement de l'infogérance moins rapide qu'à l'étranger : + 12 à 13 %, contre + 40 % en Grande Bretagne et plus de 25 % en Allemagne.

Concernant l'intégration de systèmes, les SSII françaises, à l'exception de Cap Gémini et de quelques autres, n'ont pas suivi le rythme du développement des Intranet d'entreprises. (Elles pourraient pourtant y jouer aussi un rôle important dans les services correspondants : maintenance des serveurs web.)

3. Un recul dans les télécommunications

a) Les résultats décevants des industries d'équipements

Avec en particulier Alcatel et Siemens, les télécommunications demeurent l'un des principaux points forts de l'Europe dans le domaine des technologies de l'information. Mais Alcatel doit s'adapter aux mutations de ce secteur. Il faut :

•  traiter non plus seulement avec des opérateurs publics en situation de monopole, mais aussi avec des clients privés en compétition, y compris en ce qui concerne les infrastructures de réseaux ;

•  suivre les évolutions très rapides du multimédia ;

•  acquérir des compétences logicielles face à des concurrents venus de l'informatique (spécialistes de l'interconnexion de réseaux).

Numéro un mondial incontesté au début des années quatre-vingt-dix, Alcatel s'est fait dépasser par AT & T et Motorola, après avoir subi une stagnation de son chiffre d'affaires pendant deux ans, puis de lourdes pertes en 1995[40]. Il n'a pas su, semble-t-il, tirer parti de l'explosion de la téléphonie mobile comme certains de ses concurrents (se contentant d'une modeste part de marché de 10 %, deux fois moins élevée que sa performance globale tous secteurs confondus).

Il lui faut se positionner rapidement, non seulement sur le marché émergent des terminaisons des réseaux multimédia, mais aussi sur celui de la commutation ATM. C'est d'ailleurs son objectif. Il s'intéresse par ailleurs, on l'a vu, aux transmissions de données mondiales par satellite (projets Globalstar et Sativod).

Le numéro deux français des télécommunications, le groupe SAGEM, a affiché un résultat négatif pour le premier semestre de 1996 (- 4,8 %) après une progression, cependant, de 11 % en 1995. Sa stratégie est très axée sur les réseaux et sur certains terminaux. (C'est le n° 1 des constructeurs de télécopieurs en Europe.)

Matra communication, déficitaire en 1995 (en raison de mauvais résultats de sa filiale allemande), qui se classe au troisième rang français, est également impliqué dans les réseaux et communications d'entreprises.

Les sujets de préoccupation pour l'avenir paraissent être :

•  le dynamisme de la concurrence américaine et son rythme d'innovation technologique,

•  une certaine faiblesse :


· dans l'ingénierie logicielle des réseaux (accès et transmissions) dont le marché devrait être supérieur en 2000 à celui de la commutation,


· dans l'offre française actuelle d'équipements ATM (dont les ventes, en pleine expansion, devraient passer de 525 millions de dollars en 1995 à 4 milliards en 2000).

Siemens, pour sa part, a déjà conçu des autocommutateurs ATM et conclu, pour les utiliser, une alliance avec la société canadienne, Newbridge, spécialiste de l'interconnexion de réseaux locaux.

Il semble enfin que la France ait pris un certain retard sur l'Allemagne dans la conclusion d'alliances[41• • ] destinées à l'exploitation commerciale des réseaux de télécommunication dits "alternatifs" (ceux des compagnies de chemins de fer et d'autoroutes, d'EDF, etc...).

Siemens prévoit, néanmoins, une stagnation de son chiffre d'affaires en 1997 après des résultats satisfaisants en 1995/1996), son développement à l'étranger ne suffisant pas à compenser la faiblesse de l'activité intérieure, consécutive à la retombée de l'impulsion résultant de la réunification.

b) Des perspectives d'investissement en baisse chez les opérateurs

Comme cela a déjà été souligné, France Télécom privilégie son désendettement, dans la perspective de sa privatisation partielle (l'État devant rester majoritairement dans son capital) et de son entrée en bourse en 1997. Comme le groupe ne peut pas réduire ses effectifs, il joue sur les investissements qui ont reculé en 1995 (30,4 milliards de francs contre 32,4 milliards un an plus tôt). Il bénéficie cependant de la baisse du prix de certains équipements et d'un réseau déjà entièrement numérisé. Il pourra bientôt faire appel aux actionnaires privés et, enfin, augmenter les tarifs d'abonnement, trop faibles.

Tout aussi, voire plus préoccupant encore, apparaît le risque d'un désengagement de l'opérateur national en matière[42] de recherche de base. Certes, France Télécom, qui se situe aux sommets européens en la matière, est tout à fait conscient du caractère stratégique et prioritaire de la recherche. Il la voudrait cependant plus réactive et tournée vers le client, ainsi que centrée sur la conception des architectures de réseaux.

Qui prendra en charge la recherche plus en amont, notamment dans les domaines des mathématiques appliquées, l'informatique réseau des télécommunications large bande par satellite et mobiles, de l'optoélectronique, de la physique du solide pour composants ?

France Télécom sera concurrencé, sur le marché français, par la Compagnie générale des Eaux, alliée à Mannesmann, British Telecom et l'américain SBC (Cegetel) en attendant la constitution éventuelle d'un troisième pôle[43], souhaitée par le ministre des Télécommunications, François Fillon.

Ces divers pôles peuvent s'appuyer sur des infrastructures déjà existantes (outre celles des cablo-opérateurs, citons la SNCF, les sociétés d'autoroutes, EDF-GDF). Les concurrents américains ATT, mais aussi les Nynex, Bell Atlantic, Ameritech ne manqueront pas d'être présents en Europe.

British Telecom, auquel la fusion avec MCI ouvre les marchés américains et asiatiques, et qui continue à contrôler 85 % du marché britannique, a développé en Europe une stratégie d'alliances qui lui permet d'encercler littéralement l'axe franco-allemand constitué par France Télécom et Deutsche Telekom. Ces derniers ont surtout misé sur leur alliance avec Sprint, qui fait bonne figure aux États-Unis actuellement.

L'opérateur allemand, en situation de sureffectifs et devant gérer l'après-réunification, n'est pas en situation facile. Quant à France Télécom, il semble que si les textes récemment adoptés (relatifs à son statut et à la réglementation des télécommunications), lui imposent, au titre du service public et de l'aménagement du territoire, des obligations contraignantes, elles seront compensées par une participation de ses concurrents.

4. Les mécomptes de l'Électronique Grand Public

Comme la micro-informatique, l'électronique grand public est devenue un secteur difficile. Sauf à monter en gamme, gros volumes et faibles moyens doivent être conciliés (la concurrence asiatique excelle dans cet exercice...).

Pourtant, les industriels français auront su compenser, en 1995, un recul de 4 % du marché national par une progression de 16 % de leurs exportations et le résultat net d'exploitation de Thomson, redevenu positif depuis 1993, le sera resté (+ 350 millions de francs).

Évolution du marché français

de l'électronique grand public en 1995

1. Téléviseurs : montée en gamme

•  Son stéréo Nicam + 35 %

•  16/9 + 55 %

2. Nouveaux produits

•  micro-ordinateurs et consoles de jeux + 63 %

•  nouveaux terminaux de télécom + 35 %

3. Déclin des produits traditionnels (en valeur)

•  T.V. - 3 %

•  Magnétoscopes - 9 %

4. Percée de Sony

•  Ventes sur le marché européen 16 % de parts de marché (n° 1)

•  Progression en France + 25 %

L'année 1996, cependant, paraît sous de moins bons auspices pour l'Europe comme pour la France.

En juillet 1996, Nokia s'est désengagé de la production de téléviseurs, activité qu'il a cédée, en même temps que ses marques et ses réseaux de distribution, au groupe de Hongkong, Semi-Tech.

Philips, en difficultés (l'exercice 1996 risque de se solder par un déficit), poursuit la restructuration de sa branche audiovisuelle, marquée par de nombreux licenciements, des fermetures de sites, et une montée en gamme dans le domaine des téléviseurs (voir plus haut web et Internet T.V.).

Pour sa part, Thomson multimédia, numéro quatre mondial derrière Sony, Matsushita et Philips, a affiché une perte nette de 2,8 milliards de francs à l'issue du premier semestre 1996. Sa dette est de 14 milliards. La valeur de l'entreprise (voir plus loin) ne doit cependant pas être uniquement appréciée à l'aune de ces mauvais résultats. Comme dans le cas d'Alcatel, la perte nette du premier semestre s'explique pour moitié par des provisions pour restructuration. La dette, elle résulte, en grande partie, d'opérations de croissance externes (rachat de RCA aux États-Unis), son statut d'entreprise publique ayant empêché l'entreprise de procéder à des augmentations de capital, tandis que l'État ne jouait pas son rôle d'actionnaire.

Par rapport à Philips et à Sony, présents dans les consoles de jeux, le radiotéléphone, la micro-informatique et l'industrie du contenu, la stratégie de Thomson est cependant peut-être trop centrée sur le téléviseur. Le groupe français n'a sans doute pas les moyens de se diversifier actuellement. Pourtant il dispose d'atouts clés dans ce domaine, dans la perspective du développement de la télévision numérique.

Si Thomson multimédia devait être vendu à un groupe asiatique (on ne voit pas de quel autre continent pourrait venir un repreneur éventuel, à moins de trouver une solution partiellement française ou communautaire), Philips demeurerait le seul groupe européen encore indépendant.

5. Une masse critique difficile à atteindre dans les composants

Concernant les composants au sens large, l'Europe est assez largement distancée par le Japon dans les écrans plats (voir plus haut). Elle s'est mobilisée dans le cadre du programme Eurêka Jessi pour rester présente dans le secteur des semi-conducteurs.

A la fin de 1994, un rapport présenté au nom de l'Office par le sénateur Charles Descours avait constaté une diminution des parts de l'Europe, au profit de celles des États-Unis et de l'Asie, non seulement dans le marché mondial mais, pis encore, sur son propre marché.

Malgré le succès de Jessi qui a permis de "limiter les dégâts" (son vice-président, Guy Dumas, déclarait en avril 1996 que "l'Europe n'a pas encore retrouvé sa place sur la scène mondiale", le marché européen continue certes de représenter environ 1/5e d'un marché mondial d'à peu près 150 milliards de dollars en 1996 mais, selon Le Monde du 29 novembre 1996, les trois principaux européens Philips, Siemens et SGS Thomson ne couvrent que 7 % de ce total.

La domination américaine est totale dans le segment stratégique des microprocesseurs (le cœur des micro-ordinateurs et de la gamme des futurs terminaux multimédia) dont la demande devrait augmenter de 18 % par an jusqu'à l'an 2000.

Intel (75 % du marché mondial) investit environ un milliard de dollars par an dans la R & D et devrait consacrer, en commun avec Hewlett Packard, 3 milliards de dollars à la mise au point d'une puce conçue selon une toute nouvelle technologie[44]. En outre, le coût de la construction d'une unité de production double tous les trois ans[45]. Il semble être difficilement à la portée d'industries françaises souvent sous capitalisées et que leurs mauvais résultats ou la morosité de la conjoncture dissuadent d'investir. SGS-Thomson tire toutefois, dans ce contexte, remarquablement son épingle du jeu grâce à une stratégie adaptée (voir plus loin).

Mais quels nouveaux actionnaires remplaceront Thomson-CSF, France Télécom et CEA Industrie si ceux-ci viennent à se dégager du capital du groupe franco-italien ? Les synergies actuelles seront-elles maintenues avec Thomson Multimédia, lorsque ce dernier aura été privatisé ?

6. Des inquiétudes concernant la recherche

a)  Toujours dans le secteur des composants, un nouveau programme Eurêka, dénommé Médéa, doit venir relayer le programme Jessi. Les priorités en paraissent bien orientées (voir plus loin). Mais les dépenses correspondantes permettront-elles de relever les défis, notamment ceux de la concurrence américaine ?

On peut s'inquiéter, de ce point de vue, d'un certain retrait, voire d'un désengagement total, de France Télécom de la recherche fondamentale dans ce secteur. Or, le Centre Norbert Segard de Grenoble dépendant du CNET (Centre national d'études des Télécommunications) joue actuellement un rôle clé, au côté du LETI du CEA, dans la recherche française en micro-électronique[46].

b)  Autre sujet d'inquiétude, les faiblesses de l'industrie française et européenne du logiciel, y compris sur le plan scientifique, ont déjà été soulignées dans ce rapport.

c)  Enfin, d'un point de vue plus général, on se doit de signaler qu'un Panorama de l'industrie, publié par la Commission de Bruxelles, a fait état, dernièrement, d'une détérioration de la part de brevets détenue par des pays de l'Union européenne dans tous les secteurs, à l'exception des transports et du secteur aérospatial, particulièrement dans l'électronique où les positions de l'Europe étaient déjà faibles.

D. Les obstacles à l'émergence d'un marché des contenus

1. Le Minitel, un atout qui devient un handicap

a) Un précurseur exemplaire

Le Minitel a connu, en France, un succès remarquable (cf. tableau ci-dessous) dû, sans doute, essentiellement à trois facteurs :

•  la fourniture gratuite du terminal,

•  une très grande simplicité d'utilisation,

•  un système sécurisé de transactions (kiosque) dans lequel l'opérateur joue un rôle d'intermédiaire encaissant le montant de la prestation et en reversant au fournisseur la partie qui lui revient.


TÉLÉTEL en 1996
•  Nombre de terminaux 6,5 millions
•  Nombre de services 26.000
•  Chiffre d'affaires (y compris Audiotel) 10 milliards

(7 milliards pour le Minitel)


La France est ainsi, avec les États-Unis, le pays où le commerce électronique est le plus développé. Le secteur de la télématique emploie 30.000 personnes et 14 millions de Français utilisent les services correspondants.
b) Un système qui a aujourd'hui atteint ses limites

Mais si le Minitel offre encore, par rapport à Internet, quelques avantages (simplicité et sécurisation des transactions), sa technologie est aujourd'hui complètement dépassée. Il constitue, pour certains, un frein pour l'entrée de la France dans la société de l'information. S'il demeure un outil de transaction commode (surtout avec la formule FACITEL intégrant un lecteur de carte de crédit), il est devenu totalement inadapté à la consultation de base de données d'un certain volume, par rapport aux moyens disponibles sur Internet (web, liens hypertextes, navigateurs, moteurs de recherche.

Son inconvénient majeur est de replier les Français sur l'Hexagone et d'"atomiser" les fournisseurs de contenus comme l'a montré l'AFTEL. En effet, ceux-ci n'ont à se préoccuper que de la création et de l'édition du contenu et de sa promotion publicitaire, tout le reste (transport, distribution, gestion des clients et paiement) est assuré par l'opérateur, avec une seule interface pour l'accès au réseau. Ce modèle a l'avantage de la simplicité mais il empêche les alliances de se nouer ou des partenariats de se développer.

Du modèle Télétel au "nouveau paradigme" télématique


Le modèle

Télétel

Le nouveau

paradigme

télématique

CONTENU

CONTENU

Fournisseur

de contenus

Fournisseur

de services

ÉDITION

ÉDITION

· Autoédition

· Assemblage de ressources

· Par le distributeur ...

MISE EN

FORME TECHNIQUE

Fournisseur

ou serveur

(1 seule interface)

MISE EN

FORME TECHNIQUE

· Éditeur

· Par le distributeur

· 1 ou plusieurs interfaces

TRANSPORT

TRANSPORT

· RTC, Kiosque

· Internet

· Réseau(x) privatif(s)

· Réseau(x) diffusé(s)

DISTRIBUTION

DISTRIBUTION

· Autodistribution

· Galeries marchandes

· Services en ligne

France

Télécom

GESTION CLIENTS

GESTION CLIENTS

· Directe

· Aucune (kiosque)

· Par le distributeur

PAIEMENT

PAIEMENT

· Directe (carte, etc.)

· Cash électronique

· Via intermédiaire

MARKETING PROMOTION

Fournisseur

de

services

MARKETING PROMOTION

· Autopromotion

· Via services

de référencement-annuaires

· Via distributeurs


Source : AFTEL

2. Un frein à l'utilisation d'Internet par les ménages ?

a) Un équipement réduit des ménages en ordinateurs personnels

Malgré une multiplication des ventes par trois en cinq ans, le taux d'équipement des ménages en ordinateurs personnels n'atteint en France, en 1996, que 14,4 %, contre 20 % en Grande Bretagne, 30 % en Allemagne et 35 % aux États-Unis. Ce résultat témoigne, certes, d'une croissance appréciable par rapport aux 11,6 % relevés en mai 1995, mais les pays cités plus haut ont progressé davantage puisque nous étions, à cette époque, à peu près à leurs niveaux. En outre, la moitié du parc français est incapable de répondre aux exigences du multimédia (un tiers seulement des micro-ordinateurs sont pourvus d'un lecteur de CD-ROM).

b) Un accès à Internet plus limité encore

Le pourcentage de particuliers abonnés à Internet est particulièrement faible en France où moins de 10 % des P.C. domestiques sont pourvus d'un modem (sources : rapport Miléo).


Année Nombre d'ordinateurs chez les particuliers Pourcentage de particuliers abonnés à Internet
1995 1.900.000 3 %
1996 2.400.000 5 %
2000 5.300.000 19 %


Nombre d'ordinateurs raccordés à Internet en juillet 1996
•  France 189.786
•  Japon 496.427
•  Allemagne 548.168
•  États-Unis 8.224.279

Le tableau ci-dessus reflète un net retard de la France sur les principaux pays industrialisés dans le nombre d'ordinateurs raccordés à Internet. Ce n'est pas le léger rattrapage dont témoignent les chiffres ci-dessous qui suffira à le combler !


Taux de croissance des raccordements à Internet
juillet 1995/juillet 1996 janvier 1996/juillet 1996
•  France + 66,5 % + 38 %
•  Monde + 94 % + 36 %

En outre, les ventes de modems (+ 12,2 %) ont augmenté en 1996 beaucoup moins vite en France (+ 12,2 %) qu'en Allemagne (+ 31,6 %). Il est difficile de savoir si un tel retard est imputable à un "effet Minitel". Si c'est le cas, cela affecterait donc davantage l'informatique de réseau et les connexions à Internet que l'équipement en ordinateurs personnels proprement dit.

3. Internet n'a pas encore non plus pénétré le monde des entreprises

Le contraste entre le taux d'équipement en ordinateurs et l'utilisation d'Internet est encore plus marqué en ce qui concerne les entreprises que les ménages.

Il est probable tout d'abord, en raison du sous investissement informatique évoqué plus haut (illustration, hélas, d'un phénomène plus global) que le parc informatique des entreprises françaises a vieilli. Mais celles-ci sont cependant généralement équipées. Sans doute, aussi, sont-elles freinées dans leur utilisation informatique des réseaux (Transpac ou Numeris) par les tarifs élevés qui y sont pratiqués, dénoncés par le rapport Miléo aussi bien que par celui de l'AFTEL. Il semble, en tout cas, selon un sondage Louis Harris/Enjeux/Les Échos, réalisé auprès des patrons français en octobre 1996, que 9 % seulement d'entre elles soient connectées à Internet. 15 % des non branchés (ce qui est fort peu) envisagent leur entrée sur le Net, en commençant par y installer un site web (vitrine multimédia) à l'imitation des trois quarts des entreprises déjà raccordées.

4. Des effets fâcheux

L'entrée tardive de la France dans la société de l'information risque d'avoir des répercussions néfastes en ce qui concerne l'émergence de services et contenus nouveaux et, par tant, sur la situation de notre économie et le rayonnement de notre culture et la pratique de notre langue.

a) Une entrave à la création de nouveaux services et contenus

En l'absence de données précises, complètes et actualisées sur la création française de services et de contenus adaptés aux nouvelles techniques d'information, on ne peut que se livrer à des suppositions.

Il est hélas probable que la faiblesse des taux de raccordement à Internet en France exerce une influence défavorable sur l'offre française correspondante. Cependant, même si la croissance actuelle des connexions au réseau des réseaux n'est pas suffisante pour nous permettre de rattraper notre retard dans ce domaine, elle existe tout de même et enclenche une certaine dynamique.

Toutefois, ce mouvement est caractérisé, trop souvent, par un éparpillement excessif des acteurs. Il peut en résulter, certes une saine émulation et une créativité appréciable au niveau des contenus artistiques, mais au détriment en fin de compte d'une certaine efficacité dans la distribution et de la compétitivité au niveau des prix. Le premier créneau visé en France par des sociétés émergentes semble être celui de la fourniture d'accès à Internet. Or, selon l'AFTEL, "le marché des opérateurs Internet se compose de toutes petites entités dont bien peu, à moins de pouvoir bénéficier de l'aile protectrice d'un grand opérateur mondial, survivront à la concurrence. Conséquence classique : une insuffisance chronique de fonds propres, un service clientèle souvent déficient, des phénomènes fréquents d'engorgement, une grande difficulté à gérer la croissance. Avec, phénomène bien français, une réticence à se fédérer avec d'autres".

Sans doute les grands acteurs comme France Télécom, Havas ou Hachette (par l'intermédiaire de sa filiale Grolier), qui ont prévu de se lancer eux aussi dans les services d'accès aux réseaux en ligne, résisteront-ils mieux.

Fourniture d'accès à Internet : une offre française morcelée

On peut distinguer "grossistes" (ayant un lien direct et offrant une connexion permanente à Internet) et "détaillants" (accès à la demande).

1. Opérateurs offrant des connexions permanentes

a) Opérateurs privés


· EUNET FRANCE* (groupe européen)


· GROLIER INTERACTIVE (filiale d'Hachette)


· HAVAS


· INTERNET WAY*


· OLÉANE*

b) Opérateurs publics


· TRANSPAC* (France Télécom)


· RENATER * (INRIA, CNRS, CEA, EDF, Enseignement supérieur)


· WANADOO (France Télécom)

N.B. : tarification au forfait ou * au prorata du volume d'informations échangées

2. Fournisseurs d'accès à la demande


· CALVACOM


· FRANCE-NET


· GULLIVER-INFONET


· OLÉANE


· WORLD-NET

+ une kyrielle d'autres ...

D'autres entreprises, comme Infonie (qui vient de franchir le cap des 10.000 abonnés alors qu'il s'était fixé un objectif de 60.000) ou comme Europe on Line (en faillite) ont choisi la voie, plus difficile, de la création de réseaux privés.

Internet deviendra probablement, de plus en plus, un marché de contenus et, plus généralement, les services "en ligne" tireront la croissance de la production dans ce domaine, plus que la distribution "hors ligne".

Mais si le marché de l'édition "hors ligne" (CD-ROM et prochainement DVD) commence à se structurer, celui des services "en ligne" est encore balbutiant. Il y a de toute façon un lien entre les deux puisque le CD-ROM est devenu accessible à distance à travers les réseaux.

Le dernier Salon de l'édition électronique à Francfort a confirmé que, mis à part les dictionnaires, encyclopédies, catalogues de musées et d'expositions ou méthodes d'apprentissage des langues, les ouvrages multimédia, même richement dotés d'images, ont du mal à capter la clientèle. La demande passera certainement plus, comme l'a montré une étude de la DG XIII, par la diffusion sur un réseau de type Internet. Les éditeurs électroniques devront donc évoluer du rôle de producteurs de contenus à celui de développeurs de véritables services "en ligne".

Les deux grands groupes de communication français, Matra-Hachette et Havas, se hâtent lentement.

Le premier a besoin de clarifier sa stratégie et de renforcer la cohésion entre les différents secteurs. Il s'intéresse :

•  à l'édition de CD-ROM,

•  à la mise en place de services en ligne,

•  à la création d'Intranets (Matra) au sein des entreprises.

Plutôt que de mettre en place ses propres structures, il a regroupé ses activités multimédia au sein de sa filiale Grolier Interactive, basée aux États-Unis, mais présente en Europe.

Havas a choisi de sous-traiter l'hébergement et la gestion de ses serveurs et de ses abonnements à deux sociétés de service, Softway et Cap Gemini, et semble axer sa stratégie sur l'exploitation de synergies entre l'écrit, le off line et le on line avec la diffusion, sous forme de CD-ROM, de livrets d'initiation à Internet qui servent, en quelque sorte, de "rabateurs" vers le réseau. Sa priorité semble être, dans un premier temps, le recrutement d'abonnés plutôt que l'offre de contenus (ce qui peut ressembler à une "fuite en avant") quitte à développer ensuite l'hébergement de sites web (y compris pour ses propres filiales comme Havas voyages).

Hachette et Havas ont en commun de pratiquer une politique tarifaire attractive pour développer l'accès à Internet.

Un troisième larron, le groupe de La Cité, paraît en mesure de jouer un rôle important, à travers sa filiale multimédia Liris Interactive, en raison de la richesse de son fonds éditorial (Larousse, Nathan... L'Express, Le Point...) et de sa stratégie très ciblée en matière de CD-ROM (culture, encyclopédies, ludo-éducatif...) qui exclut cependant le jeu (50 % du marché !). Liris vise, en outre, les services professionnels.

Au total, cependant, les deux plus grands groupes de communication français s'en remettent au savoir-faire américain (Grolier Interactive) ou à des sociétés extérieures, pour le développement de leurs activités multimédia, ce qui témoigne d'un certain retard ou manque de compétences dans ce domaine.

Concernant les services aux entreprises, le marché français est le deuxième en Europe, selon une récente étude de la DG XIII de la Commission des Communautés européennes, mais la part de nos opérateurs nationaux n'est pas à la hauteur.


Marché européen de l'information professionnelle*
% du marché européen Part des opérateurs nationaux
Grande Bretagne 28,8 63,1
France 17,4 11,6
Allemagne 14,6 5,7

* en ligne ou sur support de stockage

Le morcellement et la situation difficile des sociétés de services (SSII) a déjà été souligné, ainsi que leur retard, dans l'offre d'intégration d'Intranets (la demande étant, il est vrai, encore faible).

Le retard des entreprises françaises en matière d'utilisation du Net semble confirmé par le fait que, contrairement à ce qui se passe dans les autres pays, les trois quarts d'entre elles font héberger leurs services par un tiers. Les coûts rentrent aussi en ligne de compte : une ligne à 64 Kbit/s coûte aussi cher en France qu'une connexion à 1,5 Megabit/s aux États-Unis. Les accès à Internet sont donc plus lents dans notre pays, ce qui n'est pas de nature à encourager la demande !

b) Des répercussions économiques regrettables

D'un point de vue économique, le retard de la France en matière d'utilisation d'Internet risque d'avoir les conséquences suivantes :

•  déficit de création d'emplois par rapport aux possibilités,

•  opportunités manquées de faire connaître nos entreprises et nos produits à l'étranger,

•  affaiblissement de notre compétitivité, dans la mesure où le travail coopératif en réseau engendre des gains de productivité, une organisation plus efficace et, en définitive, une satisfaction plus grande de la clientèle.

c) Des conséquences néfastes du point de vue culturel

Un retard dans la création de services "en ligne" français, susceptibles de valoriser notre patrimoine et nos créations contemporaines, est évidemment un obstacle à notre rayonnement culturel mondial et au maintien du français en tant que langue internationale. 1,7 % seulement des serveurs raccordés à Internet sont installés en France.

La persistance d'un retard français et européen dans les technologies de l'information serait d'autant plus regrettable que de réelles opportunités de rattrapage se présentent actuellement.

II. DES OPPORTUNITÉS DE RATTRAPAGE

Le contexte actuel, très ouvert et évolutif, apparaît propice à des changements de rapports de force entre concurrents. La France et l'Europe disposent dans cette situation d'un potentiel qui ne doit pas être sous-estimé.

A. Un contexte très ouvert

L'évolution actuelle des technologies d'information et de communication se caractérise, on l'a vu, par :

•  une très grande rapidité, offrant à de nouveaux acteurs des chances de succès fulgurants ;

•  une diversification des solutions de transport et de réception des signaux numériques autorisant des stratégies variées ;

•  enfin, un investissement intellectuel de plus en plus important, pour maîtriser la complexité résultant de l'hétérogénéité des offres des techniques et de la multiplication des services, qui donne toute leur chance à des P.M.E. innovantes.

1. De profondes innovations

L'irruption du multimédia et de l'informatique communicante ont entraîné de nouveaux besoins et, partant, le recours à de profondes innovations.

a) De nouveaux composants pour le multimédia

L'explosion du multimédia suppose, comme il a été montré, de nouvelles puces non seulement plus puissantes mais conçues différemment. Les futurs "média processeurs" devront pouvoir traiter simultanément les signaux afférents à l'image, au son et à d'autres données.

De plus en plus miniaturisés et puissants, on devrait les retrouver au cœur, non seulement des ordinateurs personnels, mais de toute une série de terminaux fixes ou portables (ordinateurs de réseaux, décodeurs de T.V., téléphones portables, assistants personnels numériques, etc.). Certains, cependant, estiment qu'il restera nécessaire de reporter sur le logiciel une partie des fonctionnalités de la puce, comme avec l'architecture RISC actuelle. Mais les logiciels peuvent être téléchargés.

b) Des systèmes partagés et conviviaux

Le développement de l'informatique en réseaux suppose de faire communiquer entre elles des machines hétérogènes, d'où le succès très rapide de solutions ouvertes allant dans ce sens, telles que :

•  les protocoles informatiques TCP/IP qui sont à la base du succès d'Internet ;

•  le langage Java qui permet de programmer des applications susceptibles d'être exécutées par n'importe quel terminal pourvu d'un interpréteur adéquat ;

•  des techniques "orientées objet" qui facilitent le travail sur des systèmes d'exploitation ou dans des environnements matériels différents.

La quête d'ouverture et de convivialité explique aussi l'importance des recherches menées dans les domaines tels que les connexions de machines et/ou d'applications différentes (logiciels Middleware) ou les interfaces métaphoriques conçues pour des utilisateurs non spécialistes de l'informatique.

2. Les effets déstabilisateurs de la dynamique Internet

a) La maîtrise de la surabondance d'informations

L'explosion d'Internet a posé le problème de la maîtrise d'une masse surabondante de données susceptibles de submerger l'utilisateur. Les entreprises comme Netscape, qui ont proposé des solutions permettant de relever ce défi, ont connu un succès fulgurant.

Il reste encore à perfectionner, après les "navigateurs" et les "moteurs de recherche", les "agents intelligents" capables d'exploiter des données en les comparant, en établissant entre elles des corrélations ou en dégageant les tendances de certaines évolutions.

b) Des possibilités variées

La poursuite de l'essor d'Internet et l'utilisation des nouvelles technologies qui l'ont accompagné autorisent plusieurs scénarios :

•  soit une certaine "recentralisation" de l'informatique au niveau de serveurs de plus en plus puissants à partir desquels seraient téléchargés des logiciels dans des terminaux simplifiés (ceci pourrait être notamment le modèle des futurs Intranet d'entreprises) ;

•  soit, au contraire, des réseaux de plus en plus partagés dans lesquels chacun pourrait être à la fois client ou serveur et où la communication l'emporterait sur l'information ;

•  soit une "récupération" du Net par Microsoft et Intel intégrant des fonctions Web dans leurs logiciels et leurs microprocesseurs de façon à en renforcer la domination ;

•  soit des scénarios mixtes comportant, notamment, les trois tendances ci-dessus.

Ces différents schémas n'empêcheraient pas d'intégrer l'accès à certains services d'Internet (courrier électronique, consultation de pages Web) dans des terminaux de plus en plus variés.

3. 3. Des chances pour tous

Cette dynamique de changement, d'ouverture et de diversification des techniques et des stratégies donne leur chance aux outsiders comme à l'establishment, aux grandes comme aux petites entreprises. Des "poids lourds" de l'électronique grand public ou de l'informatique comme IBM, NEC, Toshiba, Sony ont tiré parti des évolutions actuelles pour se renforcer ou rétablir une situation compromise.

Mais l'innovation est venue le plus souvent de P.M.E. émergentes (start-up) qui, soit ont réussi à croître en préservant leur indépendance (comme Netscape, Sun, Oracle), ou même à devenir gigantesques comme Microsoft, soit se sont fait absorber par plus puissantes qu'elles.

L'acquisition de start-up ayant su innover dans des technologies prometteuses est devenue une activité stratégique des grands groupes. Dans le logiciel ou dans le contenu (un serveur Web coûte à partir de 500.000 F et un jeu pour enfant peut être mis au point pour environ 400 000 F.), des réussites étonnantes sont possibles pour une mise de fonds initiale limitée.

Bien sûr, derrière la mise au point relativement peu coûteuse de logiciels parfois distribués gratuitement pour "prendre le marché, se dissimulent souvent des enjeux industriels colossaux (comme la domination du marché des serveurs et des terminaux).

Il est certes difficile aux P.M.E. de rivaliser avec des très grands dont les dépenses en recherche et développement se chiffrent en milliards annuels de francs ou de dollars. Mais l'imagination et la créativité peuvent y suppléer pour des secteurs bien ciblés. La France et l'Europe ne sont pas dépourvues d'atouts dans ce domaine.

B. Un potentiel qui ne doit pas être sous-estimé

La France et l'Europe disposent de cinq catégories d'atouts importants :

•  leur potentiel de recherche,

•  la maîtrise de technologies clé

•  des acteurs importants à la fois industriels, opérateurs ou fournisseurs de contenus,

•  des P.M.E. innovantes, notamment en matière de logiciels,

•  enfin, un certain nombre de savoir-faire en matière d'utilisation des réseaux et de services télématiques.

1. Les capacités de recherche européennes

Pour ne s'en tenir qu'à la France, des pôles de recherche, spécialisés dans les télécommunications et le multimédia et dont le niveau est excellent, sont à l'œuvre. On citer souvent Rennes ou Sophia Antipolis ou, bien sûr, la région parisienne.

C'est par ailleurs au CERN (Centre européen de recherches nucléaire) qu'a été inventé le fameux langage HTML (hypertext markup langage) qui relie tous les documents disponibles sur les serveurs de la toile d'araignée mondiale d'Internet (le Web)

2. La maîtrise de technologies clef

Plus faibles en informatique, la France et l'Europe maîtrisent cependant des technologies clés de l'avenir des télécommunications comme l'ATM. Selon l'ouvrage précité du ministère de l'Industrie, la Communauté européenne et notre pays bénéficient de positions fortes dans des domaines importants tels que :

•  la gestion des réseaux intelligents,

•  les composants optoélectroniques et hyperfréquence.

Par ailleurs, la France dispose d'une certaine avance en Europe en ce qui concerne les algorithmes de compression de l'image et du son.

3. L'existence d'acteurs importants

a) Les industriels

Même si plusieurs sont dans une situation difficile, l'existence d'acteurs importants dans les domaines de l'informatique (Bull, Olivetti, Escom...), de l'électronique grand public (Philips, Thomson multimédia), des télécommunications (Alcatel, Siemens...) ou des semi-conducteurs (Philips, Siemens, SGS-Thomson) constitue pour l'Europe un élément essentiel. Il n'y a pas de "chasse gardée", ni de position définitive.

La percée de la Corée dans les semi-conducteurs et l'électronique grand public et celle du Japon dans la micro-électronique montre qu'il est possible à de nouveaux venus de prendre place sur des marchés à forte croissance, avec de la détermination, de la ténacité, des investissements et une bonne stratégie.

Le rétablissement d'IBM ou celui de l'électronique grand public japonaise, après trois années de "vaches maigres" (1993/1994 et 1995) signifie par ailleurs qu'aucun déclin n'est jamais irréversible.

Concernant Thomson multimédia, l'Office qui a toujours évité de se mêler à des polémiques, voudrait simplement souligner que la valeur d'une entreprise ne s'apprécie pas en fonction de critères uniquement comptables et instantanés. Il convient de regarder non derrière soi, mais vers l'avenir.

Dès lors, doivent être pris en considération, en même temps que le passif du groupe ou son insuffisante productivité :

•  son potentiel technologique qui en fait un des leaders mondiaux de la télévision numérique,

•  ses réussites (deux contrats très importants gagnés aux États-Unis en matière de télévision par satellite et par voie hertzienne terrestre),

•  ses actifs commerciaux (possession de marques renommées),

•  ses perspectives futures (revenus des brevets de General Electric et du nouveau disque optique numérique DVD).

Dans le domaine fondamental des composants électroniques, l'Europe dispose aussi d'atouts importants. Philips, toujours très innovant (on l'a vu dans l'électronique grand public) a présenté, dès la fin de 1995, à l'occasion du Salon Microprocesseur Forum de San José en Californie, un nouveau média-processeur à la pointe du progrès dénommé Trimedia, avec un co-processeur dernier cri VLIW (Very Long Instruction Word) qui accélère les traitements.

SGS-Thomson proposait, pour sa part, une puce plus modeste pour jeux vidéo. Grâce à une stratégie intelligente, le groupe franco-italien a réussi à gagner des parts de marché et à afficher, au cours du premier semestre 1996, une croissance de 25 % de son chiffre d'affaires. SGS-Thomson a toujours su se positionner dans les secteurs de production auxquels la demande la plus forte était adressée : d'abord les mémoires flash, puis les puces super-intégrées et sur mesure. Le groupe investit en Asie (à Singapour) où les perspectives de croissance sont les plus élevées et espère se placer parmi les dix premiers mondiaux en 2000. C'est une belle success story européenne.

L'industrie européenne du logiciel a eu droit, d'autre part, aux honneurs de Business Week (numéro du 6 mai 1996) dans un article intitulé Silicon continent. La revue américaine s'est montrée élogieuse, faisant valoir que, sans contester la suprématie globale américaine dans ce domaine, l'Europe pouvait concurrencer très honorablement l'Amérique dans certaines "niches". Et de citer :

•  l'allemand SAP (intégrateur de programmes logiciels à l'échelle de grandes compagnies),

•  le néerlandais BAAN (même domaine,

•  le français "Business Objects" (aide à la décision par l'exploitation de bases de données),

•  le britannique M.A.I.D. (moteurs de recherche).

Ces réussites sont le fait, le plus souvent, de petites sociétés émergentes (start-ups) qui doublent, chaque année, leur chiffre d'affaires (voir plus loin).

L'Europe peut exploiter dans le domaine du logiciel ses compétences traditionnellement bonnes en mathématiques et gagner des parts de marché (à partir de sa position actuelle qui correspond à 18 % des ventes mondiales...).

Le prochain Netscape a autant de chance, note la revue américaine, de se trouver en Europe, à Boston ou Copertino. Des compagnies américaines renommées font d'ailleurs appel à la collaboration d'entreprises françaises spécialisées dans le logiciel : Sun a choisi par exemple le français ILOG, start-up issue de l'INRIA, pour jeter des ponts entre son langage de programmation Java et celui, dont il est issu, plus couramment utilisé, appelé C++.

Avec l'existence de standards planétaires tels que Windows de Microsoft, Unix ou le World Wide Web, de simples P.M.E. peuvent conquérir d'emblée un marché mondial (voir plus loin).

b) Les opérateurs

Bien entendu, l'expérience et le savoir d'opérateurs tels que France Télécom sont aussi un atout précieux. Présent dans la recherche à un excellent niveau, gérant un des réseaux de télécommunications les plus modernes du monde, l'opérateur national, dans la perspective de l'ouverture du téléphone à la concurrence en 1998, souhaite se renforcer dans les services "en ligne" à plus forte valeur ajoutée. C'est la raison du regroupement au sein de France Télécom Multimédia de l'ensemble de ses filiales concernées.

France Télécom est devenu fournisseur d'accès à Internet. Il est en train de doter son réseau de plates-formes matérielles et logicielles qui permettront à n'importe quel type de terminal (micro-ordinateur, téléphone, téléviseur...) d'accéder aux serveurs vocaux, de données, de textes et d'images.

Le programme DORA, sélectionné dans le cadre des expérimentations sur les autoroutes de l'information, prévoit de tester une plate-forme d'intermédiation large bande de ce type.

Les cablo-opérateurs (comme la Lyonnaise ou la Générale des Eaux ou d'autres) sont également des acteurs très importants du développement d'Internet en France et en Europe, notamment parce que leurs réseaux permettent d'y accéder avec des débits beaucoup plus élevés que ceux du réseau téléphonique.

c) Le domaine du contenu

L'existence de grands acteurs dans le domaine de l'édition et de la communication est aussi un facteur important du développement d'une offre de contenus accessibles "en ligne" à travers les réseaux. On a donné en exemple Matra-Hachette et Havas, le groupe de La Cité, mais il y a aussi, bien sûr, d'autres "poids lourds" européens tels que l'allemand Bertelsman.

4. Des P.M.E. innovantes

Comme SGS-Thomson, évoqué plus haut, des entreprises françaises, de dimensions plus réduites, ont connu notamment dans le logiciel, d'étonnants succès parce qu'elles se sont placées dans des niches où la croissance de la demande était très forte. Les exemples les plus connus sont :

•  Business object (déjà cité, spécialisé dans les logiciels d'accès et d'interrogation de bases de données,

•  ou Infogrames Entertainment, numéro un français de l'édition de jeux vidéo.

Gemplus, un des leaders mondiaux de la carte à puce qui emploie maintenant 2300 personnes a été, en son temps, une P.M.E.. Cette société vient de s'associer avec un petit fabricant de modem français COM1, porté par la vague Internet.

De nombreux autres cas peuvent être évoqués : Alcatel a choisi ainsi le logiciel temps réel de Chorus, P.M.E. des Yvelines de 70 personnes, pour ses centraux de commutation. Beaucoup ont réussi en développant des solutions permettant de s'affranchir de l'hétérogénéité des matériels et des bases de données (Esker, Leonard's magic, softeam...). Enfin, une P.M.E. lyonnaise, MDS, commercialise un système de transmission hertzienne terrestre hyperfréquences déjà évoqué dans ce rapport : le MMDS.

Tous ces exemples témoignent de la créativité et de la capacité d'innovation de nos petites entreprises ainsi que de leur potentiel de création d'emplois.

5. Une expérience et des savoir-faire précieux

Concernant les atouts que représente pour la France l'expérience du Minitel et celle des SSII (société de service et d'ingénierie informatique), ils ont été ainsi résumés par le rapport précité de l'AFTEL (Association française de la Télématique Multimédia) :

"•  La France dispose d'une capacité technologique de pointe dans le domaine des serveurs "plurimédias" (vidéotex, vocal, fax, micro...) et de la gestion des liens entre ces serveurs et le système d'information d'une entreprise. Quelques expériences récentes ont démontré que les outils de création de serveurs Web d'origine américaine souffraient de défauts de jeunesse que les SSII françaises savent gérer depuis longtemps : incapacité à "tenir" les montées en charge, outils statistiques et d'exploitation inexistants, ergonomie déficiente, etc.

•  Le savoir-faire des concepteurs et ergonomes français reste manifestement, si l'on en juge par la qualité moyenne des services sur la Toile, très en avance sur celui des États-Unis. Les services Web américains (ainsi, malheureusement, que beaucoup de services français conçus avec l'ardeur de néophytes) reproduisent fidèlement les erreurs des premiers services vidéotex : une accumulation de texte, une organisation strictement hiérarchique et arborescente, un contenu figé, des graphiques excessivement longs qui n'apportent rien, etc.

•  Dans plusieurs domaines, les éditeurs et SSII français ont acquis (grâce au vidéotex ou comme éditeurs de logiciels et d'œuvre multimédias) une expérience qui pourrait facilement s'exprimer de manière compétitive à l'échelle mondiale : gestion et interrogation de grands annuaires électroniques, services d'information financière, calculs d'itinéraires, météo, services événementiels, services ludiques, jeux, etc. -sans compter les services associés au commerce électronique, que nous avons cités plus haut. Certains de ces acteurs, parmi les plus importants, commencent à prendre position sur les nouveaux marchés de la télématique et du commerce électronique.

•  Enfin, grâce au Minitel, près d'un Français d'âge actif sur trois est aujourd'hui un utilisateur de services télématiques. Aucun pays n'approche aujourd'hui un tel niveau."

• • •

L'Europe et la France ont ainsi un potentiel industriel et technique qui leur permettrait de rattraper en grande partie leur retard, en tant que pourvoyeurs (et pas simplement utilisateurs) de technologies nouvelles d'informations et de communications. Malheureusement, certaines carences risquent d'empêcher qu'il en soit ainsi et de nous priver, par la même occasion, d'une partie des bienfaits que pourrait nous apporter l'entrée dans la société de l'information.

III. QUELLES CARENCES ?

A. Carences de culture entrepreneuriale

"Esprit d'entreprise, goût du risque, effort d'innovation", voilà des mots qui ne font plus l'unanimité parmi les jeunes et les moins jeunes qui préfèrent "statut de fonctionnaire, sécurité, loisirs, tradition". Pourtant, il serait sans doute aisé d'enthousiasmer ou de passionner. Mais tous ceux qui forment l'opinion, tous les hommes de radio, de télévision, voire même certains journalistes de presse écrite, sont formés à autre chose : suivre le sensationnel, fouiller les éventuels scandales ou bien appuyer sur les fibres sentimentales liées à la maladie, la pauvreté, le chômage.

Il faut, bien entendu, dénoncer les scandales et promouvoir la solidarité. Mais ne faut-il pas aussi lutter contre la sinistrose qui engendre la pauvreté et, au contraire, glorifier les hommes et les femmes qui créent, osent, travaillent dur, et innovent ?

Ce n'est pas à la seule éducation nationale ou parentale que l'on peut laisser ce soin. C'est aussi aux médias de s'en préoccuper.

A côté de cette carence vis-à-vis du rôle d'une culture d'entreprise, une autre carence volontiers dénoncée est celle du système financier. La frilosité des banques vis-à-vis de l'investissement immatériel est connue. C'est vrai en Europe. C'est encore plus grave en France et les règles comptables -et les habitudes administratives- y sont pour beaucoup.

Des avancées ont été faites, mais après de longues luttes. Il a fallu dix ans pour que le service de législation fiscale du ministère des Finances admette l'existence d'entreprises innovantes définies comme telles par l'ANVAR. Et l'introduction d'obligation pour les fonds de pension d'aider les "poules aux œufs d'or de l'économie" n'est pas encore entrée dans les faits. L'équivalent du NASDAQ en Europe commence à peine tant en France (Le Nouveau Marché) qu'en Allemagne (Neu Markt) et l'EASDAQ est encore moins avancé.

Ensuite, en matière de gestion des entreprises innovantes, nous ne disposons pas des hommes habitués à gérer la croissance rapide dans un environnement réactif et compétitif. La mise en place de cycles de formation (mastères spécialisés dans les grandes écoles) s'impose.

Enfin, la rapidité de réaction nécessaire tant de la part du système politique, qu'administratif et financier n'est plus adapté au monde qui s'ouvre avec la Société de l'Information.

On ne peut raisonner en années pour la prise de décision quand d'autres raisonnent en termes de semaines. C'est probablement là que le terme de révolution culturelle s'applique. N'oublions pas que c'est parce que les mammifères étaient intellectuellement plus rapides qu'ils ont pris le pouvoir sur terre et que c'est parce que l'espèce humaine était capable de s'adapter rapidement à des situations évolutives qu'elle a sa position prépondérante dans notre planète.

B. Une mobilisation insuffisante et un manque d'ambitions industrielles

a) Au niveau européen

•   Dans son livre blanc sur Croissance, compétitivité et emploi, M. Bangemann insiste sur l'importance des techniques d'information et de communication et leur potentiel de création d'emplois. Il évoque la création d'un environnement favorable (juridique et normatif), une maîtrise des technologies concernées et le développement de réseaux transeuropéens.

Le terme "politique industrielle" est utilisé plusieurs fois dans le rapport qui conclut à la nécessité de "rassembler nos forces".

Malheureusement, depuis lors, peu de choses. Pas d'avancée en matière d'autorité régulatrice européenne et une thèse unilatérale tendant à laisser aux seules forces du marché la révolution technologique en cours. Et en matière de réseau transeuropéen, une seule petite incitation pour interconnecter les réseaux de recherche des pays de l'Union européenne (plus la Suisse et la Hongrie) : programme TEN 34 (doté de 17,4 millions d'Écus sur un total de 49,47) dans le cadre du IVe Programme de Recherche Développement de la Communauté (PCRD).

•   Ce programme représente environ 5 % des montants engagés en Europe dans le domaine de la recherche. 32 % des fonds du PCRD (soit 3626 Mécus) sont consacrés aux technologies de l'information, classées en trois domaines :

•  applications télématiques,

•  technologies de communication avancées (ACTS),

•  enfin, le programme esprit.

A priori, le programme télématique est plutôt orienté vers des applications de service public ou d'ordre socio-éducatif ou socioculturel. Le programme ACTS (qui a pris le relais du programme RACE) concerne, pour sa part, davantage les techniques de télécommunications et de réseaux (large bande, intelligents, interactifs). Quant à ESPRIT, il intègre, plus en amont, la recherche sur les logiciels, les composants et les technologies multimédia (compression et stockage de données...).

J'ai déjà évoqué mes réserves sur les modalités d'affectation des crédits dans le cadre de réponses à des appels d'offres sur projets définis à partir de Bruxelles, sur la durée et les procédures lentes et bureaucratiques.

•   Dans le cadre de l'initiative européenne Eurêka (Recherche et développement, financée par les entreprises et les États, dont les objectifs sont proches des besoins du marché), un nouveau programme doit prendre le relais de JESSI. Il s'agit du programme MEDEA, doté de 2 milliards d'Écus, qui se concentrera, entre autres, sur le multimédia et la technologie de communication.

Un autre projet, dirigé par Thomson Multimédia, COMMEND, vise à développer une norme multimédia numérique unique pour l'exploitation des données quels que soient les terminaux et les moyens de transmission utilisés.

En dehors même de ces deux grands programmes stratégiques, le secteur des technologies de l'information domine l'ensemble des nouveaux projets labellisés.

b) Au niveau français

Le gouvernement s'est attaché, en priorité, pour le moment, à :

•  user de la méthode expérimentale, tout en stimulant le marché, avec au début de 1995, un appel à propositions ayant abouti à la sélection de 244 projets dont trois d'envergure nationale ;

•  aménager le cadre législatif et réglementaire (avec les deux lois précitées d'avril 1996 sur la réglementation des Télécommunications[47] et le statut de France Télécom). Deux organismes ont été créés : une Autorité de régulation des Télécommunications (ART) et une Agence nationale des fréquences (ANF) ;

•  soutenir la recherche et développement dans ce domaine (270 millions de francs sur le budget en 1996), mais pour plusieurs années ;

•  mettre en place un Fonds d'aide à l'édition de produits multimédia (30 millions de francs sur deux ans) ;

•  développer des applications dans les domaines de l'éducation et de la santé (voir encadré) ;

•  enfin, montrer l'exemple en utilisant lui-même ces techniques (sept ministères sont déjà dotés d'un serveur Web et la totalité devraient l'être avant la fin de 1997. La Documentation Française en sera pourvue. Un Intranet devrait relier les principales administrations centrales).

Actions dans les domaines de l'éducation et de la santé

I. Éducation (avec l'aide des collectivités locales)

1. Atteindre un équipement de un micro-ordinateur pour 20 élèves dans les collèges (+ 40.000)

2. Mettre les micro-ordinateurs dans une configuration multimédia dans les lycées (+ 25.000).

3. Faire passer de 500 à 700 le nombre de lycées, collèges, écoles raccordés à RENATER.

4. Développement et raccordement au kiosque Numéris de France Télécom de serveurs Web dans chaque académie.

5. Expérimentation sur quatre plates-formes de bouquets de services en ligne éducatifs accessibles par micro-ordinateurs dans des établissements scolaires.

II. Santé

Le projet SESAM-VITALE (4 milliards de francs) a pour objet de remplacer les feuilles de soins par un système de télétransmission sécurisé du cabinet du médecin vers les caisses d'assurance maladie. 400.000 cartes à puce devraient être distribuées aux professionnels de santé et 50 millions aux assurés sociaux.

L'ordonnance n° 96-345 du 24 avril 1996 relative à la maîtrise médicalisée des dépenses de soins prévoit de recourir en outre à l'informatique pour le recueil et l'échange d'informations, la gestion du carnet de santé, etc...

Il s'agit du plus grand chantier administratif en cours dans le domaine des technologies de l'information.

En outre, l'ANVAR a lancé un nouvel appel à propositions, à l'initiative du ministère des Télécommunications, en direction des P.M.E. (100 millions de francs). La priorité a été donnée aux innovations tendant à rendre l'accès aux services multimédias plus convivial et plus ergonomique. Plus de 600 dossiers ont été reçus.

Enfin, malgré la clôture du premier appel à propositions, le processus de labellisation se poursuit et un guichet unique a été mis en place pouvant déboucher sur une aide au financement des projets les plus innovants.

Votre rapporteur se félicite des mesures plus générales de soutien à l'innovation et d'aide aux P.M.E. innovantes prises par ailleurs (création d'un second marché, institution de fonds commun de placement dans l'innovation...) et, en ce qui concerne l'informatique, de la politique d'essaimage de l'INRIA. Il regrette, en revanche, l'assujettissement aux cotisations sociales des plus-values sur "stock-options" qui risque de pénaliser les créateurs d'entreprises.

2. Une mobilisation insuffisante

a) Au niveau budgétaire

Par rapport à l'ampleur de notre retard et à l'importance des enjeux, l'effort budgétaire de l'État, même s'il est en augmentation, n'est pas à la hauteur. Hors ce qui concerne donner l'exemple, se doter d'un serveur Web est facile et peu onéreux, même des particuliers connectés à Numeris peuvent le faire, se restructurer pour tenir compte de la réalité nouvelle est plus difficile, nécessite une stratégie continue sur plusieurs années et une volonté de modifier en profondeur un département ministériel.

Il est difficile d'effectuer des comparaisons mais, par exemple, le Québec, dix fois moins riche que la France, a créé un Fonds autoroute de l'information (FAI) doté de 20 millions de dollars canadiens (80 millions de francs) par an pour les 3 ans à venir et a décidé de raccorder à Internet toutes ses écoles. Le gouvernement canadien a investi 80 millions de dollars canadiens (320 millions de francs) dans le réseau canadien pour l'Avancement de la Recherche, de l'Industrie et de l'Éducation (CANARIE).

Selon notre ambassade à Washington, 1,3 milliard de dollars ont été consacrés en 1994 par l'administration fédérale américaine à l'ensemble des projets rentrant dans le cadre de la NII (National Information Infrastructure) dont 90 % au titre du HPCC (High Performance Computing and Communication Program). Les 100 millions de dollars restant ont servi à financer une première série d'expérimentation et de raccordement aux écoles, bibliothèques et hôpitaux.

En comparaison de ces sommes, les 17,4 millions d'Écus susmentionnés du PCRD pour le réseau transeuropéen TEN 34 paraissent ridicules !

Quant au niveau du financement par l'État français, il manque quelques zéros... D'autant plus que le secteur privé, en la matière, est loin d'être dynamique. Nous en avons déjà parlé. C'est général pour l'Europe.

Le fossé avec les États-Unis se creuse. Le P.D.G. d'IBM, Lucio Stanca, a fait remarquer, au printemps dernier que "les investissements européens dans les technologies de l'information seront inférieurs de 100 milliards de dollars à la dépense américaine" (210 milliards de dollars en Europe, selon l'International Planning and Research Group, contre 327 milliards aux États-Unis).

b) En ce qui concerne la francophonie

Dès lors que l'effort pour les inforoutes est ridiculement bas si l'on tient compte de l'importance des enjeux sociaux et économiques, il l'est pour la francophonie.

Or, il s'agit pour la France, à la fois d'un atout et d'un impératif :

•  un atout, pour élargir le marché des contenus en français diffusés à travers les réseaux ;

•  un impératif au regard de la défense du caractère international de notre langue et vis à vis des pays avec lesquels nous partageons son usage, en particulier ceux du Sud. Pour ces derniers, l'accès aux technologies de l'information et à leurs contenus constitue un facteur de développement et, s'agissant de pays francophones, doit pouvoir s'effectuer en français.

Concernant le Canada, Vidéotron a décidé :

•  de consacrer 3 millions de dollars (12 millions de francs) à la création de contenus éducatifs francophones,

•  d'offrir l'accès du Net à tous les établissements scolaires du Québec.

Un million de dollars par an du FAI (Fonds à l'autoroute de l'information), a été réservé à des projets franco-québécois dès 1996. Malgré les protocoles signés lors de la visite du gouvernement français à Montréal, rien n'a été concrétisé.

Pour ma part, j'avais suggéré que, parmi les projets labellisés à la suite de l'appel à propositions du gouvernement français, ceux qui peuvent être étendus au Québec le soient rapidement.

La francophonie au Canada ne se limite pas au Québec. L'ancien responsable de l'organisme canadien de régulation Keitle Spicer avait fait beaucoup pour le bilinguisme dans l'ensemble du Canada.

Dans son rapport intitulé Pour une stratégie francophone des autoroutes de l'information, le député Serge Poignant, membre de l'Office, estime, à juste titre que le dynamisme québécois doit nous servir de modèle. Il cite notamment :

•  les initiatives des milieux universitaires et industriels en matière d'infrastructures,

•  la création de contenus,

•  la recherche, particulièrement dans le domaine des logiciels (logiciel Tango produit par Alis Technologie, travaux du Centre de recherche informatique de Montréal ou de la Télé-université de Québec).

Le français doit être promu sur les autoroutes de l'information, dans le cadre d'un combat pour la diversité culturelle, mais aussi, sans complexe, en tant que langue internationale (même si tous les langages ont droit a priori à la même considération et au même respect).

On le dit. On le répète au plus haut niveau. Mais où est l'action ?

3. Un manque d'ambitions industrielles

Les velléités de politique industrielle du rapport Bangemann n'ont pas été reprises par la présidence du Conseil européen de Corfou. Or, si nous voulons être certains que les technologies de l'information créent des emplois en Europe, nous devons en être non seulement des utilisateurs, mais des pourvoyeurs.

De toutes les technologies de l'information, l'informatique (équipement et logiciel) est de loin la plus importante et aussi celle qui connaît les plus forts taux de croissance (d'après Dataquest, les ventes de micro-ordinateurs devraient progresser de 17 % par an en moyenne d'ici à l'an 2000). Or, c'est malheureusement dans ce domaine que les positions européennes sont les plus faibles par rapport à la concurrence américaine ou même japonaise.

A l'occasion du plus important salon européen de l'informatique, le CeBit, le P.D.G. de Bull, Jean-Marie Descarpenteries, a déclaré, en mars 1996, que "la dispersion de l'industrie informatique européenne est sa première source de faiblesse". Ce constat rejoint celui formulé, un peu plus tard en mai, par un autre Français, Robert Caillau, l'un des inventeurs du Web, dans le magazine Usine Nouvelle, selon lequel "l'Europe de l'informatique n'existe pas". Or, même si d'autres terminaux, très diversifiés se développent, l'ordinateur personnel demeurera un élément incontournable du développement des réseaux. Mais il s'agit d'un marché difficile sur lequel il est devenu primordial d'atteindre une taille critique.

Un regroupement d'Olivetti, d'Escom, de Bull et de l'informatique Siemens serait certes utile. Il faut ici vilepender avec ardeur les commentaires, et surtout l'influence, de certains commissaires, dont on veut croire qu'ils sont dictés par un dogmatisme aveugle. Car penser qu'ils sont liés à une trop grande influence de lobbyistes extérieurs serait injurieux.

"Rassembler nos forces" prescrivait M. Bangemann : les européens n'en donnent pas généralement l'impression (même s'il y a des exceptions comme le programme Eurêka Jessi auquel a succédé Médéa...). Ils ressemblent parfois à ces lilliputiens de Gulliver qui se disputaient pour ligoter un géant. Encore ce dernier était-il endormi et débonnaire, ce qui n'est pas le cas de nos concurrents.

Il existe des synergies à développer entre les secteurs convergents des télécommunications, de l'informatique et de l'électronique grand public et aussi entre le logiciel, les composants et les équipements (Intel, Microsoft et les fabricants de P.C. l'ont bien compris). Où voit-on poindre des regroupements ou des alliances européennes qui en tiennent compte ?

Ces alliances pourraient d'ailleurs comporter des firmes américaines dans certains cas, à condition que la dominante ne soit pas toujours à l'ouest de l'Atlantique.

La priorité par ailleurs doit être donnée aux techniques génériques et transversales (semi-conducteurs et logiciels). Mais pour cela, il faut une prospective, des ambitions industrielles.

Les technologies de l'information ont plus d'importance stratégique que l'Espace. Elles incluent, en effet, les télécommunications et l'informatique. Or, c'est parce que les Américains refusaient de lancer leur satellite de télécommunications Symphonie que l'Europe a décidé de développer la fusée Ariane dans les années soixante-dix.

C. Les conséquences en termes d'emplois

Bien sûr, la capacité stratégique dépend surtout de la bonne santé des industries d'équipement. Je viens de parler d'un manque d'ambition industrielle. Mais il faut savoir que la compétitivité de toutes les entreprises est menacée par un retard dans les usages.

Et c'est même dans des domaines apparemment très éloignés tels que l'agro-alimentaire ou l'hôtellerie, que les dégâts peuvent être considérables. La moitié des touristes américains se servent directement ou indirectement des inforoutes pour choisir leur site de vacances. Les grands magasins du monde entier sélectionneront leurs produits de consommation à partir d'Internet, etc.

Quant à l'industrie des contenus et des services, c'est bien sûr le plus grand réservoir d'emplois. La patrimoine et la culture française et européenne seront-ils promus uniquement par des sociétés de Silicon Alley à New York, de la Silicon Valley ou de Smart Toronto ? Il n'est pas question de leur interdire mais il n'est pas question de rester passifs.

En matière médicale, l'enseignement et l'aide au diagnostic sont déjà distribués en Arabie Saoudite et dans tout le Moyen-Orient à partir d'universités telles que Duke en Caroline du Nord. Et, bien entendu, les médicaments proposés provoquent des emplois aux États-Unis.

Dépenser des milliards pour des aides à l'emploi, certes oui ! Mais il faut choisir quels secteurs. Ceux qui sont porteurs d'avenir permettent, outre les emplois directs créés, de générer des profits qui en font créer d'autres. On semble avoir oublié que des concepteurs de services ou des informaticiens qui exportent permettent de créer des emplois d'artisans, de commerçants, dans les industries de biens de consommation, de payer des impôts et des cotisations sociales.

• • •

Soyons parmi les gagnants de l'entrée dans la Société de l'Information.

• • •



1 C'est déjà le cas aux États-Unis

2 Organisation pour la Coopération et le Développement Économique, "Technologie, productivité et création d'emplois", 1996.

3 Bureau d'informations et de prévision économique

4 Un raccourcissement des délais de paiement peut améliorer la trésorerie des entreprises. La télé-trésorerie permet l'intégration automatique des virements dans les chaînes comptables.

5 Thomas Malone, du MIT (Massachussets Institute of Technology), cité par le quotidien Le Monde, estime que "la révolution en cours aujourd'hui sera entraînée, non par des changements dans la production, mais par des changements dans la coordination". La hiérarchie traditionnelle se trouvera remise en cause par la formation de structures provisoires (adhocraties) constituées pour réaliser des tâches spécifiques.

Un autre article d'Usine Nouvelle (n° 2571 du 21 novembre 1996) cite l'exemple d'une firme danoise (Oticon) que l'abolition de toute forme de hiérarchie n'a pas empêché de devenir le n° 3 mondial des appareils auditifs (les travailleurs ont le libre choix de leurs horaires et de leurs tâches...). Tous les salariés de toutes les filiales devraient être reliés d'ici deux ans par un réseau Intranet. Le PDG cependant ... reste PDG !

6 Avec, par exemple, une standardisation des méthodes de gestion des stocks et de comptabilisation de certaines données par les différentes unités des entreprises ; une accentuation des contrôles des maisons mères sur leurs filiales ou des établissements commerciaux et bancaires sur leurs succursales ; ou, enfin, avec la mise en place de moyens de surveillance de la productivité des employés. Chez Chrysler, par exemple, l'usine de Graz, en Autriche, dépend, jusqu'au moindre détail, d'un centre régional de données qui se situe dans l'Illinois !

7 Liaisons avec la direction et les services fixes dans le cas de salariés, utilisation de l'ordinateur portable multimédia (publicité, gestion d'agenda, enregistrement de commandes, rapports, etc..) pour les indépendants comme pour les salariés.

8 Il est, à cet égard, désolant de constater, qu'alors que le projet Sesame-Vitale est expérimenté, on dépense en France de l'argent pour distribuer des carnets de santé dont, bien évidemment, la confidentialité est pour le moins douteuse.

9 Ce statut, assez particulier dans le contexte international actuel, s'imposait en fait pour des raisons constitutionnelles. Le préambule de la Constitution de 1946, toujours en vigueur, dispose en effet que "(...) toute entreprise, dont l'exploitation a ou acquiert les caractères d'un service public national (...) doit devenir la propriété de la collectivité".

10 150.000 $ de chiffre d'affaires et 200.000 communications par employé, ce qui est assez loin des performances des compagnies régionales américaines mais se situe dans une bonne moyenne européenne (selon Usine Nouvelle du 6 juin 1966).

11 L'expérience de Time Warner à Orlando en Floride correspond à un concept de réseau multiservices (FSN, Full Service Network). De nombreuses applications interactives (jeux, téléachat, éducation, plus tard services bancaires...) sont donc mises en œuvre à côté de la diffusion à la demande de programmes de télévision traditionnels. La voie de retour est intégrée au réseau.

12 Une banque, un opérateur, des organismes de cartes de crédit (Visa, Master Card), des concepteurs de logiciels (Microsoft) ou de systèmes de paiement sécurisés.

13 Le logiciel peut représenter la partie essentielle et la plus originale d'une œuvre multimédia parce qu'il y introduit, notamment, l'interactivité.

14 Le droit moral dont bénéficie l'auteur est particulièrement fort en droit français : il est perpétuel, inaliénable et imprescriptible. Il implique le droit au respect de l'œuvre au nom duquel l'auteur peut s'opposer à toute modification, altération, dénaturation de celle-ci.

Le droit de reproduction s'accompagne de l'interdiction légale, sans autorisation, de la scannérisation, ou de la numérisation avec retraitement de l'image.

15 Au titre de la loi du 18 mai 1994, le logiciel est une œuvre de l'esprit qui relève du droit d'auteur (et peut également bénéficier d'autres protections : brevets, droits des marques...).

Au delà du régime juridique et de l'apparence, la loi de 1994 traite cependant plus fondamentalement le logiciel comme une marchandise en lui appliquant un régime juridique davantage adapté aux biens industriels qu'aux créations littéraires et artistiques (cf. Mémento guide d'Alain Bensoussan, Les Télécoms et le droit).

16 Vice-président de la Compagnie nationale des experts judiciaires en informatique et techniques associées.

17 5.000 F par abonné plus le décodeur.

18 Si le coût de la fibre optique a beaucoup baissé, son déploiement jusqu'aux foyers, ou même seulement jusqu'au pied des immeubles ou au voisinage de groupes de maisons, est encore onéreux pour des raisons de connectique ou de génie civil.

19 Comme le système français Antiope, déjà ancien (il date de 1978), divers procédés utilisent les temps libres du retour de ligne, entre deux balayages, pour transmettre des données, indépendamment des signaux audiovisuels. Comme il ne s'agit pas de hauts débits, il n'en sera pas traité ici. On signalera seulement le très grand succès au Japon d'applications interactives (informations à la demande, achats...) d'un système de ce type (technologie VBI, Vertical Blanking Interval, développée par Wink).

20 Programmation décalée de films démarrant, par exemple, toutes les 15 minutes.

21 Fréquences supérieures à la voix ou rendues indisponibles par des interférences, des parasites ou des imperfections de la ligne.

22 Trente-trois en analogique. Le système permet de multiplexer plusieurs voies à bas ou moyen débit sur une voie à haut débit.

23 TDF (Télédiffusion de France) : établissement, filiale de France Télécom, chargé, entre autres, de l'installation et de l'entretien du réseau hertzien terrestre de télédifffusion.

24 L'IUT (Union internationale des Télécommunications) détermine les règles générales d'utilisation du "service fixe de terre" qui utilise les fréquences en question, mais les règles de communication entre points fixes ressortent au droit national !

25 Technique de la hiérarchie numérique synchrone ou d'accès multiple en fréquence.

26  Téléphone,

 VSAT (very small aperture terminal) : réseaux privés d'entreprises développés grâce à la réduction de la taille des équipements terrestres,

 SNG (small news gathering) : mini-stations utilisées pour les reportages.

27 Suppression de paramètres inutilisés et codages plus efficaces. Dans un très intéressant point de vue publié dans la revue Science le 5 mai 1995, Charles Mann suggérait par ailleurs de simplifier la tâche des routeurs par un système d'adresses plus topologique : des serveurs géographiquement peu éloignés deviendraient ainsi joignables par des itinéraires semblables. On sortirait un peu, en quelque sorte, du système actuel du "22 à Asnières".

28 L'HTML (Hypertext Mark up Language) a été créé en 1989 par un ingénieur du CERN (Centre européen de recherche nucléaire), Tim Berners Lee. Mais l'origine du concept est beaucoup plus ancienne puisqu'elle remonte à 1945 (cf. Le Monde du samedi 11 mai 1966).

29 "Browser" en anglais. Une fois n'est pas coutume, plusieurs traductions françaises de ce terme sont proposées : navigateur, mais aussi butineur (terme québécois), feuilleteur, etc.

30 Système multi-langage. A la différence de Java, le client interroge un serveur au moyen d'un protocole traditionnel.

31 Contrairement aux "plug-ins" qui sont téléchargés au préalable donc stockés sur le disque dur de l'ordinateur.

32 Ensemble complet et documenté de programmes conçus pour être fournis à plusieurs utilisateurs en vue d'une même application ou d'une même fonction (package en anglais).

33 Diba est une famille d'"ustensiles" informatiques mono-fonctions (information appliance) proposés par une start-up américaine avec une plate-forme matériel et logiciel de base commune.

34 Association Française de la Télématique Multimédia

35 Agence pour la diffusion de l'information technologique

36 Institut de recherche et coordination acoustique-musique

37 Trimedia de Philips, Mediaprocessor de Micro Unity System Engineering, Media Engine de Chromatic Research (à architecture parallèle).

38 60 milliards de dollars pour les États-Unis, soit davantage que les ventes de P.C. (48 milliards), la production de décodeurs de télévision numérique, de consoles de jeux vidéo, d'ordinateurs portables et d'assistans numériques personnels devant s'accroître très fortement.

39 Technologie d'écrans plats à micropointes : l'écran, recouvert de luminophores est bombardé par des électrons émis par une matrice d'éléments émissifs (des micropointes obtenues par micro-lithographie) sous l'effet d'une tension électrique.

40 Le chiffre d'affaires a reculé de 4,3 %, les pertes, historiques, s'expliquant en grande partie par des provisions pour restructuration et des charges exceptionnelles de personnel (pensions et retraites, etc...).

41  En Allemagne :


· AT & T Unisource + Mannesmann + Deutsche Bahn


· Cable & Wiralev + Vebacom


· Thyssen + Bell South

 En France : Bouygues allié à la STET (Telecom Italia) et à l'allemand VEBA compte postuler à l'appel d'offres lancé par la SNCF.

42 4300 chercheurs (le seuil de crédibilité paraissant se situer aux alentours de 3000) et 5,4 milliards de francs de dépenses en 1995 (dont 2,5 milliards de contrats d'études passés aux industriels).

43 Autour de la Lyonnaise des Eaux ou de Bouygues (allié à la STET italienne) ?

44 Technologie VLIW (Very Long Instruction Word) de traitement superparallèle qui repousse les limites de la technologie RISC (voir plus haut) en reportant, comme elle, une partie des fonctionnalités de la puce sur le logiciel.

45 De 5,5 (Intel) à 7,5 (Samsung, Siemens) ou même 12 milliards de dollars (Motorola).

46 Le CNET doit continuer, dans un premier temps, à superviser les activités des deux GIE grenoblois (groupements d'intérêt économique) spécialisés dans les composants silicium : le GRESSI avec le CEA et le Centre commun de Crolles auvec SGS-Thomson.

47 Une vingtaine de décrets d'application, sauf celui concernant l'interconnexion des réseaux, soumis à l'ART, doivent être publiés début 1997.