Allez au contenu, Allez à la navigation



Les conséquences de l'évolution scientifique et technique dans le secteur des télécommunications

 

Rapport de l'OPECST n° 159 (2001-2002) de MM. Pierre LAFFITTE et René TRÉGOUËT, fait au nom de l'Office parlementaire d'évaluation des choix scient. tech., déposé le 20 décembre 2001

Disponible au format Acrobat (364 Koctets)

N° 3519

ASSEMBLÉE NATIONALE

CONSTITUTION DU 4 OCTOBRE 1958

ONZIÈME LÉGISLATURE

 

N° 159

SÉNAT

SESSION ORDINAIRE DE 2001-2002

Enregistré à la Présidence de l'Assemblée nationale

Annexe au procès-verbal de la séance du

le 20 décembre 2001

20 décembre 2001

 

OFFICE PARLEMENTAIRE D'ÉVALUATION

DES CHOIX SCIENTIFIQUES ET TECHNOLOGIQUES

 

RAPPORT

sur

LES CONSÉQUENCES DE L'ÉVOLUTION SCIENTIFIQUE ET TECHNIQUE
DANS LE SECTEUR DES TÉLÉCOMMUNICATIONS,

par

MM. Pierre LAFFITTE et René TRÉGOUËT,

Sénateurs.

           

Déposé sur le Bureau de l'Assemblée nationale

par M. Jean-Yves LE DÉAUT

Président de l'Office.

Déposé sur le Bureau du Sénat

par M. Henri REVOL

Premier Vice-Président de l'Office.

Postes et télécommunications.

«  Ce « téléphone » a beaucoup trop de défauts pour qu'il puisse un jour être considéré comme un outil de communication. Cet équipement n'a donc aucune valeur à nos yeux. »

(Mémo interne de la Western Union, 1876)

«  Il n'y a aucune raison valable pour que quiconque ait envie d'avoir un ordinateur chez lui. »

(Ken Olsen, président et fondateur de Digital Equipment Corp., 1977)

AVANT-PROPOS

Lors de sa réunion du 17 mai 2000, le Bureau de l'Assemblée nationale a décidé de transmettre à l'Office parlementaire d'évaluation des choix scientifiques et technologiques, une demande présentée par M. Philippe DOUSTE-BLAZY, Président du Groupe de l'UDF, tendant à saisir notre Délégation d'une étude sur « les conséquences de l'évolution scientifique et technique du secteur des Télécommunications ».

A l'occasion de cette réunion, le Bureau de l'Assemblée nationale a « souhaité que l'étude prenne en compte la suggestion, présentée à titre individuel », par un de ses membres, M. Pierre-André WILTZER, d'examiner « les incidences éventuelles de la téléphonie mobile dans le domaine de la santé ».

En raison du caractère inusité de cette dernière procédure et du degré d'éloignement du sujet principal de la saisine qu'elle impliquait, vos rapporteurs avaient estimé qu'il était nécessaire de traiter le problème soulevé par M. Pierre-André WILTZER dans une partie séparée.

Ils ont donc présenté à l'Office, le 31 janvier 2001, l'étude de faisabilité correspondant à cette saisine en lui demandant que le sujet, -connexe, mais important- soulevé par M. Pierre-André WILTZER, fasse l'objet d'une étude séparée. Ce que l'Office a accepté.

*

* *

Le 5 juin 2001, après avoir entendu plus de cinquante personnes, ils ont jugé indispensable de présenter à l'Office une communication intitulée « L'urgence d'agir », aux termes de laquelle ils recommandaient aux pouvoirs publics de reconsidérer les conditions d'attribution des bandes de téléphonie mobile de troisième génération et de prendre des mesures propres à rattraper le retard inquiétant pris par la France dans le domaine de l'Internet à haut débit.

Quoique avec retard sur le premier point, ils se réjouissent d'avoir été entendus.

Mais les encouragements au développement d'un secteur devenu stratégique pour la croissance et l'emploi des quinze années à venir sont-ils suffisants ?

C'est la question à laquelle ce rapport se propose d'apporter des éléments de réponse.

INTRODUCTION

Les télécommunications s'entendent de l'ensemble des procédures de transmission et de réception d'informations à distance.

Depuis son apparition, à la fin du XIXème siècle, ce secteur a été en évolution constante et diversifiée : télégraphe Chiappe, télégraphie filaire, câblage sous-marin, télégraphie sans fil, téléphone, radio, télévision, utilisation de satellites, etc. Ceci, soit du fait des progrès propres à ce secteur, soit du fait de l'utilisation d'autres avancées technologiques.

Le mentionner, c'est affirmer que les progrès des télécommunications ont largement accompagné l'ensemble des acquis scientifiques et technologiques depuis la fin de la première révolution industrielle.

Mais, depuis une dizaine d'années, deux dominantes de l'évolution de ce secteur se sont esquissées, puis profilées et sont en voie de s'imposer.

D'une part, on assiste à une convergence des domaines d'application entre lesquels le secteur s'était segmenté (transports du texte, de la voix, et de l'image) ainsi qu'au développement d'une interopérabilité entre les techniques de transmission et de réception, fixe et mobile. Ceci signifie qu'à un horizon d'une décennie, chacun d'entre nous pourra recevoir et émettre du son, du texte et de l'image n'importe où et sur tout support. Ceci implique également que chacun d'entre nous vivra dans un réseau d'objets communicants dont l'offre de service s'appliquera aux domaines les plus quotidiens de notre vie, en situation résidentielle comme en situation nomade.

D'autre part, en conjugaison avec l'informatique, le secteur des télécommunications n'est plus seulement un facteur d'accompagnement du progrès économique, mais un élément moteur de ce progrès. Déjà prévalent aujourd'hui, il sera probablement décisif dans les vingt prochaines années.

Selon une étude du BIPE, réalisée pour le Ministère de l'Industrie, la contribution directe de ce secteur à la croissance a représenté en 2000 de 0,6 % à 1,6 % de point de PNB et ceci est amené à augmenter rapidement. Notamment parce que l'on assiste à la transition entre une économie de marché classique et une économie de réseaux à flux continus, dans laquelle les individus seront de plus en plus disposés à payer, non pour la valeur intrinsèque des biens, mais pour leur usage, en fonction d'une durée dont ils décident librement.

Ce phénomène est probablement porteur de transformations considérables et, comme tel peut apparaître menaçant. Mais, dans un contexte où la mondialisation et les tentations de délocalisation menacent le modèle social européen, il incarne une espérance dont il est essentiel d'encourager la réalisation.

*

* *

Dès lors, cette étude s'efforcera de décrire les traits dominants de l'évolution scientifique et technologique du secteur et certaines des mutations économiques et sociales que cette évolution produira, puis d'exposer les obstacles qui ralentissent cette transformation et, enfin, de présenter des propositions.

PREMIÈRE PARTIE :

L'ÉVOLUTION DU SECTEUR DES TÉLÉCOMMUNICATIONS EST PORTEUSE DE MUTATIONS ÉCONOMIQUES
ET SOCIALES DONT ON NE MESURE PAS ENCORE LA PORTÉE

Dans le passé, les grandes avancées technologiques ont été suffisamment identifiables pour que l'on ait pu assez rapidement discerner une partie des évolutions économiques et sociales qu'elles allaient entraîner.

Par exemple, par les changements physiques qu'elles ont impliqués en leur temps, l'automobile ou l'aviation ont offert des substituts assez lisibles aux modes de transports précédents.

Les progrès scientifiques et techniques des télécommunications ne procèdent pas de ruptures aussi spectaculaires, mais résultent, plutôt, de la poursuite des avancées scientifiques et technologiques de deux domaines, l'informatique et l'optique et de la confluence de ces progrès. Se greffant le plus souvent sur des objets connus (l'ordinateur, l'automobile et même le téléphone portable qui a, rappelons-le, plus de quinze ans), ils ne présentent pas toujours des alternatives claires aux pratiques et aux usages sociaux en vigueur.

Par ailleurs, l'écart qui existe entre le prophétisme technologique qui entoure cette évolution et sa matérialisation dans la vie quotidienne - dont la mise en oeuvre différée de la téléphonie mobile de troisième génération est le plus bel exemple - génère scepticisme ou indifférence dans les mentalités collectives.

De plus, la crise que connaissent ces secteurs dans le contexte actuel de ralentissement économique mondial pourrait également conduire à retarder la prise de conscience de l'importance des conséquences de l'évolution scientifique de ce secteur et des transformations de société à la source desquelles elle se trouvera.

Ce serait à tort.

CHAPITRE I :

LES TRAITS DOMINANTS DE L'ÉVOLUTION SCIENTIFIQUE ET TECHNIQUE
DU SECTEUR DES TÉLÉCOMMUNICATIONS

Sur un arrière-fond de mondialisation de l'économie -dont on ne peut naturellement pas méconnaître les effets en termes de marché, et compte tenu de l'évolution qu'a représentée le développement d'Internet depuis près de quinze ans, l'évolution scientifique et technologique du secteur est principalement commandée par trois faits incontournables : la constance des progrès de l'informatique, l'apparition après 1995 de la fibre optique à haut débit, le développement explosif de l'usage des mobiles et donc de l'utilisation des fréquences hertziennes numériques, satellitaires ou terrestres.

Depuis un quart de siècle, l'évolution de l'informatique professionnelle et personnelle a été un facteur incontesté de développement mais également de reconfiguration économique

Ses premières mises en relation avec les télécommunications ont abouti à la mise en oeuvre du réseau Internet1(*) et du courrier électronique.

Mais, depuis l'apparition de la fibre optique à haute capacité, le développement de la mobilité et l'augmentation de la puissance de traitement des composants informatiques, les perspectives qu'offraient ces premières mises en relation ont été démultipliées.

Ces confluences sont le support technologique indispensable à la mise en place de la nouvelle économie.

A. L'ACCÉLÉRATION DES PROGRÈS DE L'INFORMATIQUE

1. Les composants et les langages

Formulée à la fin des années soixante par un des dirigeants d'une des principales firmes du secteur, la loi de Moore constatait que la puissance des composants électroniques doublait tous les 18 mois-24 mois à coûts constants et postulait la poursuite de cette évolution.

Cette prédiction s'est à peu près réalisée.

Le nombre de transistors est passé de 2.300 au cm² en 1970, à 1 million en 1992, à 14 millions en 2001 au cm2, avec un objectif annoncé de 24 millions en 2003.

Ce dernier chiffre correspond à des transistors de 0,1u de côté.

En-deçà, on côtoie ce que les spécialistes du secteur appellent « le mur de briques », c'est-à-dire le constat de l'impossibilité technologique actuelle de progresser pour des raisons diverses (nombre d'atomes insuffisant pour assurer la conductivité, problème de résistance à la chaleur parallèlement à la montée en puissance de traitement, difficultés croissantes d'interconnexion des transistors, etc.).

Ceci ne signifie pas que la course à la miniaturisation ne se poursuivra pas au-delà de 2005, mais, qu'à un horizon de 10 à 15 ans, et à une taille comprise entre 0,5 u et 0,01 u, il sera probablement nécessaire de changer totalement de technologie de conception et de fabrication.

S'agissant des langages et logiciels informatiques, une floraison d'opérateurs industriels, parmi lesquels le plus connu, MICROSOFT, mais aussi la plupart des industriels informatiques, IBM, APPLE, SUN et plus récemment ORACLE, et les milieux scientifique et universitaire ont créé et développé presque ex nihilo une « industrie informatique et une industrie de services » considérables. Ceci a été un facteur indispensable au succès de l'informatique dans les 20 dernières années.

2. Les conséquences

Les conséquences de cette accélération des progrès de l'informatique sont assez connues pour qu'on ne les détaille pas, mais suffisamment importantes du fait de leurs effets sur le secteur des télécommunications pour qu'on les mentionne.

a) L'augmentation de la puissance de traitement des ordinateurs et des serveurs informatiques :

Elle a permis d'asseoir une offre d'équipements et de services informatiques, régulièrement renouvelée. Elle a diversifié les usages des terminaux informatiques, industriels ou domestiques, et permis de traiter du texte, du son et des images - ces dernières dans des conditions qui deviennent proches de la télévision numérique. C'est la convergence en marche.

b) La baisse des coûts

La baisse des coûts s'apprécie surtout en valeur relative, au regard de l'augmentation des services offerts à prix constants - ou en faible diminution. Elle a eu pour résultat de consolider constamment la contrepartie de demande à l'offre qui s'enrichissait et se diversifiait de façon continue.

c) L'accroissement de l'ergonomie et la convivialité homme-machine

L'accroissement de l'ergonomie des applications informatiques a également eu pour effet de développer et de diversifier la demande. Sur ce point, chacun peut se rappeler la complexité des opérations de la mise en oeuvre d'un système d'exploitation d'ordinateur personnel au début des années quatre-vingt et la comparer aux facilités d'accès actuelles.

L'approfondissement de cette convivialité d'utilisation sera de plus en plus essentielle.

d) La miniaturisation

La miniaturisation, qui est un sous-produit des progrès des capacités de traitement des composants, a encore enrichi l'offre qu'il s'agisse des téléphones portables2(*) ou des pilotes palmaires et équipements périphériques de toute nature. Elle aura, à terme, des effets décisifs dans le secteur encore inexploré des microtélécommunications qui sera une des zones les plus actives de l'offre dans les dix prochaines années.

Au terme de cette analyse, volontairement brève parce qu'amplement décrite par ailleurs, un fait doit être souligné car il est de première importance pour les relations entre l'informatique et les télécommunications et pour l'avenir économique de ces deux secteurs :

- dans un premier temps, la perspective s'est inversée. D'un système où les réseaux de télécommunications étaient puissants par rapport à la masse d'information qu'ils étaient appelés à transporter et où la capacité des terminaux à traiter cette information(3(*)) était faible, on est passé à une situation inverse.

- le maintien de ce déséquilibre aurait probablement menacé à terme le développement du marché de l'informatique, l'apparition depuis 1994-1995 de la fibre optique à grande capacité et les progrès massifs de la mobilité, donc de l'usage des fréquences hertziennes, modifiant profondément cette inéquation pessimiste.

B. LE DÉVELOPPEMENT DES FIBRES OPTIQUES À HAUTE CAPACITÉ

1. L'augmentation des débits

Grâce au développement des lasers, la fibre optique est de plus en plus utilisée depuis une vingtaine d'années.

Dans sa version d'origine, il s'agit d'une fibre unimodale destinée à assurer la transmission d'émissions de télévision en multipliant le nombre de canaux disponibles.

Cette technique est plus coûteuse que le câblage en cuivre qui assurait à peu près les mêmes fonctions. Elle ne permet pas la réémission d'un signal par l'utilisateur (nécessaire à l'utilisation d'Internet et du courrier électronique). Sa capacité est aujourd'hui insuffisante au regard des perspectives offertes par le développement de l'Internet à haut débit.

L'innovation technique majeure des cinq dernières années (le tournant se situe vers 1994-1995) a consisté, grâce au multiplexage optique, à multiplier par un facteur qui dépasse déjà 100 le débit utile de ces fibres optiques (on évoque une capacité théorique de transport de 200 Tbits/s(4(*)) par fibre).

Cette multiplication correspond à l'augmentation de la quantité d'information transportée sur chaque longueur d'onde, et à l'utilisation d'un nombre toujours croissant de longueurs d'onde différentes sur une même fibre.

L'arrivée à maturité de cette nouvelle technique de multiplexage, reposant sur une démultiplication des longueurs d'ondes utilisées (WDM ou Wavelength Division Multiplexing) accroît considérablement les capacités du support optique puisqu'elle démultiplie une seule fibre en multiples canaux virtuels. Cette technique dite du WDM s'est améliorée (DWDM ou Dense WDM) et permet de mettre en oeuvre 160 canaux virtuels. Le progrès n'est pas terminé.

Cette percée technologique comporte plusieurs avantages :

- elle autorise les transports d'informations de hauts débits ;

- le rapport de capacité entre une fibre optique à 100 longueurs d'onde et un câble de cuivre est d'1 à 10.000 ;

- elle est neutre au regard des protocoles situés en amont et en aval de la transmission (ATM5(*), IP) ;

- elle offre au réseau une très grande flexibilité de gestion car elle possède une faculté de reconfiguration rapide permettant de faire face à une demande accrue et inopinée d'utilisation de la bande passante (c'est-à-dire de l'utilisation du réseau entre deux points) ;

- elle permet un déploiement échelonné car chaque opérateur, au fur et à mesure de la croissance de ses besoins, peut installer des longueurs d'onde supplémentaires sans changer les équipements de base ;

- enfin, elle est plus sûre car plus difficile à pirater.

Dans ces conditions, on comprend que s'installent rapidement des coeurs de réseaux de télécommunications en fibre optique qui se substituent aux réseaux traditionnels de transmission ou les dédoublent.

2. L'augmentation des capacités optiques de traitement

S'il est acquis que la fibre optique est le moyen le plus adapté à la transmission à haut débit, les terminaux auxquels ces transmissions sont destinées sont électroniques.

D'où la nécessité de convertisseurs, assurant, à un moment ou à un autre, la rupture de charge entre la lumière et l'électricité.

Actuellement, ces convertisseurs sont électroniques et installés relativement en amont du système puisqu'ils en assurent également la commutation, c'est-à-dire le routage et la maintenance des demandes de changements qui interviennent à tout moment sur le réseau - assurant en quelque sorte le rôle des bretelles des noeuds autoroutiers.

Mais le rapport de puissance qui s'est établi entre les débits optiques et les débits électriques est un frein au développement de la transmission optique à haut débit, les commutateurs électroniques n'ayant ni la capacité de traitement ni la souplesse d'utilisation nécessaires à la mise en oeuvre massive de ces techniques.

C'est pourquoi, la plupart des équipementiers développent des recherches dans le domaine de la commutation optique.

Ces recherches qui sont un des domaines les plus dynamiques du secteur débouchent sur des commutateurs optiques autorisant le traitement de 40 Gbits/s par longueur d'onde, soit une puissance totale de traitement de l'ordre d'1 Tbit/s par commutateur (pour 16 longueurs d'onde et 16 fibres).

On aboutit ainsi à la mise en place de routeurs ou de commutateurs optoélectroniques à grand débit, la partie optique assurant, dans les noeuds du réseau, le trafic de transit et la partie électronique prenant en charge les demandes d'extraction et de réinsertion en provenance des réseaux locaux.

C. L'EXPLOSION DE LA MOBILITÉ ET L'APPEL À L'USAGE DES FRÉQUENCES HERTZIENNES

1. Le développement accéléré de la téléphonie mobile

a) Le GSM

Dans le monde, le nombre d'abonnés à un réseau de téléphonie mobile a progressé de façon spectaculaire depuis trois ans, passant de 205 millions, fin 1997, à 725 millions, fin 2000 :

 

Abonnés au mobile

(en millions, fin 1999)

Taux de pénétration

(%)

Abonnés au mobile

(en millions, fin 2000)

Taux de pénétration

(%)

Croissance

1999-2000 (%)

Europe de l'Ouest

Allemagne

France

UK

Italie

154,1

23,1

20,3

23,9

30,4

39,6

28,1

33,4

40,5

52,8

244,5

47,6

30,4

39,2

40,9

62,9

58,0

49,9

66,3

70,9

58,7

106,3

49,5

63,7

34,3

Amérique du Nord

USA

93,3

86,0

30,7

31,5

119,2

110,0

39,3

40,3

27,7

27,8

Amérique latine

41,0

8,1

67,0

13,2

63,4

Asie/Pacifique

Japon

Chine

154,6

48,5

44,2

4,3

38,3

3,4

233,0

61,1

86,5

6,4

48,3

6,9

50,7

26,1

95,7

Europe de l'Est

13,1

6,7

25,0

12,8

90,5

Afrique/Moyen- Orient

21,3

2,3

38,3

4,1

80,0

TOTAL

477,5

8,0

727,1

12,2

52,3

Comme le montre le tableau ci-après il se rapproche, côtoie et même, dans certains pays, dépasse le nombre d'abonnés à une ligne fixe.

 

Lignes fixes (en millions)

Abonnés au mobile

(en millions)

Total des abonnés au téléphone (fixe+mobile)

Pourcentage des téléphones mobiles

Pourcentage des abonnés au mobile

(fin 1999)

Europe de l'Ouest

Allemagne

France

UK

Italie

217,7

49,2

34,5

34,5

26,5

244,5

47,6

30,4

39,2

40,9

462,2

96,8

64,9

73,7

67,4

52,9

49,2

46,8

53,2

60,7

41,4

31,9

37,1

41,0

53,4

Amérique du Nord

USA

210,1

189,1

119,2

110,0

329,3

299,1

36,2

36,8

30,8

31,3

Amérique latine

74,6

67,0

141,6

47,3

35,5

Asie/Pacifique

Japon

323,8

66,6

233,0

61,1

556,8

127,7

41,9

47,9

32,3

42,1

Europe de l'Est

60,6

25,0

85,6

29,2

17,8

Afrique/Moyen- Orient

54,0

38,3

92,3

41,5

28,3

TOTAL

940,8

727,1

1667,9

43,6

33,7

Ces données extraites d'un rapport récent de l'IDATE6(*) appellent plusieurs observations :

- si, en Europe, la téléphonie mobile a continué à progresser en 2000- et a encore progressé en 2001, les taux de pénétration, qui s'y situent entre 50 et 70 % de la population totale, conduisent à estimer que son avance y sera dorénavant plus lente,

- le taux relativement faible de pénétration aux États-Unis est imputable à l'absence de standardisation,

- il existe un marché potentiel immense dans la zone Asie-Pacifique, et notamment en Chine où le taux de pénétration de la téléphonie mobile n'était que de 7 % à la fin 2000,

- enfin, le retard de la France dans ce domaine doit être, comme le note le dernier rapport de l'Autorité de régulation des télécommunications (ART), tempéré dans la mesure où une révision des méthodes de comptabilisation des cartes prépayées pourrait aboutir à le relativiser.

Un autre phénomène mérite d'être mis en évidence : l'apparition d'un trafic de messagerie, les SMS (en 2000, selon le rapport précité de l'ART, plus de deux milliards de messages ont été échangés depuis et à destination de réseaux mobiles).

b) Les extensions de la téléphonie mobile à l'Internet

L'extension des usages du mobile est essentielle pour le bouclage de la chaîne télécommunications-informatique de demain. On imaginerait mal, en effet, que les efforts actuellement entrepris pour assurer un lien entre la fibre à haut débit et les terminaux se limitent aux communications fixes, dans un monde où les usagers pratiquent de plus en plus le nomadisme professionnel ou personnel.

Car, si le haut débit dans un contexte d'utilisation totalement mobile reste à ce jour délicat, l'objectif de la mobilité consiste surtout aujourd'hui à rendre les services offerts neutres vis-à-vis du contexte fixe ou nomade.

Sur ce point, la réalisation de la mobilité de l'accès à l'Internet à haut débit est la clef de voûte du système.

Mais si cette nécessité s'inscrit en perspective, les conditions de sa réalisation ne sont pas acquises.

Ce, pour toute une série de motifs qui sont analysés en deuxième partie de ce rapport, mais dont le principal est qu'il serait dangereux d'inférer de la translation rapide en mobilité de l'usage de la téléphonie fixe, acquis depuis longtemps, la même translation sur un usage qui ne l'est pas encore.

L'utilisation de l'Internet à bas débit n'est pas généralisée et celle de l'Internet à haut débit entre à peine dans les moeurs.

Une transition est donc nécessaire entre la téléphonie mobile de deuxième génération (GSM) et la téléphonie de troisième génération (UMTS) ou même de quatrième génération.

Vos rapporteurs mentionneront, parce qu'il est exemplaire, l'échec du WAP (Wireless application protocol, permettant de transmettre des pages Internet sous une forme allégée à des téléphones portables) imputable à la fois à la lenteur de son fonctionnement et à un modèle de facturation au temps qui aboutissait à facturer à l'usager les imperfections du système.

Les opérateurs développent actuellement deux systèmes de téléphonie marquant une amélioration vis-à-vis du GSM : le GPRS (Global Packet Radio System), et l'i-mode japonais.

le GPRS

Cette technologie intermédiaire entre la deuxième et la troisième génération de téléphonie mobile permet, en utilisant les fréquences et les réseaux - rééquipés - du GSM, de proposer des débits de l'ordre de 30 à 40 kbs7(*) (9 kbs pour le GSM) qui autorisent une transmission plus rapide du texte. Ses caractéristiques techniques (transmission par paquets) permettent, en outre, une facturation au débit.

Son déploiement, freiné par des problèmes de compatibilité entre les terminaux de différents équipementiers, commence à s'effectuer en Europe en ce dernier trimestre 2001.

L'intérêt de ce système, c'est qu'il constituera un laboratoire pour les usages de la mobilité, s'agissant aussi bien de la transmission de textes que de l'offre de services de télécommunication.

l'i-mode

Lancé en février 1999 par l'opérateur japonais Docomo, l'i-mode, qui a attiré plus de 20 millions d'abonnés au Japon, offre un accès à plus de 30.000 sites Internet.

Mais, ce succès doit être mesuré aussi exactement que possible.

Les performances technologiques du système demeurent modestes -lenteur relative du réseau, prédominance des textes disponibles sur l'image. Par ailleurs, le chiffre d'affaires généré par le trafic de voix reste prédominant, de l'ordre de 90 %.

Mais, à l'opposé, ce système constitue un modèle exemplaire en matière commerciale, dans la mesure où Docomo a réussi à maîtriser l'ensemble de la chaîne d'équipement de service, du terminal à la facturation.

Et, dans ce cadre, il faut - sous réserve des spécificités culturelles japonaises - insister sur les enseignements de cette expérience, qui nous montre que les services de télécommunication mobile ne doivent pas se limiter à la transmission de données Internet.

c) Les générations ultérieures de téléphonie mobile

La dynamique de croissance des réseaux de deuxième génération a conduit les régulateurs internationaux des fréquences à resserrer un espace de fréquences à la troisième génération de téléphonie mobile.

Les bandes de fréquences pour ces systèmes ont été identifiées lors de la conférence mondiale des radiocommunications de 2000 (autour de 2 MHz, avec des extensions autour de 2,5 MHz) et l'UIT (Union internationale des télécommunications) travaille à la normalisation technique dans le but d'obtenir le maximum de compatibilité entre les nombreuses propositions concurrentes (dont l'UMTS, qui est l'appellation européenne), à défaut d'arriver à les fusionner en une norme unique.

Les caractéristiques générales des systèmes UMTS ou IMT-2000 renvoient d'une part à l'objectif d'itinérance au niveau mondial, particularité des réseaux de troisième génération, et d'autre part à la fourniture d'un service de mobilité complète ouvert au public, dépassant les limitations dues à la multiplicité des systèmes et des réseaux actuels et permettant de satisfaire de nouveaux besoins à la fois auprès du grand public (services à la valeur ajoutée à l'instar des services du Minitel ou de l'Internet), des professionnels et des entreprises (extension des solutions intranet/extranet au personnel nomade des entreprises).

Dans une première phase, l'UMTS utilisera les réseaux de transport de deuxième génération avec une interface radio de troisième génération (UTRA) et permettra d'offrir en mobilité l'accès à des débits de 384 kbits/s. De plus, le décalage dans les travaux de normalisation sur les deux composantes de l'UTRA conduira à déployer ultérieurement le mode W-CDMA FDD qui est plus adapté aux communications asymétriques (comme le transfert de données) et qui devrait atteindre 2 Mbits/s.

Les besoins à couvrir à ce niveau de débit sont pour partie identifiés : accès aux services et contenus de l'Internet actuel (images fixes et fichiers) pour le marché grand public et solutions intranet/extranet pour le marché des entreprises. Toutefois, ces besoins pourront également être en partie couverts par les opérateurs de deuxième génération, étant précisé que la montée en puissance actuelle de la téléphonie mobile aboutit à des effets de saturation d'un réseau que les opérateurs ne souhaitent pas nécessairement moderniser sur une base technique qui sera dépassée d'ici quelques années.

Encore est-il nécessaire de souligner que les techniques de troisième génération ont fait l'objet d'effets d'annonces optimistes quant à leur maturité technologique.

Il y a encore six mois, un terminal UMTS avait la taille d'un petit réfrigérateur.

Et si un équipementier vient de livrer à ses clients les premiers terminaux UMTS, c'est uniquement pour procéder à des tests.

Les réseaux n'étant, par ailleurs, pas encore déployés, il est plus que probable que l'horizon de mise en oeuvre de services de téléphonie mobile de troisième génération est glissant : plutôt qu'une mise en place en 2002-2003, comme l'avait primitivement envisagé l'Union européenne, il semblerait plus raisonnable d'escompter un déploiement sur 2003-2005 avec des effets de marché significatifs à partir de 2006.

d) Les techniques de navigation et de positionnement8(*

Les technologies de navigation et de positionnement sont utilisées depuis plus de vingt ans. A côté du GPS américain, les pays européens s'efforcent de mettre en oeuvre leur propre architecture dans le projet Galileo, dont les phases successives sont prévues comme suit9(*) :

- phases de développement et validation - y compris la validation orbitale du système - : de 2001 à 2005, l'Union européenne ayant accepté de financer cette phase à proportion de 50 % ;

- phases de déploiement : de 2006 à 2007, comprenant le lancement des satellites et la mise en place du segment sol ;

- phase d'exploitation : dès 2008.

Il n'est pas utile d'insister sur les enjeux stratégiques et économiques du programme, dont le marché de services est évalué à 22 milliards d'euros en 2015.

Mais dans le cadre de cette étude, il revient surtout à vos rapporteurs d'insister sur un point.

A côté de ses usages civils classiques (prévention des risques naturels, géodésie, agriculture de précision, cartographie, météorologie, etc.), la navigation par satellites développe des liens croissants avec les systèmes de télécommunications (par exemple dans le domaine, si important aujourd'hui, de la logistique à flux tendus).

C'est une manifestation supplémentaire de l'intégration progressive de l'ensemble des techniques de communication, en particulier en situation de mobilité.

e) le problème des fréquences 

Dès aujourd'hui, les usagers de la téléphonie mobile sont périodiquement confrontés à des problèmes de saturation de fréquences.

Ceci met en évidence un problème qui deviendra crucial dans les années à venir si l'on n'y prend garde : la raréfaction des fréquences disponibles.

Même si, à l'échelon européen, des bandes de fréquences larges ont été réservées à la téléphonie mobile de troisième génération, certains de nos interlocuteurs se sont interrogés sur le point de savoir si ces attributions de fréquences seront suffisantes pour satisfaire à un usage généralisé de la mobilité pour l'accès à l'Internet à haut débit.

Et ce qui est vrai des fréquences hertziennes l'est également des fréquences satellitaires, notamment pour les constellations en orbite basse qui peuvent être, à l'avenir, un des supports de la mobilité, même si les échecs financiers de certaines de ces constellations tendent à reporter ces perspectives.

Ce problème sera abordé de façon plus détaillée dans la deuxième partie de ce rapport.

*

* *

L'ensemble de ces progrès technologiques -qui, rappelons-le, sont supportés par des avancées importantes en sciences fondamentales- se traduit déjà, et se traduira de façon croissante, par une augmentation des débits d'information véhiculés et des contraintes liées à leur diversité d'adressage

Le constater, c'est poser le problème de l'architecture des réseaux dans lesquels circulera cette information.

La vision d'avenir qui suppose qu'à terme tout usager pourra recevoir et transmettre « toute information à tout moment, en tout lieu et sur tout support » suppose que tous les réseaux soient totalement interopérables.

Dans un contexte d'augmentation des capacités et de la demande de transmission, ces réseaux devront ainsi assurer l'unification :

- de l'intervention de multiples opérateurs, nouveaux et anciens, y compris des opérateurs virtuels louant mais ne possédant pas de réseaux propres,

- de l'offre démultipliée de services informatiques, services de télécommunications, services multimédia interactifs (voix, données, images).

Ceci, dans une configuration où au sein même du réseau de chaque opérateur, coexistent plusieurs technologies comme le protocole ATM qui permet d'offrir des services de transport de voix et de données et l'actuel protocole Internet qui, actuellement, est très majoritairement dédié au transport de données.

Les fonctions des réseaux devront évoluer en conséquence. Elles incluront notamment la montée permanente des débits à l'accès et dans les réseaux « coeur » , l'adaptation des techniques de routage, de gestion du trafic pour de très grands réseaux supportant de nombreux types de services de transport, aux exigences différentes, ce qui suppose : 

- la « virtualisation »  du réseau en sous-réseaux « étanches » en matière de routage, de qualité de services ;

- l'apparition de fonctions de diffusion, d'hébergement ; les fonctions de sécurité de plus en plus fortes et diversifiées ;

- le passage progressif au standard Ipv6 qui débloquera définitivement des contraintes d'adressage et simplifiera les autres évolutions fonctionnelles ;

- et enfin l'apparition d'une couche de commande de ressources au-dessus de la couche de transport IP, offrant des interfaces propres au développement rapide d'une multiplicité d'offres de services très divers.

En fonction de ces contraintes d'interopérabilité et de traitement des activités, les réseaux du futur seront séparés en :

- une couche de base - ou réseau premier - où l'optique jouera un rôle dominant, chargée du transfert, du transport et du transcodage entre les bas-réseaux,

- et une couche dite intelligente chargée de l'acheminement final, de la facturation, de l'ensemble des interfaces avec les services informatiques, de télécommunications et audiovisuels.

CHAPITRE II :

DES MUTATIONS ÉCONOMIQUES ET SOCIALES DONT ON NE MESURE PAS ENCORE LA PORTÉE

La possibilité, offerte par les progrès des télécommunications et de l'informatique, de recevoir et d'émettre de l'information sous toute forme, en tout lieu et sur tout support, produira des changements économiques de l'importance de ceux qu'a amenés la généralisation de la distribution d'électricité.

Il n'est naturellement pas envisageable de mesurer toutes les conséquences sociales d'un progrès technologique de cette ampleur.

Mais, dans la sphère économique et économicosociale, on peut discerner - avec prudence et sans prétention d'exhaustivité - plusieurs lignes de forces de changement : l'évolution des modes de travail dans les entreprises, de leurs produits, et l'affranchissement des contraintes de distance.

I. L'ÉVOLUTION DES MODES DE TRAVAIL DANS LES ENTREPRISES

La reconfiguration actuelle de l'organisation du travail en entreprise et les progrès de productivité qui y sont associés sont d'essence différente de ceux de la décennie précédente. Il ne s'agit plus, pour les entreprises, de profiter des seuls apports de l'informatique, mais de tirer toutes les conséquences de sa confluence avec les télécommunications.

Ce que l'on qualifie, peut-être improprement, d'économie de l'Internet, a quatre principaux secteurs d'élection : la gestion de la chaîne logistique, les supports de clientèle, la productivité directe des salariés et le commerce électronique entre entreprises.

A. LA GESTION DE LA CHAÎNE LOGISTIQUE

La recherche d'avantages compétitifs dans la gestion de la chaîne logistique est un apport direct de la transformation des télécommunications.

Informés plus rapidement des besoins de la demande, les industriels cherchent à se mettre en état d'adapter aussi rapidement leur production.

Le croisement des techniques de positionnement et de télécommunication offre, alors, des possibilités d'accentuer l'efficacité de la chaîne de transport et de livraison des marchandises.

La mise en place de ces flux tendus produit deux types de gain de productivité, l'un sur les coûts de production, l'autre dérivé de la réduction du temps de mise sur le marché.

B. LE SUPPORT DE CLIENTÈLE

Il s'agit de mettre en place des réseaux où les clients peuvent se connecter directement sur des services d'assistance, leur permettant soit d'apporter eux-mêmes une solution à leur problème, soit de permettre à un opérateur de rectifier à distance les systèmes défaillants.

Naturellement, ce qui est vrai de l'assistance technique l'est également de l'installation. Par exemple, en France, lorsqu'il souhaite contracter un forfait Internet, le client se voit remettre un disque et le soin d'assurer lui-même la charge de cette installation - sauf à prendre à sa charge les frais de déplacement d'un installateur.

On conçoit assez aisément que la généralisation de ces pratiques entraîne deux types de réductions de frais : celles liées à la diminution des temps de déplacement et d'intervention auprès de la clientèle, et celles liées au déport vers celle-ci du coût du temps d'installation ou de réparation.

Pour être tout à fait exact, ce service de clientèle d'un type nouveau est d'abord apparu dans le domaine des produits informatiques et de télécommunication. Mais il se diffuse vers d'autres secteurs, à proportion du déploiement des équipements et des services de la chaîne informatique-télécommunications. En tout état de cause, il est porteur d'avantages de compétitivité tout aussi importants que ceux obtenus sur l'amélioration de la gestion de la chaîne logistique.

C. L'ACCROISSEMENT DE LA PRODUCTIVITÉ DES SALARIÉS

Les réseaux d'entreprises et le lien Internet assurent une meilleure circulation de l'information et, le cas échéant, facilitent la formation ; ce qui est source de progrès de productivité. Ceci permet, par exemple, à une multinationale du secteur de l'informatique de n'affecter que 2 à 3 personnes à l'ensemble des déplacements de plusieurs milliers de ses salariés à travers le monde.

D. LE COMMERCE VIA INTERNET

Celui-ci consiste à organiser un face-à-face électronique (le « business to business ») entre les entreprises sur des places de marché virtuelles qui ont :

- pour la demande, l'avantage de supprimer certains stades d'intermédiation et de proposer un accès immédiat à l'information économique des entreprises sur le coût de leurs fournitures,

- et, pour l'offre, celui de diminuer les coûts de démarchage.

Ces marchés permettent, en outre, aux personnes, demandeuses ou offreuses, de s'agréger en vue de bénéficier d'économies d'échelle.

Ces marchés sont, enfin, un des facteurs de la rationalisation de la chaîne logistique évoquée plus haut.

Selon les biens concernés ces marchés virtuels sont à la source d'économies de l'ordre de 20 % à 35 % sur les consommations intermédiaires des entreprises.

On estime à 1.000 le nombre de ces places de marchés virtuels en 2001, avec un phénomène nouveau que met en évidence le tableau suivant, la mise en place de marchés coopératifs par les mêmes acheteurs d'un secteur.

Secteur

Nom

Décideurs

Aéronautique

Myaircraft.com

United Technologies, Honewell

 

(TBD)

Air France, British Airways, American Airlines, Continental, Delta, United

 

Exostar

Boeing, Lockheed, Raytheon

Alimentation

CPGmarket.com

Danone, Nestlé, Henkel

Produits de consommation

Transora

49 multinationales incluant Coca-Cola, Kraft Foods, Procter & Gamble, Sara Lee, Unilever

Automobile

Covisint

Ford, GM, Daimler Chrysler, Renault, Nissan

 

Rubber Network

Goodyear, Michelin, Pirelli, Sumitomo

Banque

Answork

BNP Paribas, Crédit Agricole, Société Générale

Détail

GNX

Carrefour, Sears, Sainsbury, Metro, Target, Coles Meyer

 

WWRE

Casino, Auchan, Kmart, Safeway, Kingfisher, Tesco, Marks & Spencer

Industrie (divers)

(TBD)

ABB, Alcatel, Legrand, Philips Lightning, Schneider Electric

 

Steel 24-7

Usinor, Arbed, Corus, Thyssen Krupp

 

E2open

Acer, IBM, Hitachi, LG Electronics, Lucent, Nortel, Panasonic, Seagate, Solectron, Toshiba

 

PaperExchange

Asia Pulp & Paper, Staples, Bowater, Kraft

 

ChemConnect

BASF, BP, Dow, Eastman, DSM, Enichem, GE Plastic, Repsol, Sumitomo

*

* *

Cet apport des nouvelles technologies à la gestion de l'entreprise en modifiera les équilibres.

D'une part, comme il exige une assez grande rapidité de réponse, sa bonne utilisation repose sur la mise en place d'unités de moyens, plus légères que l'organisation pyramidale traditionnelle, et dotées d'une autonomie de décision. Les études faites sur les gains procurés par le commerce électronique d'entreprise à entreprise, montrent ainsi qu'une bonne partie de ces gains procède de l'allégement des procédures internes aux entreprises.

D'autre part, l'accès direct des salariés à l'information fera probablement évoluer les hiérarchies d'entreprise, dans une proportion et avec des conséquences qu'il est prématuré de mesurer exactement.

Enfin, il n'est pas exclu que les traits dominants de cette nouvelle économie (rapidité de réaction, immédiateté d'accès à l'information, possibilité d'agrégation électronique des offres et des demandes) donne une nouvelle chance aux petites et moyennes entreprises.

II. L'ÉVOLUTION DE LA CONCEPTION DES PRODUITS : VERS LES PRODUITS-SERVICES

Le paradigme du musée imaginaire est assez utile pour visualiser les apports sociaux du progrès technique : il s'agit de juxtaposer dans une pièce les objets quotidiens d'époques différentes ; par exemple, ceux des années 1900, 1930, 1950, etc.

Si on se livrait à cet exercice en faisant cohabiter des objets de grande consommation du début des années quatre-vingt et des objets d'aujourd'hui ou qui seront mis sur le marché d'ici cinq à dix ans, on observerait quelques différences morphologiques, mais peu d'évolutions décisives en apparence.

Pourtant, par rapport aux outils de la vie quotidienne, personnelle et professionnelle d'il y a vingt ans, qui matérialisaient les progrès de la miniaturisation des composants électroniques, ceux d'aujourd'hui sont d'essence différente : ils associent à leur fonction principale des possibilités d'ubiquité et d'instantanéité de transmission de l'information, indépendamment de sa forme (voix, image, texte) et de son volume.

Cette transformation n'est pas toujours perceptible, parce que ce service est offert de façon, encore imparfaite, notamment aux particuliers.

Mais l'important est qu'elle s'accompagne d'une évolution de la destination des objets qui les supportent. De façon croissante, ceux-ci, qu'il s'agisse ou d'un ordinateur ou d'une automobile (par exemple), autant que des produits de stockage et de traitement de l'information ou de déplacement dans les cas cités, deviennent aussi des produits-services.

Et, de façon progressive, la concurrence s'établira tout autant sur la fonction principale de l'objet que sur sa fonction dérivée de fournisseur et d'intégrateur de services.

Le nouveau logiciel XP de Microsoft10(*) est très représentatif de cette nouvelle génération de produits :

- mode personnalisé d'activation de la base qui permet de vendre directement les actualisations du logiciel,

- intégration poussée de diverses sources (images, photos, vidéo numérique),

- aide à distance,

- possibilité offerte de location de logiciel à la demande,

- identification sur l'Internet,

- personnalisation qui permet d'organiser des limites d'utilisation - en particulier pour les enfants, etc.

En quelque sorte, on ne vend plus un système d'exploitation d'ordinateur, mais un système de télécommunication avec le monde extérieur, permettant de travailler, de communiquer et de se distraire. Et un produit qui permet d'en louer d'autres. En d'autres termes, un produit-services.

Mais, s'il est assez normal que les produits informatiques soient le creuset de cette évolution vers les produits-services, cette transformation peut être observée dans d'autres secteurs comme l'automobile, ou projetée - mais à plus long terme - dans les nouveaux domaines d'intelligence ambiante.

A. L'AUTOMOBILE

L'industrie est probablement un secteur d'expansion prometteur des nouvelles technologies de télécommunications. Au-delà du fait que l'électronique y représente une part de plus en plus importante, plusieurs catégories de facteurs y concourent :

- La convergence de plusieurs technologies liées à l'informatique et aux télécommunications comme le positionnement, les micro-télécommunications, les interfaces homme-machine et la recherche de l'adaptation des microprocesseurs en milieux thermique et mécanique plus exigeants ;

- la pertinence du modèle tarifaire :

Les coûts d'achat d'un véhicule automobile sont élevés. Dans ces conditions, l'inclusion, dans le prix d'achat, de systèmes de télécommunications n'aura qu'un effet d'élasticité modeste sur les comportements des acquéreurs.

De même, les coûts d'utilisation de l'automobile étant relativement importants, le prix d'un abonnement à des réseaux de guidage ou d'assistance pourra paraître relativement mesuré.

- la perméabilité d'acquisition des usages : celle-ci découle à la fois de la progressivité de ces acquisitions et d'un effet de démonstration.

Même si la période de cinq ans que l'on comptait, il y a quelques années, du début de la conception d'un véhicule à sa mise sur le marché s'est raccourcie, les progrès dans l'automobile sont introduits par vague, modèle après modèle.

Ce rythme de production facilitera probablement une acquisition, progressive et donc maîtrisée, de l'apport des services de télécommunications. Par là même, il constituera une sûreté pour les industriels qui n'auront pas à procéder à des anticipations aléatoires, reposant sur le degré d'acceptation de ces nouveaux produits.

Par ailleurs, l'automobile est un des produits qui fait l'objet de forts comportements de démonstration de la part de ses acquéreurs. Dans un marché où la différence entre les véhicules repose moins qu'auparavant sur la puissance mécanique, le degré d'équipement en systèmes de télécommunication peut constituer un argument d'achat non négligeable.

Les croisements entre l'industrie automobile et les télécommunications s'effectuent dans plusieurs domaines dont les techniques peuvent, le cas échéant, se compléter :

1. les prolongements des techniques de positionnement satellitaire 

Déjà mentionnés dans le rôle qu'ils jouent dans l'automatisation de la chaîne logistique, les systèmes de positionnement permettent également de gérer des flottes de véhicules individuels (parc de location, taxis) et d'apporter une aide à la navigation des particuliers.

On peut distinguer :

- les systèmes de navigation et de guidage qui sont déjà proposés sur des modèles de véhicules en vente,

- les systèmes de secours et d'assistance - lien avec un réseau de réparation, déclenchement automatique d'un secours à l'occasion d'un choc, qui commencent à être proposés,

- les systèmes antivol ou anti-perte de clé de contact,

- les systèmes d'orientation et d'information touristique (emplacement des commerces et des services, localisation et documentation sur les lieux à visiter, etc.),

Il faut bien mesurer l'importance que peut avoir l'abonnement à un service de ce type. Il ne conduit pas seulement à une utilisation linéaire du réseau.

Plus l'utilisation de ce service sera répandue, plus, en parallèle, l'offre se constituera.

En particulier de la part des commerçants locaux qui présenteront à une clientèle automobile de passage ou à une clientèle résidente leurs nouveautés ou leurs ventes promotionnelles.

2. les interactions entre les véhicules et une infrastructure pré-positionnée

Ces applications sont variées et dépendent - surtout - du déploiement des infrastructures concernées. On peut mentionner :

- les péages électroniques,

- les techniques de guidage automatique des véhicules sur certaines portions de route, ou d'implantation de véhicules de transports collectifs automobiles sur des voies dédiées,

- les capteurs de sécurité renvoyant des informations au véhicule sur l'état de route en fonction du climat ou sur sa configuration géométrique. Ces capteurs de sécurité peuvent ainsi avoir une fonction d'alerte anticollision (présence de piétons à un carrefour, etc.).

3. les aides positionnées dans les véhicules

Il s'agit, dans ce cas, soit de systèmes d'alerte permettant de détecter, par exemple, la présence de deux roues à l'avant ou à l'arrière du véhicule, soit de systèmes de pré-maintenance - qui peuvent être couplés avec des systèmes de diagnostic - appelant l'attention sur les détériorations de telle ou telle fonction du véhicule (à titre d'illustration, un capteur de courbure de pneus pourra transmettre en micro-télécommunication une alerte sur l'insuffisance de leur gonflement).

La plupart des systèmes de télécommunication externes et internes évoqués ci-dessus ne sont pas simplement prospectifs, mais font l'objet d'études expérimentales dont certaines à grande échelle.

B. LES FUTURS UNIVERS D'INTELLIGENCE AMBIANTE : L'EXEMPLE DE LA DOMOTIQUE

Le projet en vertu duquel nous pourrons, dans quelques années, transmettre et recevoir des informations à tout moment et sur tous supports ne se décline pas uniquement sur les informations traditionnellement transmises (voix, images, fichiers).

Il se projette sur un autre plan. Autour de l'idée qu'à l'avenir -c'est-à-dire à un horizon de 10-15 ans- nous vivrons dans un univers d'objets communicants qui nous proposeront des services utiles à notre vie quotidienne, et qui deviendront rapidement aussi indispensables que le sont, aujourd'hui, un ordinateur ou une machine à laver le linge.

Comme dans le cas précédemment évoqué de l'automobile, il s'agit d'une évolution vers les produits-services qui pourrait être déterminante pour l'avenir de l'industrie européenne, alors même que les objets et les services qui y seront associés ne sont pas toujours clairement identifiés.

Le marché de la domotique pourrait être un des secteurs de cette évolution.

Une maison ou un appartement sont à la confluence de plusieurs flux :

- externes (média, correspondance traditionnelle et informatique avec le voisinage, les autorités administratives, les fournisseurs, flux de biens matériels) ;

- internes (commande des équipements électroménagers, du chauffage, de l'électricité, etc.).

Le défi de la domotique consiste à unifier ces flux d'informations différents au sein d'un réseau domestique.

Ceci suppose la recherche de normes comme celle du « Home Local Network » développée par l'ETSI, à Sophia-Antipolis.

Mais également la mise en place d'une plate-forme de télécommunication, qui, d'une part, intègrera tous les équipements domestiques (télévision, ordinateur, lave-linge, système d'alarme, système de surveillance, réceptacles extérieurs pour les livraisons, etc.), en les faisant fonctionner sur un réseau en propre de basse fréquence radio comme celle développée par la norme Blue Tooth, et, d'autre part, assurera les rapports d'information, montants et descendants, de ce réseau avec les réseaux communiquant avec le domicile.

Un système de ce type permettrait, par exemple, après avoir commandé des objets ou des aliments, en donnant le code d'une boîte de livraison, de s'assurer à distance qu'ils ont été livrés.

Il autorisera l'arrivée dans les foyers de nouveaux objets comme les réfrigérateurs à écran, qui sont au stade de la pré-commercialisation, et qui incluent une visualisation du contenu dudit frigidaire et de l'état de fraîcheur des aliments, la possibilité d'envoyer et de recevoir du courrier électronique sur un écran situé sur la porte, celle de recevoir des images de ses enfants à la crèche, celle de commander à distance de son bureau d'autres objets électroménagers comme machines à laver la vaisselle ou le linge, d'activer des systèmes d'alarme, etc.

Mais, la mise en place de cette offre de services s'effectuera progressivement, car elle doit s'insérer dans des cycles de renouvellement des équipements -en l'occurrence les appareils électroménagers et, surtout, le logement- qui sont beaucoup plus longs que ceux de l'automobile.

III. L'ÉVOLUTION DU RAPPORT À LA DISTANCE

Cette évolution n'est pas nouvelle ; le simple fait de pouvoir télégraphier11(*) ou téléphoner, c'est-à-dire de se trouver dans un réseau d'émission ou de réception de l'information à distance, est un acquis économique et social déjà ancien.

Mais le fait que, dès aujourd'hui, cette transmission puisse porter sur des débits d'information beaucoup plus importants et s'effectuer par le truchement d'objets beaucoup plus variés, modifiera les rapports traditionnels à la distance de nos sociétés.

Le fait également que cette révolution puisse porter sur des mini-distances ou sur des réceptions d'information infiniment plus fines - comme celles programmées dans les capteurs à objet médical implantés dans le corps humain, y contribuera également.

A. LE TÉLÉTRAVAIL

1. les avantages du télétravail

En Europe, le déploiement des réseaux de télétravail date du début des années quatre-vingt. Il reposait alors, pour l'essentiel, sur l'usage du téléphone à des fins de démarchage commercial.

Il prend actuellement une autre dimension. Les sommets européens de Lisbonne (mars 2000) puis de Stockholm (mars 2001) ont insisté sur l'importance de son développement en Europe en essayant de promouvoir le concept de « e-travail » afin de matérialiser cette nouvelle dimension.

En l'occurrence, il s'agit de décliner, dans ce domaine, l'idée que les nouvelles techniques d'information et de communication seront à la base d'une société fondée sur la connaissance et la participation plus active des salariés dont le télétravail peut être un des supports.

Au demeurant, dans la définition qu'elle a donnée de ce mode d'activité, la Commission a insisté non seulement sur les facteurs géographiques d'éloignement de l'entreprise, mais également sur l'emploi des techniques modernes de communication, en particulier transmission des fichiers. En précisant que ce concept s'appliquait aussi bien au travail totalement délocalisé hors de l'entreprise, soit à domicile, soit dans des centres de télétravail, qu'au travail alterné entre le siège de l'entreprise et l'un ou l'autre de ces modes de délocalisation.

Les avantages du télétravail sont multiples :

· économiques :

- pour les entreprises, une étude menée aux États-Unis sur l'exercice 2000 fait état d'une amélioration de productivité des salariés de l'ordre de 15 % pour le télétravail à domicile, et de l'ordre de 30 % pour le télétravail dans des centres ad hoc ;

- pour les salariés, l'avantage essentiel est celui de la délocalisation loin des grands centres urbains et -plus spécifiquement pour les femmes- la possibilité de pratiquer leur activité à domicile, ou en alternance entre le domicile et le travail.

Ces deux « plus-values » peuvent donner à espérer que cette offre nouvelle pourrait augmenter le taux d'activité de la population et, en particulier, de la population féminine.

C'est du moins un des buts que se propose, dans ce domaine, la Commission européenne.

· sociaux :

Par les possibilités de délocalisation qu'il implique, le télétravail a trois retombées positives :

- les économies d'énergie et la lutte contre la pollution. L'étude américaine précitée estime -sur la base d'une utilisation moyenne de l'automobile plus importante qu'en Europe- que les télétravailleurs s'épargnent plus de 4.000 km de trajets, ce qui représenterait annuellement une tonne métrique de dioxyde de carbone et 7 kg de polluant en moins ;

- du fait de la relocalisation de ces activités en dehors des grandes villes, il pourrait donner un nouvel essor à l'aménagement du territoire ;

- enfin, il pourrait être utilisé massivement pour aider à la réinsertion économique des handicapés moteurs.

2. L'état du télétravail en Europe

Une étude commandée par l'Union européenne (Eurobarometer) permet de tracer un bilan du télétravail en Europe.

Cette étude évalue le nombre de télé-travailleurs à 10 millions en Europe en l'an 2000 (contre 9 millions en 1999, ce qui marque une croissance rapide).

Mais, au-delà des contrastes géographiques marqués entre les pays de l'Union, ils en donnent une typologie assez différente de ce que l'on pouvait, a priori imaginer.

Pourcentage de télé-travailleurs par État membre

 

Salariés (%)

Salariat (%)

(incluant les chômeurs)

Belgique

4,6

3,9

Danemark

17,4

15,3

Allemagne

3,7

3,4

Grèce

3,3

3,1

Espagne

3,6

3,2

France

5,6

5,3

Irlande

3,3

2,7

Italie

3,1

2,8

Luxembourg

5,1

4,9

Pays-Bas

9,6

9,1

Autriche

4,0

3,7

Portugal

2,4

2,3

Finlande

12,4

10,7

Suède

10,1

9,1

Royaume-Uni

10,4

9,6

Union européenne

5,6

5,1

Pourcentage de salariés télé-travailleurs par État membre et par genre

 

Hommes (%)

Femmes (%)

Belgique

5,0

4,1

Danemark

20,9

12,8

Allemagne

4,4

2,8

Grèce

4,6

1,3

Espagne

4,7

1,5

France

7,0

3,8

Irlande

2,8

4,3

Italie

2,6

4,2

Luxembourg

5,3

4,8

Pays-Bas

12,1

5,6

Autriche

4,0

3,9

Portugal

1,8

3,4

Finlande

13,5

11,0

Suède

11,4

8,5

Royaume-Uni

10,6

10,2

Union européenne

6,2

4,8

Pourcentage de télé-travailleurs

parmi les travailleurs indépendants

Belgique

7,2

Danemark

21,3

Allemagne

7,2

Grèce

1,4

Espagne

4,4

France

10,7

Irlande

2,2

Italie

2,0

Luxembourg

0

Pays-Bas

17,1

Autriche

8,2

Portugal

2,3

Finlande

19,1

Suède

6,2

Royaume-Uni

19,5

Union européenne

7,1

Pourcentage de télé-travailleurs

parmi les cadres supérieurs

Belgique

13,6

Danemark

42,2

Allemagne

9,5

Grèce

9,4

Espagne

14,6

France

16,6

Irlande

7,0

Italie

6,2

Luxembourg

12,0

Pays-Bas

20,4

Autriche

5,8

Portugal

6,4

Finlande

25,3

Suède

11,4

Royaume-Uni

26,7

Union européenne

15,0

Ainsi, le télétravail est-il :

- plus masculin,

- prévalent chez les travailleurs non salariés,

- et plus répandu chez les cadres supérieurs.

On ajoutera qu'il est aussi assez fortement corrélé avec les niveaux de connexion Internet des pays considérés - dont certains, comme la Finlande, ont également lancé des politiques spécifiques sur ce point.

3. Les obstacles au développement du télétravail à distance

Une autre étude (ECATT 1999) a recensé les obstacles au travail à distance des 10 pays européens en les classant par ordre d'importance :

Classement des obstacles au travail à distance en Europe en 1985, 1994 et 1999

1985

1994

1999

1. Insuffisance de la demande de changement des pratiques en cours

1. Manque d'informations

1. Protection des données

2. Coût trop élevé

2. Difficultés de gestion et de supervision des télé-travailleurs

2. Productivité/qualité du travail

3. Difficultés d'organisation

3. Problèmes de communication avec les télé-travailleurs

3. Manque d'informations

4. Manque de supervision et de contrôle

4. Coût des équipements informatiques et des services de télécommunications

4. Problèmes de gestion des télé-travailleurs

5. Équipement informatique insuffisant

5. Insuffisance de la demande de changement des pratiques en cours

5. Demande insuffisante

6. Formation

6. Productivité/qualité du travail

6. Coût trop élevé

7. Personnel hostile à cette méthode

7. Refus des salariés

7. Problèmes de communication

8. Résistance des syndicats

8. Problèmes de santé, de sécurité, d'assurance et de droit

8. Problèmes de santé, de sécurité, d'assurance et de droit

 

9. Résistance des syndicats

9. Résistance des salariés

   

10. Résistance des syndicats

Ces données font assez clairement apparaître le passage d'un monde où le télétravail avait une image floue (insuffisance de la demande, coûts élevés, difficultés d'organisation) à un monde où son utilité est avérée mais où les obstacles à son développement sont de nature plus technique (interrogation sur la protection des données) ou culturels (interrogation sur la productivité des salariés et la qualité de leur travail).

Si l'on étudie, par pays, la perception des obstacles à l'essor du télétravail, on obtient des résultats assez éclairants :

Obstacles à l'essor du travail à distance en Europe - chiffres 1999 (en % des entreprises)

 

Infor-mations insuf-fisantes

Coût

trop

élevé

Produc-

tivité/

Qualité

du travail

Problèmes de gestion des télé-

travailleurs

Difficultés

de commu-

nication

Problèmes

de santé,

de sécurité,

d'assurance

et de droit

Protection

des

données

Demande

insuf-

fisante

Résis-

tance

des

salariés

Résis-

tance

des

syndicats

Danemark

45,61

46,33

38,22

36,01

36,59

30,34

51,47

31,76

33,46

15,53

Finlande

44,45

38,25

39,01

40,73

34,60

22,48

52,96

45,18

23,14

12,34

France

60,69

55,81

66,94

66,92

62,92

52,96

77,12

60,97

50,37

47,44

Allemagne

37,93

42,26

42,00

41,83

34,72

27,83

52,53

50,11

40,35

13,68

Irlande

68,11

58,26

66,94

66,18

54,63

49,97

63,99

52,55

33,65

25,28

Italie

62,77

39,93

51,94

48,97

41,42

35,10

58,35

42,30

26,18

31,07

Pays-Bas

51,00

32,67

59,33

50,00

42,33

38,33

54,33

41,00

23,00

18,67

Espagne

74,43

65,02

69,70

65,58

59,46

54,18

73,38

57,53

45,70

39,50

Suède

55,28

47,01

52,75

49,60

37,48

44,64

67,65

39,61

37,15

26,65

Royaume-

Uni

55,16

52,38

58,58

58,93

45,78

45,26

61,16

49,19

31,01

15,40

TOTAL

56,24

48,72

55,28

53,40

45,93

40,82

61,96

48,08

35,39

25,59

Total des

10 pays

européens

54,1

48,1

54,9

53,5

45,7

40,3

61,8

50,0

37,0

25,4

Plus le télétravail est développé dans un pays (Danemark, Finlande, Pays-Bas), moins les entreprises mettent en évidence des obstacles à ce développement. Ce constat peut avoir un caractère tautologique. Mais si l'on considère que la plupart des pays précités sont ceux qui ont les connexions Internet les plus nombreuses en pourcentage de la population et ceux qui mènent des politiques volontaristes pour promouvoir l'économie de l'information, on ne peut qu'insister sur le fait qu'il existe une très forte corrélation entre le déploiement du télétravail et celui des techniques qui permettent ce déploiement.

B. LA TÉLÉSANTÉ

Les domaines de la santé font partie de ceux dans lesquels les applications de progrès de la chaîne télécommunications-informatique sont les plus avancés, le plus souvent grâce aux apports, en parallèle, des micro ou des nanotechnologies.

Elles reposent le plus souvent sur le couplage de capteurs et de réseaux de transmission.

Les capteurs, miniaturisés ou non, sont :

- soit des systèmes d'alerte comme ceux qui permettent à des malentendants ou à des aveugles d'être avertis des dangers auxquels les expose leur environnement. Ils se présentent sous la forme d'un bracelet-montre qui capte les signaux acoustiques extérieurs et retransmet des vibrations à l'utilisateur ;

- soit des systèmes de surveillance, sous la forme d'implants ou de bracelets, qui contrôlent, par exemple, les différents aspects du rythme cardiaque ou des taux de glycémie ;

- soit encore des systèmes d'assistance thérapeutique directe (libération contrôlée des médicaments ou évaluation cellulaire directe de leurs effets thérapeutiques).

Ces capteurs sont, en général, reliés à des réseaux.

A titre d'illustration, l'expérience pilote « Télémédica » qui sera, sous peu, menée dans des zones rurales éloignées en Norvège et en Grèce, vise, à l'aide de capteurs, à donner des informations sur les paramètres clés de la santé des patients. Données qui seront envoyées par une communication sans fil à l'ordinateur du patient. A l'aide d'un logiciel approprié, et en relation Internet, avec des professionnels, cet ordinateur sera à même de préconiser soins et examens.

La raréfaction du nombre de médecins par habitant dans certaines régions françaises commande d'accorder de l'importance à ces techniques.

*

* *

Les recherches et les développements de ces améliorations des systèmes de surveillance et de soins arrivent à des stades de maturité proches de la mise sur le marché.

C. LE TÉLÉENSEIGNEMENT

Dans une société où l'avantage compétitif repose, au moins autant, sur la mise en oeuvre des connaissances que sur l'accumulation du capital ou la libre disposition des matières premières, les possibilités d'accès au savoir qu'offrent les nouvelles technologies de communication sont devenues un enjeu social et économique.

Ceci pose le problème de l'introduction, dans nos sociétés, des modes d'apprentissage qui y sont liés.

A cet égard, vos rapporteurs souhaitent évoquer trois problèmes.

En premier lieu, se profile un problème de maîtrise économique qui a des incidences culturelles fortes.

Confronté à un vide et à un besoin, le marché a répondu. De façon beaucoup plus prompte outre-Atlantique, et avec un triple danger pour l'Europe :

- le danger d'un retard sur un marché éducatif appelé à se développer très rapidement. En 1998, on évaluait le chiffre mondial de la formation professionnelle à 63,6 milliards de dollars, dont 62 milliards pour la formation professionnelle traditionnelle, et 1,6 milliard pour la formation professionnelle à distance ; en 2004, ce chiffre atteindrait 78 milliards de dollars, dont 34 milliards pour la formation à distance. Et dont 14 milliards en Europe mais 1,6 milliard en France12(*).

Or, dès maintenant, les États-Unis sont très en avance sur le marché de l'accès et du contenu de ces formations professionnelles à distance, ce qui implique à terme qu'ils seront en mesure de concurrencer l'offre européenne avec des produits amortis sur leur propre marché.

- une forme de « macdonaldisation » du savoir, les modèles, les contenus et les structures d'apprentissage étant peu à peu alignés sur ceux des États-Unis,

- l'extension, par l'intermédiaire de ce vecteur d'acquisition de la connaissance, de la domination, déjà quelque peu excessive, de la langue anglaise. Et ceci dans le secteur de la formation qui est, par nature, consubstantiel à l'apprentissage et à l'utilisation des langues nationales.

Ensuite, et sans qu'il soit besoin d'insister sur un aspect de cette question qui est connu, il est clair que le téléenseignement -en d'autres termes l'accès à un mode d'acquisition des connaissances qui deviendra prévalent à un horizon de 10 ans- est un terrain d'élection privilégié des inégalités correspondant à ce qu'on appelle le « fossé numérique »13(*).

Ceci entre le Nord et le Sud mais également sur le territoire français.

Étant précisé que, comme pour le télétravail, cette inégalité est double : d'accès aux réseaux mais également d'accès économique aux équipements et aux logiciels.

Enfin, l'irruption de cet apprentissage direct, non médiatisé par la formation professionnelle ou l'Éducation nationale, posera sous peu des problèmes d'adaptation et de légitimation à nos structures d'enseignement et de formation, dont les réseaux risquent d'être déstabilisés et délégitimés.

*

* *

Au terme d'une présentation des principales évolutions scientifiques et techniques du secteur des télécommunications, dont vos rapporteurs ont désiré qu'elle s'en tînt à l'essentiel - et d'une description de quelques uns des changements économiques et sociaux que cette évolution ne manquera pas de produire, vos rapporteurs souhaitent, à nouveau, souligner l'importance de la mutation en cours.

Au début des années quatre-vingt, on utilisait la métaphore du nénuphar doublant de surface chaque année, pour symboliser l'agressivité de conquête de certains marchés par l'industrie japonaise.

Cette image correspond assez bien à l'effet d'accélération à venir de l'emprise des nouvelles techniques de communication sur l'économie et le corps social.

C'est dire que chaque année de retard mise au déploiement de ces techniques, à leur utilisation dans l'économie et à l'introduction de leurs usages sociaux peut avoir des conséquences fâcheuses.

*

* *

DEUXIÈME PARTIE :

LES OBSTACLES À LA DIFFUSION DES AVANCÉES TECHNOLOGIQUES DU SECTEUR DES TÉLÉCOMMUNICATIONS

Une chose est de décrire les percées accomplies récemment dans le secteur des télécommunications et d'en extrapoler les évolutions technologiques qui en résulteront à un horizon de dix à quinze ans.

Une chose est de souligner l'importance des changements économiques et sociaux qui accompagneront ces évolutions et d'essayer d'en dégager quelques unes des lignes de forces.

Mais une autre chose est de déterminer quand ces transformations se généraliseront dans la société.

Car si les constats effectués par vos rapporteurs dans la première partie de ce rapport prêtent peu à contestation, les changements d'états techniques, économiques et sociaux qu'ils supposent relèvent de cheminements beaucoup plus complexes.

La diffusion de ces avancées technologiques est contrariée par des obstacles de deux natures.

Ceux qui sont liés à l'achèvement de l'évolution technologique du secteur, et ceux qui sont liés à l'accompagnement économique et social de cette évolution.

CHAPITRE PREMIER :

LES PROBLÈMES AFFÉRENTS À LA MUTATION TECHNOLOGIQUE DU SECTEUR

La révolution technologique qu'annoncent les principaux acteurs du secteur ne se déploie que très progressivement, à des rythmes différents suivant les technologies, les espaces géographiques concernés, et les types d'utilisation (professionnelle ou personnelle, fixe ou nomade) auxquels elle s'applique.

Or, sa crédibilité économique et sociale est étroitement dépendante de l'ampleur et du rythme de ce déploiement.

Au fond, à quoi servirait d'avoir des vecteurs optiques de transport de l'information et des capacités de traitement de cette information surpuissants s'il n'y avait aucun lien entre les deux ? Et si ce lien existait, son utilité économique et son pouvoir d'attraction sociale seraient amoindris si on pouvait le mettre en oeuvre sur certaines zones et pas sur d'autres, en usage professionnel mais pas en usage personnel, en situation sédentaire et pas en situation de mobilité, avec dans certains cas une grande sûreté d'utilisation, et dans d'autres, avec des interrogations sur sa fiabilité ou des suspicions quant à sa sécurisation.

Et à cet égard l'achèvement de la mutation technologique du secteur reste pendant à la résolution de trois types de problèmes : l'élimination des goulets d'étranglement, la sécurisation des réseaux et la planification de l'espace hertzien.

I. L'ÉLIMINATION DES GOULETS D'ÉTRANGLEMENT

Entre les réseaux de fibre optique à haut débit qui se mettent progressivement en place et les terminaux des usagers aux capacités de traitement de plus en plus élevées, il y a, la plupart du temps, solution de continuité.

En effet, contrairement au réseau téléphonique traditionnel qui a disposé de presque un siècle pour s'implanter, le déploiement des réseaux de fibre optique est soumis à une discipline de retour sur investissement beaucoup plus sévère.

Cette contrainte financière, récemment amplifiée par la crise, exclut -dans beaucoup de cas- que les fibres atteignent l'utilisateur final. En effet, un des paradoxes de l'évolution actuelle des télécommunications est que l'essor du secteur est freiné par le coût et les délais d'une technique beaucoup plus ancienne, le génie civil en milieu urbain.

Ceci, même s'il est de plus en plus envisagé de moduler le rapprochement entre le terminal optique et l'usager. En fonction des coûts de génie civil et des perspectives de marché, suivant les cas, on évoque ainsi la fibre jusqu'au coin de la rue (Fiber to the curb), jusqu'au pied de l'immeuble (Fiber to the building) ou même -beaucoup plus rarement- jusqu'à l'usager (Fiber to the home).

Mais, en général, ce déploiement rapproché ou très rapproché n'est envisageable dans l'immédiat que dans des conditions économiques précises.

C'est pourquoi prévaut la mise en oeuvre de technologies moins coûteuses et surtout permettant d'établir aussi rapidement que possible un lien entre les réseaux de fibres à haute capacité et l'usager.

Ces techniques sont multiples car, en raison de la variété des configurations, il n'y a pas de solution universelle de raccordement mais des solutions pertinentes en fonction des situations locales.

Elles reposent soit sur l'utilisation des réseaux fixes, soit sur l'emploi des fréquences hertziennes.

A. LES TECHNIQUES DITES xDSL

Les technologies xDSL, comme toutes les technologies de modems traditionnelles, utilisent des techniques de modulation transformant un signal numérique en signal analogique pouvant être transporté sur un support analogique, en l'occurrence, la ligne téléphonique en cuivre.

Ceci en prenant en compte l'asymétrie des besoins puisqu'en matière de trafic Internet le débit descendant est généralement plus élevé que le débit montant. Parmi les paramètres différenciant les technologies xDSL, le principal consiste en la nature de la modulation retenue pour coder le signal.

Ces différentes modulations conditionnent les performances de chacune des versions :

Type

Signification

Débit descendant

Débit montant

Portée maximale

ADSL

Asymmetric Digital Subscriber Line

Jusqu'à 8 Mbits

Jusqu'à 1,5 Mbit

5 km

ADS Lite

Version simplifiée de ADSL

1,5 Mbit

1128 kbits

5 km

HDSL

High Bit Rate DSL

Jusqu'à 2 Mbits

Jusqu'à 2 Mbits

5 km

IDSL

Integrated DSL

128 kbits

128 kbits

5 km

RADSL

Rate-adaptive DSL

Dépend de la ligne

Dépend de la ligne

5 km

SDL

Single Line DSL

Jusqu'à 1,5 Mbit

Jusqu'à 1, 5 Mbit

3 km

VDSL

Very High Data Rate DSL

52 Mbits

25 Mbits

300 m

Cette technologie - dont les coûts d'infrastructures sont relativement faibles - est utilisée par les opérateurs historiques qui cherchent à rentabiliser leurs réseaux, car elles présentent plusieurs types d'avantages :

- elle se greffe sur le câblage existant, ce qui minimise les besoins en génie civil,

- elle limite les inconvénients des liaisons Internet bas débit qui :

Ø n'offrent pas de simultanéité de service (soit on utilise le téléphone, soit on utilise Internet, mais pas les deux en même temps),

Ø n'offrent pas de convergence de service de téléphonie et d'informatique,

- elle présente une offre de services au travers d'une interface unique qui permet au client de faire face à l'ensemble de ses besoins en télécommunication,

- son déploiement peut être progressif et ses coûts fixes sont faibles, notamment pour les opérateurs historiques qui ne payent pas les frais d'hébergement des équipements de connexion (ce qui n'est pas, par exemple, le cas du câble qui requiert une mise à jour de l'ensemble des réseaux pour offrir de nouveaux services),

- elle facilite l'ouverture de lignes nouvelles qui deviennent une action logicielle et non matérielle (suite à un clic sur le web, le client peut avoir instantanément une nouvelle ligne téléphonique),

- elle soulage les commutations téléphoniques des connexions à Internet,

- et, elle ne fait l'objet d'aucune diffusion, ce qui diminue les problèmes de sécurité.

Par ailleurs, elle facilite, sur un strict plan technique, l'ouverture à la concurrence :

- un opérateur alternatif peut, contrairement à ce qui se passe dans une architecture analogique, qui exige des équipements dans les locaux de l'opérateur historique, rapatrier son trafic téléphonique sur un point de présence,

- et un fournisseur de services Internet peut enrichir facilement son portefeuille d'offres.

Mais elle comporte certains inconvénients :

- Dans l'immédiat,

la qualité du cuivre et l'environnement électromagnétique peuvent engendrer quelques problèmes de déploiement,

de plus, elle a une portée relativement faible, surtout lorsque le besoin de débit augmente (la portée, par exemple, n'est plus que de 300 m pour le VHDSL - à très haute capacité de transmission).

- A terme :

les perspectives de développement de la technologie sont faibles (à part la mise au point du système développant plusieurs boucles de paires de cuivre) ;

le dégroupage de la boucle locale (c'est-à-dire l'ouverture des lignes des opérateurs historiques à la concurrence locale) accentue la montée en débit sur le cuivre. Or la cohabitation de systèmes différents provenant d'opérateurs différents implique le respect de règles d'ingénierie qui limitent au contraire le débit disponible.

Mais, en l'état -comme le montre la rapidité de sa montée en puissance aux États-Unis- du fait de la faiblesse de ses coûts, de sa vitesse de mise en oeuvre et de sa compatibilité avec les techniques récentes de gestion des moyens débits, le xDSL est le système dominant pour lever à court terme les restrictions d'accès au réseau.

B. LE CÂBLE AUDIOVISUEL

A l'origine, ces réseaux -optiques pour les plus modernes d'entre eux- étaient destinés à la diffusion audiovisuelle et ne sont donc pas adaptés aux services Internet et de courrier électronique qui impliquent des facultés de retour d'informations.

C'est pourquoi ces réseaux s'orientent actuellement vers un système mixte (Hybrid Fiber Coaxial) où la partie optique assure le transport et la partie cuivre du réseau la distribution, pour assurer des communications bi-directionnelles.

Si ces réseaux hybrides -qui ne sont pas développés partout- constituent en principe une bonne solution de convergence multimédias (téléphonie, Internet, audiovisuel), leur déploiement se heurte à deux types de difficultés pour fournir l'accès large bande à tous leurs abonnés :

- n'ayant pas été conçus à l'origine pour cet usage, leur mise en oeuvre est coûteuse car ils nécessitent l'implantation de noeuds de desserte assez nombreux (un noeud pour 1.000 usagers) ,

- il est nécessaire d'assurer l'amplification du système de télévision tous les six cents mètres à partir du noeud de desserte, ce qui dégrade les performances du modem câble et réduit la portée de la distribution à 5 kilomètres - distance proche de la portée utile de la plupart des systèmes xDSL.

Compte tenu de ces coûts, et de la relative faiblesse du câblage en France par rapport à d'autres pays développés, il ne semble pas que les offres câbles puissent prendre le pas sur les techniques xDLS, ce que confirment les rythmes de déploiement respectifs de ces techniques.

C. LES LIGNES ÉLECTRIQUES

L'utilisation des lignes électriques pour ouvrir un accès Internet pose divers problèmes14(*). Elle repose sur l'installation chez les abonnés d'un modem de cryptage qui transforme les données Internet sous forme d'une onde haute fréquence qui est ensuite superposée au courant normal puis transformée en signal numérique et acheminée au transformateur électrique où un serveur le relie au réseau par un câble classique.

Cette technique dont on conçoit l'avantage qu'elle présenterait en termes de distribution est actuellement porteuse de trop d'interrogations sur sa fiabilité pour pouvoir être considérée comme assurée d'un développement.

Elle peut, toutefois, présenter un intérêt, en externe, dans la perspective du développement de la climatique.

D. LA BOUCLE LOCALE RADIO (BLR)

Les opérateurs qui n'ont pas à leur disposition de bande locale filaire utilisent l'accès sans fil à haut débit pour éviter des déploiements filaires coûteux ou des frais excessifs dans le contenu de cette bande filaire.

Les systèmes BLR sont en général employés pour desservir une clientèle professionnelle (petite entreprise en milieu urbain ou PME).

Il peut s'agir :

- soit d'une liaison point à point, chaque antenne du réseau ne desservant qu'un utilisateur (avec des débits pouvant atteindre 100 Mbits/s et une portée de 2 ou 3 kilomètres) en raison de la sensibilité du système aux phénomènes météorologiques ;

- soit d'une liaison point à multipoint, chaque antenne du réseau desservant plusieurs utilisateurs qui doivent alors partager la bande passante. Ce système repose, en fonction des astreintes de déploiement sur deux types de technologies :

. le MMDS (Multipoint Multichannel Distribution Service) qui émet sur des fréquences inférieures à 3 GHZ et fournit pour une portée de 60 kilomètres un débit descendant de 10 Mbits/s et remontant de 128 Kbits/s ;

. et le LMDS (Local Multipoint Distribution Service) qui offre des débits de 150 Mbits/s mais avec une portée réduite puisqu'il fonctionne sur une fréquence de fonctionnement très élevée (28 GHZ).

La BLR a fait, en deux temps, l'objet d'une attribution de fréquences par l'ART portant sur :

- 2 bandes nationales sur l'ensemble du territoire métropolitain dans les bandes 3,5 GHZ et 26 GHZ,

- 22 licences locales dans la bande 26 GHZ,

- et 2 licences pour chacun des départements d'outre-mer de la bande 3,5 GHZ.

La BLR vise principalement le marché des entreprises. Mais, un des obstacles à son déploiement réside dans le coût de l'équipement client, de l'ordre de 20.000 F, ce qui suppose de s'adresser, le plus souvent, à des entreprises de plus de 10 salariés, qui ne représentent que 7 % des entreprises françaises.

Néanmoins, la BLR peut être intéressante pour des villes moyennes dans lesquelles il n'est pas rentable de déployer des boucles métropolitaines optiques. Dans les bandes de fréquence attribuées pour la BLR, on dispose aujourd'hui de liens point à point radio de 155 Mbit/s à un prix abordable. Le coût des points hauts est donc partagé entre l'accès des clients et l'interconnexion des stations de base. Cela représente un avantage par rapport aux opérateurs qui profitent du dégroupage pour déployer des architectures xDSL, car ceux-ci doivent également s'interconnecter à l'opérateur historique.

E. LES SATELLITES

On doit tout d'abord rappeler que si les satellites sont en concurrence avec d'autres supports pour l'accès à l'Internet à haut débit en milieu urbain, ils sont irremplaçables pour couvrir les zones peu ou pas desservies par les réseaux.

Par surcroît, ils constituent des réseaux de télécommunications indispensables pour toute une partie des activités de télécommunications : le positionnement et la navigation.

Ce secteur qui a actuellement de très nombreuses applications de services civils et militaires, est un des domaines d'avenir des télécommunications. En effet, il sera un des supports privilégiés des réseaux « ad hoc », c'est-à-dire des réseaux se gérant en circuits fermés, indépendamment des réseaux principaux.

S'agissant de l'accès à Internet haut débit, le satellite ne peut actuellement concurrencer, dans les zones urbaines de forte densité d'activités, ni la fibre optique, pour des questions de capacité, ni les bandes locales filaires ou radio, pour des raisons de coût.

Son rôle technique n'en est pas pour autant négligeable :

- régions géographiques d'ensemble non desservies,

- desserte des derniers kilomètres non raccordés dans certains cas,

- desserte à destination de groupes linguistiques, ethniques ou culturels que le réseau Internet n'arrive pas à unifier,

- déploiement à haut débit pour des grandes entreprises à implantation mondiale.

Deux groupes de solutions sont mises en oeuvre : les orbites basses ou moyennes et les satellites géostationnaires :

Les constellations de satellites en orbite basse ou moyenne présentent l'avantage d'une puissance accrue mais leur déploiement, surtout en orbite basse, se heurte à des contraintes d'optimisation financière très sévères.

Ces satellites sont chers à lancer (car il s'agit de constellations), la constellation est longue à mettre en oeuvre et sa durée de vie est relativement faible.

Ils exigent donc une immobilisation financière très lourde qui ne peut pas être rentabilisée avant la mise en place de l'ensemble de la constellation alors même qu'elle implique un retour d'investissement rapide.

Les échecs d'Iridium et d'Orbcom ont conduit à s'interroger sur Globalstar (bien que cette constellation prévoie de collaborer avec les opérateurs locaux) et sur les projets Teledesic et Skybridge spécialisés dans la diffusion Internet et les réseaux de visioconférence mondiale. Il est évident que la montée en puissance des besoins de l'Aménagement du Territoire, de l'appui à la mondialisation, de l'intérêt pour la paix mondiale d'éviter la fracture numérique, sont des facteurs d'ordre politique qui conduisent à estimer, qu'en dépit de leurs difficultés actuelles, les constellations à basse altitude auront un avenir. Il n'est d'ailleurs pas exclu qu'elles puissent avoir dans plusieurs années un rôle décisif pour la mobilité s'il y a saturation des fréquences.

De plus, les réseaux en orbite moyenne, en particulier celui de GPS et celui du projet GALILEO, fonctionnent ou fonctionneront de façon satisfaisante.

Les satellites géostationnaires semblent mieux adaptés à la demande, notamment à celle qui exige un arrosage assez large des zones géographiques non desservies.

Dans les cinq prochaines années, on estime que le marché correspondra à 150 unités, étant précisé que les technologies correspondantes connaissent également une évolution rapide (accroissement de la charge utile, développement de l'efficacité des antennes et de la puissance des transpondeurs).

II. LE RENFORCEMENT DE LA SOLIDITÉ DES SYSTÈMES

A l'heure actuelle, les performances de la chaîne télécommu-nications-informatique ne sont pas suffisantes.

Par exemple, chaque utilisateur de l'Internet, même s'il est plus que raisonnablement équipé, enregistre invariablement des délais de consultation ou est victime d'interruptions de trafic contraires à un usage normal d'un outil qui devrait être caractérisé par l'instantanéité de sa mise à disposition.

C'est une des raisons pour lesquelles se sont installés, notamment aux États-Unis, de nouveaux types d'opérateurs spécialisés dans les « salles blanches », où des serveurs surpuissants visent à garantir à leurs clients (fournisseurs de services Internet ou de télécommunications) des débits à haute capacité avec une régularité totale.

A terme, ce type de difficultés de fonctionnement ne sera plus toléré par les usagers. Aussi peut-on raisonnablement estimer qu'avec la généralisation du déploiement des moyens et des hauts débits les performances générales du système s'amélioreront progressivement.

Mais plusieurs points d'interrogation demeurent sur sa fiabilité générale, portant sur ses possibilités de saturation à terme, sur sa sécurisation et sur l'état de sa normalisation.

A. LES INTERROGATIONS PORTANT SUR LA SATURATION DES RÉSEAUX INTERNET : de l'IPv4 vers l'IPv6

Le protocole réseau utilisé actuellement dans les réseaux IP et donc dans l'Internet est l'IPv4. L'IETF15(*) a spécifié en 1995 une évolution de ce protocole, l'IPv6. Cette spécification a été améliorée en 1998. Cette évolution vers une nouvelle version du protocole IP fut motivée par le risque d'une famine d'adresse. En effet, un des points les plus forts de l'Internet est le fait d'être global (cette globalité est due au protocole IP). Mais cela implique un nombre très important d'équipements terminaux qu'il faut distinguer à travers une adresse unique.

Les adresses en IPv4 ont une longueur de 4 octets et, historiquement, une structure qui ne permettait pas d'allouer les adresses avec une granularité fine aux organismes qui en demandaient. En 1990, on a estimé que le réseau ne pourrait pas dépasser l'année 1994. Les adresses en IPv6 sont sur 16 octets, ce qui résout le problème. Mais, finalement, deux concepts ont été introduits qui ont retardé l'échéance, et aujourd'hui on estime qu'il n'y aura pas de famine d'adresse en Europe avant 2005 et aux États-Unis avant 2010.

Le premier concept a permis une allocation des adresses avec une granularité plus fine16(*). Le deuxième a permis la réutilisation d'adresses.

Se pose donc la question du besoin et du moment du passage en IPv6.

Ce protocole présente de nombreux avantages par rapport à son prédécesseur : simplification de la configuration des équipements grâce à des mécanismes d'autofiguration, simplification de l'en-tête permettant un traitement plus rapide et facile à mettre en oeuvre en hardware, introduction d'un champ qui facilite la mise en oeuvre de services à qualité de service garantie, architecture de sécurité obligatoire, simplification des architectures de mobilité, simplification du routage grâce à une hiérarchisation des adresses, etc. Néanmoins, aucun de ces points n'est bloquant dans le contexte des services actuellement utilisés massivement et donc le coût de la migration n'a pas été justifié. Mais cette situation est en train de changer. L'évolution des réseaux plaide en faveur du passage à l'IPv6. En effet, des services comme la téléphonie ne coexistent pas bien avec les améliorations actuelles de l'IPv4, les nouvelles technologies de réseau mobile favorisent l'usage de la macro mobilité entre réseaux, ce qui devrait être mieux géré en IPv6, et la téléphonie sur IP et l'usage de la mobilité accroissent de manière significative la vitesse à laquelle augmente le besoin de nouvelles adresses.

Divers constructeurs ont donc introduit l'IPv6 dans leurs équipements. Mais la migration ne se fera que progressivement et, aujourd'hui, il n'est toujours pas évident de savoir comment cette migration va s'effectuer. En effet, il faut qu'un équipement terminal IPv6 puisse continuer à dialoguer avec un serveur Web qui est resté en IPv4 et réciproquement. Certains constructeurs proposent des équipements pour faciliter cette migration qui devra s'accélérer à partir de 2003-2004.

B. LES INTERROGATIONS LIÉES À LA SÉCURISATION DES RÉSEAUX

Les réseaux informatiques et de télécommunications sont appelés à être des supports essentiels de la vie économique et des relais quotidiens de la vie personnelle de leurs usagers.

Mais ils ne le deviendront que si leur sécurité est assurée au même titre que celle de la correspondance postale, des échanges bancaires ou des conversations téléphoniques.

Or, la sécurisation complète de ces réseaux devient de plus en plus difficile.

En effet, leur raison d'être est d'être ouverts et entièrement interopérables, ce qui rend inopérants les modes traditionnels de sécurisation par cloisonnement, et moins efficaces les États qui étaient traditionnellement chargés de réguler cette sécurisation.

De plus, la sécurisation doit s'effectuer dans un contexte un peu particulier, où tout le monde peut se connecter et où toutes les informations doivent se propager et où - dans le même temps - il existe des positions dominantes (Intel, Cisco, Microsoft) qui interfèrent sur toute la chaîne, et qui ne sont pas toujours ni transparentes, ni homogènes. De telle sorte qu'il est extrêmement difficile de leur appliquer des mesures de sécurisation généralisées.

Il faut, enfin, considérer que cette sécurisation doit s'appliquer à l'ensemble de la chaîne télécommunications-informatique : des univers de la domotique - où personne ne souhaiterait des intrusions alors même que ces réseaux domestiques sont reliés à Internet, au très haut débit qui intéresse, par exemple, les calculs distribués qui sont ventilés par les physiciens des hautes énergies dans les laboratoires du monde entier.

Et à ce contexte général, pas toujours favorable, s'ajoutent deux contraintes.

D'une part, l'architecture des réseaux reposera, de plus en plus, sur le développement d'opérateurs virtuels et sur des chaînes d'opérations de sous-traitance qui sont naturellement moins identifiables que les opérateurs historiques.

D'autre part, si chacun réclame une sécurisation poussée des réseaux, les conditions de tarification n'en sont pas assurées. En d'autres termes, chacun veut plus de sécurité mais personne ne veut en assumer les frais.

L'Union européenne développe des recherches d'un montant non négligeable (trente projets pour 50 millions d'euros), mais probablement encore insuffisantes, d'autant plus que contrairement aux États-Unis, où existe un organisme unique, les structures européennes sont éparpillées, dissemblables, et trop reliées aux ministères de l'Intérieur, ce qui ne couvre qu'un des aspects de l'ensemble des questions de sécurité.

C. LES INTERROGATIONS LIÉES À LA NORMALISATION

Pour assurer à terme l'universalité du système, un effort constant de normalisation est nécessaire.

Dans le domaine des télécommunications, cet effort est principalement assuré à l'échelon européen (Institut européen des normes de télécommunications - ETSI) et à l'échelon mondial (Union internationale des télécommunications - UIT).

Pour ne donner qu'un aperçu de la complexité de cette tâche, on mentionnera qu'en 2000 l'ETSI a établi près de 900 normes.

Mais ce processus de normalisation devient de plus en plus complexe, comme le souligne le dernier rapport de l'ART. Du fait, notamment :

«  de la convergence des technologies 

La répartition des compétences entre les différentes instances de normalisation télécommunications, électrique, électronique et autres devient plus floue en raison de la convergence des technologies des télécommunications, de l'informatique et de l'audiovisuel et des supports de transmission associés.

· de la multiplicité des innovations

Les efforts de recherche et de développement massif associés aux progrès technologiques (loi de Moore, etc.) engendrent de multiples innovations. Les calendriers des instances de normalisation, les cycles et processus de normalisation favorables à l'émergence d'un consensus sont régulièrement jugés trop lents par les équipementiers et les développeurs. Des réflexions sont en cours, à l'UIT ou à l'ETSI, pour raccourcir les délais de production d'une norme par le biais de nouvelles méthodes de travail. De plus, de nouveaux documents émergent également : spécifications, guide, rapport, résultant de travaux d'organismes officiels, de consortiums, de forums ou d'instances hors organismes institutionnels. Le statut de ces documents alimente actuellement des réflexions au niveau communautaire.

· de la libéralisation

Le processus de déréglementation favorise la concurrence entre les opérateurs et fournisseurs de services, l'émergence de nouveaux services. Les équipementiers influent fortement sur le processus de normalisation comme cela a été évoqué plus haut. Par ailleurs, afin de favoriser la croissance du marché, l'État limite la réglementation aux exigences essentielles. Les règles techniques, à caractère réglementaire, s'appuyant sur des normes volontaires, se réduisent. Aujourd'hui, le marché lui-même met en avant les normes volontaires dans le droit privé (marché public, contrats commerciaux, etc.), leur donnant ainsi un statut à caractère juridique. Ainsi, un marché libéralisé ne sous-entend pas moins de normes mais, au contraire, plus de normes, afin de clarifier les accords commerciaux entre acteurs.

· de l'Internet

Le protocole Internet s'impose comme l'élément fédérateur des futurs services multimédia et pénètre l'univers des télécommunications. Les réseaux de télécommunications servent, très largement, de support aux services qui sont offerts sur Internet.

Deux cultures se télescopent : celles de la normalisation des télécommunications et de la standardisation d'Internet. Les structures, les méthodes de travail, les mécanismes de concertation, d'adoption, de publication des documents, les acteurs dominants et influents diffèrent. Compte tenu du caractère incontournable de l'Internet, l'IETF, où l'influence des administrations européennes est négligeable, capte aujourd'hui de nombreux projets de standardisation et inspire les organismes de normalisation comme l'ETSI. L'IETF efface ainsi le niveau régional de normalisation.

· et de la multiplication des acteurs

Autour de la normalisation institutionnelle et résultant des différents facteurs d'évolution de la normalisation, ; de nouvelles formes de concertation prennent une influence grandissante. On peut citer : l'IETF (standardisation du protocole Internet et de l'architecture d'Internet), le W3C (standardisation du web), les forums ayant pour objectifs la promotion d'une technologie (IPv6 forum ou UMTS forum, etc.), les instances de normalisation en partenariat, de spécifications, les forums d'interopérabilité, les associations d'opérateurs (GSM association, etc.), d'équipementiers (GSA, etc.). Chacune de ces structures a ses propres règles de fonctionnement, des droits d'accès, des règles de procédure distinctes. Elles interagissent, très souvent, entre elles. Elles irriguent par leurs travaux, leurs forces de propositions les structures traditionnelles de normalisation au niveau régional, mais plus régulièrement, au niveau mondial. »

III. LA GESTION À TERME DES FRÉQUENCES

Les fréquences sont un bien rare. Elles sont utilisées par le secteur des télécommunications en concurrence avec d'autres besoins : défense nationale, police, navigation aérienne, secteur audiovisuel, radios, etc.

Leur gestion est assurée à un triple niveau :

- national, en France, sous l'autorité de l'Agence nationale des fréquences,

- européen, dans le cadre des attributions de l'Union européenne, mais, également, dans celui plus technique de la conférence des Postes et télécommunications qui regroupe 43 pays,

- et mondial, au sein de l'UIT.

Il n'est pas inutile de souligner qu'il existe une constante de temps de l'ordre de 10 ans entre l'affectation à un nouvel usage de fréquences et sa validation.

Par exemple, les discussions sur les fréquences de téléphonie mobile de troisième génération ont commencé en 1992 pour aboutir, en principe, à une libération fin 2002. De même, pour la télévision numérique terrestre, a-t-on commencé à étudier le problème en 1994 pour une mise en oeuvre à partir de 2005.

Compte tenu de cette constante de temps, les besoins à terme sont planifiés. Ainsi :

- la conférence d'Istanbul tenue en 2000 a défini une extension des bandes de fréquence attribuées à la téléphonie mobile de troisième génération,

- et une conférence européenne est prévue en 2005 afin de planifier le spectre de la future télévision numérique destinée, à terme, à se substituer au spectre analogique actuel.

Pourquoi, dès lors, s'inquiéter des problèmes posés par la gestion à terme de ces fréquences qui semble planifiée dans de bonnes conditions ?

Principalement, pour deux raisons :

En premier lieu, parce que cette planification est encore trop dépendante des situations acquises et d'une évaluation trop linéaire des besoins à terme.

La télévision numérique terrestre va accroître d'un facteur 5 ou 6 les canaux à la disposition des chaînes audiovisuelles, canaux qui sont mis à disposition gratuitement s'agissant du service public et pour un coût relativement faible pour les autres chaînes.

Or, en raison de la latence de libération évoquée ci-dessus, il est peu prudent d'affecter un bien aussi rare que ces nouvelles fréquences sans réelles contreparties financières et sans interrogation de fond sur les besoins à venir, ceci uniquement parce que les chaînes étaient attributrices des fréquences analogiques correspondantes et que l'on n'imagine pas que certains besoins puissent faire l'objet d'une croissance exponentielle.

Rappelons, par exemple, que le chiffre d'affaires de la formation professionnelle en France est de 143 milliards, bien supérieur à celui de l'audiovisuel, que le téléenseignement est appelé à y croître très fortement, et que ce type de téléenseignement -mais également celui qui pourrait être dispensé par l'éducation et les universités- pourrait, à un terme beaucoup plus proche que l'on ne le prévoit, avoir pour usagers ceux de l'espace hertzien.

Il en va de même pour tout ce qui ressort de la télésanté.

La prudence dans ce domaine commanderait donc de réserver certains des canaux libérés par le numérique hertzien audiovisuel à des usages dont on ne peut encore mesurer l'importance alors que, dans le même temps, on sait très bien que la migration de l'analogique audiovisuel au numérique audiovisuel sera très longue17(*). Ceci d'autant plus que ces fréquences permettent d'obtenir des couvertures du territoire à moindre coût, ce qui faciliterait la mise en oeuvre d'applications de service public comme le téléenseignement ou la télésanté.

Ensuite, parce que l'harmonisation européenne des fréquences -effective dans le domaine de la téléphonie mobile- n'est pas assurée dans d'autres domaines.

Cette harmonisation est pourtant essentielle si l'on souhaite que chaque citoyen européen, appelé de plus en plus à travailler et à voyager dans les autres pays de l'Union, puisse avoir une continuité d'utilisation des services de télécommunications et d'audiovisuel.

*

* *

Compte tenu de ce qui précède, vos rapporteurs ont estimé qu'il revenait à l'Office, dont la mission est d'éclairer le Parlement sur les grands choix technologiques, de collaborer à l'organisation d'un colloque, tenu le 17 décembre 2001 à Sophia-Antipolis, et dont le but était d'alerter les pouvoirs publics français et européens sur l'importance de ces questions.

CHAPITRE II :

LES PROBLÈMES LIÉS À LA DIFFUSION ÉCONOMIQUE ET SOCIALE DES NOUVELLES TECHNOLOGIES DE TÉLÉCOMMUNICATIONS

La nécessité, évoquée dans le chapitre précédent, d'assurer l'accomplissement de la mutation technologique du secteur, s'impose d'autant plus, lorsque l'on considère les conditions actuelles de sa diffusion économique et sociale.

En effet, pour que la nouvelle économie puisse se mettre en place, il est indispensable que l'ensemble de ses segments progresse en même temps. De telle sorte que ses usagers puissent se voir offrir des services interopérables, indépendamment de leur activité professionnelle, de leur implantation géographique ou de leur situation résidente ou nomade.

Il serait naturellement illusoire d'escompter qu'un changement qualitatif brusque permette à ces nouvelles technologies de s'imposer. Mais, plus simplement, il importe de relever que leur déploiement -qui n'en est qu'à son début- doit être continu.

Cependant, le cheminement progressif qu'implique cette diffusion est complexe. Et il est actuellement freiné par trois types de facteurs : la crise des secteurs de l'informatique et des télécommunications, les incertitudes pesant sur l'ampleur et le rythme du déploiement de l'Internet haut débit sur le territoire et les difficultés de confrontation de l'offre de services avec l'appropriation de leurs usages.

I. LE RALENTISSEMENT IMPUTABLE À LA CRISE DU SECTEUR

Examiner actuellement la situation du secteur des télécommunications, rayonnant il y a deux ans dans un monde en pleine expansion, et, aujourd'hui première victime, dans un monde en crise économique, s'apparente un peu à laisser glisser le regard de gauche à droite sur les tympans des cathédrales : des promesses du paradis aux horreurs de l'enfer.

Une approche fondée sur les cycles économiques conduit à relativiser cette métaphore car le retour à la croissance bénéficiera mécaniquement à un des secteurs les plus dynamiques.

Mais, à l'examen, il apparaît aussi que la crise de la chaîne télécommunications-informatique résulte de facteurs propres, pouvant donner lieu à des enchaînements inquiétants à terme.

A. LES FACTEURS PROPRES À LA CRISE DE LA CHAÎNE TÉLÉCOMMUNICATIONS-INFORMATIQUE

Le propos de vos rapporteurs n'est pas de déterminer les rapports d'antériorité entre la crise des secteurs des télécommunications et de l'informatique et le ralentissement de l'économie mondiale.

Mais d'analyser ce qui, dans cette crise, revient en apanage à ces deux secteurs : la conjonction d'un phénomène classique de ralentissement de la demande et d'une rétroaction disproportionnée de l'économie financière sur l'économie réelle.

1. Un phénomène classique de ralentissement de la demande

· La saturation du marché

Il est parfaitement normal que deux secteurs, qui ont enregistré une croissance continuelle depuis plus d'un quart de siècle, connaissent une stabilisation de la demande. Sur ce plan, les télécommunications et l'informatique entrent, pour une part de leur activité, dans une phase de maturité, comme toute autre branche.

Le ralentissement de la demande doit également s'analyser au regard des prévisions optimistes des uns et des autres, qui ont abouti à des situations de surcapacité dont la sanction se traduit cruellement par des plans de suppression d'emplois sur l'ensemble des deux filières de l'informatique et des télécommunications.

· Un double palier d'usages

Mais, à bien y regarder, l'aplatissement des courbes de vente d'ordinateurs, de logiciels, de serveurs ou de téléphones portables relève de causes plus complexes qu'une simple crise d'ajustement de l'offre à la demande.

Car, si ce mouvement est la résultante d'une manifestation, somme toute parfaitement classique, d'un état d'affaiblissement de la demande et de surcapacité de l'offre, il procède, aussi, d'un double palier d'usages.

Les usages des services et des équipements de base d'informatique et de télécommunications sont, peu à peu, entrés dans les moeurs, comme en leur temps le téléphone ou la télévision. Leurs utilisateurs, professionnels ou privés, se limitent à un taux normal de renouvellement d'équipements, le plus souvent, pour accéder à des fonctionnalités (accès à la toile, courrier électronique, réseaux d'entreprise, téléphonie mobile, etc.) qui sont proposées sur le marché depuis déjà quelque temps. Bien que la demande correspondante asseye des taux de progression dont se contenteraient la plupart des autres secteurs d'activité, elle ne suffit plus à insuffler au secteur le dynamisme qui était le sien.

A l'opposé, les nouveaux services et beaucoup de nouveaux équipements liés à l'introduction de l'Internet haut débit, fixe ou mobile, ne sont pas encore totalement disponibles.

Le lissage de ce porte-à-faux, qui consistait à diffuser le plus largement possible les résultats d'une première révolution technologique, tout en préparant, à des coûts très lourds en recherche et en déploiement, l'introduction de la seconde, était tendu. Mais l'on pouvait estimer que les bénéfices de la première révolution technologique nourriraient les investissements de l'autre.

En 2000, deux évènements financiers ont perturbé cette anticipation raisonnable, mais non acquise : l'éclatement de la bulle boursière américaine et les conditions d'attribution des licences de téléphonie mobile de troisième génération dans les principaux pays européens.

2. Les effets disproportionnés de l'économie financière sur l'économie réelle

Les crises boursières américaine et européenne se sont superposées en Europe et ont eu des effets disproportionnés sur l'économie réelle de la filière télécommunications-informatique.

· En Europe, les crises financières américaine et européenne se sont superposées

L'Europe a subi, pour partie, le contrecoup de la crise boursière américaine qui a altéré les possibilités de financement sur le marché des entreprises de télécommunications.

Mais les entreprises européennes conservaient, a priori, l'avantage des succès acquis dans la deuxième génération de téléphonie mobile ; elles conservaient également l'espoir que les convergences européennes obtenues sur l'UMTS permettraient d'avoir dans de bonnes conditions le marché de la troisième génération.

Une première chance a été manquée lorsque la Commission a proposé -ce qui semblait logique sur un marché promis à l'unification- une harmonisation des conditions d'attribution des fréquences de téléphonie mobile de troisième génération.

Au nom de la répartition des compétences entre l'Union et les États-membres, ceux-ci ont refusé cette harmonisation.

Avec les résultats que l'on connaît.

Avec le recul, on a peine, aujourd'hui, à qualifier l'illusion qui a validé l'idée que, dans les cinq plus grandes nations européennes, on pouvait procéder, sans dommages, à une ponction parafiscale de 900 milliards de francs sur le seul secteur des télécommunications.

Ceci, sans préjudice d'une somme à peine moindre pour le déploiement des équipements correspondants. Même si la mise en commun d'une partie des réseaux pouvait contribuer à la diminution de ce chapitre de dépenses d'environ 30 %18(*).

On rappellera que vos rapporteurs, tout au long de la discussion du projet de loi de finances pour 2001, et dans une communication présentée à l'Office le 5 juin 2001, avaient insisté sur les dangers que représentait cette ponction.

C'est cette dimension qu'il faut prendre en considération pour mesurer les effets conjugués de ces deux crises financières, en Europe.

Déjà affecté par la crise boursière américaine dans ses structures de financement et par l'altération de la progression de ses marchés, le secteur européen des télécommunications (industriels, opérateurs et fournisseurs de services) doit, aujourd'hui, supporter les conséquences des prix très élevés de l'attribution des licences UMTS, puisque la plupart des grands opérateurs européens ne se sont pas portés candidats à l'attribution d'une seule licence dans un seul pays, mais dans plusieurs pays européens.

La décision courageuse prise récemment par les pouvoirs publics français ne contribuera donc que très partiellement à redresser cette situation.

§ La cascade et le buvard : des effets disproportionnés

Dans un premier temps, la chute boursière, brutale mais annoncée, du secteur le plus spéculatif de la nouvelle économie américaine, les Start up spécialisées dans les développements Internet sans apport d'innovation technique ou scientifique, est apparue à beaucoup comme un réajustement salutaire.

Au fond, elle n'affectait pas les bases de la future société de l'information : on continuait à implanter de la fibre à haut débit, et le principal fabricant mondial de serveurs informatiques n'est pas arrivé à faire face à la demande pendant la plus grande partie de l'année 2000. L'économie réelle des télécommunications et de l'informatique semblait assez solide pour faire face à cette péripétie boursière.

Mais ces deux évènements ont une double conséquence :

- la crise américaine, par un effet de cascade, s'est étendue à l'ensemble de la filière,

- la crise européenne a eu un effet buvard en asséchant fortement les possibilités d'investissement des industriels, des opérateurs et des fournisseurs de services ; elle a profondément altéré le dynamisme du secteur.

a) L'effet de cascade

En grippant une des courroies de transmission du dynamisme de la nouvelle économie américaine, la crise boursière a eu deux séries de conséquences :

- d'une part, elle a abouti à une diminution générale de la demande qui a particulièrement atteint des secteurs dont les plans d'affaires reposaient sur une vision, peut-être trop optimiste, de l'évolution du marché,

- et, d'autre part, elle a mis en évidence une des faiblesses de la chaîne d'activité télécommunications-informatique, dont la crédibilité du modèle repose sur celle de la totalité de ses éléments. En un effet de cascade19(*) facilité par la convergence entre les deux secteurs, les difficultés, à l'origine très cantonnées, de l'informatique se sont diffusées en amont vers les télécommunications.

Enfin, on peut ajouter que les évènements du 11 septembre, par leur effet global de ralentissement de certains secteurs, comme le tourisme, ont amplifié ces conséquences.

b) L'effet de buvard

En Europe, les niveaux de prix baroques auxquels ont été attribuées les licences de téléphonie mobile de troisième génération dans les grands pays européens ont aggravé les choses.

Les États concernés -mais également les opérateurs qui, nolens volens, se sont associés à ces soumissions et adjudications- ont réussi le double miracle :

- d'ôter pratiquement toute chance de réussite aux opérateurs rentrants,

- et, d'enfermer les opérateurs historiques dans un cycle d'endettement extrêmement préoccupant.

En d'autres termes :

- d'une part, on a étroitement circonscrit la stimulation qu'aurait apportée une plus grande concurrence pour la mise en place de l'UMTS,

- et, de l'autre, on a durablement handicapé les opérateurs historiques qui constituent, par la force des héritages, une interface essentielle entre les télécommunications et l'informatique, comme entre les techniques et les usages de demain.

En quelque sorte, on a réalisé l'exploit de bannir la concurrence tout en paralysant le monopole.

B. UN ENCHAÎNEMENT INQUIÉTANT À TERME

Sur la base d'une vision classique des cycles économiques, on peut assez valablement conjecturer que les secteurs des télécommunications et de l'informatique surmonteront ces crises. Somme toute, qu'un retour à la normale prendra place après les évènements boursiers et les anticipations exagérément optimistes de l'offre.

Le problème est de savoir quand.

Or, d'une part, sans même prendre excessivement en considération le prédicat keynésien selon lequel « à long terme, nous serons tous morts », il est important pour l'ensemble de l'économie mondiale que ces secteurs, qui ont un rôle moteur dans la croissance, retrouvent le plus tôt possible un niveau d'équilibre satisfaisant.

D'autre part, l'on sait qu'en sortie de crise il y a des gagnants et des perdants. Et il est essentiel que les acteurs français et européens fassent plutôt partie des premiers que des seconds - vis-à-vis de leurs compétiteurs américains ou japonais.

Et à cet égard, le prolongement de la crise peut avoir un effet pervers : celui d'accroître -dans un secteur où l'effort de recherche est essentiel- le sous-financement d'ensemble des grands pays européens, déjà accentué dans le domaine des nouvelles technologies.

On sait que la France (2,2 %), l'Allemagne (2,3 %), le Royaume-Uni (1,9 %), l'Italie (1 %) et l'Espagne (1 %) consacrent une part moins importante de leur PIB à la recherche que les États-Unis (2,8 %), la Finlande (2,9 %) ou la Suède (3,8 %).

Mais ces données d'ensemble masquent des écarts de financement encore plus importants dans les domaines de l'informatique et des télécommunications.

L'effort de recherche américain est principalement concentré sur deux secteurs -dont celui de la filière télécommunications-informatique- dans lequel la recherche duale (c'est-à-dire opérée par le département de la défense américain, et par la NASA pour l'espace, sur des programmes militaires) est déjà dix fois supérieur dans ce domaine aux efforts de recherche de l'Union européenne et des États qui la composent.

On sait la part que le département de la Défense américain (DoD) -dont le budget annuel de recherche est de l'ordre de 24 milliards de dollars- a prise dans l'avènement des nouvelles technologies d'information et de télécommunication. Mais on observe un phénomène nouveau depuis quelques années.

Auparavant, la recherche duale consistait à activer les capacités de recherches civiles à partir de besoins militaires prédéfinis. Actuellement cette perspective se renverse.

Les acquis de la recherche civile entrent maintenant dans la définition du champ des besoins militaires et bénéficient à leur tour, beaucoup plus directement qu'avant, des contrats de recherche militaire.

Les mécanismes des ATD (Advanced Technology Demonstration) et des ACTD (Advanced Concept Technology Demonstration) sont très représentatifs de ce processus qui permet de valoriser les technologies émergentes en recherchant et en expérimentant leur potentiel d'application militaire. L'objectif de ces ATD et ACTD est de ramener à 18 mois maximum le délai entre l'apparition d'une nouvelle technologie et son emploi par les armées, et donc indirectement par le secteur civil.

Le lien entre les études amont de défense et les universités renforce également ce processus favorable à la veille technologique. Il permet par un soutien financier et par des échanges avec les laboratoires des universités de favoriser l'innovation technologique et ses débouchés.

Ajoutons que ni l'importance des masses financières en cause, ni les synergies qu'elles permettent de provoquer ne permettent de mesurer totalement l'avantage que les entreprises américaines du secteur de l'informatique et des télécommunications retirent de cette aide. Les procédures de contractualisation souples sous lesquelles cet appui est attribué contrastent fortement avec la lourdeur des procédures de l'Union européenne.

*

* *

A défaut d'un redressement sur ce point, les pays européens, déjà distancés dans les domaines des microprocesseurs et des logiciels, perdront l'avance qu'ils avaient réussi à acquérir dans le domaine des télécommunications.

II. LES INCERTITUDES SUR LE RYTHME DE DÉPLOIEMENT DE L'INTERNET HAUT DÉBIT EN FRANCE

A l'occasion de la communication qu'ils ont présentée à l'Office le 5 juin 2001, vos rapporteurs s'étaient émus de la lenteur de la diffusion de l'Internet à haut débit en France20(*).

En relevant que ce retard, qui semblait répliquer celui que notre pays enregistrait sur l'Internet bas débit, pouvait être porteur de conséquences graves tant pour la généralisation des usages des nouvelles technologies que pour l'Aménagement du territoire.

Si le constat fait alors n'est pas démenti pour les études les plus récentes, la mise en place récente d'instruments et de financements appropriés réduit les risques d'une fracture territoriale, mais n'apporte pas de solution à la fragilité du modèle tarifaire du déploiement de l'Internet à haut débit en France.

A. UN RETARD APPELÉ À PERDURER ?

A la fin 2000, on comptait 18 millions de personnes dans le monde raccordées à un réseau Internet à haut débit, 4,5 millions en Europe dont seulement 190.000 en France.

Une étude de l'IDATE donne les précisions suivantes sur le nombre de lignes ADSL (qui est la technique de raccordement prévalente en Europe -contrairement aux États-Unis où le câble prédomine) installées en Europe à la fin de 2001 : Allemagne 2.000.000, France 500.000, Pays-Bas 400.000, Royaume-Uni 200.000, Suède 200.000, Italie 500.000 et Espagne 300.000.

Ces données portent sur les opérateurs historiques qui dominent le marché pour trois raisons :

- détenant la boucle locale, ils ont pu déployer les infrastructures ADSL nécessaires et capter les premiers clients,

- le processus de dégroupage -techniquement et financièrement difficile- a ralenti l'arrivée de la concurrence,

- le renversement de la conjoncture depuis dix-huit mois a amplifié ce dernier phénomène en diminuant les investissements des nouveaux entrants.

Le retard français se réduit, mais très relativement. Par exemple, fin 2001, les Pays-Bas auront deux fois plus de lignes installées par habitant que la France, la Suède deux fois et demie plus, et l'Allemagne trois fois plus.

L'opérateur historique français souhaite pouvoir couvrir potentiellement 73 % de la population fin 2002, et 80 % fin 2003, en lignes ADSL.

Cette accélération est la bienvenue, mais elle n'élude pas totalement le risque d'une fracture numérique territoriale.

B. LA MISE EN PLACE D'INSTRUMENTS ET DE FINANCEMENTS RÉDUISANT LES RISQUES D'UNE FRACTURE TERRITORIALE

L'opérateur historique français projette de relier 73 % des utilisateurs potentiels en connexion à haut débit d'ici la fin de 2002. Ceci avec un décalage par rapport à l'opérateur historique allemand qui prévoit d'offrir une connexion à 90 % des utilisateurs potentiels, d'ici la fin de 2001.

Cette donnée ne mesure pas seulement la latence d'implantation de l'Internet à haut débit dans notre pays, mais reflète également des contraintes de distribution des populations sur le territoire très différentes.

En France, 65 % de la population vivent sur 10 % du territoire. Et si l'on considère le décile suivant, 10 % supplémentaires de la population vivent sur 10 % du territoire.

Ceci signifie que l'on peut relier 75 % de la population en haut débit en ignorant 80 % du territoire.

Compte tenu de ce qui a été évoqué plus haut quant au rôle directeur que les nouvelles technologies pourraient avoir sur le développement durable - dont la « reconquête » du territoire est un élément essentiel - la limitation du déploiement de l'Internet à haut débit n'est pas acceptable.

La problématique d'un déploiement généralisé du haut débit sur l'ensemble du territoire se pose de la façon suivante :

Les grandes dorsales du transport de l'information sont implantées de façon satisfaisante.

Les carences existent dans les réseaux intermédiaires de collectes (métropolitains ou régionaux). Là où le réseau de l'opérateur historique est conçu pour uniquement transporter de la voix.

Établir les 30.000 km de lignes optiques manquantes exige un investissement de l'ordre de 10 à 15 milliards de francs.

De plus, si les coûts dérivés sont moindres sur ce point, -car ils sont partiellement pris en charge par le plan de développement de l'opérateur historique-, seul le quart des centraux de France Telecom sont dotés des convertisseurs nécessaires à une gestion efficace des débits véhiculés par la fibre optique.

Le comité interministériel d'aménagement du territoire du 9 juillet 2001 a décidé la mise en place de financements et d'instruments de couverture de l'ensemble du territoire.

La Caisse des dépôts et consignations (CDC) est au centre du dispositif.

S'agissant des financements qui sont prévus d'ici à la fin de 2005, elle engagera 1,5 milliard de francs sur ses fonds propres et mettra à la disposition du comité une enveloppe de 10 milliards de francs de prêts à taux préférentiel (4,95 %) sur 30 ans.

Les instruments juridiques du déploiement seront soit des sociétés d'économie mixte, soit des sociétés anonymes afin d'associer l'expertise de la CDC aux besoins des collectivités locales, et, le cas échéant, à des opérateurs.

Celles-ci - dont la compétence en matière de déploiement d'infrastructures de télécommunications a été rétablie par la loi n° 2001-624 du 17 juillet 2001 portant diverses dispositions d'ordre social, éducatif et culturel, pourraient bénéficier des avis de la Caisse sur l'opportunité et le rythme de déploiement de l'Internet à haut débit sur le territoire.

L'ensemble des techniques disponibles est éligible à ces aides :

- le terrestre souterrain (pour un coût actuel de 50 €/m),

- l'hertzien (BLR, UMTS),

- et l'aérien (il s'agit d'utiliser les lignes électriques, ce qui permettrait, pour un coût minoré (environ 30 €/m) d'atteindre les villes de 5.000 habitants.

*

* *

Le dispositif proposé sur ce point sensible semble cohérent en ce qu'il associe une expertise bancaire et d'ingénierie, celle de la CDC, à une demande territoriale -en évitant ainsi que celle-ci porte sur des projets disproportionnés- et en ce qu'il crée les conditions d'un portage par les collectivités intéressées, permettant la constitution d'une offre et sa gestion.

Mais si le déploiement des infrastructures de transmission à haut débit éliminera les discriminations à l'implantation des entreprises sur le territoire, il ne donnera pas un effet d'accélération suffisant à son utilisation par les particuliers tant que son offre tarifaire ne sera pas satisfaisante.

C. UN MODÈLE TARIFAIRE INADAPTÉ

L'opérateur historique allemand propose actuellement des connexions Internet à haut débit pour 165 F par mois. Les propositions de l'opérateur français sont près de deux fois plus élevées.

Si cette situation devait se prolonger, il en résulterait deux conséquences :

- la poursuite du retard d'accès des utilisateurs individuels français au haut débit,

- et, corrélativement, un décalage dans la constitution d'une offre de logiciels d'application grand public.

Car les fournisseurs de services ne pourront assurer la rentabilité de leurs applications en-deçà d'une masse de clientèle suffisante et d'un tarif de raccordement assez bas pour autoriser d'autres dépenses.

Sur ce point, on doit rappeler que l'avenir du modèle économique de l'Internet à haut débit dépend de l'assiette de son marché.

Or, si l'accès aux services est trop cher, les usagers qui acquittent généralement une redevance télévision, des abonnements au câble, un abonnement téléphonique fixe et/ou mobile, n'ont pas des disponibilités financières illimitées.

Fixer à un niveau trop élevé le prix du transport, c'est retarder l'achat de services et empêcher la constitution, dans notre pays, des entreprises correspondantes.

Celles-ci iront s'installer ailleurs.

*

* *

L'ouverture à la concurrence pourrait-elle jouer un rôle moteur à la baisse des prix ?

La baisse des tarifs téléphoniques, et les échos de la guérilla qui se déroule entre l'opérateur historique et les nouveaux arrivants, d'ailleurs parfaitement arbitrée par l'ART incitent, en première analyse, à penser que oui.

Mais il semble également que, même si cet effort doit être poursuivi, il n'aura, dans un premier temps, qu'un effet limité.

Aux États-Unis, cette ouverture a été un échec partiel dans la mesure où les nouveaux opérateurs n'ont pu que très partiellement répondre à la concurrence des opérateurs en place -parce que le marché est encore trop étroit et que la rentabilité des offres nouvelles implique que les entrants assurent la migration complète de la clientèle sur tous les services de télécommunications et non pas seulement sur le marché du haut débit.

En France, les premières expériences ont conforté cette analyse, les opérateurs concurrents ne présentent que des offres sur des segments de marchés professionnels et sur des zones géographiques limitées. Actuellement, les conventions de dégroupage passées par France Telecom ne concernent que 3,5 millions de lignes et 91 salles de « cohabitation » (en région parisienne, à Lyon et à Marseille).

Dès lors, sur ce point, on ne peut manquer de souligner l'ambiguïté de la position de l'État actionnaire majoritaire, conscient de l'importance d'une adaptation du modèle tarifaire, mais qui ne l'impose pas à l'opérateur historique qui, par la force des choses, doit être l'acteur privilégié du déploiement du haut débit en France21(*).

III. LA CONFRONTATION ENTRE L'OFFRE DE SERVICES ET CE QUE L'USAGER SAIT OU PEUT UTILISER

Comment s'approprier un service pour l'utiliser ?

Question centrale, car l'appropriation est indispensable à la création d'une demande.

L'offre produite par l'évolution technologique des secteurs des télécommunications et de l'informatique doit, c'est une tautologie, rencontrer un besoin.

Mais, à l'heure actuelle, il n'y a pas de demande suffisante en face des investissements très lourds en recherche-développement, des déploiements d'infrastructures et des coûts de création de services.

A. UN PROBLÈME COMPLEXE

La confrontation sur un marché d'une offre et d'une demande suppose, de part et d'autre, une lisibilité qui est loin d'être acquise dans le cas qui nous préoccupe.

1. L'offre

Vos rapporteurs l'ont évoqué, l'offre technique n'est pas mûre. On commence seulement, avec peine, à déployer le GPRS qui constitue un intermédiaire entre la téléphonie de deuxième génération et celle de troisième génération. La troisième génération, tant en ce qui concerne les terminaux que les infrastructures, ne sera pas disponible en 2002.

L'offre de services n'est pas non plus culturellement au point. Il ne s'agit pas d'opérer une comparaison avec le contre-modèle du plan câble d'il y a vingt ans (des tuyaux mais pas de programmes).

Le problème est plus complexe. Car la mise en ligne de l'offre, comme l'a montré la multiplication des créations de sites sur l'Internet, peut être foisonnante et décentralisée. Mais, surtout parce qu'il s'agit de concevoir des usages en fonction d'une modification de comportements sociaux qui ne pourra être que progressive et souvent imprévisible.

2. La demande

La demande potentielle, en particulier au regard de la demande existante, n'offre pas plus de lisibilité que l'offre.

Elle est :

- segmentée :

Entre des usages professionnels ou privés, résidentiels ou nomades, l'éventail des appropriations possibles est assez large. Même si l'on peut estimer à bon escient qu'un usage acquis dans l'une ou l'autre de ces situations essaime assez rapidement. Comme, par exemple, cela a été le cas lorsque l'introduction des ordinateurs dans les entreprises a activé les achats d'ordinateurs à usages personnels.

- diversifiée géographiquement :

En principe, l'unité de marché de base n'est plus le pays, mais le continent. Or, les usages des services de télécommunications-informatique sont loin d'être uniformes. En Europe, par exemple, les Anglais utilisent beaucoup plus l'Internet pour faire des achats, les Allemands pour surveiller l'état de leur compte en banque et les Français pour discuter.

Par ailleurs, la demande :

- se situe à des niveaux de capacité technique faible et n'est pas assise. Chacun sait, sur le premier de ces points, qu'un utilisateur moyen n'emploie qu'entre 10 % et 20 % des possibilités offertes par son ordinateur. Et qu'il peut, au demeurant, être très rapidement rebuté par l'absence de simplicité des offres de services potentiels (par exemple scanner une photo, la mettre dans un fichier, puis l'insérer dans un courrier électronique n'est pas une opération simple - et, en cas de réussite, n'apporte pas la garantie que la personne à qui le message est adressé pourra ouvrir le fichier attaché).

Une amélioration des interfaces homme-machine est essentielle sur ce point22(*).

Compte tenu de ce qui précède, on ne s'étonnera pas que la demande d'un Internet haut débit - fixe ou mobile - ne fasse pas l'objet d'une appropriation d'usages confirmée puisque l'appropriation d'usages sur l'Internet bas débit est très fragile.

- fait l'objet d'appropriations « surprises » :

En général, les consommateurs ne se conforment pas aux désirs des ingénieurs.

Ils ont tendance, face à une offre de services, à se comporter de façon autonome.

Le succès des courriers électroniques, la force de la demande en téléphonie mobile, le développement sur cet outil d'appropriations, auxquels on n'avait pas accordé suffisamment d'attention (SMS, offre de chargement de sonnerie à la commande) le démontrent.

Ces succès autorisent aussi à insister sur un fait : la simplicité et le faible coût de la mise en oeuvre des services sont essentiels à l'appropriation de leur usage.

- et pose d'incontestables problèmes de solvabilité :

On mentionnera à nouveau le problème du modèle tarifaire déjà évoqué à propos de l'Internet à haut débit fixe. Des considérations du même ordre peuvent être développées sur la téléphonie mobile de troisième génération. Et l'on ne considère ici que les charges de fonctionnement indépendamment des coûts d'équipement.

Il est ici intéressant d'évoquer les problèmes de fracture numérique tant entre pays, avec les conséquences inéluctables sur les aggravations de tensions géopolitiques qui seraient liés à une intensification de ces fractures, qu'à l'intérieur d'un pays avec les problèmes d'aménagement de territoire et d'égalisation des chances.

Ces problèmes ne sont pas insolubles, mais nécessitent des réflexions préliminaires sur les vraies demandes, la diffusion d'informations et de services ciblés en fonction de besoins très réels (gestion prévisionnelle de la santé, informations en temps technique : les cours des fruits et légumes pour les agriculteurs, du poisson pour les pêcheurs, etc.).

On doit également s'interroger sur la solvabilité en temps du consommateur. Va-t-il passer ses journées et ses nuits à mélanger de la voix, de l'image et du son sur son ordinateur, comme le présupposent des plans d'affaires trop optimistes ?

C'est peu probable.

Le succès de la téléphonie mobile en Europe procède de ce qu'elle a su insérer un usage déjà assis (la téléphonie fixe) dans le temps disponible des consommateurs. Le nombre de personnes que l'on voit téléphoner dans la rue, dans leur automobile ou dans les transports en commun en témoigne.

*

* *

L'ensemble de ces considérations ne doit pas conduire à trop de pessimisme sur la réalité des débouchés économiques et sociaux des avancées technologiques futures de la filière télécommunications-informatique.

Mais il semble utile de recadrer la problématique de la progression de cette appropriation d'usages.

Il s'agit principalement, parallèlement au déploiement des technologies nouvelles, d'analyser et d'encourager des cheminements d'appropriation par des études répondant à des questions qui se posent dans la vie quotidienne des entreprises et des consommateurs ; à partir de cet examen, trouver les réponses que peuvent apporter des services de télécommunications et analyser les difficultés d'apporter des services donnant ces réponses de façon commode, simple et pratique. Enfin, de résoudre ces difficultés en proposant effectivement des services correspondants à un coût supportable.

B. LA RECHERCHE DE CHEMINEMENTS D'APPROPRIATION

Accepter l'idée que dans dix ans nous pourrons transmettre et recevoir toute information à tout moment et sur tout support ne résout rien. Ce qu'il faut, c'est qu'une série de besoins puissent aisément être satisfaits. C'est ceci qui permettra à l'usager d'utiliser les services.

Il convient donc d'essayer de discerner les secteurs et les structures d'offres de services qui peuvent concourir à la satisfaction de ces besoins.

A cet égard, deux approches, non exclusives l'une de l'autre, sont envisageables : la réplication des modèles de réussite précédents, et l'encouragement aux utilisations économiques futures.

· la réplication des modèles de réussite précédents :

Cette voie consiste à rechercher dans le passé immédiat ce qui a fait la force des appropriations qui sont acquises.

On peut ainsi citer :

- le relais que constituent les entreprises qui ne sont pas soumises aux mêmes contraintes financières que les particuliers, mais qui permet de familiariser leurs salariés avec les outils ou avec des usages (comme, par exemple, le courrier électronique),

- les classes d'âge : les plus jeunes, qui possèdent une plus grande perméabilité à l'apprentissage des techniques et qui sont sensibles à la fois aux modes et à l'aspect ludique de l'utilisation des services de télécommunications (jeux, musique, messagerie, etc.),

- le modèle historique du minitel :

Parallèlement à sa simplicité, l'organisation en kiosque (plate-forme tenue par l'opérateur qui reverse aux fournisseurs des services une part des communications) est un des facteurs du succès du minitel, dont la migration des services est proposée sur plusieurs fournisseurs d'accès.

Cette architecture pourrait être particulièrement précieuse dans deux domaines :

- la mise au point de plates-formes de services pour la téléphonie mobile,

- et le commerce électronique dans la mesure où l'opérateur qui encaisse le prix des achats sur la facture téléphonique offre une lisibilité, et donc une sûreté plus grande qu'un écran qui vous demande un numéro de carte de crédit.

· l'encouragement aux utilisations économiques et sociales futures :

Si la réplication des modèles de réussite précédents peut permettre de « payer » financièrement tel ou tel déploiement des nouvelles technologies de l'information, ils ne portent que sur une partie des futurs usages économiques et sociaux des progrès technologiques de la filière télécommunications-informatique.

Il faut aller plus loin.

Principalement dans deux directions.

L'expérimentation sur grande échelle d'usages sociaux majeurs que sans doute l'effet de mode actuel conduirait à appeler e-travail, e-enseignement, e-médecine, avant de revenir aux termes télétravail, téléservices, téléenseignement et prévention médicale.

Mais également l'encouragement à l'ensemencement en télécommunications d'un secteur industriel d'interface qui va probablement être essentiel pour l'acquisition des usages de technologies nouvelles : l'automobile.

Ces deux aspects seront développés dans la troisième partie de ce rapport, consacrée aux propositions.

TROISIÈME PARTIE :


PROPOSITIONS

L'étude des conséquences de l'évolution scientifique et technique du secteur des télécommunications montre qu'en dépit de la crise qui affecte ce secteur, ainsi que celui de l'informatique, leur confluence sera probablement déterminante sur les conséquences économiques et le développement durable des quinze prochaines années.

Les auditions conduites par vos rapporteurs leur donnent également à penser que le soutien apporté au déploiement de ces technologies par la puissance publique est un levier très important de leur diffusion dans l'économie et la société. Et que ce soutien est très inégal suivant les pays - et très moyen dans le nôtre, en dépit de sa vocation scientifique et technologique.

On peut légitimement s'interroger sur le problème de savoir pourquoi la France ne peut entreprendre un effort de recherche qui n'est, par rapport aux PNB respectifs, qu'un peu supérieur à la moitié de celui de la Suède.

Or cet appui est essentiel. Et il fait défaut aujourd'hui.

Si l'Europe, et à son niveau la France, n'affectent plus suffisamment de ressources aux nouvelles technologies d'information et de communication, elles en subiront les conséquences dans une dizaine d'années ou moins. Car, à l'issue de cette période, il y aura des pays gagnants et des pays perdants.

En fait, tout se passe comme si notre pays n'avait pas pris la totale mesure de la nécessité de l'innovation continue dans le contexte de la mondialisation, pourtant inéluctable dans sa dynamique et dont on peut sans doute maîtriser certains aspects mais pas ignorer la logique.

L'architecture de soutien de l'État à la recherche, mais surtout au développement technologique, a été mise en cause ; elle est aujourd'hui gravement menacée.

D'autant plus que l'acceptation des règles de concurrence de la mondialisation, permet, à certains pays, sous couvert de recherches militaires ou universitaires, de soutenir massivement les développements technologiques de leur structure industrielle.

La France - et l'Europe -, par contre, n'ont pas (les optimistes disent, et pensent « pas encore ») de stratégie de recherche duale permettant, comme aux Etats-Unis, de lier plus étroitement les besoins de la recherche militaire aux avancées de la recherche civile.

De plus, dans le domaine qui nous concerne on relèvera également une grande timidité à prendre des mesures très incitatives en ce qui concerne les services de l'État et des collectivités locales. A quoi sert d'équiper les mairies et les préfectures d'ordinateurs connectés à l'Internet si une convocation à des réunions de syndicats intercommunaux par voie électronique est frappée d'illégalité par les services préfectoraux de contrôle de légalité ?

A quand les appels d'offres publics passés uniquement par voie électronique avec la réduction correspondante des délais inscrits dans les codes divers de l'urbanisme, des communes et collectivités locales ?

Parallèlement, l'échelon européen qui dispose de crédits de recherche non négligeables, a des difficultés -compte tenu des règles d'approbation de ses programmes de soutien- à fédérer l'emploi d'une partie significative de ses fonds sur des thèmes mobilisateurs.

Même si chacun des échelons considérés doit mettre à niveau l'ampleur de ces soutiens et adapter ses objectifs et ses procédures, une autre voie doit être explorée dans notre pays : l'encouragement de la participation des régions à ces actions, sous la forme d'expérimentations sociales à grande échelle.


PREMIÈRE PROPOSITION :
DONNER DE L'AMPLEUR ET DE LA LISIBILITÉ AU SOUTIEN DE L'ÉTAT À LA RECHERCHE ET AU DÉVELOPPEMENT TECHNOLOGIQUE DE LA FILIÈRE TÉLÉCOMMUNICATIONS-INFORMATIQUE

A. ACCROÎTRE LES CRÉDITS DE RECHERCHE ET DE DÉVELOPPEMENT TECHNOLOGIQUE

1. les crédits civils de recherche

Depuis la disparition du CNET, ce sont plus de deux milliards de francs de crédits qui sont annuellement soustraits à la dynamisation du secteur.

Or, cette somme est relativement marginale par rapport à la nécessité d'encourager les nouvelles technologies. Elle ne représente qu'environ 4,8 % des crédits du ministère de la Recherche et 3,5 % de l'ensemble du budget civil de recherche et de développement.

Si elle était réinjectée, elle pourrait être utilisée par le fonds de la science, par le fonds de la recherche technologique, mais également par l'ensemble des réseaux : réseau national de recherches en télécommunications (RNRT), réseau national de recherches et d'innovation en technologies logicielles (RNTL), réseau des nano et microtechnologies (RNMT), dont une partie des fonds est dédiée aux nouvelles technologies de l'information et de la communication.

Notamment, mais pas exclusivement, afin de donner un répondant à un phénomène nouveau, le raccourcissement des délais entre les progrès de la science fondamentale et leur développement technologique.

Car, de façon croissante - comme le montrent par exemple les coopérations qui s'esquissent entre les entreprises et le CNRS qui amorce, enfin, sa réforme - le secteur industriel devient preneur de recherches communes en science fondamentale.

Cette interface, probablement capitale à terme, doit être fortement renforcée.

2. les crédits militaires de recherche

Lorsque l'on connaît l'ampleur du soutien du ministère de la défense américain à la recherche civile, on est confondu par la faiblesse de l'apport de la recherche militaire au budget civil de recherche - 190 millions d'euros dédiés au CNES.

C'est très insuffisant en volume. Et cela ne prend pas en compte l'ensemble des interfaces entre le civil et le militaire dans le secteur des télécommunications.

Au surplus, pour le seul spatial, le soutien du secteur militaire à notre industrie de satellites s'étiole, le programme Hélios a pris deux ans de retard, le programme Syracuse II également.

On rappellera sur ce point que les programmes américains permettent à l'industrie de satellites de ce pays d'amortir le coût de développement d'un satellite civil grâce à la commande préalable de plusieurs unités militaires.

Des décisions importantes ont été récemment prises au conseil de l'Agence spatiale européenne à Édimbourg dans le domaine civil, même si les prises de position de plusieurs pays de l'Union européenne en défaveur de la poursuite du projet Galileo ne laissent pas d'inquiéter.

Au-delà, la constitution de recherche européenne duale doit suivre.

Le développement d'EADS et la coopération militaire renforcée, notamment entre les pays les plus actifs en la matière (France, Royaume-Uni, Allemagne) devraient en agréger d'autres (Espagne, Italie, Suède en particulier) pour enfin approcher l'équivalent européen du département de la défense américain.

B. RÉEXAMINER L'ENSEMBLE DE LA FISCALITÉ DE LA RECHERCHE

Les encouragements fiscaux dans ce domaine sont-ils suffisants ?

On en doute.

Il serait souhaitable que le Gouvernement réexamine l'ensemble des encouragements fiscaux à la recherche et à la diffusion de nouvelles technologies, afin de déterminer s'ils sont toujours adaptés aux défis de la mondialisation.

Et, en particulier, mais de façon non limitative :

- la fiscalité des entreprises à croissance rapide, aussi bien afin d'éviter les échecs qui peuvent l'être que pour réduire le risque de rachat des Start-up qui réussissent par des entreprises étrangères.

- le soutien aux entreprises qui dotent leurs salariés d'un équipement informatique à domicile - c'est un point essentiel,

- et l'adéquation des taux de TVA aux expérimentations menées sur les nouvelles technologies. On sait que « quand le bâtiment va, tout va », mais il aurait peut-être été plus fructueux, en termes de développement futur, d'appliquer la baisse de TVA intervenue dans ce domaine aux expérimentations menées dans le domaine des nouvelles technologies et aux services et téléactivités utilisant l'Internet. En essayant de promouvoir sur ce point une harmonisation des fiscalités européennes.

C. IMPLIQUER TOTALEMENT LES POUVOIRS PUBLICS DANS LA DIFFUSION DES USAGES SOCIAUX DES NOUVELLES TECHNOLOGIES DE L'INFORMATION ET DES TELECOMMUNICATIONS

1. l'introuvable société de l'information

Le retard mis à élaborer, et surtout à présenter au Parlement le projet de loi sur la société de l'information repousse d'autant la diffusion des usages de cette société, alors même que certains des instruments, comme le courrier électronique, sont largement disponibles.

Cet état de choses est regrettable.

Les pouvoirs publics nationaux et locaux doivent systématiquement montrer l'exemple dans l'utilisation de ces technologies.

L'exemple de ce qui vient d'être validé sur certains formulaires administratifs doit être généralisé dans toutes les relations au sein des pouvoirs publics centraux et décentralisés, à commencer par les marchés publics.

A un coût très faible, cette démarche aurait un effet d'entraînement fort.

2. les « hussards du numérique »

De même il conviendrait, par tous les moyens possibles (Bus Internet, cybercafés, recherches de liens avec les milieux associatifs, envois de missionnaires dans les collèges et lycées, utilisation beaucoup plus massive des chaînes de service public de télévision) de sensibiliser beaucoup plus largement les Français aux usages de l'Internet et de l'Internet à haut débit.

3. diminuer le prix de l'accès à l'Internet à haut débit

Compte tenu des difficultés actuelles de la mise en concurrence dans ce domaine, il serait hautement souhaitable que l'État - actionnaire majoritaire de l'opérateur historique - seul à développer une couverture de 80 % de la population à un horizon de deux ans sur l'Internet à haut débit- pèse rapidement sur son offre (300 F mensuels actuellement) afin d'aboutir à une offre inférieure à 200 F mensuels, comme c'est le cas dans la plupart des pays européens.


DEUXIÈME PROPOSITION :

LE LANCEMENT D'UN GRAND PROGRAMME FÉDÉRATEUR DE L'INDUSTRIE EUROPÉENNE SUR LES APPLICATIONS DES NOUVELLES TECHNOLOGIES DES TÉLÉCOMMUNICATIONS À L'AUTOMOBILE

Comme il a été souligné, le secteur de l'automobile est probablement celui qui présente le plus de possibilités d'acquisition des usages des nouvelles technologies du fait de sa progressivité d'imprégnation et du caractère relativement indolore des surcoûts en télécommunications.

Les règles de concurrence dans l'Union européenne et la dimension européenne du marché font qu'il est difficile, voire impossible, de lancer un programme national sur ce point.

Par ailleurs, à l'échelon européen, le 6ème PCRD en voie d'approbation n'est pas totalement approprié, du fait :

- de l'émiettement des crédits qui exclut tout grand programme fédérateur,

- et de son souci -compréhensible- de préparer l'avenir à l'horizon 2010.

Or, sur ces deux points, faire progresser les choses implique :

- que l'on donne une grande lisibilité d'engagement aux industriels européens,

- et que le programme en cause puisse démarrer assez rapidement afin qu'il assure un cheminement progressif dans l'apprentissage des usages sociaux concernés.

Aussi est-il proposé d'inviter les pouvoirs publics, en liaison avec l'industrie européenne et les États concernés, à lancer un programme Eurêka spécifique, qui bénéficierait, sous des modalités à préciser (mais qui devront inclure un allégement des procédures) du soutien du 6ème PCRD.


TROISIÈME PROPOSITION :
METTRE EN OEUVRE PLUSIEURS PROGRAMMES D'EXPÉRIMENTATION SOCIALE DES NOUVELLES TECHNOLOGIES À L'ÉCHELON RÉGIONAL OU INTERRÉGIONAL

A. LES DÉFINITIONS DES OBJECTIFS

Les transformations économiques et sociales que produiront les nouvelles technologies de la filière télécommunications-informatique doivent être accompagnées par la puissance publique, en fonction de leur dimension économique, mais aussi en raison de leur importance, pour le développement durable et l'aménagement du territoire.

Au fond, il ne s'agit plus ici seulement d'impliquer la puissance publique dans la construction des grands réseaux (comme cela a toujours été fait), mais de la faire participer à la mise en place des nouveaux services qu'apportent ces réseaux.

L'échelon régional ou interrégional (franco-français ou franco-européen) est l'espace où de larges expérimentations pourraient être organisées, naturellement en liaison avec les dispositions tendant à assurer la diffusion de l'Internet à haut débit sur tout le territoire prévu par le CIAT du 9 juillet 2001.

Ceci sur la base d'un volontariat des régions et dans trois grands domaines :

- le télétravail,

- le téléenseignement, dans ses deux composantes de formation professionnelle et d'enseignement,

- et la télésanté.

L'objectif serait, sur ces points, de lancer avant, ou vers la fin de 2003, plusieurs opérations dans ces domaines, dont une entre régions de deux ou plusieurs pays européens.

D'autant que des opérations -notamment intra-européennes- liant des zones non éligibles aux crédits du FEDER à des zones qui le sont, peuvent être mises en place (ce qui a été confirmé à l'occasion d'une mission effectuée à Bruxelles par vos rapporteurs).

B. LA RECHERCHE DE FINANCEMENTS

Outre l'apport des entreprises qui pourraient être intéressées et celui des régions, deux types de financements pourraient être mobilisés :

- des fonds de formation professionnelle (dont l'enveloppe totale représente 143 milliards de Francs par an),

- et les contrats de plan État-régions en rappelant, sur ce point, que :

sur la période 1994-1999, sur 50 milliards de francs de crédits européens au développement régional, 10 milliards de francs de crédits n'ont pas été utilisés !

et que sur la période 2000-2006, sur un total de 231 milliards de francs de contrats de plan État-régions, seulement 3,5 % de ces crédits seront consacrés aux nouvelles techniques d'information et de télécommunications.

Le premier réexamen des contrats de plan État-régions est prévu en 2003. Il devrait prendre date un peu avant afin d'intégrer, en temps utile, les expérimentations sociales de grande échelle que vos rapporteurs proposent.


QUATRIÈME PROPOSITION :
MIEUX ORGANISER L'ALLOCATION DES FRÉQUENCES

Les fréquences sont un bien plus rare qu'il n'y paraît.

Le colloque organisé très récemment par vos rapporteurs à Sophia-Antipolis l'a rappelé.

A un horizon de dix ans, personne n'est actuellement capable de mesurer les besoins en fréquences hertziennes générés par la révolution des télécommunications.

Dès lors, trois précautions doivent être prises :

A. PROMOUVOIR L'UNIFICATION EUROPÉENNE DES FRÉQUENCES DANS TOUS LES DOMAINES

Les citoyens de l'Union européenne - dans sa composition prochainement élargie - sont de plus en plus appelés à travailler, à se déplacer et se distraire dans cet espace.

Les efforts d'unification de marché et de monnaie effectués auraient un moindre sens si, par exemple, dans dix ans, un automobiliste français circulant dans une voiture italienne en Allemagne ne pouvait utiliser les interfaces de communication qu'il a l'habitude d'utiliser dans son pays.

B. ENCOURAGER LES RECHERCHES SUR L'OPTIMISATION DES FRÉQUENCES

Il s'agit ici d'élargir l'espace disponible qui est a priori limité en encourageant les recherches sur l'émission et la réception, et surtout sur la modulation des fréquences. Rappelons que la bande FM a fait progresser les fréquences disponibles d'un facteur 10 dans le domaine de la radio.

C. ENVISAGER AVEC PRUDENCE L'UTILISATION DES FRÉQUENCES LIBÉRÉES PAR LA TÉLÉVISION NUMÉRIQUE HERTZIENNE

On assiste actuellement à une efflorescence de projets, d'intérêt très variable, pour occuper les fréquences qui seront libérées par la télévision numérique hertzienne.

Lorsque l'on sait que la migration des postes noir et blanc a pris plus de vingt ans, on ne peut que porter un regard distant sur ces projets !

Dès lors deux réflexions s'imposent :

- d'une part sur le prix de l'allocation de ces fréquences.

Peut-on affecter presque gratuitement un bien public rare à des usagers privés alors qu'on le fait payer très cher dans d'autres bandes de fréquences ?

Le produit d'une redevance d'allocation, permettrait probablement de renforcer les moyens de la recherche sur les fréquences et d'accroître le budget des organismes qui sont chargés, directement ou par sous-délégation, de leur gestion (ANF, ART, CSA) ;

- d'autre part, il semble indispensable, alors même que les fréquences de télévision disponibles vont être multipliées par 5 ou 6, d'en réserver une partie pour les grands usages sociaux de télécommunications interactives précédemment évoqués.

ANNEXES

ANNEXE 1 :

REMERCIEMENTS

Vos rapporteurs souhaitent remercier les membres de leur comité de pilotage pour leur aide active et leurs conseils précieux :

- M. Nicolas CURIEN, Professeur d'économie politique des communications au Conservatoire national des Arts et Métiers,

- M. Daniel DARDAILLER, Chercheur à W3C,

- M. Jean JERPHAGNON, Président du Comité d'orientation du Réseau national de recherche en télécommunications,

- M. Jean-Pierre NOBLANC, Président de Medea,

- M. Michel RICHONNIER, Directeur à la Direction générale de la Société de l'information de la Commission européenne,

- M. Mathieu WEILL, Chargé de mission à la DIGITIP (Sous-direction des réseaux et multimédia), au ministère de l'Industrie,

ainsi que M. Daniel KOFMAN, professeur à l'École nationale supérieure des télécommunications, expert qui a contribué à cette étude.

ANNEXE 2 : AUDITIONS

I. LISTE DES PERSONNES AUDITIONNÉES À PARIS

M. Abdekrim BENAMAR

ERICSSON

M. Laurent BOUVIER-AJAM

NOEME Consultants

M. Alain BRAVO

ALCATEL

M. Jean-François CHARRIER

ASTRIUM

M. Roger CHINAUD

Autorité de Régulation des Télécommunications

M. Jean CHRÉTIEN

ALCATEL

M. Alain CONCHON

ALCATEL

M. Dominique DARRICAU

ASTRIUM

M. Laurent DAVID

NOKIA

M. Stéphane DUCABLE

ALCATEL

M. Marko ERMAN

ALCATEL

M. Paul-Henri FERRAND

NOKIA France

M. Emmanuel FOREST

BOUYGUES Telecom

M. Marc FOSSIER

FRANCE TELECOM

M. Philippe KERYER

ALCATEL

M. Daniel KOFMAN

École nationale supérieure des Télécommunications

M. Jacques MAGEN

ALCATEL

M. Richard MAILFERT

ALCATEL

M. Bernard MATHIEU

CNES

M. Denis MAUGARS

ALCATEL SPACE Industrie

Mme Marie-Christine PELTIER-CHARRIER

FRANCE TELECOM

Mme Marie-Thérèse PIECHAUD

BOUYGUES Telecom

M. Henri PIGEAT

Études de Développements économiques, Systèmes et Communications

M. René RUSSO

Association française des opérateurs de téléphonie mobile

M. Jean SPIESS

ERICSSON

M. Henri TCHANG

ARTHUR ANDERSEN Business Consulting

Mme Merja VARKÉMAA

NOKIA France

M. Pascal VIGINIER

FRANCE TELECOM

M. César ZEITOUNI

Simon KUCHER und Partners

II. LISTE DES PERSONNES AUDITIONNÉES À SOPHIA-ANTIPOLIS

M. Pierre ARDICHVILI

CISCO

M. Eric ASSARAP

COMPLETEL

M. Christian BONNET

EURECOM

M. Jean-Michel CARDI

SIGMA Technologies

Mme Bridget COSGRAVE

ETSI

M. Pierre de COURCEL

ETSI

M. Gilles DARAMON

CISCO

M. Daniel DARDAILLER

W3C

M. Philippe DELÉPINE

PHILIPS Semiconductors

M. Richard FOLLIOT

COMPLETEL

M. Werner SOMMER

SAP

M. Jean ZIEGLER

ALCATEL SPACE

III. LISTE DES PERSONNES AUDITIONNÉES À LA COMMISSION EUROPÉENNE

M. Philippe BUSQUIN

Commissaire européen à la Recherche

M. Erkki LIIKANEN

Commissaire européen à la Société de l'information

M. Jean-Michel BAER

Directeur général à l'Éducation et à la Culture

M. Jean-Eric de COCKBORNE

Direction générale à l'Éducation et à la Culture

M. Joao DA SILVA

Direction générale de la Société de l'information

M. Horst FOSTER

Direction générale de la Société de l'information

M. Bernard LANGE

Directeur général de la Politique régionale

M. Sylvain MORAS

Direction générale de l'Emploi et des Affaires sociales

M. Jean-François PONS

Directeur général adjoint de la DG de la Concurrence

M. Michel RICHONNIER

Direction générale de la Société de l'information

M. Jean-François SOUPIZET

Direction générale de la Société de l'information

M. Robert STRAUSS

Direction générale de l'Emploi et des Affaires sociales

M. Donald TAIT

Direction générale de l'Emploi et des Affaires sociales

M. Thierry VAN DER PYL

Direction générale de la Société de l'information

M. Paul VERRUE

Directeur général de la Société de l'information

La confluence technologique de l'informatique et des télécommunications sera le support de la croissance mondiale et du développement durable dans les dix-quinze prochaines années.

Elle entraînera à terme des mutations économiques et sociales de l'ordre de celles qu'ont créées les chemins de fer ou l'électricité.

Dans cette redistribution des cartes, il y aura des pays gagnants et perdants.

Pierre LAFFITTE et René TRÉGOUËT avancent quatre grandes séries de propositions pour que la France et l'Europe restent dans la course.

* 1 Qui comportait en mai 2001, 3.800 millions de pages et 850 millions d'images et qui s'accroît, par 24 heures, de 5,6 millions de pages et de 1,2 million d'images.

* 2 Rappelons qu'un téléphone portable, qui pèse moins de 100 g aujourd'hui, aurait pesé, en 1960, à capacité égale, près de 3.500 tonnes et aurait eu la taille de l'Arc de Triomphe.

* 3 Historiquement, la mise en oeuvre du Minitel a reflété assez exactement cette configuration.

* 4 1 Tbit/s = 1015 bits/s : cette capacité correspondant au débit de 15 millions de conversations téléphoniques. Pour mémoire, le trafic téléphonique français en heure de pointe est de l'ordre de 0,7 Tbit/s.

* 5 ATM supporte le réseau téléphonique et IP les applications Internet

* 6 DigiWorld 2000

* 7 Sur la base d'un débit théorique maximum de 144 kbs.

* 8 Pour plus de précisions on renverra à l'excellent rapport du Président Henri Revol sur « La politique spatiale française : bilan et perspectives » (Sénat n° 347 (2000-2001).

* 9 A la condition que les réticences émises très récemment quant à la poursuite du projet par plusieurs pays européens soient levées.

* 10 indépendamment des problèmes qu'il pose en termes de concurrence et de préservation des libertés individuelles

* 11 Rappelons que le télégraphe Chiappe a été installé entre Paris et Lille en 1794

* 12 Études IDC France, citée par « Enjeux » (juin 2001)

* 13 mais qui ne fait que reproduire et amplifier les inégalités existantes.

* 14 alors qu'elles constituent une solution économique viable pour les « dorsales » de fibre optique à haute capacité ou les boucles locales d'accès à ces dorsales (cf infra ch II)

* 15 « Internet Engineering Task Force » (la principale organisation de normalisation de l'Internet)

* 16 En blocs de multiples de 256 adresses

* 17 La suppression des postes 819 lignes, non adaptés à la couleur, a pris une vingtaine d'années.

* 18 Cette estimation concerne l'Allemagne : elle demeure toutefois à valider car il a été confirmé à vos rapporteurs que les opérateurs voudront conserver la maîtrise de son réseau en milieu urbain. La mise en commun des équipements étant probablement réservée au milieu non densifié.

* 19 Il suffit de penser aux seuls liens commerciaux qui unissent les industriels aux opérateurs et les opérateurs aux fournisseurs de services pour mesurer ces effets de cascade.

* 20 Rappelons sur ce point que le monde est en marche : plus de 500.000 km de fibres optiques seront installées en Inde à la fin de 2001 et la République populaire de Chine lance un programme tout aussi massif.

* 21 comme il l'est également dans les autres pays européens.

* 22 le succès d'un des fabricants de téléphonie mobile, connu pour insister sur cet aspect de la relation entre l'homme et l'outil le confirme.