Allez au contenu, Allez à la navigation



Les nouvelles technologies de l'information

 

CHAPITRE V

UN RETARD IMPUTABLE AUSSI
A DE MULTIPLES ERREURS
DE DECISION ET DE JUGEMENT...

Le retard de la France dans la création et l'utilisation des nouvelles techniques d'information et de communication est imputable à deux facteurs. Il résulte non seulement de décisions erronées prises dans le passé mais aussi de conceptions fausses ou archaïques concernant l'importance de leur rôle et les conditions de leur développement.

Dans les exemples du passé comme dans ceux du présent, notre pays apparaît à la fois comme une société d'arrogance, en ce qui concerne ses élites administratives ou politiques pourtant souvent prises en flagrant délit d'inefficacité ou d'incompétence, et comme une société de défiance vis-à-vis des forces du marché et de nos capacités d'innovation.

I. L'ACCUMULATION DE MAUVAIS CHOIX EN MATIÈRE
DE TECHNOLOGIES NOUVELLES

Sur le plan technique, la société de l'information se caractérise par la convergence des activités de l'informatique, de l'audiovisuel et des télécommunications, grâce, non seulement, à la généralisation du numérique, elle-même permise par la compression des données, mais aussi grâce aux progrès réalisés en matière de composants électroniques (depuis, notamment, l'invention du microprocesseur à l'origine de la micro-informatique).

Or, dans chacun de ces trois domaines, de mauvais choix ont été effectués et des actions mal conduites, particulièrement, hélas, dans le secteur qui, désormais, est le plus important, celui de l'informatique.

A) LES EXEMPLES DE L'INFORMATIQUE

Nos gouvernants et nos élites administratives affectionnent les « plans » ou les « grands programmes », censés mobiliser les énergies et les ressources au profit de grandes causes nationales.

L'élaboration des objectifs de ces actions, pourtant énoncée de façon péremptoire, n'a souvent malheureusement pas été précédée d'une analyse stratégique suffisamment approfondie, qui intègre, notamment, toutes les données du marché.

Trop souvent aussi, leur exécution financière relève d'une logique d'arsenal (l'Etat est invité à régler les coûts constatés). Et le souci de ménager l'argent du contribuable paraît devoir s'effacer devant le caractère prioritaire de la dépense, lui-même justifié par l'importance de l'enjeu.

1. Le Plan Calcul

Après le passage de Bull sous contrôle américain à la fin de1963, plusieurs administrations s'attachent à définir une politique nationale de l'informatique.

Il faut reconnaître que leur tâche est difficile, étant donné l'écrasante suprématie des Etats-Unis (forts de la domination presqu' absolue d'IBM et d'un parc informatique représentant les trois-quarts de celui du monde).

Il en sortira le rapport Ortoli dont les recommandations servent de base au Plan Calcul de1966.

Ce projet, à la préparation duquel aucun représentant du secteur privé n'a été associé, implique la création d'une nouvelle entreprise (la CII : Compagnie Internationale pour l'Informatique) et d'un institut public de recherche (l'INRIA : Institut National de Recherche en Informatique et en Automatique).

Le prétexte en est stratégique, les Etats-Unis ayant refusé de livrer à la France le grand ordinateur scientifique dont elle avait besoin pour concevoir une bombe H.

Mais en fait, cette machine, dont le Plan Calcul n'avait jamais vraiment envisagé la fabrication, nous sera finalement vendue par les Américains.

La Délégation à l'Informatique, nouvelle structure interminis-térielle directement rattachée au Premier Ministre, et chargée de la coordination de l'effort public, ne comprend aucun informaticien professionnel.

Elle va se heurter, en outre, à l'hostilité des ministères concernés se sentant dessaisis du dossier (Finances, PTT, Industrie, Recherche, Armées...).

« L'échec de la CII est inscrit d'emblée dans ses gênes », estime l'ancien directeur de Bull, Jean-Pierre Brulé.

En effet, les fonctionnaires qui ont conçu le plan pensent en terme d'indépendance nationale plutôt que de viabilité économique.

On rassemble les modestes actifs en informatique des héros malheureux d'une solution Bull « à la française » (CGE, Thomson et Schneider) plutôt que de faire appel au principal constructeur national, en tentant de redresser l'attelage qu'il forme avec General Electric.

Or, les entreprises de cette troïka, comptant sur « la traite de la vache à lait publique », pour ne pas passer sous la coupe de constructeurs d'ordinateurs dont la croissance est beaucoup plus rapide que la leur, vont se montrer particulièrement démotivées en tant qu'actionnaires.

Il faut dire que « les ambiguïtés abondent autour du Plan Calcul » - pour reprendre l'expression de J.-P. BRULE - et que la stratégie finalement retenue s'avérera désastreuse.

Elle est en effet marquée par une ambiguïté fondamentale quant au montant des fonds publics engagés (supérieurs au double des 400 MF initialement estimés), de la rentabilité attendue, des produits à fabriquer.

D'un point de vue stratégique, l'erreur consiste à attaquer IBM de front, dans le haut et milieu de gamme des machines de gestion, là où précisément les coûts de fabrication du géant américain sont proportionnellement les plus bas, ses marges les plus élevées et par conséquent ses capacités de résistance à la concurrence les plus fortes. Des constructeurs comme DEC et beaucoup d'autres l'avaient bien compris.

Certes, les besoins des administrations nationales sont importants dans ce secteur des grosses machines de gestion mais, d'une part, Bull y est aussi présent, et d'autre part, il ne s'agit que de 1 % du marché mondial (dont le marché français représente 5 %).

La CII réussit cependant, contre toute attente, son démarrage technique dans la période 1967-1971 (correspondant à sa première convention avec l'Etat) et la commercialisation de ses produits IRIS (seulement partiellement compatibles entre eux!) est correctement engagée.

Sa croissance est forte (supérieure à 25 % par an) et ses effectifs (6.000 personnes) atteignent la moitié de ceux de Bull en France en 1971.

Toutefois, les coûts de fabrication et de distribution de ses produits excèdent leurs prix de vente. La CII vend ainsi à perte bien qu'on lui ait entièrement payé les études de ses machines.

La première convention avait coûté à l'Etat environ 1milliard de francs, la deuxième (1972-1975) sera dotée de plus du double et reviendra en fait à l'Etat à trois fois ce montant, tandis que l'apport des actionnaires sera, quant à lui, 2,5 fois moins élevé qu'en 1967.

C'est alors qu'est envisagée une sortie européenne à ce plan mal engagé.

Il faut le reconnaître : l'idée de départ n'est pas mauvaise en soi : associer CII, doté d'un bon bagage technique et fort de sa ligne de produits IRIS, au géant allemand Siemens, licencié du groupe américain RCA, qui vient de jeter l'éponge en ce qui concerne la fabrication d'ordinateurs.

On pense par ce biais créer une synergie entre la puissance commerciale et financière de Siemens et la technique de CII, dont on espère qu'elle se verra ouvrir le marché européen, et en particulier allemand.

Il ne semble pas pour autant qu' ait été envisagé aucun scénario alternatif susceptible, notamment, de donner accès au marché américain, beaucoup plus substantiel : autant dire qu'on retrouve à l'oeuvre toujours la même insuffisance de réflexion stratégique.

La CII, qui ne fait que de l'informatique, ne pèse pas lourd face à un groupe aussi fort et diversifié que Siemens. Ses intérêts vont en outre être mal défendus. Les négociations seront menées de façon dispersée, tantôt par la compagnie elle-même, pour les projets opérationnels de coopération, tantôt, en ce qui concerne les intérêts des actionnaires, par Thomson, paralysé par les réticences de la CGE et désireux avant tout de faire payer par l'Etat la nouvelle addition qui se profile.

La CII cède aux exigences de Siemens, relatives à la compatibilité des futurs produits communs aux deux groupes avec ceux d'IBM (ce qui risque de l'obliger à concevoir des machines selon des schémas et peut-être des brevets appartenant à son associé) et se voit proposer, au prix fort, une participation au réseau commercial du groupe bavarois en dehors d'Allemagne.

La Délégation à l'Informatique va jusqu'à envisager alors de faire financer par le contribuable français cet achat de filiales étrangères du grand groupe allemand.

Mais la note sera finalement réduite et partagée avec l'Etat allemand, non sans que la France ait exigé une structure d'organisation assez souple pour que d'autres constructeurs puissent par la suite s'y associer.

Philips en profite pour rejoindre le consortium, dénommé Unidata, en tant que partenaire à part entière avec un apport pourtant des plus limités.

Selon Jean-Pierre BRULE, la formule d'association adoptée se révèle « cauchemardesque ».

Le modèle d'organisation retenu, lourd et mal coordonné, est incompatible avec les exigences imposées par la conception et la réalisation d'une ligne de produits compatibles entre les trois partenaires.

« Unidata cumulait les handicaps - écrit l'ancien président de Bull - les passés techniques divergents, les différences d'appréciation quant à l'urgence d'une nouvelle ligne, la complexité de la structure de prise de décisions, l'absence de connaissances du sujet au niveau où les arbitrages remontaient, enfin, des conflits d'intérêts permanents ».

De sorte que, très vite, Siemens et Philips vont s'apercevoir qu'une véritable fusion est la condition du succès.

Mais, du point de vue des intérêts français, une telle solution revient à faire financer, une fois de plus, par de l'argent public, une participation au nouvel ensemble intégré, vouée à demeurer, en tout état de cause, minoritaire.

C'est en effet la débandade du côté des actionnaires de la CII : Schneider cherche à vendre ses parts, la CGE a refusé l'augmentation de capital qui devait accompagner l'entrée dans Unidata. Elle désavoue donc les accords négociés par Thomson.

La cacophonie française atteint son comble lorsque les pouvoirs publics, sans avoir mis au courant la Délégation à l'Informatique, commencent à songer à un rapprochement entre la CII, qui continue à négocier avec Siemens et Philips, et Bull, désormais associé à l'américain Honeywell.

Un démenti est opposé aux partenaires européens de la compagnie au sein d'Unidata, qui s'inquiètent des rumeurs de contacts pris dans ce sens.

Ceux-ci auront l'impression d'avoir été floués, lors de l'annonce, en mai 1975, des accords CII-HB qui sonnent le glas des espoirs de construction d'une industrie européenne de l'informatique.

« Pour le contribuable, la note des deux conventions du Plan Calcul et de leur sortie se monte à environ 13 milliards de francs 1992 ». Certes, ajoute J. P. BRULE, « l'apport de la CII permettra, en 1976, de ramener Bull sous majorité française. Mais la même chose était probablement faisable en1966, et pour 10 à 100 fois moins d'argent ».

Bref, il en a coûté moins que l'équivalent d'une journée de coût du Plan Calcul pour lancer, à partir de fonds strictement privés (20(*)), des constructeurs comme DEC ou Apple, deux des plus grands succès de l'informatique mondiale, des années 70 et 80.

« L'informatique malade de l'Etat » : tel est le titre de l'ouvrage, précité, de Jean-Pierre BRULE. Malheureusement la liste des exemples qu'il cite, à l'appui de ce diagnostic, ne s'arrête pas à la fusion de la CII et de Honeywell-Bull.

2. Le raid manqué sur Olivetti

Saint-Gobain, groupe spécialisé dans le verre et les tuyaux de fonte, fait sensation en annonçant en 1978 sa participation au « Plan composants », nouveau « grand programme » à la française. Il confirme, un an plus tard, ses nouvelles ambitions dans le domaine de l'électronique au sens large (y compris l'informatique) en rachetant la participation de CGE dans la Compagnie des Machines Bull, dont il devient le principal actionnaire avec l'Etat.

Cette opération ouvrant à Honeywell un droit automatique de sortie du capital de Bull (obtenu en 1975, par la CGE, pour lui donner une influence sans commune mesure avec sa participation au capital de notre constructeur informatique national), un fonds pour le rachat éventuel des actions de la firme de Minneapolis est constitué en partie avec de l'argent public, en partie avec des fonds du verrier français (on parle alors du « milliard de Saint-Gobain »).

Une série de concessions sont consenties au groupe américain pour qu'il accepte le remplacement de CGE par Saint-Gobain (Bull est prié, notamment, de renoncer à ses griefs concernant les entorses de Honeywell au principe d'une ligne commune de produits).

L'année suivante, en 1980, Saint-Gobain annonce l'acquisition du tiers environ du capital d'Olivetti, qui va lui permettre, ensuite, de prendre le contrôle de Bull grâce à une opération boursière montée avec l'accord de l'Etat (des actions Olivetti sont échangées contre des actions CMB possédées par de petits porteurs).

Là encore, il faut le reconnaître : comme celle du rapprochement avorté entre CII et Siemens, l'idée d'une coopération entre Bull et Olivetti est sensée : acteur incontournable de la bureautique mondiale, Olivetti est handicapé par ses faiblesses dans le domaine des logiciels et de l'architecture de systèmes. Bull peut l'aider à les surmonter ; et en échange, le constructeur italien peut offrir au français des débouchés en bas de gamme.

Une fois encore, ce sont les considérations stratégiques et la conduite du déroulement pratique des opérations qui vont se révéler pour le moins déficientes.

Le montage effectué va en effet avantager Olivetti aux dépens de Bull, en allant jusqu'à lui sacrifier Logabax, pionnier français de l'ordinateur de bureau depuis 1967.

L'essentiel du « milliard de Saint-Gobain », quant à lui, va être affecté à la prise de participation d'un tiers dans le capital d'Olivetti.

Déjà affaibli par les concessions faites à Honeywell (cf. supra), Bull, sous-alimenté depuis 1976 par ses actionnaires, continue de manquer de capitaux propres.

Son passage sous contrôle de Saint-Gobain, qui n'a pas coûté un centime à ce dernier, ne lui rapportera pas un sou d'argent frais.

Ayant dû renoncer à ses projets d'acquisition en cours (Olympia-Hermès), Bull est écarté de la reprise de Logabax (nous y reviendrons).

Il ne bénéficiera d'aucun contrat d'études public pour la bureautique au titre du CODIS (Comité de Développement des Industries Stratégiques) jusqu'à la fin de 1981.

Les dirigeants de Saint-Gobain, et avec eux les représentants de l'administration française vont, en fait, se laisser magistralement berner par Carlo de Benedetti.

Nullement désireux de collaborer avec Bull, Olivetti poursuit en réalité deux objectifs : le renforcement de ses fonds propres et l'accès à des contrats d'études publics français.

Saint-Gobain va combler son attente sur le premier point. Il contribue, en effet, à désendetter Olivetti en souscrivant à une augmentation de son capital.

La déception rencontrée, en revanche, par la firme d'Ivrea, en ce qui concerne la réalisation du deuxième point, va conduire Carlo de Benedetti à la rupture, conduisant ce dernier à multiplier les déclarations provoquantes du genre :

" Que pourrait bien apporter à Olivetti un groupe spécialisé dans le verre et les tuyaux de fonte ? "

Ou bien : " Saint-Gobain détient 33 % de notre capital, mais je conduis mon entreprise de façon totalement indépendante ".

Cela n'empêche pas le ministère de l'Industrie de donner son accord à la reprise par Olivetti, de préférence à Bull, de la Société française Logabax, spécialisée pourtant non pas dans la bureautique, mais dans l'informatique de gestion.

Vidée de sa substance, c'est-à-dire de ses capacités propres d'études, Logabax finira comme un simple département commercial d'Olivetti.

Malgré sa complaisance envers elle, Saint-Gobain n'exerce en effet pratiquement aucune influence sur la gestion de l'entreprise italienne - comme Carlo de Benedetti l'a fait remarquer publiquement- en raison de la fragmentation de cette dernière et du contrôle de 40 % de son capital par un syndicat à l'italienne.

L'administration française n'ira jamais vérifier la réalité de l'option sur les actions personnelles de Carlo de Benedetti que Saint-Gobain prétend détenir et qui serait susceptible de lui donner le contrôle majoritaire d'Olivetti. Et seul Honeywell semble s'inquiéter du danger d'un éventuel transfert de savoir-faire en logiciel de Bull vers Olivetti, sans contrepartie.

Tout cela n'a pourtant rien de surprenant dans la mesure où - comme le note J.P. Brulé - le schéma retenu a placé Saint-Gobain, qui ne possède ni expérience du métier, ni dirigeants formés à une tâche de cette ampleur, en coordinateur obligé de deux très importants investissements en informatique : Bull et Olivetti.

"Les pouvoirs publics, si souvent tatillons, font preuve en l'occurrence -poursuit l'ancien président de Bull- d'une énorme confiance dans le groupe verrier promu au rang de champion national des puces électroniques et de l'ordinateur».

Quelques mois plus tard, le Gouvernement sépare Bull et Saint-Gobain, tous les deux nationalisés, et contraint ce dernier à revendre ses parts d'Olivetti.

La démonstration de l'incohérence et de l'incompétence des pouvoirs publics semble avérée, mais le contribuable n'en est pas encore au bout de ses peines !

3. La nationalisation mal conduite de Bull

La nationalisation de Bull, en avril 1982, s'effectue dans un contexte de détérioration de ses résultats.

Cette dégradation est due, selon son ancien Président, à la concurrence d'IBM et à la politique de Saint-Gobain.

Concurrencé par les premiers mini-ordinateurs, le géant américain mène une politique de guerre des prix, en milieu de gamme.

Bull riposte par une politique tarifaire agressive dans la commercialisation de l'excellent mini-ordinateur "Mini 6" conçu par Honeywell, mais les capacités de l'usine d'Angers ne permettent pas de faire face à la croissance des commandes.

La réduction des marges rend plus difficile l'autofinancement des investissements nécessaires, au moment même où les apports en capital des actionnaires décroissent, jusqu'à devenir nuls en 1980, année du remplacement de la CGE par Saint-Gobain. En outre, ce dernier exige une augmentation substantielle des dividendes versés par le constructeur informatique dont le total des emprunts, dans ces conditions, dépasse, à la fin de 1980, celui des fonds propres.

Du printemps 1981 à celui de 1982, Bull, en attente de nationalisation, traverse une année noire, contraint d'embaucher, privé d'apport en capitaux par Saint-Gobain, toujours confronté à des difficultés techniques dans la fabrication de son nouvel ordinateur DPS 7 (21(*)), tandis que sa clientèle s'inquiète de l'avenir de son partenariat avec Honeywell.

Les commandes chutent à partir de juillet, et la compagnie connaît en 1981 sa première perte depuis dix ans.

La nationalisation de Bull entraîne une négociation serrée avec Honeywell qui en détenait 47 % et qui accepte de n'en conserver que 20 %. Il en résulte pour le contribuable français une charge de 150 millions de dollars et, pour la compagnie, une dépense annuelle de 37 millions de dollars (licences + dividendes).

Pour l'ancien Président de Bull, démis de ses fonctions en juillet1981, plusieurs erreurs graves sont imputables au nouveau pouvoir : il laisse Bull dériver et encaisser les mauvais coups de son actionnaire Saint-Gobain, le pousse à embaucher, malgré ses pertes, ne sépare le destin des deux groupes qu'après leur nationalisation, et négocie, enfin, avec Honeywell dans de mauvaises conditions initiales.

Avant la nationalisation, le bilan global de la compagnie est honorable mais elle n'a jamais trouvé un actionnariat qui la soutienne, sans arrière-pensées, dans sa croissance, et lui apporte les fonds propres dont elle avait besoin.

D'autre part, elle n'a pas suffisamment investi et surtout n'a pas remis en cause sa stratégie d'imitation du modèle IBM alors que la question d'une réorientation vers les mini et micro-ordinateurs et vers la bureautique méritait, au moins, d'être posée.

Dans les dix années suivant sa nationalisation (de 1982 à 1992), Bull a reçu l'équivalent de 20 milliards de fonds publics (dotation en capital + aides aux études). Cela ne l'a malheureusement pas empêché ni de procéder à des milliers de licenciements, ni de voir diminuer son niveau de maîtrise technologique.

En outre, alors que la croissance des ventes mondiales d'ordinateurs personnels a été très soutenue pendant plusieurs années consécutives, Bull semble avoir "misé sur le mauvais cheval" en acquérant l'américain Zenith Data Systems (cédé par la suite à Packard Bell) dont les pertes continuelles ont lourdement pesé sur ses résultats.

4. Le mirage de la filière électronique

Publié au printemps 1982, le "rapport Farnoux" est à l'origine d'un très ambitieux programme baptisé PAFE (Programme d'Action pour la Filière Electronique).

Parmi les onze branches concernées figure l'informatique pour laquelle on recommande tout à la fois la poursuite de l'effort concernant les systèmes moyens, le lancement d'un grand ordinateur scientifique, la production de masse de micro-ordinateurs et le développement de "briques de base" (modules standardisés utilisant notamment les mêmes puces) pour la mini-informatique.

Les dépenses correspondantes sont estimées à 140 milliards de francs sur cinq ans, somme faramineuse, mais on s'aperçoit qu'il s'agit d'un amalgame, budgétairement hétérodoxe, de dépenses hétérogènes (fonctionnement et investissement, mesures nouvelles et acquises ; budgets civils et militaires, publics et privés, budget annexe des PTT, etc.).

Sept projets nationaux censés provoquer un saut technologique et associer étroitement les industriels aux laboratoires publics sont lancés immédiatement. Mais il s'agit, en fait, d'un cocktail composite, allant de la traduction assistée par ordinateur aux "briques de base" pour mini machines mentionnées ci-dessus.

Finalement, les résultats de ce vaste programme, qui ambitionnait de faire de la France "la troisième puissance technologique de l'an 2000", juste derrière les Etats-Unis et le Japon, s'avèrent très décevants. Presque tous les objectifs solennellement affichés n'ont pu être atteints. L'accroissement des budgets de recherche concernés est, au total, très limité. Dans le budget de l'Industrie, l'électronique continue de passer après les houillères nationales, en ce qui concerne les subventions, et de venir après les chantiers navals, la sidérurgie et Renault, s'agissant des dotations en capital.

A l'examen, deux erreurs d'appréciation majeures expliquent ces déconvenues.

La première est illustrée par l'absorption par Bull, à l'automne 1982, des filiales informatiques de Thomson et de la CGE. Elle consiste à tout miser sur un "champion national", fabriqué artificiellement par une sorte de mécano industriel dirigiste, à l'inverse de la politique suivie,alors,avec succès par le Japon.

La deuxième erreur, quant à elle, consiste à pécher par excès d'orgueil en croyant que nous avons les moyens de maîtriser, à travers le budget de l'Etat, tous les éléments de la filière électronique dans son ensemble.

Depuis trente ans, fait observer Jean-Pierre Brulé dans L'Informatique malade de l'Etat, les plus brillants succès ont été remportés par des sociétés qui se sont spécialisées dans des créneaux, qu'il s'agisse des mini (DEC), des micros (Apple) et de leurs logiciels (Microsoft) ou des machines géantes (Cray). Nous parlerions aujourd'hui de Sun, Compaq et toujours, bien entendu le binôme Wintel (Microsoft et Intel).

A l'inverse, les constructeurs généralistes américains et européens n'ont cessé de perdre du terrain. Seul NEC, parmi ces derniers, se prévaut encore de la triple intégration communications-ordinateurs-composants, même si, chez plusieurs d'entre eux comme IBM, les composants épaulent l'informatique.

Les sociétés françaises qui ont le mieux réussi ont prospéré, sans l'aide de l'Etat, dans des créneaux qu'elles ont elles-mêmes trouvé, se trouvent essentiellement dans le logiciel (Business Object...), les services (Cap Gemini...) ou les cartes à puce (Gemplus...).

Malgré des actions maladroites de soutien de l'Etat aux créateurs français de progiciels (point faible de notre pays),la France est aussi absente de ce secteur stratégique puisque l'industrie des logiciels universels pour micros est aujourd'hui exclusivement américaine.

Parmi les succès rencontrés dans ce domaine, il convient de mentionner celui de Borland, société californienne fondée dans les années 80 par un universitaire français, Philippe Kahn. "S'il avait trouvé en France - s'interroge J.-P. Brulé - au lieu des coquecigrues de la filière électronique, un terrain plus stimulant, plus fertile sur les plans économique et culturel, n'y aurait-il pas fondé son entreprise ?».

On ne demande pas à l'Etat de choisir les créneaux ni les stratégies, conclut-il. "On se satisferait bien qu'il crée les conditions de leur éclosion". En d'autres termes, une aide intelligente de l'Etat consiste à "amender" le terrain des créateurs d'entreprises.

5. Le plan Informatique pour tous

Déjà évoqué dans la partie du précédent chapitre consacrée au rôle des NTIC dans l'éducation, le plan informatique pour tous constitue un exemple de plus des gabegies auxquelles conduit un certain volontarisme étatique.

Ce plan visait à mettre en place, dès la rentrée de 1985, dans 50.000 établissements, plus de 120.000 machines et à assurer la formation, pour la même date, de 110.000 enseignants. Son coût était évalué à 1,8 milliard de francs (1,5 milliard pour le matériel, le reste pour la formation et les logiciels).

Rappelons-le une fois encore : ce ne sont pas les objectifs en cause qui prêtent à la critique mais leurs modalités financières et pratiques de mise en oeuvre.

Sur le plan financier, tout d'abord, les crédits budgétaires se sont révélés insuffisants, compte tenu de l'importance des dépenses à engager et des délais impartis. De sorte qu'il a fallu recourir à la formule du crédit bail, incompatible avec le principe de l'annualité budgétaire et faire intervenir, irrégulièrement, le budget annexe des PTT pour payer les annuités correspondantes.

Sur le plan pratique, en raison du caractère fermé et propriétaire de l'Operating System (OS) des retards de plusieurs mois ont été enregistrés dans la livraison des logiciels, entraînant démotivation et pertes de savoir-faire chez les enseignants par ailleurs trop rapidement formés. Ces derniers, dans leur grande majorité, estiment ne pas avoir été mis en mesure d'utiliser valablement l'informatique dans l'accomplissement de leur mission éducative. Ils jugent, en outre, le temps passé devant les consoles disproportionné par rapport à l'acquis pédagogique escompté.

Mais la plus grande erreur du plan « Informatique pour Tous » fût de s'appuyer sur un « operating system » (OS) propriétaire. Cette démarche opposée à toute l'approche mondiale interdisait d'utiliser tous les logiciels compatibles Apple ou Dos qui étaient alors, déjà, les plus usités. Aussi, les fabricants de contenus ne voulant pas se lancer dans de lourdes productions pour un marché trop étroit, les enseignants ne disposèrent que de quelques maigres produits à présenter à leurs élèves.

Résultat : L'utilisation des ordinateurs n'atteint même pas trois heures par mois et par élève dans plus de 60 % des établissements. La qualité et l'utilité des logiciels sont mises en cause avec un pourcentage d'insatisfaction qui atteint 55 % dans les lycées.

Les contrats obtenus par l'industrie française ne lui permettront même pas de rattraper tant soit peu son retard en micro-informatique qui est notoire : malgré la commande, dans le cadre de ce plan, de près de 100.000 machines, Thomson abandonne la partie en 1989 ainsi que Matra. La CGCT sera vendue à Ericsson et Léanord à Siemens.

Une deuxième vague succède, en 1988, au plan «informatique pour tous» avec l'opération «13.000 micros pour les collèges et les lycées». Le montant budgétaire prévu est cette fois plus modeste (100MF) et il est fait appel à du matériel haut de gamme, installé par l'UGAP (Union des regroupements d'achats publics, organisme placé sous la tutelle du ministère de l'Education nationale). 60 % des nouveaux ordinateurs achetés par l'Education nationale sont désormais d'origine étrangère.

Les priorités vont à l'équipement des collèges, à l'enseignement technologique (bureautique et productique) ainsi qu'aux classes préparatoires à certaines grandes écoles (biologie, HEC...).

Mais une enquête réalisée en 1992 révèle qu'à peine 15 à 20 % des enseignants déclarent utiliser l'informatique en classe.

Une conclusion s'impose : déconcentrer les équipements qui deviennent rapidement obsolètes et en transférer ainsi le coût de renouvellement de l'Etat aux collectivités locales risque de créer de fortes disparités.

6. Le projet Sesam Vitale

Le projet Sesam vitale d'informatisation de l'assurance maladie constitue le dernier et le plus récent exemple d'opération d'envergure mal conduite.

A l'horizon de l'an 2000, l'ensemble des ressortissants du régime général doivent se trouver dotés d'une carte à puce remplaçant le support papier actuel ainsi que le carnet de santé et comportant, éventuellement, des données relatives à l'assurance complémentaire.

Un système de télétransmission des informations du cabinet du médecin vers les caisses devait se substituer, avant la fin de 1998, aux 850 millions de feuilles de soins circulant chaque année, ce qui suppose la mise en place d'ici cette date des équipements et liaisons informatiques nécessaires. Mais le mécanisme prévu ne couvrirait ni le règlement des honoraires ni les prescriptions (continuant à être établies sous forme d'ordonnances).

Ces échanges permanents d'information entre les caisses, les professionnels de santé et les assurances sont indispensables à une maîtrise efficace des dépenses selon le directeur de la CNAMTS, Gérard Rameix.

Le coût de la première phase de la réalisation de ce projet est évalué à 4 milliards de francs.

Engagé depuis dix ans, sans volonté politique ferme, ce processus a été relancé en 1996 par le plan Juppé de réforme de la sécurité sociale.

Malgré de tels délais, M. Rozmaryn, dans un rapport remis au Gouvernement à la fin du mois d'octobre 1996, a estimé que cette révolution avait été mal préparée par l'assurance maladie.

L'ingénieur général des télécommunications y dénonce tout à la fois des lacunes dans la sécurité du système «peu arbitrée et sans doute mal équilibrée» et surtout l'absence de retour d'information vers les professionnels de santé pourtant soumis à des contraintes alourdies. Il aurait préféré confier la maîtrise d'ouvrage à un délégué général entouré d'une petite équipe de haut niveau plutôt qu'à la CNAMTS, comme l'a décidé le Gouvernement.

En revanche, satisfaction lui a été donnée en ce qui concerne la création d'un « Conseil supérieur des systèmes d'information de santé » correspondant à la structure de concertation qu'il souhaitait.

M. Rozmaryn suggérait de ne pas faire cette réforme « à marche forcée ». Dans ces conditions, il est peu probable que l'informatisation des cabinets médicaux soit achevée à la fin de 1998 comme l'avait annoncé le précédent Gouvernement.

*

* *

Au moins les deux derniers exemples cités concernent-ils des domaines (éducation et santé) qui sont par nature du ressort de l'intervention des administrations publiques.

Tel n'était pas le cas des ingénieurs de l'Etat dans la sphère des activités industrielles marchandes.

Plus préoccupés de tendre la sébile ou de limiter les dégâts causés par les interventions trop souvent maladroites des pouvoirs publics, les constructeurs informatiques français n'ont pas su définir les stratégies qui leur auraient permis de mieux s'adapter aux évolutions de la technologie et du marché.

Cela s'est produit lors de l'irruption de la micro-informatique et de l'essor des progiciels (dont la diffusion ne connaît pas de limites physiques, contrairement aux activités de services qui se comptent en heures d'ingénieurs et dépendent de l'existence de la demande d'une clientèle particulière).

Souhaitons, même s'il est un peu tard, que le maximum de nos PME sachent profiter de l'explosion des réseaux sous toutes ses formes (Internet, Intranet...), sans entrave de la part de l'Etat (comme nous le verrons plus loin).

En tout état de cause, jusqu'en 1992, les actions de l'Etat dans le secteur de l'informatique, tous types d'interventions confondus, auront coûté au contribuable français plus de 40 milliards de francs pour un bien piètre résultat. Le florilège des sottises publiques dans le domaine des techniques audiovisuelles vaut presque l'anthologie de celles commises en matière d'informatique.

B) DANS LE DOMAINE DE L'AUDIOVISUEL

En informatique, la rapidité des évolutions techniques rend délicate, on l'a vu, la définition d'une ligne de produits et d'une stratégie adéquats. Très vite, les ordinateurs sont devenus personnels, communicants, puis multimédia. Ce sont désormais des produits à la fois professionnels et grand public.

L'adaptation de l'audiovisuel à la diversification des techniques est plus lente, car l'inertie de « l'effet de parc » des récepteurs installés et des habitudes des téléspectateurs est forte.

La tâche n'en est pas moins difficile car le « technology push » ne rencontre pas nécessairement le « market pull ». A l'inertie évoquée ci-dessus s'ajoute, en effet, la difficulté de coordonner les actions de multiples intervenants (industriels, producteurs, éditeurs et distributeurs de programme, opérateurs de réseaux et de banquets, diffuseurs publics et privés, Etat et collectivités...).

Les exigences de compatibilité (entre normes de production, d'enregistrement et de lecture, de diffusion et de réception) sont, d'autre part, plus poussées pour l'audiovisuel que pour l'informatique. Les problèmes de transition entre anciennes et nouvelles techniques y sont donc, pour toutes ces raisons, encore plus ardus.

En outre, s'agissant des modes hertziens de transmission, les fréquences utilisées apparaissent comme des ressources rares et convoitées, difficiles à partager équitablement et fonctionnellement.

L'intervention de l'Etat, de ce dernier point de vue, peut se justifier. Elle a pourtant été, dans l'ensemble, tout aussi malheureuse que les initiatives prises en faveur de l'informatique, dès lors qu'il s'agissait de se mêler directement des conditions d'introduction de nouveaux supports (câble et satellite) ou de nouvelles normes de diffusion audiovisuelle.

1. Le plan câble

Avec dix ans de retard, la France décide, en novembre 1982, de s'équiper de réseaux câblés. Les objectifs fixés sont ambitieux :

n quantitativement : 10 millions de prises ;

n financièrement : 20 milliards de francs (plus de 3 milliards par an) ;

n techniquement : les premiers réseaux sont entièrement réalisés en fibre optique et en structure étoilée (théoriquement propice à l'interactivité). Des services de télécommunication autres que la télédiffusion devaient pouvoir y être intégrés grâce au numérique (téléphone, informatique).

Malgré les 3 milliards annuels d'investissements de la DGT, le démarrage est très lent. Dès 1986, l'objectif est ramené à 6 millions de prises sur une cinquantaine de sites. Les deux millions de prises raccordables commercialisées ne seront dépassés qu'en 1990, avec un nombre d'abonnés qui dépasse à peine 500.000.

Dès 1984, la construction des réseaux étoilés en fibre optique (1G) est abandonnée au profit de l'utilisation des techniques plus traditionnelles, mais beaucoup moins coûteuses et mieux maîtrisées, du câble coaxial (réseaux OG). On renonce, par la même occasion, à utiliser les réseaux câblés comme supports du RNIS (réseaux numériques à intégration de service).

Pourquoi un tel fiasco ?

Les raisons en sont à la fois techniques, organisationnelles, commerciales et financières.

n Techniquement, le support et l'architecture choisis s'avèrent rapidement obsolètes : les réseaux IG sont équipés en fibres multimodes dont la capacité de transmission est très inférieure aux fibres monomodes utilisées dès 1985.

Sur le plan de l'organisation, le maître d'ouvrage (les PTT) et les gestionnaires des réseaux (sociétés locales puis câblo-opérateurs) sont séparés, bien qu'ayant des activités ou des objectifs stratégiques par ailleurs assez proches, contrairement à ce qui se passe en Allemagne où la DBT (Deutsche Bundespost Telekom) cumule les deux fonctions.

Les changements de réglementation vont ensuite se succéder : en mai 1986, les câblo-opérateurs (Caisse des dépôts, Lyonnaise et Générale des eaux) sont autorisés à concurrencer la DGT en tant que maître d'ouvrage. Mais aucun nouvel élan particulier n'en résulte. Peu de sites restent disponibles pour les nouveaux maîtres d'ouvrage dont France Telecom (22(*)), qui contrôle déjà 50 grandes agglomérations et redoute la concurrence, à plus ou moins long terme, dans les services de télécommunications.

Après le monopole et la concurrence, s'ouvre à partir de 1990, une ère de coopération fondée sur une communauté d'intérêts, entre les câblo-opérateurs et France Telecom qui prend des participations dans leur capital.

Selon un article publié par Patrick Yves BADILLO dans la Revue économique, «pour qu'une innovation se développe, il convient non seulement de trouver une organisation de ce secteur viable, mais aussi de la laisser en place suffisamment longtemps. Or, les changements de l'organisation du secteur ont été incessants ; jamais une organisation stable et satisfaisante n'a été trouvée».

La substitution aux collectivités locales d'opérateurs extérieurs va réduire l'exploitant public au rôle de simple installateur d'infrastructures. La déréglementation de 1986 le conduit ensuite à s'abstenir de lancer des téléservices, de peur de susciter une concurrence à ses propres activités dans ce domaine.

n D'un point de vue commercial, le câble subit l'inconvénient de devoir se développer en concurrence avec de nouvelles chaînes hertziennes en clair (la Cinq et la Six) ou cryptée (Canal Plus).

La nouveauté des contenus (chaînes thématiques), indispensable au succès de toute innovation en matière de contenants se fait attendre. La séparation entre installateur et exploitant de réseaux ne facilite pas la cohérence du marketing et de la politique tarifaire d'autant que se produisent des chassés-croisés entre gestionnaires (les trois principaux câblo-opérateurs précités, c'est-à-dire la Caisse des dépôts, la Lyonnaise et la Générale des eaux, succèdent aux sociétés locales d'exploitation ; France Telecom reprend en 1992 les réseaux en fibre optique).

En outre, les tarifs sont dissuasifs (130 à 175 F par mois pour le service de base contre moins de 100 F partout ailleurs à l'étranger), mais cela est lié au déséquilibre financier du plan câble.

n Sur le plan financier, en effet, les choix technologiques, trop ambitieux initialement effectués, ont renchéri les coûts d'investissement de la DGT. Celle-ci doit assumer seule, en outre, l'intégralité du risque, par suite de la défection des municipalités qui devaient en principe lui verser des avances remboursables. Le montant de la redevance (46 F par mois et par abonné), versée par les câblo-opérateurs, a été fixé sans référence aux coûts d'investissement. Inférieur à celui qui avait été prévu à l'origine, il est jugé insuffisant par la Cour des Comptes, compte tenu de celui des abonnements.

En outre, au lieu d'arrêter les frais, l'Etat, s'estimant politiquement engagé vis-à-vis des collectivités locales, malgré leur désengagement, oblige la DGT à passer avec elles des conventions de câblage jusqu'en 1988.

Les opérateurs justifient le montant élevé de leur tarif par celui de leurs charges (coûts d'acquisition commerciale des abonnés et des programmes, frais de gestion, redevance) et de l'obligation de fournir un canal local.

Ils dénoncent l'incohérence de la façon dont le câblage a été, selon eux, effectué, notamment à Paris (par fraction d'arrondissements, en commençant par les quartiers les plus pauvres, etc.).

France Telecom estime pour sa part que le service est vendu trop cher pour susciter des abonnements, les opérateurs semblent se contenter d'en gérer trop peu. Quoi qu'il en soit, le cercle vicieux tarifs trop élevés - faible nombre d'abonnés - offre insuffisante de programmes existera bel et bien pendant longtemps.

Au moment où, enfin, le nombre de chaînes s'étoffera, France Telecom renâclera à fournir davantage de canaux que les quinze prévus par les conventions pour des raisons compréhensibles (désir d'obtenir de meilleures conditions financières, crainte de la concurrence de nouveaux services comme le téléphone, coût des équipements supplémentaires nécessaires, etc.).

Le montant des fonds publics engagés dans les investissements du plan câble pouvait être évalué, en 1988, à 21,9 milliards de francs pour un nombre de prises raccordables approchant le million mais un total d'abonnés à peine supérieur à 100.000.

A la suite d'une relance en 1991, le million d'abonnés sera atteint et les 2 millions en 1994.

Mais le câble français demeure aujourd'hui en retard sur celui des pays concurrents (18,6 millions d'abonnés en Allemagne ; la Grande-Bretagne, malgré un engagement beaucoup plus récent, nous a rattrapés en quelques années, sans doute grâce à une ouverture plus précoce de la téléphonie à la concurrence).

Il subit, en outre, de plein fouet, la concurrence du satellite, domaine dans lequel des erreurs majeures ont également été commises.

2. Les satellites TDF1 et TDF2

En 1979, est décidé un programme franco-allemand de satellite de télédiffusion directe.

Le projet, au départ expérimental, devient pré-opérationnel deux ans plus tard, en 1981.

La solution technique retenue est celle d'un satellite lourd, de forte puissance, à faible nombre de répéteurs (2 tonnes dont la moitié de carburant, et cinq canaux de 230 W environ). Le choix d'une aussi forte puissance est dicté par un certain nombre de considérations :

n garantir, en toutes circonstances, avec une marge de sécurité suffisante, une excellente qualité d'images à la réception dans un contexte où la haute définition paraît être l'avenir de la télévision ;

n se contenter, pour la réception directe individuelle, d'antennes de dimensions raisonnables (moins de 90 cm) ;

n utiliser la bande de fréquences moins encombrée que celle des satellites de télécommunications, réservée à chaque pays pour ce type de services par la CAMR (Conférence administrative mondiale des radiocommunications).

Une certaine cohérence paraît ainsi assurée avec la promotion menée par ailleurs des mesures européennes D2 et HDMAC, spécialement conçues pour la diffusion par satellite.

Mais, là encore, un certain nombre d'erreurs vont être commises dans la conception même comme dans la réalisation du projet. Les tubes à ondes progressives utilisés sont à la limite de leur technologie, alors qu'il est prudent de n'embarquer à bord de satellites opérationnels que du matériel éprouvé.

Le groupe français Thomson ne fabrique pas lui-même les boîtiers d'alimentation complétant les amplificateurs équipés des tubes de ce type qu'il commercialise, ce qui peut expliquer leurs nombreuses défaillances .

Les progrès réalisés en matière d'antennes d'émission comme de réception permettent, dès le début des années 80, d'envisager de recourir à des répéteurs moins puissants (ce que recommande en 1984 Gérard THERY dans un rapport au Gouvernement). En outre, la dimension des antennes n'importe que dans les zones d'habitat dense, desservies de toute façon par des installations de réception collectives, où résident la majeure partie des téléspectateurs intéressés. Enfin, le nombre restreint de canaux impose, pour chacun d'eux, un prix de location élevé.

TDF1 et TDF2 seront lancés seulement en 1988 et 1990, à un moment où ils subiront, de plein fouet, la concurrence de satellites privés de télécommunication du type Astra (16 canaux utiles au lieu de quatre).

D'autre part, le choix du bouquet de programmes transmis par les deux satellites ne sera décidé par le CSA qu'en 1992, date à laquelle le Bundespost loue depuis longtemps chaque canal de TV Set (jumeau de TDF) à 60 millions de francs. Au total, la Cour des Comptes qualifie le projet «d'échec coûteux» dans son rapport annuel de 1992. 3,3 milliards de francs de fonds publics lui ont en effet été consacrés (soit un prix de revient par répéteur beaucoup plus élevé que celui d'Astra) alors que 35.000 foyers seulement sur les 5 millions prévus se sont équipés en matériel de réception correspondant.

Le déficit d'exploitation en 1991 est compris entre 350 et 530 millions de francs. Or, dès cette même année, l'introduction de la norme D2MAC, qui constitue la seule justification du maintien en service de ces satellites, se trouve remise en cause.

3. Les normes MAC de diffusion

Conçue au début des années 80, au sein de l'UER, la norme de télédiffusion MAC Paquet représentait alors un compromis élégant et intelligent entre ce que les technologies analogiques et numériques disponibles à l'époque pouvaient avoir de meilleur.

Elle présentait notamment l'avantage :

n d'être conforme à la norme de production numérique internationale 4 : 2 : 2, basée elle aussi sur la numérisation séparée des composantes de luminance et de chro-minance ;

n de supprimer ainsi, grâce à un multiplexage temporel et non plus fréquentiel, les défauts inhérents à la superposition de ces composantes, dans les systèmes antérieurs.

n de disposer de plusieurs voies pour le son et de permettre la transmission de données complémentaires (sous titrage, télétexte) ;

n enfin, de faire l'objet d'un certain consensus de la part des industriels et des pouvoirs publics en Europe.

A l'origine, cette mesure devait être réservée à la télédiffusion par satellite. Des variantes adaptées au câble et même à l'espace hertzien terrestre en ont ensuite été conçues.

En 1986, pour contrer une tentative des japonaises visant à imposer au monde entier leur système Muse, les européens vont partir du D2 Mac pour élaborer, en toute hâte, leur propre norme de télévision à haute définition HD MAC. Le HD MAC, compatible avec le D2 MAC, possède un système de compensation de mouvement plus raffiné que son rival japonais et prévoit déjà la transmission numérique de certaines données (assistance au décodage et, comme pour le D2 Mac, son stéréophonique). La démonstration du nouveau système européen est effectuée, pour la première fois, au salon international des diffuseurs de Brighton, en 1988.

La crédibilité de l'alternative qu'il représente par rapport aux propositions japonaises est établie et reconnue au niveau international. Les normes MAC ont d'autres attraits ; elles se prêtent plus facilement au cryptage que les systèmes précédents, alors que naît la télévision à péage, et permettent l'utilisation du nouveau format 16 : 9.

Elles demeurent cependant analogiques en ce qui concerne la transmission des images et vont se faire rattraper par le numérique. Le D2MAC ne s'est pas imposé avec la rapidité qu'exigeait sa viabilité en tant que norme transitoire, il n'a pas rencontré l'adhésion nécessaire au-delà de celle des industriels, des producteurs et des diffuseurs.

Les manoeuvres dilatoires de nos partenaires britanniques dans le cadre de la Communauté européenne auront définitivement raison de ce système. Désormais, la multiplication des chaînes, permise par la compression numérique, semble importer davantage que la qualité des images. Les conséquences financières de l'échec des normes MAC ne sont cependant pas de la même ampleur que celles des désastres précédemment évoqués (150 MF par an environ ont été dépensés par le ministère de l'Industrie, auxquels s'ajoutent des dépenses de promotion et des aides de la Commission européenne).

Les études, qui ont mobilisé près de 500 à 600 chercheurs européens, n'ont pas été inutiles. Elles ont, notamment, ouvert la voie à l'utilisation des techniques numériques en ce qui concerne l'échantillonnage des signaux et la compensation de mouvement.

Ayant pris l'habitude de travailler ensemble, les européens vont aboutir assez rapidement à des positions communes (sauf, on peut le regretter, en ce qui concerne l'accès conditionnel) pour la télévision numérique dans le cadre du groupe de travail DVB.

Dans le dernier domaine concerné par la société de l'information, qui est celui des télécommunications, le bilan qui peut être établi n'est pas non plus catastrophique.

C) LE DOMAINE DES TÉLÉCOMMUNICATIONS

Contrairement à ce qui s'est passé dans les deux secteurs précédemment examinés, l'évolution récente des télécommunications a été marquée par d'éclatantes réussites : essentiellement le rattrapage téléphonique et le succès du Minitel.

Le danger est précisément que notre pays, se reposant sur ses lauriers, ne sache ni exploiter les acquis de ses efforts passés, ni percevoir les revers de ses médailles, ni surtout mesurer les conséquences de la rapidité des évolutions techniques, juridiques et commerciales en cours et la profondeurs des remises en cause qu'elles entraînent.

Dans un article de la revue «Medias pouvoirs», paru en 1995 et intitulé « cinquante ans de télécommunications », Jean-Pierre CHAMOUX estime que «la situation française n'apparaît pas plus exemplaire qu'auparavant : quelques brèves années de brio ne peuvent pas compenser - selon lui- des décennies de laisser-aller, de malthusianisme ou de désespérance. La dernière période en donne finalement l'illustration avec son cortège de débudgétisation, de politique industrielle sans avenir (il pense notamment au plan câble ou à la filière électronique déjà évoqués), de gestion politique à courte vue.

«La compétitivité du réseau français - poursuit-il- s'est dégradée jusqu'en 1975, pour gagner des lettres de noblesse pendant une petite dizaine d'années seulement».

«En réalité, les télécommunications françaises sont à nouveau en déclin depuis lors, déclin que confirme le mauvais moral des troupes et les errements du politique depuis 1990».

«France Telecom - conclut-il - est une entreprise chroniquement malade (nous sommes à la fin de 1995), frappée des maux classiques du service public administratif lorsqu'il se trouve confronté avec un marché, en croissance certes, mais concurrentiel et orienté vers la satisfaction des besoins solvables d'une clientèle exigeante».

1. Le rattrapage téléphonique : réussite et effets pervers

Le colbertisme s'avère parfois être un mal nécessaire dès lors qu'il s'agit de mobiliser, de façon ample et cohérente, les forces vives de la Nation, dans un cadre strictement national, au service d'objectifs simples et clairs.

La situation du téléphone en France, dans les années soixante, se prête effectivement à une action dirigiste de ce type.

Notre pays est alors non seulement la lanterne rouge de l'Europe en termes de pénétration téléphonique, mais son réseau continue de vieillir alors même que la demande s'intensifie.

Dès 1968, un dispositif de reconquête a été défini par les ingénieurs des télécommunications. Il s'agit d'une programmation, s'appuyant sur une remarquable organisation colbertiste, qui, conformément à la tradition des corps techniques de la République et aux enseignements des arsenaux, couvre tous les maillons de la chaîne considérée (depuis les recherches du C.N.E.T. jusqu'au Génie Civil), en association avec les industriels.

Mais les arbitrages nationaux favorisent d'abord le logement, puis le réseau routier, si bien que c'est surtout durant la période du VIIe Plan (1975-1980), soit 30ans après la fin de la guerre, que les télécommunications font enfin l'objet d'une vraie priorité.

Dès son élection, le nouveau Président de la République, Valéry Giscard d'Estaing, qui avait fait du dossier du téléphone un thème de sa campagne, renouvelle l'état-major de la D.G.T. (Direction Générale des Télécommunications) et nomme à sa tête Gérard Théry.

Les résultats atteints, une fois n'est pas coutume, seront à la hauteur des ambitions affichées.

En outre, un audacieux pari technologique, celui de la commutation électronique temporelle numérique (en avance sur les techniques américaines de l'électronique spatiale analogique), sera engagé et gagné.

Les moyens de développement industriel correspondant à ce rattrapage ont été « musclés »- selon l'expression de J.-P. Chamoux- par un long travail de préparation dans la logique du modèle américain, alors partout imité, d'intégration verticale entre l'industrie manufacturière et l'exploitation du réseau.

La D.G.T. pilote ainsi le développement de ses fournisseurs, en amont, par les recherches exécutées ou inspirées par les laboratoires du C.N.E.T., puis par des contrats de développement et d'industrialisation passés avec les industriels sous-traitants (qui auront pour interlocuteur la Direction des affaires industrielles, créée pour limiter le rôle du Centre d'études précité et introduire une plus grande concurrence entre fournisseurs).

« Cette politique industrielle - écrit Chamoux- a laissé de beaux restes : Matra et Alcatel sont les plus visibles mais on peut y associer le groupe SAGEM et quelques autres ».

Poursuivant ses efforts, la France peut s'enorgueillir de posséder les premiers réseaux, d'abord à commutation de paquets (avec Transpac, ouvert en décembre1978), puis à intégration de services (fin1987, commercialisé sous le nom de Numéris).

Ces beaux succès s'accompagnent cependant de quelques ratés : querelles d'état-major entre la Poste et les Télécommunications freinant la généralisation de la télécopie ou, surtout, conversion mal préparée et mal conduite des centraux électromagnétiques en centraux électroniques (la facture sociale et industrielle correspondante sera incluse dans le prix des nouveaux équipements, payés fort cher, et des nouvelles usines correspondantes, mal amorties).

Cependant, les résultats obtenus, écrit Chamoux, « tendent à conforter l'impression que la méthode régalienne est bonne ».

« Le cadre autoritaire -poursuit-il- convient bien à une aventure de ce type mais laissera des traces durables dans les mentalités... jusqu'aux temps actuels » :

Le plan câble, on l'a vu, est un remake raté du rattrapage téléphonique.

Le monopole laisse en effet toute latitude tarifaire à l'opérateur national, que les pouvoirs publics prennent l'habitude de mettre à contribution pour financer des investissements dont l'opportunité paraît douteuse, tels que les réseaux du plan précité ou les programmes concernant la filière électronique.

L'abonné au téléphone joue ici le rôle dévolu au contribuable dans le domaine de l'informatique (cf. plans calcul, informatique pour tous, nationalisation de Bull, etc.).

Tout à fait contestables dans leur principe, ces opérations de débudgétisation peuvent donner aux autorités responsables l'impression de pouvoir disposer, sans contrôle, de ressources illimitées.

Ainsi, une augmentation brutale de 10centimes, en juillet 1984, de la taxe téléphonique va casser la croissance de la demande pour plusieurs années.

La politique industrielle suivie dans les années quatre-vingt n'est, quant à elle, guère inspirée : regroupement de participations hétéroclites au sein de la société financière Cogecam, démêlés judiciaires d'Alcatel, en France et en Allemagne, liés aux effets pervers du pilotage par procuration des manufactures industrielles du téléphone par les opérateurs du réseau public.

Les considérations de politique intérieure, et notamment la conduite du secteur industriel nationalisé, prennent le pas sur les préoccupations internationales ; l'importance des changements de perspective induits par le tournant de 1985 est mal perçue (éclatement des monopoles et ouverture à la concurrence du secteur des télécommunications en Angleterre, aux Etats-Unis et au Japon ; publication du livre vert de la commission débouchant sur l'Acte unique européen).

« La double alternance politique de 1986 et de 1988 - estime J. P.Chamoux- n'est pas propice à mûrir une décision sur le dossier des télécommunications ».

« La réforme française de 1990 contient le pire et le meilleur : la rupture du cordon ombilical entre les P.T.T. d'antan et France Telecom d'aujourd'hui est très positive... Mais elle comporte aussi des effets pernicieux »... comme d'entretenir «le mythe que le changement mis en place (séparer la réglementation et l'exploitation) est suffisant pour faire face aux défis de l'époque (développement du marché commun des services et intensification de la concurrence internationale sur les réseaux)».

La législation (23(*)) et la réglementation mises en place sont en effet ambiguës : d'un côté, on affiche la ferme volonté de préserver le monopole téléphonique (au risque d'être taxés, à l'étranger, de protectionnisme), de l'autre, les dispositions dérogatoires à caractère spécieux ou interprétatif sont multipliées (autorisations de liaisons satellites, de réseaux d'entreprises, de réseaux radioélectriques ; habilitation d'opérateurs étrangers à exploiter de tels systèmes sur des micro-marchés...).

Des contradictions un peu analogues se retrouvent dans la conduite des dossiers sociaux : maintien, qu'on semble vouloir pérenniser, du statut de la Fonction Publique, et gestion du personnel qui peut paraître s'inspirer des pratiques du secteur privé.

La réforme des classifications, menée de façon autoritaire, devient -selon Chamoux- une «usine à gaz».

L'autonomie des cadres intermédiaires, gage de l'efficacité du rattrapage et des victoires précédents, est considérablement réduite.

Passant d'un excès à l'autre, on se focalise cette fois sur la stratégie internationale mais -semble-t-il- au détriment des préoccupations propres au service public national.

« C'est ainsi -pour Chamoux- que, subrepticement, les relations de confiance et l'enthousiasme conquérant du service public téléphonique se sont peu à peut transformées en un scepticisme inquiet, voire en une certaine désespérance ».

Dès lors - craint-il (en1995)- l'avenir des 150.000 fonctionnaires de France Telecom risque de s'avérer plus difficile à gérer que celui de ses 30 millions de clients.

Au total, « la réglementation française, révisée et complexifiée considérablement en 1990, reste profondément publique et régalienne » (les rares opérateurs, autres que l'exploitant public, sont encadrés par des cahiers des charges trop restrictifs).

Les pilotages et les prélèvements publics sur les télécommunications du service public ont eu des effets pervers. Il est temps de libérer la gestion du réseau français des influences politiques, gouvernementales ou locales.

La Loi du 26 Juillet 1996 a permis d'apporter, enfin, une réponse porteuse d'avenir à toutes ces questions essentielles.

A l'étranger, d'autres expériences ont été menées, avec des effets positifs : la déréglementation britannique ; l'équipement des Länder de l'Allemagne orientale, qui donne un coup de fouet au marché allemand en le soumettant, dès 1991, à un apprentissage forcé de la concurrence oligopolistique (24(*)) ; l'essai, en Suède, du radiotéléphone rural, substitut technologique économiquement avantageux au réseau filaire établi pour la desserte de zones isolées...

Désormais, la maîtrise technologique n'est plus une condition suffisante du succès, dans un système devenu concurrentiel, oligopolistique et régulé, et la compétitivité des opérateurs se mesure à leur capacité de répondre avec souplesse et pragmatisme aux évolutions de la demande.

Avec le rattrapage téléphonique, le Minitel illustre à la fois les succès possibles, dans certaines circonstances, du colbertisme et ses limites. Il s'agit, là encore, d'une médaille qui a ses revers.

2. Le Minitel : un modèle qu'il faut savoir dépasser
mais dont les atouts doivent être exploités

Le Minitel est un exemple, rare, de réussite d'une politique de l'offre.

Aucune demande, en effet, n'existe et aucune expérience analogue n'a été tentée à l'étranger lorsque le Directeur général des télécommunications, Gérard Théry, propose au Gouvernement, en 1978, le projet de vidéotex, concurrent du Prestel britannique, en complément au plan de rattrapage téléphonique.

La proposition est donc novatrice et hardie.

Elle se heurte à l'hostilité de la presse qui y voit une menace pour les petites annonces et la publicité locale. Elle succède, par ailleurs, à l'abandon du télécopieur grand public, concurrent de la Poste.

Néanmoins, le rapport Nora-Minc sur « l'informatisation de la société » appuie le projet dont le développement trouve dans l'annuaire électronique à la fois un produit sûr et consensuel ainsi qu'un service moteur.

Il est recouru, fort judicieusement, à la méthode expérimentale pour tester à Vélizy, en 1981, les premiers services (S.N.C.F., 3 Suisses, etc...), puis l'annuaire électronique, en 1983, en Ille-et-Vilaine.

L'intérêt d'un terminal spécifique est ainsi démontré.

Le succès est tel, que les capacités du réseau Transpac doivent être augmentées en 1985. Un an plus tard, le Wall Street Journal s'extasie : «French videotext makes money».

De fait, le chiffre d'affaires du Minitel dépasse aujourd'hui les 8 milliards de francs pour 6,5 millions de terminaux installés (110 millions d'heures de consultation par an, 25.000 codes d'accès à des serveurs). Plus de 15.000 emplois ont été créés dans les nouveaux contenus et services télématiques correspondants. Des entreprises françaises ont été sollicitées, notamment pour la mise au point du logiciel d'accès à l'annuaire électronique (SEMA, Cap Sogeti) et la fabrication des terminaux (Alcatel, Matra, Thomson).

La mise à la disposition d'un aussi grand nombre de foyers d'une telle variété de services et de moyens d'information et de communication est une innovation sociale extrêmement importante.

Les raisons de cette étonnante réussite sont principalement liées :

n à la grande facilité d'usage du système ;

n à la simplicité et au faible prix de revient du terminal, distribué à l'origine gratuitement, sans supplément d'abonnement ;

n à la formule Kiosque qui repose sur la facturation du service à l'usager par l'exploitant, qui en reverse ensuite le produit au prestataire.

Le réseau sépare ainsi clairement les responsabilités de l'exploitant de celles du fournisseur de services, même si le premier joue au bénéfice du second un rôle d'intermédiaire dans l'encaissement de la rémunération des prestations.

Le modèle d'architecture retenu, de type réparti, permet l'accès aux serveurs par le réseau téléphonique, moyennant une connexion au réseau Transpac par des points d'accès vidéotex.

Le serveur peut non seulement offrir des informations à la demande à plusieurs usagers, sans avoir à les identifier (utilisations en temps partagé), mais encore permettre à ces derniers de communiquer dans les mêmes conditions (utilisations dites en messagerie ouverte ; ce caractère masqué du dialogue sur Minitel expliquant un phénomène comme les messageries «roses»).

En bref, le système Télétel comprend trois composantes essentielles :

- le terminal (Minitel),

- le réseau d'accès aux serveurs (téléphone + Transpac),

- le système «Kiosque» de facturation.

La norme utilisée permet l'affichage de caractères alphabétiques ou mosaïques, utilisables pour des graphiques simples. Plusieurs autres systèmes de vidéotex ont été élaborés dans le monde, en Europe, aux Etats-Unis et au Japon, mais aucun n'a connu une pénétration comparable.

Rattrapé, puis dépassé par l'irruption de la micro-informatique communicante multimédia et par le fantastique essor d'Internet, le Minitel conserve quelques atouts mais apparaît comme un condamné dont le sursis va bientôt arriver à expiration. Il faut, dans l'immédiat, tenter de valoriser les avantage provisoires qui lui restent, le relier par des passerelles au monde Internet, vers lequel doivent d'ores et déjà migrer certains de ses services.

Mais cet effort ne doit pas constituer un combat d'arrière-garde, entravant le dynamisme indispensable de la création d'une offre française de contenus et de services, spécifiquement adaptés aux réseaux multimédia mondiaux d'aujourd'hui.

Par rapport à ces nouveaux outils, le Minitel souffre de plusieurs handicaps : outre le fait de ne pas être multimédia, il demeure beaucoup plus lent, même dans ses versions récentes les plus rapides, que les micro-ordinateurs reliés à Internet.

Il est, à l'évidence, beaucoup moins adapté aux investigations documentaires, facilitées sur Internet par les liens hypertexte du langage H.T.M.L. (les navigateurs, moteurs de recherche et agents intelligents), pour des raisons non seulement d'ordre technique, mais liées aussi à son mode de tarification à la durée.

A ces désavantages comparatifs concernant l'usager s'ajoutent des inconvénients relatifs à la structuration d'une offre de contenus internationale compétitive.

Menée dans un contexte de rivalités nationales qui n'ont pu être surmontées, la normalisation des vidéotex a été des plus limitées, ce qui a considérablement gêné l'exportation du système français ainsi que les échanges internationaux de ce type de services de télécommunications.

Dans ces conditions, le Minitel se trouve cantonné dans l'hexagone. En outre, le modèle Télétel, s'il a l'avantage de la simplicité, «atomise» les fournisseurs de contenus, empêchant, par l'importance du rôle de l'exploitant public, que se nouent des alliances ou se développent des partenariats.

En un mot, c'est le revers de la médaille du colbertisme.

Les prestataires de services n'ont, en effet, à se préoccuper que de la création et de l'édition du contenu ainsi que de sa promotion publicitaire. Tout le reste (transport, distribution, gestion des clients et paiement) est assuré par l'opérateur, avec une seule interface pour l'accès au réseau.

Cependant, le Minitel conserve, au moins à titre provisoire, de sérieux atouts :

- Avec ses 8 milliards de chiffre d'affaires, c'est tout d'abord une manne pour les entreprises concernées ainsi que pour l'exploitant. On conçoit que celui-ci ait été tenté de profiter le plus longtemps possible de cette rente de situation. Mais il est clair que les potentiels de croissance de chiffres d'affaires dans les télécommunications se situent désormais ailleurs.

- Sa simplicité d'usage continue de conférer à notre terminal national un avantage comparatif, mais celui-ci décroît au fur et à mesure que progresse la convivialité des micro-ordinateurs et la facilité d'accès à Internet.

- En attendant que soient résolues les difficultés qui entravent encore le développement du commerce électronique sur le réseau des réseaux (cryptage, modalités de facturation et de paiement), le Kiosque demeure un système sécurisé de transaction commode pour des paiements effectués en France ou à partir de notre pays (surtout avec la formule FACITEL intégrant un lecteur de carte de crédit).

- Enfin et surtout, la France a acquis grâce au système Télétel un savoir-faire précieux qu'elle pourrait valoriser sur Internet : maîtrise des liens clients-serveurs, qualité des services (informations et transactions)... Toutefois, là encore, il s'agit d'une avance qui tend à se réduire et qui peut être rattrapée par nos concurrents, à plus ou moins brève échéance.

France Telecom a tardé à se doter d'une stratégie lui permettant de concilier la mise à profit des atouts du Minitel encore exploitables (son capital d'expérience, ses services demeurant compétitifs...) et l'adaptation à l'essor d'Internet et de la micro-informatique multimédia.

Les raisons de cette attitude sont multiples et liées à :

n L'inexistence de contraintes hâtant la remise en cause, à l'intérieur de nos frontières, du monopole de l'exploitant public, contrairement à la situation de l'Allemagne (réunification) ou des pays anglo-saxons (législation libérale).

n La tentation de profiter, en l'absence de concurrence, de rentes de situation (facturation à la durée des services Télétel, tarifs élevés pour les communications téléphoniques, notamment internationales, et le trafic de données).

n Un bilan contrasté, comportant à la fois d'éclatantes réussites (comme le rattrapage téléphonique ou le système Télétel) et de cuisants échecs (plan câble).

n Des contradictions entre un certain dynamisme (technologique, commercial, international) et des rigidités ou des pesanteurs dues à la difficulté de faire évoluer les mentalités et les statuts (culture de monopole, traditions de la Fonction Publique).

n Une certaine incompréhension initiale, empreinte de scepticisme et de condescendance, vis-à-vis d'Internet, en raison de son caractère décentralisé et coopératif ainsi que de ses premiers dysfonctionnements (problèmes de connexion, de congestion...).

n L'endettement de l'opérateur national, son embarras éventuel devant la diversification des solutions techniques possibles (A.D.S.L., M.M.D.S...) peuvent également avoir joué un rôle.

Au total, le sentiment, d'un côté, de disposer d'une certaine avance (avec le R.N.I.S. et le Minitel), la crainte d'un autre côté, en suivant les recommandations du rapport Théry, de se lancer dans un nouveau plan câble, le souci de ne pas faire disparaître, avec le Minitel, la poule aux oeufs d'or, et, enfin, les inquiétudes du personnel de France Telecom expliquent les hésitations et les lenteurs constatées.

Elles sont largement à l'origine du retard de l'entrée de la France dans la société de l'information.

L'explosion d'Internet a été subie plus qu'anticipée par la France, déjouant tous les schémas des politiques dirigistes traditionnelles de l'offre.

Désormais, le Minitel ne peut plus ignorer Internet dont la dynamique, d'emblée mondiale, est bien supérieure.

France Telecom l'a compris, qui a fait d'Internet son premier axe stratégique, en proclamant qu'« il n'y a plus d'un côté le Minitel et de l'autre Internet, mais un continuum de services ».

En effet, des passerelles ont été jetées :

n du monde Minitel vers celui des micro-ordinateurs : cartes d'émulation, ouverture du « Kiosque Micro » permettant l'accès aux services Télétel à partir des machines reliées à Internet ou à des réseaux propriétaires (compuserve ...).

n dans l'autre sens, avec l'ouverture d'un service de messagerie Internet (3615 Minitelnet) permettant aux détenteurs de Minitel de posséder une adresse E-mail et d'y recevoir du courrier électronique. Le lancement d'un Minitel-Internet, terminal simplifié permettant d'accéder, avec une grande convivialité, aux services Minitel et Internet, est d'autre part en cours de préparation.

La norme VEMMI (Videotext Enhancel Man Machine), élaborée par le C.C.E.T.T. et avalisée par l'E.T.S.I., pourrait faciliter la transition entre le Minitel et le multimédia (25(*)).

S'il est ainsi souhaitable de désenclaver le Minitel afin d'internationaliser la majeure partie de ses services, une minorité d'entre eux, des services de proximité par exemple, peuvent continuer de se contenter de ce support tel qu'il est.

3. Mais que cache donc l'accord entre France Telecom et Microsoft ?

France Télécom devrait toutefois mieux expliciter sa stratégie surtout après l'accord que ce grand opérateur de télécommunications désormais privé vient de signer avec Microsoft.

En effet, selon « La lettre des Services en Ligne » (N) du 4e trimestre 1997, France Télécom aurait signé un accord avec Microsoft pour intégrer le logiciel permettant l'accès au « Kiosque Internet » dans le futur système d'exploitation de Microsoft : Windows 98.

Nous ne connaissons pas les termes exacts de cet accord.

Selon certaines informations, il pourrait avoir pour finalité d'inciter les nouveaux utilisateurs de micro-informatique à accéder à Internet sans payer un abonnement à un fournisseur d'accès (provider).

A cette fin, le futur OS de Microsoft qui équipera plus de 95 % des PC qui seront livrés dans ces prochains mois, encapsulerait une interface graphique et un logiciel qui faciliteraient cet accès à Internet sans payer d'abonnement, ce qui voudrait dire que ces « télé-internautes » français seraient les seuls au monde à payer leur navigation sur la toile mondiale (quant au droit d'accès au réseau des réseaux) à la durée et non plus forfaitairement.

Si il en était vraiment ainsi ce serait l'avenir de tous les fournisseurs d'accès (providers) qui serait mis en péril dans notre Pays et c'est toute l'approche Internet qui en a fait sa singularité et qui en explique sa croissance exponentielle qui serait ainsi fermée à tous ces « télé-internautes » français.

Cette association du « quasi-monopole d'une grande société américaine avec la « crédibilité » qu'a su acquérir France Télécom auprès de tous les usagers du Minitel aurait un tel pouvoir de « séduction obligée » que le nombre de français qui serait séduits par la « facilité » qui leur serait proposée pour accéder à Internet atteindrait une telle importance, que la France, une fois encore, serait entraînée par un « singularisme » qui ne pourrait qu'entraver l'entrée de notre Pays dans la Société de l'Information.

Si cette hypothèse se révélait être exacte, les Pouvoirs Publics ne pourraient pas rester sans réagir.

La démarche initiée par l'accord Microsoft - France Télécom aurait, si elle se vérifiait, des conséquences néfastes si elle avait pour finalité d'engager les millions de français qui grâce au Minitel font « confiance » à France Télécom à suivre les préconisations de notre opérateur national pour entrer dans le monde Internet, en payant leur navigation à la durée .

Aussi nos gouvernants devraient, alors, prendre des positions très fermes et très claires si la situation venait à évoluer ainsi et ce d'autant plus que l'Etat est toujours majoritaire dans le capital de France Télécom.

4. L'explosion de la téléphonie mobile :
un phénomène difficilement anticipé et suivi

France Telecom et ses fournisseurs attitrés, au premier rang desquels figure Alcatel, sont efficaces dès lors qu'il s'agit de pratiquer une politique de l'offre (Minitel), à l'abri de la concurrence, ou de procéder à un ajustement volontariste et contrôlé à une demande préexistante et manifeste (rattrapage téléphonique). De sorte que notre opérateur et nos industriels font bonne figure, au niveau mondial, sur les marchés traditionnels.

Mais le dirigisme colbertiste rencontre ses limites face à des évolutions extrêmement rapides liées à l'irruption de nouveaux modes de communication. C'est le cas, on l'a vu, pour le développement d'Internet et de la micro informatique communicante multimédia. Ce le fût aussi pour l'explosion de la téléphonie mobile.

A chaque fois, nous nous trouvons à la traîne s'agissant aussi bien de l'utilisation de ces moyens que de la création des biens et services correspondants.

Dans le domaine des mobiles, ce sont d'abord les services de localisation et de messagerie ou de liaisons avec divers véhicules (bateaux, avions, camions...) qui ont été envisagés. Puis, on a assisté à une véritable explosion des usages individuels, d'abord professionnels puis grand publics, de téléphones sans fil.

Dans les deux phases, des carences d'initiative et une sorte de « retard à l'allumage » se sont manifestées.

Si nous prenons l'exemple des premiers systèmes de liaisons satellitaires avec les poids lourds (localisation et messagerie), le service Omnitracs a été opérationnel aux Etats-Unis et au Canada dès 1988.

Un programme concurrent, conçu dès 1978, était proposé par la Société Geostar qui a fait faillite en 1990. Ce projet était beaucoup plus ambitieux. Il prévoyait, en effet, une couverture mondiale, grâce à trois satellites géostationnaires, et visait à abaisser le coût de l'équipement de réception par un système centralisé et sophistiqué de localisation très précise.

Deux propositions se sont affrontées en France, chacune d'elle ne faisant que se référer à l'un des deux systèmes américains qui viennent d'être présentés.

Le CNES, d'un côté, a cherché à promouvoir en Europe le système Geostar, en créant, en 1988, la société Locstar, dont la moitié du capital était aux mains d'actionnaires français (Matra, CNES, Crédit Lyonnais...).

Alcatel, de l'autre côté, s'est allié à l'Américain Qualcom pour exploiter, en Europe, le système Omnitracs sous le nom d'Euteltracs.

France Telecom était à la fois actionnaire de Locstar et chargée de la réalisation de la station terrestre d'Euteltracs ! Et la conception des systèmes utilisés était, dans les deux cas, américaine, même si le projet Locstar présentait l'avantage pour l'industrie française de la commande de deux satellites et de la réalisation par Thomson d'un centre de commandes.

Le projet Locstar était, au départ, plus coûteux (2,8 milliards de francs) puisqu'il prévoyait le lancement de deux satellites fabriqués par Matra, alors qu'Euteltracs se contentait de louer des canaux sur des satellites d'Eutelsat déjà en orbite. Mais Locstar, qui estimait que ses coûts d'exploitation seraient moins élevés que ceux de son concurrent, espérait occuper, à la fin du siècle, 60 % d'un marché compris entre 30 et 50 milliards de francs.

La faillite de l'actionnaire américain, promoteur du système Geostar, et le refus de la COFACE de garantir les emprunts de Locstar ont entraîné la mise en liquidation de la société en juillet 1991, alors que Matra avait presque terminé le premier satellite.

Le service Omnitracs a commencé à être commercialisé en France en juillet 1991 (trois ans après l'Amérique du Nord!) par TSM (Télécom Systèmes Mobiles), filiale de France Telecom.

Ce triste épisode, d'autant plus dérisoire qu'il s'agissait, encore une fois, de la promotion en France de systèmes étrangers, est un exemple majeur d'incohérence stratégique des pouvoirs publics, chargés à la fois de la tutelle du CNES et de celle de France Telecom, rivaux en l'occurrence.

Concernant l'évolution, plus récente de la téléphonie mobile, la croissance du marché, d'environ 40 % par an, est encore plus rapide que celle des ventes dans la micro-informatique. C'est à l'instar d'Internet, le phénomène le plus marquant du moment.

Le nombre d'abonnés dans le monde a franchi le cap des 500 millions. Et le marché des infrastructures, estimé à 90 milliards de francs en 1996 (tous supports et logiciels de transmission confondus) devrait dépasser les 160 milliards de francs dans cinq ans.

Les enjeux sont considérables : il s'agit désormais d'un marché grand public, en même temps que professionnel. Il constitue, pour les opérateurs américains spécialisés dans les longues distances, un moyen privilégié de concurrencer les «Baby Bells» sur la boucle locale.

Or, que constate-t-on ?

Fin 1996, le taux d'équipement des Français n'était que de 4,3 %, contre plus de 10 % en Italie et au Royaume-Uni, et de 25 à 29 % dans les pays scandinaves.

Seule l'arrivée d'un troisième acteur, Bouygues-Telecom, cherchant à séduire le grand public par des propositions forfaitaires attrayantes, a réussi à emballer quelque peu le marché national dont la progression était demeurée jusque-là très poussive.

Sur le plan industriel, Alcatel, comme d'autres très grands groupes, tels Siemens, Nortel (allié à Matra) ou Lucent Technologies (ex AT & T), se sont laissés distancer par les pionniers : Motorola, Ericsson ou Nokia. Ils tentent aujourd'hui un retour en force en s'appuyant sur leur puissance financière, leur implantation internationale et leurs relations privilégiées avec les grands opérateurs. Ainsi Alcatel, associé à France Télécom, après un réel retard à l'allumage a su depuis le début de 1997 faire preuve d'une réelle réactivité. Ce grand groupe est toutefois, comme d'autres groupes importants, encore handicapé (provisoirement ?) par des retards technologiques dans ce domaine de la téléphonie mobile le contraignant à faire appel aux compétences de Motorola dans les techniques radio.

Les investissements annuels et les coûts de recherche développement sont très élevés et les parts de marché, de ce fait, décisives.

Il importe également - ce à quoi les plus grands n'étaient pas nécessairement habitués- de savoir renouveler rapidement les gammes de produits, compte tenu des progrès des semi-conducteurs, de pouvoir déployer ou augmenter tout aussi vite les capacités des réseaux, et se montrer très attentif aux besoins de la clientèle (solutions à la demande, clés en main, service après vente...).

Mais les problèmes de norme sont également cruciaux.

L'adoption des spécifications communes GSM de téléphonie mobile numérique est pour beaucoup dans le décollage du marché européen. Une norme complémentaire a été définie en ce qui concerne l'accès sans fil à la boucle locale (DECT : Digital European Cordless Telecommunication). Mais la technologie américaine CDMA (code division multiple access) a de fortes chances de s'imposer dans le futur, en raison de son meilleur potentiel d'évolution vers les hauts débits.

Les questions relatives à l'occupation des orbites par les satellites et des fréquences hertziennes sont tout aussi importantes que celles concernant les normes.

On l'a vu avec les systèmes satellitaires de localisation et de messageries des mobiles terrestres, et cela se confirme avec les projets actuels de constellations de satellites défilant en orbite basse : l'initiative en matière de télécommunications par satellites semble appartenir presqu'exclusivement aux Américains.

Ces derniers ont en effet conçu, en ce qui concerne le téléphone, deux projets à couverture mondiale, incluant les appareils mobiles, qui devraient commencer à devenir opérationnels en 1998 :

n IRIDIUM de Motorola (66 satellites interconnectés)

n GLOBALSTAR de Loral , auquel participe Alcatel (48 satellites reliés aux réseaux terrestres).

S'agissant de systèmes multimédia, le projet Teledesic de Microsoft et Mac Caw est un projet extrêmement ambitieux qui prévoit le lancement d'un grand nombre de satellites interconnectés pour permettre des liaisons Internet qui ne passeront pas par la boucle locale. De sorte qu'à la conférence mondiale sur les radiocommunications (CMR) de 1995, Bill GATES semblait ainsi en mesure, en l'absence d'initiatives concurrentes, d'acquérir un monopole planétaire en la matière.

Mais, depuis lors, Motorola a, de son côté, lancé un projet concurrent baptisé Celestri dans la même bande de fréquences Ka.

Alcatel, pour sa part, a réagi en concevant un autre ensemble, de moindre envergure, de 64 satellites transparents, dénommé Sativod puis « Skybridge », auquel doit participer l'Américain Loral.

Une autre bande de fréquence (Ku), déjà occupée par des satellites géostationnaires, doit être utilisée.

La CMR qui s'est tenue, fin 1997, à Genève s'est orientée comme le souhaitait les les Européens, vers un compromis favorisant la concurrence entre plusieurs constellations satellitaires multimédia.

Avec cette autorisation donnant le feu vert à Skybridge,Alcatel semble ainsi pouvoir relever la tête dans ce secteur vital pour l'avenir des télécommunications satellitaires.

Au-delà de sa restructuration industrielle en cours (qui passe par la cession d'activités périphériques), le groupe mise sur la réingéniérie de ses matériels et le développement de nouvelles compétences, en particulier dans les logiciels et les services.

Dans les mobiles, Alcatel a enregistré une progression de 40 % de ses commandes, ce qui est compatible avec l'objectif de 20 % de part de marché qu'il s'est fixé d'ici l'an 2000.

Deux-tiers de ses investissements sont consacrés aux infrastructures.

Mais la partie est cependant loin d'être gagnée.

Le retard de la France n'épargne donc en rien ses positions industrielles et technologiques, même si une réaction est en cours dans les domaines concernés. Les causes en sont, pour partie, d'ordre législatif et réglementaire (ouverture plus tardive à la concurrence, mise en place plus lente d'un cadre juridique adapté permettant un partage des fréquences et une nouvelle régulation des activités considérées). De ce fait, notre demande intérieure avait été peu stimulante jusqu'au dernier semestre 1997.

*

* *

Au total, le bilan de l'évolution en France des trois secteurs (informatique, audiovisuel, télécommunications), dont la convergence caractérise l'entrée dans la société de l'information, est contrasté.

Des erreurs magistrales (plans calcul, informatique pour tous, plan câble), côtoient certaines réussites (le rattrapage téléphonique, le minitel), même si les résultats des télécommunications sont comparativement meilleurs que ceux de l'informatique ou de l'audiovisuel.

Il s'agit -semble-t-il- pour nous d'un relatif point fort.

En aucun cas, nos capacités techniques n'ont été réellement prises en défaut. Même en informatique, notre principal point faible, où, on l'a vu, la qualité des produits de la gamme Iris de la CII, a surpris.

Certes, nous avons parfois éprouvé des difficultés à trouver le juste milieu entre surenchère (tubes à onde progressive des satellites TDF, réseaux optiques du plan câble) et conservatisme technologiques (insuffisante anticipation de l'arrivée en force de la micro-informatique, d'Internet, du téléphone mobile, sans parler de celle du magnétoscope...).

Mais, par ailleurs, le choix, en son temps, de la commutation électronique temporelle numérique a représenté, à cet égard, un parfait exemple de ce qu'il faut faire.

Nos défaillances ne sont donc pas tant technologiques que stratégiques (insuffisante adaptation à la demande) ou politiques (préparation trop lente ou incomplète à la fin des monopoles).

Il en résulte une impression de « stop and go », l'alternance de phases d'élan et de relative stagnation.

Autant dire qu'il convient à nouveau de se poser la question : comment tirer au mieux les leçons du passé ?

Deux erreurs opposées doivent être évitées : commettre les mêmes fautes ou, au contraire, par crainte de les recommencer, ne pas se montrer suffisamment entreprenant.

Les politiques dirigistes de l'offre, le colbertisme high tech ont montré leurs limites et leurs dangers, même s'ils ont pu avoir, en certaines circonstances, des aspects positifs.

Mais ils ne sont plus, à l'évidence, adaptés à un contexte dans lequel l'accélération du progrès technique, la déréglementation et la mondialisation du marché imposent de privilégier la réactivité, l'adaptation à la demande, en un mot, la satisfaction du client.

Mais ce serait faire preuve d'un libéralisme naïf que de souhaiter, pour autant, un désengagement total des pouvoirs publics du secteur des nouvelles techniques d'information et de communication : ces derniers ne doivent pas se contenter de définir un cadre libéral propice à l'exercice et à la régulation des activités correspondantes. Ils doivent aussi, comme chez nos concurrents, soutenir la recherche dans ce domaine, participer au financement des infrastructures dédiées à l'enseignement, veiller à l'égal accès de tous aux réseaux...

En d'autres termes, l'essentiel est de substituer à la société d'arrogance, dans laquelle les élites administratives et politiques et l'establishment industriel peuvent dilapider, en toute impunité, des fonds publics considérables, une société de confiance dans l'innovation et dans les forces du marché, exploitées par l'initiative privée, au sein d'un environnement qui leur soit rendu enfin favorable par l'Etat.

II. ENVIRONNEMENT INSUFFISAMMENT FAVORABLE
A LA CREATION ET A L'UTILISATION DES NOUVELLES
TECHNIQUES D'INFORMATION ET DE COMMUNICATION

Pour que l'introduction des NTIC dans notre pays soit favorable à l'emploi, il importe que nous en soyons non seulement des utilisateurs mais aussi des créateurs.

Le développement d'activités nouvelles, l'amélioration de la qualité des produits et des services, la recherche, grâce à elles, de nouveaux débouchés et d'une croissance plus soutenue doivent ainsi l'emporter sur des considérations tendant à privilégier exclusivement les gains de productivité, la défense des parts de marché et l'assainissement des bilans financiers.

En effet, l'innovation crée des emplois quand elle débouche sur une offre de nouveaux produits et services ; mais elle en détruit si elle est réduite à la rationalisation d'activités traditionnelles, au moyen de techniques ou de procédés venus d'ailleurs.

Or, malgré une prise de conscience récente de ce problème par les pouvoirs publics, l'environnement financier, fiscal et administratif français demeure trop peu favorable à la création d'entreprises innovantes.

L'utilisation des NTIC n'est pas non plus encore suffisamment encouragée, notamment en ce qui concerne la tarification de l'usage des réseaux.

A) LA CRÉATION D'ENTREPRISES INNOVANTES
N'EST PAS ASSEZ ENCOURAGÉE

Les nouvelles techniques d'information et de communication représentent un potentiel de croissance, donc d'emplois, important, que ce soit dans les infrastructures, les équipements et services ou les logiciels.

Elles contribuent ainsi (avec les autres technologies nouvelles) à un tiers de l'augmentation annuelle du PIB américain.

Il est clair que l'avance considérable acquise par les Etats-Unis dans ce domaine n'est pas due essentiellement à des géants bien établis, comme IBM ou ATT (malgré l'inventivité des BellLabs), mais à des firmes beaucoup plus récentes, comme Intel (1968), Microsoft (1975), Oracle (1977) parties de presque rien pour devenir aujourd'hui des acteurs majeurs au niveau mondial.

Intel et Microsoft font désormais partie de l'establishment. Mais tandis que la concurrence d'AMD et Cyrix devient sérieuse pour le premier, la dynamique d'Internet a eu sur le second des effets déstabilisateurs et l'oblige à une vigilance et une adaptation permanentes. Les succès du navigateur de Netscape, la stratégie des tenants des ordinateurs de réseaux (Network Computer), et les promesses du langage java le poussent notamment à réagir.

D'étonnantes percées sont possibles dans le domaine des serveurs (Sun Microsystems), des matériels (3Com et US Robotics) et logiciels de réseau (Oracle). Elles sont souvent le fait de petites sociétés émergentes (start-up) dont les grands groupes peuvent ensuite s'efforcer de prendre le contrôle (cf l'acquisition de Web TV par Microsoft, ou de Nexgen, spécialisée dans les clones de Pentium, par AMD etc..).

C'est l'éclosion de ce type d'entreprises qu'il nous faut absolument favoriser en France.

Des opportunités de réussite éclatante leur sont ouvertes, en particulier en matière logicielle (en dehors des logiciels d'exploitation exclusivement américains) pour une mise de fond initiale limitée, s'agissant d'investissement immatériel.

C'est ainsi que Business Object est devenu l'un des leaders mondiaux en ce qui concerne l'aide à la décision par l'exploitation de base de données, de même qu'O² Technology pour les systèmes de gestion des bases de données objet ou ILOG dans l'optimisation des ressources en temps réel.

Il n'est pas rare que de telles entreprises doublent leur chiffre d'affaires en une année, la diffusion de logiciels n'étant soumise, contrairement aux activités de services informatiques, à aucune contrainte matérielle particulière.

Mais le démarrage d'une activité innovante, dans le cadre ou non d'une entreprise nouvelle, suppose de rassembler autour de la promotion d'un projet original, des ressources financières et humaines variées, avec la bienveillante confiance du fisc et de l'administration.

Il ne s'agit pas d'une pratique isolée, développée ex nihilo, mais souvent du produit d'une activité de recherche d'un ou plusieurs laboratoires publics ou privés, d'un essaimage à partir d'organismes publics (comme l'INRIA) ou d'entreprises du secteur concurrentiel (Cf Dassault Systems).

Il n'y a pas ainsi nécessairement création d'une personne morale nouvelle mais parfois seulement filialisation, réorientation ou changement d'objet social, dans le cadre par exemple de la reprise d'une entreprise en difficulté ou d'une prise de contrôle extérieure.

Le recours à l'expertise, au conseil ou à la participation de personnes expérimentées s'avère par conséquent indispensable.

Or, le bilan global de la création d'activités innovantes en France n'est pas satisfaisant. Des carences graves se manifestent malgré les mesures prises qui se révèlent donc insuffisantes.

1. Un bilan global médiocre

Dans son livre blanc «Pour la création d'un environnement favorable aux entreprises de croissance», l'association « Croissance plus » s'alarme :

« La France dispose d'atouts considérables qui sont largement sous-exploités aujourd'hui. Elle a une population particulièrement bien éduquée. Ses ingénieurs sont très recherchés. Cela devrait lui permettre d'être un acteur important de la révolution technologique. Les Français ont de plus la réputation méritée d'être créatifs ».

Or, «notre pays est en train de passer à côté de l'un des plus formidables gisements de croissance, de richesse et d'emploi de l'histoire de l'humanité. Il n'y a que deux éditeurs de logiciel français parmi les 50 premiers mondiaux. Il n'y a aucun Français parmi les 10 premiers constructeurs mondiaux d'ordinateurs et seulement une société française parmi les 10 premiers mondiaux des semi-conducteurs».

Depuis deux ans, le nombre de créations d'entreprises en France baisse chaque année de 5.000.

M. LAFFITTE, dans son avis sur le budget de la recherche pour 1998, constate de son côté que si la France figure au 4e rang des pays industrialisés pour son effort en recherche et développement technologiques, elle n'occupe que le 22e rang en termes de mise sur le marché de produits ou de prise de brevets d'innovation.

2. Des carences graves

Les carences constatées, en ce qui concerne l'environnement des entreprises innovantes, sont d'ordre culturel et concernent la mobilisation des ressources humaines et financières dont elles ont besoin, ainsi que leurs contraintes fiscales et administratives.

n sur le plan culturel, on l'a vu à propos des valeurs de la société de l'information, le créateur d'entreprises ne bénéficie pas dans notre pays de l'image de héros national qui devrait être la sienne. Les vocations d'entrepreneurs sont trop peu nombreuses et le goût du risque insuffisamment développé, par suite de l'absence de droit à l'échec.

Aux Etats-Unis au contraire -souligne Croissance Plus- « les entrepreneurs de la Silicon Valley affichent leurs créations avortées avec la fierté d'un officier prussien exhibant les cicatrices de ses blessures au combat ».

n concernant les ressources humaines, outre l'insuffisance, évoquée plus haut, du nombre d'entrepreneurs, on peut regretter la quasi inexistence de ce que les Américains appellent des « business angels » issus d'une véritable « seed generation ». Il s'agit d'entrepreneurs qui, après avoir réussi dans la création d'une société de technologie, consacrent leur temps et une partie de leur patrimoine à aider des débutants. Ils constituent pour ces derniers des sortes de parrains ou de modèles.

Malheureusement, les rares personnes qui pourraient jouer ce rôle en France sont trop souvent incitées à émigrer dans des pays plus accueillants pour des raisons, entre autres, fiscales.

Or, « pour fixer les jeunes entrepreneurs en France -observe Croissance Plus- il faut commencer par fixer leurs modèles ».

Un frein important au développement du capital risque dans notre pays -note par ailleurs la même association-, en plus du manque de fonds disponibles, provient de la rareté de gestionnaires de qualité.

L'entrepreneur a besoin, en effet, de s'entourer de cadres ayant appris leur métier dans de grandes sociétés reconnues du secteur. Or, d'une part, il est difficile de trouver sur place des managers possédant les compétences requises (en technologie, marketing, R & D ou finance), du fait de la suprématie américaine dans ces domaines ; d'autre part, les régimes de stock options (26(*)) en vigueur ne sont pas suffisamment attractifs pour inciter une personne à abandonner un poste sûr et bien rémunéré, pour exercer des responsabilités dans une jeune entreprise innovante.

n S'agissant des ressources financières, celles-ci peuvent consister en crédits bancaires, subventions publiques ou dotations en capital.

Ce financement de l'innovation par le crédit trouve vite ses limites dès lors qu'il s'agit d'investissement immatériel. Le CEPME peut néanmoins accorder des prêts, en accompagnement, lorsqu'il y a un programme d'équipement correspondant. Mais en cas d'innovation «de rupture», il doit être fait appel aux fonds propres.

Toutefois, les activités de capital risque ont démarré aux Etats-Unis, sous l'impulsion des banques d'affaires qui s'échangeaient les titres d'entreprises en croissance.

Mais, contrairement à leurs consoeurs anglo-saxonnes, les banques françaises ont toujours semblé réticentes à cet égard, comme en témoigne encore la rareté des projets de création de Fonds commun de placement innovation (FCPI) mis à part ceux des Banques populaires et du groupe ABN-AMRO.

Des risques inconsidérés ont pourtant été pris dans d'autres domaines (ne serait-ce que l'immobilier de bureau), comme l'illustre la déconfiture du Crédit lyonnais.

Des crédits relais seraient pourtant parfois nécessaires pour aider des jeunes entreprises en manque de fonds propres, à surmonter certaines crises de croissance (progression des ventes nécessitant par exemple une forte augmentation du fonds de roulement) ou à passer un cap difficile lorsque leur projet paraît viable et presque sur le point d'aboutir.

Faute de tels prêts et dans l'impossibilité d'augmenter leur capital, de jeunes entreprises -pourtant prometteuses- sont ainsi conduites à la cessation de paiement, les sociétés de capital risque se retirant de leur tour de table au premier problème rencontré.

Néanmoins, les établissements financiers, selon un article paru dans Usine Nouvelle en février1996, contribuent à la croissance des PMI à hauteur de 50 milliards de francs par an (70 milliards en incluant le crédit bail). Mais il ne s'agit pas seulement, loin s'en faut, d'innovation ; cette somme est à comparer avec les 3,5 à 4 milliards de francs par an d'apports de sociétés de capital risque et de capital développement, et avec les 1 à 2 milliards qui devraient pouvoir être récoltés sur le nouveau marché.

Il doit être noté que les banques régionales ou mutualistes (CIC, Crédit agricole, Banques populaires) semblent plus impliquées que les autres.

Concernant les subventions, qui sont un mal parfois nécessaire, les deux principaux instruments disponibles sont, d'une part, le FRT (fonds de la recherche et de la technologie) et, d'autre part, les aides de l'ANVAR (agence nationale de valorisation de la recherche).

Doté pour 1998 de 412 millions de francs en autorisations de programme et de 726 millions de francs, en crédits de paiement, le premier, non affecté, a l'avantage de la souplesse, et tend à être recentré sur les PME-PMI et à encourager les partenariats entre la recherche privée et la recherche publique. Il finance généralement de 30 à 50% du coût des projets concernés et exerce donc un effet multiplicateur. Son montant a beaucoup baissé depuis 1992 où il atteignait 1,4 milliard de francs.

L'intervention de l'ANVAR, elle, se situe principalement dans les secteurs traditionnels et pour un tiers seulement, environ, dans les hautes technologies ; il s'agit alors surtout de création d'entreprises.

En 1996, près de la moitié des 1800-PME-PMI soutenues par l'agence, dans leurs projets d'innovation, étaient des entreprises jeunes, de moins d'un an d'existence, présentant un taux ou un potentiel de croissance élevé. Une minorité importante d'entre elles (42 %) relevaient des secteurs manufacturés et la majorité de celui des services. On ignore quelle est la part des TIC dans cet ensemble.

Près de 400 jeunes entreprises ont ainsi bénéficié d'une aide à la création (pour près de 180MF), 44% des projets correspondants concernant les hautes technologies.

Les aides de l'ANVAR présentent l'avantage pour le contribuable d'être accordées sous la forme d'avances remboursables. L'action de l'agence peut être considérée comme efficace. Elle est largement décentralisée grâce à ses délégations régionales, et s'effectue en réseau et en collaboration avec les ministères de l'Industrie et de la Recherche, ainsi qu'avec les collectivités territoriales et, au niveau européen, avec les partenaires de l'initiative Eurêka.

Cette dernière structure, souple et légère, soutient des projets, proches du marché et émanant des acteurs économiques de base, qui associent des entreprises de plusieurs pays d'Europe. Les technologies de l'information qui représentent plus du quart des nouveaux projets à participation française en 1997, arrivent en tête des secteurs aidés.

L'ANVAR favorise aussi le recrutement de chercheurs par les PME (docteurs, ingénieurs et élèves ingénieurs, universitaires et étudiants) et exerce sa capacité d'expertise, au bénéfice des pouvoirs publics, s'agissant, par exemple, de l'agrément des entreprises innovantes éligibles aux FCPI (Fonds commun de placement pour l'innovation), de la gestion des CORTECHS (Conventions de formation par la recherche des techniciens supérieurs) ou de la labellisation des projets Eurêka à participation française.

Au total, on retiendra cependant la forte baisse, depuis 1992, de la dotation du FRT et le faible montant (44 % de 180MF, soit 79,2 MF) des aides de l'ANVAR à la création d'entreprises de haute technologie.

Concernant les fonds propres, il existe en France une dizaine de fonds de capital risque qui investissent chaque année environ 1milliard de francs dans de jeunes entreprises. Cet effort, pour être proportionné à celui accompli aux Etats-Unis, devrait être au moins cinq fois plus important. 55 milliards de francs sont en effet consacrés chaque année au capital risque en Amérique. Aussi les placements des fonds français devraient-ils atteindre 5 à 7 milliards.

En outre, les investisseurs en capital risque français n'investissent pratiquement jamais au stade de l'amorçage.

Le capital d'amorçage, qui doit associer des « business angels », évoqués plus haut, aux amis et à la famille de l'entrepreneur, est ce qui fait le plus défaut en France.

Les raisons en sont diverses : manque d'une culture d'actionnariat, faiblesse du nombre d'entrepreneurs ayant réussi, propension de ces derniers à émigrer, pour des motifs principalement fiscaux, et à réinvestir, par conséquent, dans d'autres économies.

Contrairement au capital d'amorçage, le capital risque a au moins le mérite d'exister dans notre pays. Mais il n'y bénéficie pas, comme aux Etats-Unis, des ressource stables et abondantes d'une épargne de long terme telle que celle des fonds de pension, malgré quelques velléités (comme nous le verrons plus loin).

Il ne suffit pas, en effet, d'inciter fiscalement les particuliers à investir dans des sociétés non cotées ou d'offrir aux premiers apporteurs la possibilité de sortir du capital des jeunes entreprises, en créant un marché spécifique où sont émis et négociés des titres représentatifs des participations correspondantes.

Certes, les capitaux à risque doivent se voir offrir une certaine mobilité, mais il faut que ce soit surtout des capitaux patients.

Ce n'est qu'à long terme (à un horizon de plus de dix ans) qu'au sein d'un portefeuille diversifié, les gains compensent, à coup sûr, les inévitables pertes. Cependant, dans les établissements très spécialisés, des experts particulièrement compétents s'efforcent de sélectionner rigoureusement les projets à soutenir, dont les chances de réussite sont les plus fortes.

n Concernant, enfin, l'environnement administratif et fiscal des entreprises de croissance en France, il passe - selon Croissance Plus - pour l'un des plus défavorables parmi les pays développés.

Sur le plan administratif, tout d'abord, les services adressent aux PME une demande d'information quasiment identique à celle exigée des plus grands groupes.

En outre, un récent rapport du Plan a recensé pas moins de 113 formes différentes d'aides aux entreprises, parmi lesquelles une trentaine concernent exclusivement la création ou la reprise d'entreprises. Les plus petites d'entre elles semblent proportionnellement très peu aidées. Le guichet unique apparaît comme l'Arlésienne!

D'autre part, le temps consacré par les responsables d'entreprises, candidats à une aide, à traiter la paperasserie administrative est soustrait de celui dévolu aux activités productives. Ces mêmes tâches accaparent souvent aussi, en les détournant de leur mission, les personnes extérieures à la société, dont les conseils en gestion ou en stratégie ont été sollicités.

La peur de franchir des seuils réglementaires, sociaux ou fiscaux, freine ainsi la croissance des très petites entreprises.

La plupart des aides sont conçues, par ailleurs, pour soutenir des investissements lourds alors que l'industrie ne représente que moins de 10% des créations. Il est dès lors difficile de trouver un financement pour les investissements immatériels ou d'un montant modeste, bien que nécessaires .

Mais ce sont les charges sociales et fiscales qui s'avèrent les plus dissuasives : pour une jeune entreprise, de simples retards de paiement de l'URSSAF peuvent avoir des conséquences catastrophiques. La rigidité des procédures de licenciement, longues et coûteuses, est également source d'inhibition. L'échec est lourdement sanctionné : le chef d'entreprise n'a pas droit aux indemnités de chômage, et de simples administrateurs sont susceptibles d'être considérés comme dirigeants de fait et d'être tenus d'éponger les dettes sociales de l'entreprise.

Les modalités de calcul de l'ISF et le régime des stocks options sont par ailleurs peu propices (c'est un euphémisme) à la constitution d'une «seed generation» ainsi qu'à l'engagement personnel, non seulement du temps mais aussi d'une partie du patrimoine, de «business angels», dans l'aide à des entreprises nouvelles.

Notre fiscalité ne comprend pas, enfin, de dispositions susceptibles de faciliter l'appel à des gestionnaires étrangers de qualité (27(*)) ou l'implantation en France de sociétés de technologie étrangères (28(*)).

3. Des mesures partielles qui vont dans le bon sens

La prise de conscience par les pouvoirs publics de l'importance capitale de la création d'entreprises innovantes et surtout les mesures concrètes en leur faveur sont récentes.

Des instruments ont été mis en place par le précédent comme par l'actuel Gouvernement, qui semble en avoir fait l'une de ses priorités, ce dont on ne peut que se féliciter, encore que les mesures prises soient insuffisantes, comme on le verra plus loin.

Une analyse de l'INSEE a mis en évidence, en 1995, un gisement de près de 7.000 entreprises non cotées ayant un chiffre d'affaires de plus de 50 MF et un taux de croissance supérieur à 15 %. Mais, dans la même année, moins de 300 MF étaient investis dans les PME-PMI innovantes, en création ou en démarrage, qui souffraient d'une cruelle insuffisance de fonds propres.

Pourtant, une étude sur l'impact du capital investissements en France (capital développement + capital risque), réalisée en 1996 par l'AFIC et Cooper & Lybrand, démontrait que les performances des PME qui en avaient bénéficié étaient en tout point supérieures à la moyenne (croissance, exportations, emploi, dépenses de R&D, etc.).

Dès lors, un certain nombre d'initiatives tendant au renforcement des fonds propres de ce type d'entreprises allaient être prises bien que certains instruments existent déjà, par exemple :

n quelques rares sociétés spécialisées dans le capital risque et l'investissement dans l'innovation, telles que CDC-Innovation, filiale de la Caisse des Dépôts, ou Finovelec , émanation d'EDF et de l'IDI (Institut du Développement Industriel) ;

n la SOFARIS, qui apporte des garanties aux financements des banques et des sociétés dans ce domaine ;

n sur le plan fiscal, l'un des plus anciens mécanismes, encore en vigueur, tend à inciter, de façon très générale, les entreprises à augmenter leurs activités de recherche-développement. Il s'agit du crédit-impôts-recherche (CIR), institué en 1982 et reconduit pour trois ans à compter du 1erjanvier 1996, moyennant certaines modifications relatives à l'aménagement du territoire (modulation de la prise en compte des dépenses de fonctionnement selon la localisation des activités considérées).

Le CIR consiste en une réduction, voire en une restitution (en cas d'accroissement de l'effort de R&D) de l'impôt sur les bénéfices des sociétés.

Ses principaux avantages tiennent à son caractère stable, général et automatique : l'allégement fiscal est de droit, il est consenti sur simple déclaration, sans autorisation préalable.

C'est donc un dispositif simple et neutre, qui n'implique, en principe, de la part de l'administration, ni ingérence, ni décision à caractère discrétionnaire et discriminatoire. Près de 8.000 entreprises en ont bénéficié en 1996 (dont presque la moitié ont eu droit à une restitution d' IS). Le CIR semble favoriser particulièrement les PME et l'embauche de chercheurs et de techniciens.

Plus récemment, de nouveaux moyens ont été mis en place :

S'agissant du renforcement, hautement prioritaire, des fonds propres des entreprises innovantes, on doit tout d'abord se féliciter de l'ouverture, à Paris, au début de 1996, d'un marché spécifique, analogue au NASDAQ américain, sur lequel peuvent être acquises et échangées des parts du capital des sociétés concernées.

Ces dernières se voient offrir, ainsi, des possibilités de financer leur croissance par des augmentations de capital. Les apports initiaux peuvent s'en trouver encouragés dans la mesure où leurs auteurs peuvent désormais espérer pouvoir se désengager ultérieurement plus facilement du capital de la société créée à l'occasion de son introduction éventuelle sur ce nouveau marché.

La Bourse de Paris a très bien accueilli l'ouverture de ce compartiment de cotation réservé aux entreprises jeunes, innovantes et à fort potentiel de croissance. Le rythme des introductions s'est montré, d'emblée, très soutenu (une vingtaine dans les quatre premiers mois...).

Toutefois, pour relever les défis, il faudrait qu'un marché ayant une base comparable au Nasdaq américain s'installe rapidement sur l'ensemble de l'Union Européenne. Notre base européenne s'appuyant sur quelques 350 millions d'habitants pourrait alors soutenir la comparaison face au Marché américain qui s'appuie sur 265 millions d'habitants.

S'agissant des PME innovantes qui ne sont pas encore susceptibles d'être cotées, la création, en 1997, de fonds communs de placement dans l'innovation (FCPI) devrait permettre une mobilisation en leur faveur de l'épargne des particuliers.

A côté de ces initiatives incontestablement positives, d'autres mesures, à portée plus limitée, tendent à atténuer l'impact éventuellement défavorable de décisions plus discutables.

On peut citer :

n l'exonération des entreprises réalisant moins de 50 MF de chiffre d'affaires de la contribution temporaire sur l'impôt sur les sociétés

n l'assouplissement du régime des FCPI susvisés en ce qui concerne les sociétés éligibles et leurs conditions de détention par des personnes physiques (loi de finances rectificative pour 1997) ;

n l'exemption des parts de fonds communs de placement à risque du régime commun d'imposition des produits de placement des OPCVM (29(*)) de capitalisation (art. 209.0A du CGI résultant de la loi de finances pour 1993) ;

n le principe du non-assujettissement à l'impôt sur le revenu des produits des contrats d'assurance vie investis en titres non cotés ou cotés sur le nouveau marché

n ou, enfin, le report d'imposition des plus-values de cession de droits sociaux en cas de remploi dans les PME nouvelles

Concernant les stock options, il s'agit - comme le souligne Croissance Plus- du seul moyen permettant à de jeunes entreprises innovantes, à potentiel de forte croissance, d'attirer des collaborateurs expérimentés de haut niveau, en leur faisant accepter d'abandonner un poste de responsabilité, bien rémunéré, dans une société solidement établie.

Or, la loi de Décembre 1996, sous prétexte de remédier à des abus réels, a privé ce système de tout son intérêt, en considérant les gains réalisés à travers lui comme un salaire soumis aux charges sociales.

Les effets négatifs de cette législation, d'autant plus malheureuse qu'elle était rétroactive, ne se sont pas fait attendre : délocalisation de créations de sociétés, impossibilité de recruter des collaborateurs étrangers, menaces de démissions ou de levées d'option de cadres, risques de procès intentés par des actionnaires anglo-saxons.

Dans ces conditions, la création, par l'article 50 du projet de loi de finances pour 1998, de bons de souscription de parts de créateurs d'entreprise apparaît comme une heureuse initiative (le prix en est fixé définitivement lors de leur souscription, et le gain net, réalisé lors de leur cession, taxé au taux privilégié de 16 % ou de 30 % si le bénéficiaire exerce son activité depuis moins de deux ans dans la société émettrice).

Les mesures qui viennent d'être décrites vont certes dans le bon sens mais elles demeurent insuffisantes.

4. Les insuffisances qui demeurent

On doit tout d'abord noter que les dispositions tendant à favoriser l'investissement dans les entreprises innovantes sont moins généreuses que celles consenties dans le passé pour le soutien de l'activité d'autres secteurs (construction de logements locatifs, contributions au développement économique de l'outremer, souscriptions en faveur du cinéma ou de l'audiovisuel, régime des quirats de navire).

Ainsi :

n L'avantage fiscal consenti aux souscripteurs de parts de FCPI est soumis à des conditions beaucoup plus restrictives que celles dont étaient assorties les déductions accordées, par exemple, au titre des investissements outre-mer ou des souscriptions de parts de SOFICA (30(*)) ;

n Le seul dispositif des quirats de navire (souscription de parts de copropriété de navires de commerce), supprimé par la loi de finances pour 1998, coûtait à l'Etat environ 2 milliards de francs, soit environ le double du montant total des investissements annuels des fonds de capital risque français.

Or, l'investissement dans les entreprises innovantes représente pour le fisc (et la sécurité sociale) la promesse de rentrées ultérieures importantes au titre des emplois créés (impôts sur le revenu), de la croissance du chiffre d'affaires réalisé (impôt sur les sociétés) et de l'imposition des valeurs mobilières.

Les incitations proposées devraient donc être beaucoup plus fortes et franches qu'elles ne le sont (comme nous le verrons avec les recommandations du chapitre VIII).

Il serait souhaitable, notamment, de prévoir des mesures spécifiques en faveur :

n des «business angels», ces entrepreneurs en activité qui mobilisent une partie de leur patrimoine pour venir en aide à une jeune entreprise (aménagement de l'ISF) ;

n du capital d'amorçage (augmentation des plafonds de réduction d'impôts de l'article 199 terdecies du CGI au titre des souscriptions en numéraire des actions de sociétés nouvelles et non cotées).

Concernant les FCPI, certaines exigences fiscales ne correspondent pas aux réalités des pratiques du capital risque (détention majoritaire du capital par des personnes physiques ; nécessité d'investir, pendant l'exercice même de leur levée, 60 % des fonds rassemblés, ce qui est beaucoup trop bref...). Il conviendrait de faire confiance aux gestionnaires de ces fonds pour l'appréciation du caractère innovant des activités concernées. Il semble, en effet, que ceux-ci ont naturellement tout intérêt à sélectionner des projets de ce type, tandis que les délais nécessaires à leur validation par l'ANVAR risquent de handicaper les FCPI, par rapport aux autres FCPR, dans la constitution de leurs premiers tours de table.

Par ailleurs, il semblerait normal que l'intégralité de ces fonds (et non 60 %) soit investie dans des sociétés non cotées, les sociétés cotées ayant l'avantage, de leur côté, de pouvoir accéder au nouveau marché.

Concernant le Crédit Impôt Recherche (CIR) déjà évoqué, il semble que son esprit initial, fondé sur la confiance faite au contribuable (allégement de droit acquis sur simple déclaration), se trouve perverti par les pratiques de l'administration tendant à déclencher presque systématiquement des contrôles fiscaux auprès des bénéficiaires de cette mesure ou de ses postulants.

Deux priorités importantes semblent, d'autre part, actuellement quelque peu négligées :

n L'appel, tout d'abord, à des personnes qualifiées venant de l'étranger, et particulièrement des Etats-Unis (collaborateurs de jeunes entreprises, experts auprès des établissements spécialisés dans l'introduction sur le nouveau marché ou la gestion de fonds de capital risque), de façon à augmenter la rentabilité des capitaux investis et, partant, les ressources collectées.

n L'orientation de l'épargne longue, ensuite, vers le financement de l'innovation et de la création d'entreprises de croissance : cela suppose d'abord de lever les obstacles réglementaires à l'affectation aux fonds de capital risque des ressources de l'assurance-vie et de les faire bénéficier également, d'autre part, d'une partie du produit des « Fonds de pension à la française ».

Ainsi, les mesures tendant à faire participer davantage la France à l'élaboration des NTIC à travers le soutien à de jeunes entreprises innovantes, s'avèrent très insuffisantes. D'une manière générale, elles manquent d'envergure et de cohérence. Leur caractère restrictif, source de complexité, témoigne d'un manque de confiance dans les forces du marché.

Le repérage des gisements de croissance où il faut investir ainsi que la prise de risque correspondante paraissent être désormais du ressort de l'initiative privée plus que de celui de l'intervention des pouvoirs publics, dans un contexte de diversification et d'accélération des évolutions techniques. Les plus-values fiscales ultérieures résultant de l'essor des activités nouvelles encouragées ont toute chance de dépasser rapidement et très largement le manque à gagner provisoire lié aux exonérations initialement consenties par l'administration.

Lésiner serait donc une erreur. Il faut agir vite, et fort, par des incitations franches et massives.

Dans le domaine de l'aide à l'utilisation des NTIC, des déficiences sont aussi à déplorer.

B) DES DÉFICIENCES CONCERNANT L'UTILISATION
DES TECHNIQUES NOUVELLES

La diffusion de l'utilisation des NTIC dans l'éducation, les entreprises et le grand public est une condition non suffisante (il faut aussi en être des créateurs), mais néanmoins nécessaire à leur contribution à la croissance et à l'emploi.

Cette utilisation, comme on l'a montré et répété, est une des clés de notre compétitivité, de notre rayonnement culturel et de l'harmonie de notre société.

Elle doit être encouragée par des transferts de technologie, des expérimentations, une adaptation des tarifs en vigueur, sans revenir sur l'effort particulier, déjà évoqué dans le chapitre IV, à consentir dans le domaine de l'éducation.

1. Les expérimentations

L'intérêt de l'expérimentation de plates-formes ou de services multimédia est non seulement d'en démontrer la faisabilité en surmontant leurs difficultés techniques, mais aussi de provoquer une sensibilisation du grand public et des utilisateurs potentiels, et de développer des partenariats entre les différents acteurs concernés (opérateurs, services techniques administratifs, entreprises, collectivités,...).

Un élan et des synergies se créent. Des habitudes de coopération et de travail en réseau sont prises.

On se souvient du premier appel à proposition lancé par le Gouvernement, le 25 novembre 1994, suivi d'invitations du Ministère de l'Industrie et de l'ANVAR, ciblées sur les PME-PMI, privilégiant la convivialité et l'ergonomie des services, en février 1996.

La loi du 10 avril 1996 a ensuite facilité, sur le plan juridique, les expérimentations dans le domaine des technologies et services de l'information, notamment en ce qui concerne les réseaux câblés et la diffusion par micro-ondes.

De nombreuses initiatives, on l'a vu, sont prises également à la base, en matière d'éducation. Les netdays, organisés du 18 au 25 octobre 1997, par la commission européenne, dans le cadre de son plan « Apprendre dans la société de l'information » a permis de leur donner une certaine publicité et la « Fête de l'Internet « célèbrée pour la première fois en France les 20 et 21 Mars 1998, en reunissant de très nombreux acteurs du monde Internet a été une occasion privilégiée de faire découvrir aux Français les potentialités des nouvelles technologies de l'information.

2. Les transferts de technologie

Les technologies de l'information et de la communication peuvent faire l'objet de transferts dans le cadre de projets de recherche menées en coopération ou en vue d'améliorer la compétitivité des entreprises sous différents aspects (bureautique, productique, conception assistée par ordinateur ; relations en réseau au sein d'une même société ou avec des clients, fournisseurs, donneurs d'ordre ou partenaires extérieurs ; ouverture de sites Web, etc.).

Concernant l'innovation et la recherche, on tend de plus en plus à passer d'un transfert à une «coproduction» de technologie. L'innovation résulte souvent de coopérations multiples et variées entre des acteurs diversifiés, sans qu'il existe de séparation nette entre émetteur et récepteur de technologie. Les sources peuvent en être multiples.

Comme le note l'observateur de l'OCDE dans son numéro d'août-septembre 1997, les interactions entre institutions, entreprises et autres intervenants concernés sont désormais aussi importantes que l'investissement direct dans la R & D.

« Le progrès technique résulte, dans une large mesure, d'un ensemble de relations entre institutions et personnes générant, distribuant et exploitant des connaissances qu'elles transforment en production à plus forte valeur ajoutée ».

Et plus loin : « Les performances d'un pays en matière d'innovation sont directement fonction de l'efficacité avec laquelle ces éléments diffus sont rassemblés pour déboucher sur un système collectif de création et d'utilisation de connaissances ».

Ainsi les NTIC sont-elles essentielles aux activités de recherche et d'innovation qui s'effectuent de plus en plus sous la forme d'une coopération en réseau entre de multiples acteurs.

L'observateur de l'OCDE confirme, en outre, le point de vue déjà exprimé dans ce rapport sur la nécessité de ne pas se contenter d'utiliser les TIC mais d'en être d'abord des créateurs. Il affirme, en effet, que « les politiques technologiques devraient non seulement encourager la diffusion aux entreprises des équipements et des technologies mais aussi renforcer leur capacité de générer et d'adapter elles-mêmes des technologies ».

Les NTIC sont à la fois objets et instruments, dans tous les secteurs, d'innovation et de recherche.

Le rôle croissant des coopérations et des partenariats rend obsolète le modèle linéaire de la valorisation, par quelques transferts, du stock de connaissances de la recherche publique, même si l'essaimage, à partir de certains établissements publics de recherche, conserve son importance.

Concernant l'utilisation des technologies nouvelles dans les activités courantes des entreprises, le problème, on l'a vu, réside moins dans le taux d'équipement de nos entreprises que dans l'utilisation qu'elles en font (trop souvent encore comme des instruments seulement de gestion et non pas d'échange d'informations).

Il apparaît souhaitable, comme le souligne M. Laffitte dans son avis sur le budget de la recherche pour 1998, de mieux coordonner l'offre très hétérogène de services de transferts de technologie aux PME. Outre l'ANVAR, interviennent en effet, dans ce domaine, les ARIST (Agences Régionales d'Information Scientifique et Technique), les CRITT (Centres Régionaux d'Innovation et de Transfert de Technologie) et bien d'autres organisations.

Les pouvoirs publics ont ajouté à cet ensemble des centres de ressources technologiques (CRT), labellisés par une commission nationale, qui ont pour vocation d'effectuer de réelles prestations technologiques sur mesure (distinctes de simples conseils) au profit des PME.

C) LA TARIFICATION

Longtemps les tarifs pratiqués par France Télécom ont semblé constituer un frein au développement de l'utilisation des NTIC dans notre pays.

Les offres de notre opérateur national paraissaient à la fois :

n atypiques du point de vue des particuliers, en ce qui concerne la répartition entre l'abonnement (moins cher, en moyenne, qu'à l'étranger) et les communications (plus onéreuses, surtout pour l'international) ;

n dissuasives, s'agissant par exemple des liaisons louées à haut débit (2 Mbits/s), deux fois plus coûteuses en France qu'au Royaume-Uni et dans les pays scandinaves (selon le rapport Miléo) ou de la facturation à la durée des services Minitel, par rapport aux conditions d'utilisation d'Internet aux Etats-Unis où les communications locales sont gratuites.

Mais, avec l'arrivée de la concurrence et devant les possibilités offertes par l'explosion, incontournable, de l'utilisation d'Internet, France Télécom a complètement changé de stratégie et renouvelé ses propositions tarifaires.

Ainsi, pour la seule année 1997, on a assisté à de nombreux et profonds aménagements :

n En contrepartie d'une hausse du prix de l'abonnement principal (de 45 à 68 F, ce qui demeure un des niveaux les plus bas d'Europe), celui des communications nationales a été réduite de 17,5 % en moyenne, en mars 1997, et celui des appels internationaux de 20 % globalement. Une nouvelle baisse d'environ 20 % concernant les deux sortes d'appels est intervenue à la fin de l'année 1997.

Mais Cegetel annonçait le 26 novembre 1997 des prix de 10 % à plus de 60 % inférieurs à ceux de France Telecom et ce à partir du 1er Février 1998.

n L'opérateur national poursuit également une politique de tarification sur mesure (modulation des couples abonnement-communications en fonction du profil de consommation) et de simplification à laquelle l'exemple américain a montré que les usagers étaient sensibles (réduction du nombre de plages horaires et tarifications à la seconde au-delà d'un crédit de temps de connexion).

n Au début 1998, un abonnement social a été ouvert au profit des personnes en difficulté.

n S'agissant du trafic de données qui explose littéralement (+ 200 % en 1997, + 40 % pour le seul réseau Transpac en 1996), les tarifs des liaisons louées ont été divisées par quatre en quatre ans, pour les distances comprises entre 50 et 100 km ; d'autre part, le prix de l'utilisation des voies à 64 Kbits/s de Numéris a été aligné sur celui des appels téléphoniques.

n Concernant enfin les réseaux multimédia, le prix d'abonnement aux services Wanadoo a baissé de près de 35 % en décembre 1997 (de 145 F à 95 F par mois pour une utilisation illimitée, ce qui situe France Télécom dans le bas de la fourchette, un peu au dessus de Club Internet du groupe Lagardère ou de Havas On Line).

L'offre Wanadoo devrait inclure, à la fin du premier trimestre 1998, l'accès aux chaînes de Microsoft Network. Le géant de Seattle semble ainsi se désengager des prestations d'accès tout en continuant à développer des contenus grand public et des services pratiques.

Au total, le téléphone fixe, qui doit s'ouvrir à la concurrence en 1998, représente encore plus de la moitié (54 %) de l'ensemble du marché européen des services de télécommunications.

La rapidité de la baisse des tarifs de France Telecom s'explique en partie par une volonté de dynamiser la croissance du trafic afin d'éviter que l'arrivée de nouveaux concurrents n'affecte trop fortement les résultats de ses activités (plus l'augmentation du trafic sera forte, plus il sera facile d'en répartir le bénéfice entre tous les acteurs sans qu'il y ait de perdants).

La guerre des prix entre opérateurs de services fixes de télécommunications, à l'approche de l'échéance de 1998, ainsi que le démarrage du marché des mobiles à compter de l'entrée en lice d'un troisième acteur, Bouygues, illustrent s'il en était besoin, les bienfaits de la concurrence pour la prise en compte de l'intérêt des consommateurs et la croissance des activités concernées en général.

Beaucoup dépend, sur ce plan, des décisions de l'ART (Agence de Réglementation des Télécommunications) et de la coordination des fréquences, allouées par le Premier Ministre, sur l'autorisation du CSA ou sous le contrôle de l'ANF (Agence Nationale des Fréquences), s'agissant des transmissions radioélectriques qui peuvent être utilisées pour la boucle locale.

L'ART, pour sa part, a jusqu'ici fait preuve de compétence et d'impartialité dans les décisions qu'elle a eu à prendre (décret sur l'interconnexion des réseaux, évaluation du coût du service universel, distribution des numéros d'identification, arbitrage du différent entre la Lyonnaise et France Telecom au sujet de l'accès à Internet par les réseaux câblés). Mais il lui reste d'autres questions délicates à trancher (définition précise de ce qu'est un appel local ou national, problème de la fourniture du service téléphonique sur les réseaux câblés...).

Au total, l'environnement relatif à l'utilisation des TIC a certes été rendu plus concurrentiel, ce qui est positif, mais le dispositif de régulation prévu est critiquable sur certains points (manque d'indépendance de l'ANF, insuffisance de moyens techniques du CSA, risque de chevauchements de compétences ou de conflits de décisions entre l'ANF, le CSA et l'ART).

Une autorité unique, du type FCC américaine, aurait été mieux adaptée à la convergence constatée entre les télécommunications, l'audiovisuel et l'informatique.

*

* *

Au moment de clore ce chapitre, deux citations me reviennent à l'esprit :

« Laissez-les faire, voilà le seul, l'unique principe ». (Turgot)

« Une aide intelligente de l'Etat consiste à amender le terrain des créateurs d'entreprises ». (P. Brûlé)

Pour pousser plus loin la métaphore horticole, il me semble que l'ère des Le Nôtre, voulant ordonner le paysage économique comme un jardin à la française, selon de vastes plans, longtemps mûris, est révolue.

Le climat et la végétation ne s'y prêtent plus, le foisonnement d'espèces, à la croissance et au renouvellement accélérés, domine.

Au siècle de Louis XIV, on prétendait domestiquer non seulement la nature mais aussi l'industrie.

Ni l'un ni l'autre ne sont désormais possibles.

Au dirigisme fondé sur l'arrogance des élites technocratiques et la défiance vis-à-vis de l'innovation et du marché, il convient de substituer la confiance dans les initiatives fondées sur l'anticipation de nouveaux ajustements entre l'évolution de l'offre de technologies et celle de la demande du public.

Il faut accepter l'idée qu'il ne peut y avoir ni croissance ni emploi, sans un minimum d'adaptations, d'audace et de prise de risque de la part des entreprises, que leur environnement administratif et fiscal doit favoriser.

Cela ne condamne pas pour autant toute intervention publique. l'Etat a le droit d'avoir sa politique et sa propre vision à long terme, mais son action doit se concentrer essentiellement sur :

n l'aide aux entreprises innovantes (qui commence par la levée des obstacles et par le renforcement des incitations de toutes sortes à la réalisation de cet objectif) ;

n le soutien à l'éducation, à la recherche, à l'essaimage d'activités à partir d'établissements publics scientifiques et techniques ;

n la participation à la sensibilisation du grand public, aux expérimentations nécessaires ;

n l'encouragement au regroupement des initiatives, à la mise en commun des efforts ;

n la démocratisation de l'accès aux TIC ;

n enfin, une utilisation exemplaire des nouvelles technologies pour la modernisation des administrations et l'amélioration de l'efficacité avec laquelle elles remplissent leurs missions.

*

* *

Il faut bien que les responsables de notre Pays prennent pleinement conscience que l'Etat doit savoir se recentrer sur ses missions régaliennes, où il doit être fort et respecté, mais qu'il ne sera plus, dans la Société de l'Information qui prend son essor, un acteur majeur dans les combats de titans qui s'annoncent.

Ainsi, l'annonce faite le 9 Mars 1998 d'une absorption d'Havas, et donc de Canal + par la Compagnie Générale des Eaux (qui dans quelques mois changera de nom) restera dans l'histoire comme un événement ouvrant une ère nouvelle.

En effet, dans des domaines où l'Etat était encore, hier, omnipotent, cette « mégafusion » a donné naissance à un acteur majeur qui sera présent aussi bien dans le domaine des télécommunications (Cégétel), de l'audiovisuel (Canal + et Canalsatellite) que dans le domaine des contenus (Havas et la myriade d'entreprises gravitant dans son environnement).

Ce nouveau Groupe mondial a déjà noué des alliances avec AOL et Bertelsmann, ce qui annonce une offensive majeure dans le domaine d'Internet qui est le protocole qui, très vite, va fédérer l'audiovisuel et les télécommunications.

Pour y faire face, France Telecom, Suez-Lyonnaise des Eaux et Bouygues sont aussi à la recherche d'alliances avec des partenaires nationaux ou internationaux et ce avec un effacement de plus en plus rapide de l'Etat qui ne va présenter qu'une Loi très réduite sur l'Audiovisuel.

Alors que dans les années 1980 encore, rien ne pouvait se faire, en France, dans les domaines majeurs de l'audiovisuel et des télécommunications sans une lourde intervention de l'Etat, chacun peut mesurer le chemin parcouru en quelques courtes années...

Et nous n'en sommes qu'au début !

* (20) DEC a été lancé, en 1965, avec 70.000 dollars de capital et Apple, en 1977, avec 350.000 dollars.

* (21) Le remplacement inopportun de l'or par du cuivre sur les contacts des circuits imprimés et les ennuis qui vont s'ensuivre coûteront 500 MF.

* (22) France Telecom succède à la DGT en tant qu'exploitant public à statut particulier, à partir du 1/01/91, la loi de 1990 ayant séparé les fonctions d'exploitation et de réglementation des télécommunications

* (23) Lois de juillet et de décembre 1990.

* (24) Les ressources du réseau moderne de l'Ouest alimentent directement les investissements à l'Est. Deux types d'opérateurs privés interviennent dans les domaines de la téléphonie cellulaire et des télécommunications par satellite.

* (25) Cette norme est compatible à la fois avec celle du Minitel et le protocole Internet. Elle permet de créer des services multimedia ou d'introduire des fonctionnalités Minitel, accessibles sur n'importe quel terminal à travers n'importe quel réseau.

* (26) Options de souscription ou d'achat d'actions à levée différée.

* (27) Pour les fonds de capital risque immatriculés à l'étranger, les « carried intérêt » (pourcentage des gains) des gestionnaires sont considérés non comme une plus-value mobilière mais comme des salaires soumis à l'impôt sur le revenu et aux charges sociales

* (28) Oracle, IBM, HP ont installé leur centre de support technique en Irlande et aux Pays-Bas ; Microsoft a choisi Cambridge.

* (29) Organismes de placement collectif en valeurs mobilières : les entreprises qui en détiennent des parts doivent inclure dans leurs résultats imposables l'écart entre la valeur liquidative de ces parts à l'ouverture et à la clôture de l'exercice.

* (30) FCPI : 25 % du montant investi dans la limite de 75.000 F pour une personne, 150.000 F pour un couple. SOFICA (Soutien au financement des Industries du Cinéma et de l'audiovisuel) : 25 % du revenu net global sans plafond.

Investissements outre-mer : montant hors taxe, diminué du montant des subventions, intégralement déductibles.