Allez au contenu, Allez à la navigation

L'Europe au secours de l'Internet : démocratiser la gouvernance de l'Internet en s'appuyant sur une ambition politique et industrielle européenne

8 juillet 2014 : L'Europe au secours de l'Internet : démocratiser la gouvernance de l'Internet en s'appuyant sur une ambition politique et industrielle européenne ( rapport d'information )

C. CONSTRUIRE UNE STRATÉGIE INDUSTRIELLE EUROPÉENNE POUR MAÎTRISER NOS DONNÉES ET PORTER NOS VALEURS

« Régulation appropriée [...], mais aussi recherche de la masse critique : tels sont les deux enjeux en matière industrielle. » Ce propos tenu par M. Vincent Champain, directeur des opérations de General Electric France, devant votre mission résume à lui seul les impératifs majeurs d'une stratégie industrielle européenne en matière de numérique.

Par régulation appropriée, il faut entendre un dispositif de protection des données qui intègre pleinement la dimension économique du secteur du numérique, et qui adapte donc sa méthodologie aux évolutions qu'impose le big data.

Votre mission recommande de traiter les flux de données de façon réaliste et équilibrée, à la fois comme un enjeu fondamental en termes de protection des droits et libertés personnels, mais aussi comme une ressource dont l'accès est indispensable pour permettre à nos entreprises d'innover en proposant des services adaptés et personnalisés, susceptibles de dégager de la valeur ajoutée.

Le deuxième impératif en matière industrielle consiste donc à rechercher une échelle de développement plus vaste, qui permette à nos entreprises de dépasser leur « pré-carré » national et de bénéficier de l'ensemble du marché européen. Ainsi que l'a fait remarquer M. Vincent Champlain, « l'Europe est performante en matière d'innovation [...] mais elle n'a pas su rechercher la masse critique ». Un tropisme européen nous porterait « trop souvent à rechercher des solutions nationales [...]. Ainsi, les pôles de compétitivité sont beaucoup plus petits en Europe qu'aux États-Unis ou au Japon, parce qu'ils sont disséminés dans de nombreux États membres. Nous manquons, de ce point de vue, d'une véritable stratégie industrielle à l'échelle européenne. Des pôles d'échelle européenne seraient, au reste, les interlocuteurs adéquats dans la recherche de l'équilibre entre protection des libertés publiques et capacité de développement de nos industries. »

Cette recherche de la masse critique pourrait passer par différents vecteurs. Le premier d'entre eux serait la mise au point de normes industrielles communes, qui puissent éventuellement devenir des références mondiales dans un second temps, comme cela a été le cas pour la norme GSM en matière de téléphonie mobile.

Le second instrument qui permettrait de fédérer les compétences nationales dans l'Internet et, plus largement, le numérique, serait le lancement de véritables initiatives industrielles communes. Les réussites qu'ont constitué, dans les secteurs de l'aviation et de l'espace, Airbus et Arianespace, doivent servir d'exemples à cet égard, même si la comparaison du numérique avec Airbus est délicate, l'Internet ne présentant pas du tout les mêmes barrières à l'entrée que l'aéronautique. Ces deux succès industriels, où « l'ambition a précédé l'organisation et l'a structurée », montrent l'importance d'une impulsion forte au niveau européen. Ils révèlent également la nécessité d'une réflexion se plaçant dès le départ au niveau mondial, ce qui est le cas dans la communauté scientifique et chez certains industriels, mais « ce qui n'est pas le cas des régulateurs, de l'administration, voire des parlementaires, qui en restent à une logique plus nationale », poursuit M. Vincent Champain.

Par ailleurs, l'Europe dispose d'un atout sur lequel elle peut fonder et promouvoir des solutions industrielles communes : le respect de principes juridiques protecteurs pour les libertés individuelles, et la confiance que cela peut susciter chez les clients et acheteurs potentiels. Le haut standard européen de protection des données doit servir de base à notre politique industrielle. Ainsi que l'a rappelé M. Philippe Lemoine devant votre mission, l'affaire Snowden a suscité des inquiétudes réelles dans les milieux d'affaires, auxquelles les entreprises européennes sont en mesure de répondre. « Les grands patrons soulignent combien il est important de créer la confiance - la loi informatique et libertés peut être, pour nous, un atout », a-t-il souligné.

1. Catalyser l'industrie européenne du numérique autour d'une ambition affichée

La politique européenne en matière d'industrie du net a consisté, jusqu'à aujourd'hui, à créer et mettre en place un écosystème qui soit acceptable pour l'ensemble de ses acteurs. À cette démarche, qui doit être poursuivie, doit s'en ajouter une nouvelle, consistant à soutenir nos entreprises sur les marchés extérieurs, comme le font nos principaux compétiteurs internationaux (États-Unis, Japon et Chine, notamment).

a) Définir une véritable politique industrielle transversale au service du numérique

La première priorité pour l'Europe et pour la France doit être de capitaliser sur les domaines dans lesquels elles occupent une place de leader. Ces champs d'activité sont bien plus nombreux et importants, dans le secteur du numérique, que ce que l'on peut croire.

· À l'échelle nationale

Le rapport de la commission « innovation 2030 » présidée par Mme Anne Lauvergeon216(*) pointe les forces de notre pays en matière d'innovation. Cinquième puissance mondiale, la France se classe onzième en matière d'innovation. Elle bénéficie d'une population au niveau de formation élevé, d'une recherche publique de qualité, d'un tissu productif important et diversifié, d'un réseau d'infrastructures développé, d'incitations fiscales favorables à travers le crédit d'impôt recherche (CIR)...

De façon plus sectorielle, notre pays peut compter sur des domaines d'excellence reconnus à l'échelle mondiale. Ainsi que le mentionne très explicitement le rapport, la France abrite « plusieurs sociétés de niveau international, notamment dans le domaine de l'Internet des objets (Withings, Sigfox, Parrot...) qui n'ont rien à envier à leurs concurrents, ou encore des sociétés comme Critéo dans le domaine du ciblage publicitaire, qui est l'un des champions mondiaux, avec une taille déjà très significative. Plusieurs grands groupes sont leaders de sous-segments (Dassault Systèmes, Gemalto, Ingenico, Morphosytèmes...) ».

Ces succès interviennent dans une économie qui a radicalement changé d'aspect, étant passée d'un modèle planifié et centralisé à un modèle réticulaire et décentré où l'initiative « part du bas ». Ainsi que l'a expliqué M. Roberto di Cosmo, professeur d'informatique à l'Université Paris-VII, directeur de l'initiative pour la recherche et l'innovation sur le logiciel libre (IRILL), « dans les industries plus anciennes [...], le besoin d'investissement initial et de temps sont très importants, ce qui convient à une stratégie jacobine où l'on décide de concentrer les moyens sur une technologie donnée. Dans le domaine d'Internet, la barrière à l'entrée est très faible, et cette stratégie ne peut plus fonctionner. » C'est donc la fluidité dans l'accès au réseau qui est la condition d'une innovation abondante et fructueuse.

Les pouvoirs publics doivent donc assurer le respect de cette liberté d'accès au réseau, en garantissant sa neutralité217(*), mais aussi aller au-delà, en adoptant une véritable politique industrielle. « Alors que l'État s'est engagé dans un partenariat stratégique avec les industriels en matière de défense ou d'aéronautique, rien de tel dans le domaine du numérique », regrette à cet égard M. Loïc Rivière, vice-président du comité stratégique de la filière numérique (CSFN).

À cet égard, il nous faudra rompre avec une tendance nationale à protéger d'anciens modèles économiques au détriment de nouveaux, plus innovants, tendance qui nous place aujourd'hui en situation de dépendance numérique envers les États-Unis. Plusieurs exemples illustrent ce travers : notre réticence à adopter l'Internet, pourtant initié par des chercheurs français mais perçu comme un produit américain, par opposition au Minitel, dont le modèle économique centralisé était stable et bien maîtrisé ; la stigmatisation, par ailleurs, du téléchargement en pair-à-pair au profit de modes plus classiques de diffusion des contenus audiovisuels, alors que nous possédions des sociétés précurseurs en ce domaine, comme Azureus/Vuze, Wizzgo, Dailymotion et Deezer.

Bien que de nature différente, ces deux cas soulignent la reproduction d'une même erreur consistant à assurer la survie artificielle de technologies dépassées et à refuser de nouveaux modèles économiques en rupture. Dans le contexte globalisé que présente l'Internet aujourd'hui, un tel repli sur notre « pré-carré » industriel n'est plus adapté, tout service étant accessible depuis n'importe quel pays. Une attitude défensive se traduit, dans ce cas, par des pertes d'emploi et de recettes sur notre territoire, une grande difficulté à appréhender par la loi des services alors émis de l'étranger, une absence de garanties pour des données hébergées dans des pays tiers ou encore un risque de dépendance envers un quasi-monopole lorsque le marché est absorbé par une seule société basée à l'étranger.

Pour autant, notre pays n'a pas déserté le secteur de l'industrie, ni celui du numérique, et reste capable d'un certain volontarisme et d'une approche ouverte en la matière. L'annonce, au mois de septembre 2013, par le Président de la République, de la définition de 34 grands plans industriels illustre ainsi la détermination du Gouvernement à soutenir les innovations françaises dans les secteurs d'avenir. Associant acteurs publics et entreprises, pilotés par un industriel ou, à défaut, par un pôle de compétitivité, ils doivent permettre de développer d'ici cinq à dix ans une offre de produits nationaux adaptée aux marchés les plus porteurs.

Le numérique occupe une place de choix dans ce « chantier industriel » mis en place par le Gouvernement, puisque 16 des 34 plans
- soit quasiment la moitié - sont en rapport direct avec ce secteur : big data, cloud, objets connectés, « réalité augmentée », logiciels et systèmes embarqués, services sans contact, e-éducation, hôpital numérique, cybersécurité, nanoélectronique, robotique, supercalculateurs, véhicule à pilotage automatique, réseaux électriques intelligents et souveraineté des télécoms.

Mais au-delà de cette logique relativement sectorielle, il importe de poursuivre des politiques transversales en faveur de l'économie numérique. En effet, comme le note M. Loïc Rivière, « tout inviterait à considérer qu'une stratégie de filière, qu'une politique industrielle dédiée au numérique n'aurait pas de sens ». La notion même de « filière numérique » ne lui paraît d'ailleurs « pas très opératoire dans le contexte de transformation numérique globale, insuffisant, en tout cas, pour définir des politiques publiques de ré-industrialisation ».

Ces politiques transversales passent nécessairement par le soutien à la R&D et à l'innovation. La commission « innovation 2030 » propose à cet égard de « reconnaître, au plus haut niveau, l'existence d'un principe d'innovation, équilibrant le principe de précaution, yin et yang du progrès des sociétés ». Il se traduirait notamment par « l'acceptation du risque dans les décisions pour aboutir à des choix pondérés mais aussi par une évaluation régulière » qu'elle préconise de confier à l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST).

On notera à ce sujet que le Sénat a adopté, le 27 mai dernier, une proposition de loi de notre collègue Jean Bizet visant à modifier la Charte de l'environnement pour exprimer plus clairement que le principe de précaution est aussi un principe d'innovation, sa bonne application reposant en effet sur le développement des connaissances scientifiques, la diffusion des résultats de la recherche, la transparence et le débat218(*).

Il conviendrait également de conforter le dispositif français d'appui à l'export. Selon le rapport de la commission « innovation 2030 » précité, « le marché intérieur français, souvent mature et d'une croissance modeste, est de taille insuffisante pour amortir des investissements importants », même à l'échelle des PME et ETI. Face à ces limites, « les entreprises doivent donc impérativement « jouer mondial » pour grossir vite et avoir une chance de devenir des leaders ». Mme Gabrielle Gauthey, vice-présidente d'Alcatel-Lucent, présidente de la commission innovation du Mouvement des entreprises de France (Medef), a ainsi dit prôner « depuis des années une réforme du système français de soutien à l'exportation, [...] bien trop centré sur l'industrie, et pas assez sur la recherche et le développement ». Les Allemands, les Belges ou les Suédois, a-t-elle indiqué, prennent mieux en compte la contribution à la balance commerciale, à l'emploi, ou encore la R&D. L'Inspection des finances conduit toutefois une mission sur le sujet, dont des améliorations sont attendues.

Proposition n° 26 : réorienter le dispositif national de soutien à l'export sur le soutien à la R&D et à l'innovation pour les PME et ETI du secteur numérique.

· À l'échelle européenne

Le retard de l'Europe dans les secteurs de la high tech, exposé par ailleurs219(*), plonge ses racines dans « l'absence, depuis quinze ans, de politique industrielle », ainsi qu'a pu l'exposer à la mission M. Hervé Collignon, co-auteur d'un rapport d'A.T. Kearney sur la place des industries européennes dans les TIC220(*) : « Les Chinois, les Coréens et les Américains bâtissent des plans stratégiques à 10 ou 15 ans, avec une stratégie industrielle nationale assumée. Ce n'est pas forcément le cas en Europe. »

L'analyse du CNNum, livrée à votre mission par son secrétaire général, M. Jean-Baptiste Soufron, a été identique : « On distingue mal ce que sont les priorités de l'Europe. Les grands acteurs européens du numérique ont eu du mal à survivre ces cinq dernières années, même s'il en reste quelques-uns comme Deezer ou Spotify, qui va vers une entrée en bourse, Criteo, cotée au Nasdaq. [...] Ce qui manque cependant, c'est une vision stratégique à moyen et long terme, pour définir quelles entreprises européennes pourraient travailler ensemble. »

Dans son rapport intitulé L'Union européenne, colonie du monde numérique, votre rapporteure avait longuement souligné ce « défaut de stratégie politique » de l'Europe en matière d'industrie numérique. Elle avait certes relevé certains éléments positifs, comme la création en 2004 d'un poste de commissaire européen en charge du numérique ; la communication sur la politique industrielle publiée en octobre 2012 à l'initiative du commissaire Tajani, en charge de l'industrie, évoquant publiquement la nécessité d'un projet industriel en matière numérique ; ou encore les inflexions positives de la commissaire Mme Neelie Kroes, illustrées par la communication de la Commission européenne du 18 décembre 2012 qui actualise la stratégie numérique de l'Union.

Malgré cela, votre rapporteure déplorait que « l'impulsion reste en fait difficile à donner pour concrétiser les ambitions affichées par l'Union européenne dans sa stratégie numérique », pointant notamment certaines limites institutionnelles, telles qu'un mauvais fonctionnement du mécanisme de coordination interne à la Commission, ou encore la persistance de cloisonnements en son sein, « empêchant d'appréhender les enjeux numériques de manière transversale ».

La définition d'une politique industrielle européenne apparaît effectivement indispensable pour « remonter la pente » et reconquérir les places perdues. À cet effet, selon M. Hervé Collignon, « un plan d'ensemble à l'échelle européenne devrait définir les domaines d'investissement prioritaires, en concertation avec les associations et les industriels, pour tenir compte à la fois des demandes des citoyens en matière de santé, de transports, d'éducation, et des exigences de développement de secteurs économiques où l'Europe est déjà forte, comme l'automobile, les industries de process, les télécoms, les institutions financières, afin d'orienter les investissements vers la transformation à venir de ces secteurs ».

La France et l'Allemagne, qui jouent un rôle moteur dans la dynamique européenne et sont dotées chacune d'une solide industrie du numérique et des technologies innovantes, sont appelées à occuper les premières places et à montrer l'exemple. Et ceci même si l'expérience de certains projets industriels franco-allemands a pu laisser une impression d'inachevé, tels que Quaero, un programme d'analyse automatique et d'enrichissement de contenus numériques, ou encore Galileo, le projet de système de positionnement par satellites alternatif au GPS.

Nos deux pays seraient voués naturellement à se rapprocher dans ce domaine, en prenant l'initiative d'une politique plus intégrée de développement du secteur numérique. Le Conseil national du numérique (CNNum) a ainsi plaidé, par la voix de son secrétaire général, M. Jean-Baptiste Soufron, pour la mise en place d'une « CECA du numérique », par analogie avec la première politique commune qui, dès le début des années 50, avait soutenu massivement les industries européennes du charbon et de l'acier. Ce « noyau dur » permettrait de travailler « main dans la main avec quelques pays, pour pousser ensuite les feux au niveau de l'Europe toute entière ».

Proposition n° 27 : faire émerger, à l'initiative de la France et de l'Allemagne, une véritable politique européenne de l'industrie numérique définissant les champs d'investissement à moyen et long terme, et mobilisant les instruments permettant de les atteindre.

Les élections européennes du mois de mai ont été une excellente occasion pour mettre en lumière le « besoin d'Europe » dans ce secteur du numérique. Le Forum numérique européen, groupe de réflexion mis sur pied au début de l'année, a publié en ce sens une lettre ouverte aux candidats à la présidence de la Commission européenne. Il y encourage les candidats à inclure dans leur campagne électorale un agenda clair et ambitieux en faveur de l'économie numérique. Cela doit passer par une stratégie transversale, précisent-ils, « car c'est l'économie dans son ensemble qui est devenue numérique ».

Par ailleurs et toujours dans cette perspective d'accroître le poids de l'industrie européenne du numérique, il conviendrait de « créer des conditions de concurrence équitables pour les entreprises européennes sur le marché mondial ». Cela requerrait la définition d'un véritable « level playing field », c'est-à-dire d'un environnement dans lequel toutes les entreprises d'un marché donné sont traitées de façon identique - s'agissant des règles de subventions, d'aides d'État et de normes anti-dumping. Mme Gabrielle Gauthey, voyant là une condition sine qua non à la revitalisation des équipementiers européens, a insisté devant votre mission sur ce point. Il vaut d'ailleurs pour nombre d'autres secteurs industriels où nos entreprises souffrent d'une asymétrie des conditions concurrentielles par rapport à des acteurs tiers.

Cette recherche d'un « terrain de jeu » équitable avec les pays tiers les plus concurrentiels doit s'entendre également d'une possibilité pour les acteurs européens de se rapprocher sans se voir entraver par des règles plus sévères que celles qui existent par ailleurs. Début mai, la chancelière allemande, Angela Merkel, a ainsi appelé à ce qu'« un équilibre [soit] trouvé entre puissance sur le marché et concurrence », et ce pour que les entreprises européennes « puissent marquer des points au niveau international »221(*). Soulignant que la Chine avait trois grands fournisseurs de télécommunications alors que l'Union en a 28, elle a expliqué que, lorsque l'un d'eux cherchait à s'agrandir, la législation européenne en matière de concurrence menaçait de le bloquer. Durant sa campagne pour l'accession à la présidence de la Commission européenne, le candidat du Parti populaire européen (PPE) M. Jean-Claude Juncker, s'est engagé en ce sens à « repenser l'application de nos règles de concurrence dans le marché du numérique ».

Plus récemment encore, l'approche de la Commission européenne tendant à imposer aux opérateurs mobiles souhaitant fusionner des cessions d'infrastructures à titre compensatoire a été contestée par les autorités nationales de la concurrence et certains opérateurs, voire par la chancelière allemande222(*). Pour les autorités de la concurrence allemande, irlandaise, autrichienne, italienne et britannique, cela remettrait en cause l'investissement dans la 4G et contraindrait de facto les opérateurs à augmenter leurs prix. Et en tout état de cause, les régulateurs nationaux conservent le pouvoir d'imposer des corrections ex post, si des ententes concurrentielles voyaient le jour.

Votre rapporteure, dans son rapport intitulé L'Union européenne, colonie du monde numérique, appelait également à « instaurer un tel débat proprement politique autour de la mise en oeuvre de la politique de concurrence ». Elle y relevait l'approche globale mise en oeuvre par les États-Unis, où « la politique antitrust n'est pas déconnectée de la politique industrielle ». Intégrant en outre les enjeux culturels, elle y proposait ainsi d'« encadrer la politique de la concurrence par des objectifs politiques (sécurité des réseaux, maîtrise de ses données par l'Union européenne, diversité culturelle, neutralité du net, promotion de l'industrie européenne du numérique...) ».

Proposition n° 28 : inciter la Commission européenne à concilier les règles de concurrence européennes dans le secteur numérique avec une ambition de puissance industrielle favorisant l'émergence de « champions européens ».

b) Favoriser la constitution d'un tissu industriel de PME et d'ETI du numérique et faciliter leur financement

Le secteur du numérique a été fortement marqué par le développement, à la fin des années 90, des « jeunes pousses » ou « start-up », jeunes entreprises à fort potentiel de croissance faisant l'objet de levées de fonds. Proliférant dans les technologies de l'information et de la communication (TIC) - alors qualifiées de « nouvelles » -, ces entreprises « dot com » (c'est-à-dire en « .com ») recherchaient une entrée rapide en bourse et promettaient des profits substantiels.

Issu des États-Unis, ce modèle y a donné lieu aux plus belles réussites du secteur du numérique, et ce en des délais extrêmement courts. Les « GAFA » (à l'exception d'Apple), mais aussi Yahoo, eBay, Twitter, qui toutes ont commencé comme des « start up », n'existaient pas il y a vingt ans. Si l'on remonte un peu en arrière, des entreprises comme Intel, Microsoft ou Apple ont également connu une telle évolution.

En France, de beaux succès ont également été enregistrés, avec des entreprises comme Free, PriceMinister, Pixmania, Meetic, Dailymotion ou Deezer, qui datent d'une quinzaine d'années pour les plus anciennes et ont revêtu à l'origine la forme de « start up ».

La tentation serait donc grande de vouloir favoriser l'émergence de nouvelles « start up » nationales dans le numérique, qui viendraient concurrencer les leaders mondiaux du secteur. Il n'est pas évident, cependant, que cette stratégie soit aujourd'hui la plus opportune. En effet, le risque d'échec de ce type d'entreprises est élevé, du fait de leur petite taille et de leur manque de visibilité sur des marchés ayant déjà atteint une forme de maturité.

Comme l'a souligné devant votre mission M. Nicolas Colin : « Quand tout, hier, était ouvert, le paysage est aujourd'hui dominé par de grands géants qui ont franchi la barre, souvent grâce à la bulle spéculative des années 1990, et se trouvent en position dominante sur des marchés globaux. Nos dirigeants politiques, nos industriels doivent prendre cette nouvelle donne au sérieux. On n'a plus affaire à de jeunes gens qui bricolent dans leur garage, mais bien à des capitaines d'industrie qui jouent en calculant plusieurs coups à l'avance sur le grand échiquier de l'économie mondiale. »

Mais l'obstacle le plus important réside sans doute dans le risque de prédation des « start up » par des acteurs étrangers, comme l'ont montré devant votre mission MM. Pierre Bellanger et Loïc Rivière. Les grands acteurs américains du secteur ont en effet tendance à voir dans ces structures légères, qu'ils peuvent facilement racheter, un moyen d'externaliser leur R&D sur le territoire européen, en y profitant d'un environnement fiscal favorable, à travers le crédit impôt recherche, mais aussi une main d'oeuvre extrêmement qualifiée et créative.

Ainsi que le constate M. Loïc Rivière en effet, « il semble que nos PME qui réussissent n'aient d'autre avenir que d'être absorbées par des grands groupes américains : la France serait-elle devenue une « terre d'externalisation de la R&D » pour ces grands groupes ? Ce serait inquiétant, car cela sanctionnerait notre incapacité collective à créer des champions industriels de classe mondiale ; c'est vrai dans les logiciels, où il n'y a plus qu'un seul acteur français - et quatre ou cinq européens - dans le Top 20 mondial du numérique, et où notre Top 10 a été décimé, ces dernières années, par des rachats. »

Plus que la multiplication de petites initiatives souvent promises à l'échec ou au rachat par des acteurs étrangers, il faudrait donc préférer la constitution d'un véritable réseau de très petites (TPE), petites et moyennes entreprises (PME), voire d'entreprises de taille intermédiaire (ETI), qui soit à même de se fédérer, de mutualiser certaines compétences, d'établir des synergies et de faire preuve d'une plus grande résistance vis-à-vis d'acteurs tiers.

Le rapport de notre collègue Bruno Retailleau sur les entreprises de taille intermédiaire (ETI)223(*), dont nombre d'analyses et de préconisations valent également pour les PME, a bien mis l'accent sur la nécessité de « faire bloc » pour ces entreprises. « Trop longtemps ignorées des pouvoirs publics comme des économistes » et constituant « le maillon fragile du tissu économique français », elles souffrent « d'un manque de coopération entre [elles] ». Et ce alors qu'« une PME ou une ETI isolée est une entreprise potentiellement en danger ». Aussi le rapport propose-t-il « l'organisation [d']écosystèmes de coopération » entre entreprises de ce type.

Au-delà de ces coopérations entre entreprises, il semble que la facilitation de l'accès aux financements soit une condition indispensable au développement des PME et ETI du secteur numérique. À défaut, comme l'a observé M. Loïc Rivière, le « manque de capitaux laisse la place aux fonds d'investissement américains » et les « petites structures tombent rapidement dans le giron des grands groupes américains ». Le secrétaire général de Dailymotion, M. Giuseppe de Martino, a ainsi pointé les carences dans l'accompagnement de la croissance de ce type d'entreprises. Il a cité l'exemple de sa propre société, de 200 salariés, qui manque de moyens pour poursuivre son développement.

Votre rapporteure avait déjà, dans son rapport évoqué plus haut, mis en lumière « une faiblesse concernant le financement de la croissance des jeunes pousses, d'une part au stade de l'amorçage et du décollage [...], et d'autre part, au stade de leur développement [...] ». Le rapport citait le rapport de l'Inspection générale des finances (IGF) sur le soutien à l'innovation numérique en France224(*) et le rapport de MM. Colin et Collin sur la fiscalité numérique précité.

Relevant « le lien étroit que l'économie numérique entretient avec le capital-risque », mais aussi le caractère limité des possibilités d'introduction en bourse en matière numérique au vu de la faible liquidité des places financières, il formulait notamment comme proposition d'« encourager le capital-risque européen, socle de souveraineté, et faciliter l'introduction en bourse des jeunes entreprises européennes du numérique pour leur permettre de financer leur développement au lieu d'être rachetées ».

Il apparaît que, dans le secteur numérique, le soutien requis pour les entreprises en croissance doive excéder le court terme et se poursuivre jusqu'au dégagement des premiers bénéfices, lequel peut arriver plus ou moins tardivement. Les entreprises innovantes du numérique sont en effet basées sur un modèle économique précaire dans lequel les profits ne couvrent pas nécessairement les investissements. Amazon, devenu le leader mondial de la distribution en ligne, a ainsi été financé pendant huit ans à fonds perdus, avant les premiers retours sur investissement.

Pointant l'urgence de « prendre de nouvelles décisions pour assurer l'accès des entreprises aux liquidités dont elles ont besoin », le rapport Retailleau précité énumérait plusieurs mesures qui permettraient de « dénouer » ce problème. Elles consistent en l'instauration d'une fiscalité favorable à l'autofinancement, en la mise en place de plateformes régionales d'orientation financière pour mieux informer les entreprises, en la facilitation de la transmission familiale de ces entreprises ou encore en l'engagement de la Caisse des Dépôts et Consignations sur un programme d'abondement ou de co-investissement dans des fonds de capital développement adaptés.

Proposition n° 29 : mieux accompagner les TPE, PME et ETI françaises et européennes du secteur numérique en favorisant, à l'échelle nationale comme européenne, la coopération entre elles et en confortant leur accès à des solutions de financement adaptées (renforcement du capital-risque, facilitation de leur introduction en bourse...).

c) Former des « clusters » de dimension européenne

Les pôles de compétitivité, ou clusters, ont été définis par la loi comme des regroupements « sur un même territoire d'entreprises, d'établissements d'enseignement supérieur et d'organismes de recherche publics ou privés qui ont vocation à travailler en synergie pour mettre en oeuvre des projets de développement économique pour l'innovation ». Ce type de structures, qui bénéficient de subventions publiques et d'un régime fiscal particulier, ont par nature vocation à intervenir dans les technologies d'avenir.

La troisième phase de développement des pôles de compétitivité a été lancée par le Gouvernement début 2013, et s'inscrit dans le cadre du Pacte national pour la croissance, la compétitivité et l'emploi. Particulièrement en phase avec la nouvelle économie, elle cherche à accroître les retombées des projets de R&D en termes de croissance et à amplifier l'accompagnement de la croissance des PME et ETI dans les territoires.

C'est ainsi que de nombreux secteurs de l'économie numérique ont fait l'objet de tels pôles. Comme l'indique le rapport de la commission « innovation 2030 » précité, « un écosystème dynamique de start-up existe ainsi en France autour de ce sujet. Des pôles de compétitivité du domaine des TIC, qui favorisent les coopérations publiques privées, tels que Systematic, Cap Digital, Images & réseaux ou Solutions communicantes sécurisées, sont un outil de concentration de cet écosystème. »

Mais beaucoup de ces pôles sont aujourd'hui, de par leur dimension nationale, d'une taille trop étroite pour conquérir les marchés extérieurs, et cela tout particulièrement dans le secteur numérique, très largement mondialisé. Il conviendrait donc de fédérer les pôles de même type existants chez nos partenaires européens, afin là encore d'atteindre cette « masse critique » indispensable pour contester la domination des grands acteurs mondiaux du numérique.

L'orientation des politiques communes vers le soutien à l'émergence de clusters européens de classe mondiale s'est faite, en ce sens, à la fin des années 2000. Elle a été définie par des communications de la Commission européenne de 2008 et 2010225(*) et dans les conclusions du Conseil compétitivité, adoptées sous la présidence française en novembre 2008. Tardant à se concrétiser, elle a été relancée par la smart specialization, ou « spécialisation intelligente », qui représente l'élément clé de l'initiative européenne pour 2014-2020, « l'Union pour l'innovation ».

Poursuivant un objectif de « croissance intelligente », ou smart growth, basée sur la connaissance et l'innovation, l'Union européenne estime le niveau pertinent pour appréhender la spécialisation économique comme étant le pôle de développement économique ou le cluster, et recommande de s'inspirer de l'exemple français en la matière.

Plusieurs directions générales de la Commission européenne sont impliquées. La DG Politique régionale et urbaine mobilise les fonds structurels, notamment le Fonds européen de développement régional (FEDER). La DG Entreprises et industrie, avec son programme Compétitivité et innovation (CIP), aide au développement de coopérations entre clusters au niveau européen. Enfin, la DG Recherche facilite les projets de recherche communs à plusieurs clusters.

Malgré ces instruments et initiatives, le bilan des clusters européens reste mitigé, le dépassement de leur territorialisation au niveau régional vers une intégration proprement européenne restant difficile. Leur concentration dans les secteurs innovants à forte valeur ajoutée en ferait pourtant des catalyseurs de développement naturels pour des initiatives transeuropéennes dans les domaines de l'Internet et du numérique. Il conviendrait donc de mieux utiliser les opportunités offertes par le cadre communautaire en la matière.

Selon M. Hervé Collignon, co-auteur du rapport d'AT Kearney sur l'Europe numérique, « des clusters paneuropéens devraient être créés ». Quant au choix des lieux où ils doivent être créées, indique-t-il, « mieux vaut [le] déterminer [...] en tenant compte de l'implantation des grands donneurs d'ordre qu'en se guidant sur un seul souci d'aménagement du territoire. On pourrait imaginer de confier le cluster automobile à l'Allemagne, les télécoms à Stockholm, la défense, la sécurité et l'aéronautique à la France, la banque à Londres. [...] Il s'agit de confier un leadership aux pays les plus avancés, en fléchant les investissements selon un plan concerté à l'échelle de l'Europe. »

Proposition n° 30 : utiliser davantage les instruments facilitant la mise en place de clusters européens dans les secteurs de l'Internet et du numérique.

d) S'assurer que notre politique commerciale intègre le secteur numérique sans remettre en cause la protection de nos valeurs

La négociation actuellement en cours d'un partenariat transatlantique de commerce et d'investissement (TTIP)226(*) entre l'Union européenne et les États-Unis cristallise la différence d'approche distinguant l'Europe de certains États tiers en matière de politique commerciale. Dotée d'un marché unique ouvert et attractif, celle-ci doit en effet veiller à ce que ses partenaires commerciaux traitent d'une façon réciproque ses entreprises et respectent les valeurs qu'elle place au-dessus d'aspects purement consuméristes.

(1) Un volet numérique insuffisamment pris en compte par l'Union européenne

L'objectif du TTIP est d'aboutir, par l'élimination des obstacles non tarifaires entre les deux continents, à réduire les barrières aux échanges de biens et de services dans la quasi-totalité des secteurs, et ainsi à créer entre les deux ensembles une zone de libre-échange transatlantique à l'horizon 2015. Avec 30 % des échanges commerciaux internationaux et 46 % du PIB mondial, celle-ci serait la plus importante au monde. La cinquième série de négociations sur ce traité de libre-échange s'est ouverte en ce sens le 19 mai dernier à Arlington227(*).

La politique commerciale relevant de la compétence exclusive de l'Union européenne, selon l'article 3 du traité sur le fonctionnement de l'Union européenne, ces négociations sont conduites par la Commission européenne, autorisée en ce sens par le Conseil de l'Union européenne. Le Parlement européen y est associé, tout accord commercial étant, in fine, soumis à son approbation. Les parlements nationaux seront aussi sollicités pour approuver l'accord dans la mesure où il est mixte, c'est-à-dire qu'il affecte aussi les compétences nationales.

Mener à bien une telle négociation est dans l'intérêt réciproque des deux parties, à commencer par l'Union européenne. Le Conseil et la Commission européenne s'étaient prononcés en faveur de l'ouverture de ces négociations en se basant sur des études d'impact indiquant qu'un tel accord de libre-échange permettrait d'accroître de 0,5 % la production économique annuelle de l'Union.

La négociation sur ce projet de traité comprend un important volet numérique. Ainsi que le souligne le CNNum dans son avis d'avril dernier au ministre du commerce extérieur sur ledit volet228(*), ce projet de partenariat bilatéral « est le premier à être aussi ambitieux en matière de numérique ». Le Conseil pointe notamment « l'envergure qu[`y] prennent les multiples dispositions tendant à faciliter les échanges et les investissements transfrontaliers dans le domaine du numérique ».

Or, ces aspects numériques, pourtant fondamentaux dans la perspective d'une économie mondiale ouverte et dématérialisée, ne sont pas suffisamment investis et pris en compte par les mandataires européens. Jugeant « parfois insuffisante la mobilisation des négociateurs officiels », le CNNum déplore ainsi que « le volet numérique du projet de partenariat de commerce et d'investissement soit sous-estimé », ce qui entraîne un « rapport de force [...] défavorable à l'Union européenne ».

Pour Mme Valérie Peugeot, le déficit de politique européenne en matière industrielle, et plus précisément dans le secteur du numérique, « constitue un lourd handicap [...] dans les négociations internationales, comme celles qui sont en cours sur le traité transatlantique, le TTIP, où l'Europe entre mal préparée, où ses industriels n'ont guère conscience des enjeux commerciaux qui s'y jouent ».

Mme Peugeot a attiré l'attention, à cet égard, sur le risque lié à l'inclusion dans les négociations d'un tel volet numérique qui « pourrait bien, dans des domaines comme l'éducation ou la santé, se révéler un cheval de Troie ». Derrière les négociations du TTIP, les États-Unis souhaiteraient en effet contourner les initiatives de la Commission européenne et le projet de règlement sur la protection des données personnelles pour instaurer une dérégulation sur des secteurs protégés par l'Union européenne, tels que l'éducation, la santé et la culture.

D'une façon générale, la critique couramment émise, et relayée par nombre d'associations et d'acteurs de la société civile, porte sur l'insuffisante capacité de l'Union européenne à faire valoir et protéger la spécificité de ses valeurs dans le secteur du numérique. En effet, aux termes de l'article 1 bis du traité la constituant, l'Union européenne s'est construite sur les valeurs de respect de la dignité humaine, de liberté, de démocratie et d'État de droit, et les transactions de biens et services doivent s'opérer dans un cadre s'y conformant.

Or, l'approche des États-Unis, qui recherchent avant tout l'ouverture de nos marchés, est toute autre en la matière. « Les ambitions affichées sont claires », observe le CNNum, nos partenaires américains souhaitant en effet « faciliter le commerce et les échanges de produits et de services délivrés via l'utilisation du commerce électronique » d'une part, et « inclure dans le TTIP des dispositions permettant le mouvement transfrontalier de données » d'autre part. Et pour atteindre ces objectifs, les Américains disposent de moyens d'action et d'influence bien plus importants que ceux de l'Union européenne.

« L'asymétrie entre les États-Unis et l'Union européenne en matière de numérique ne peut être ignorée », insiste le CNNum. En effet, les premiers « disposent d'une avance commerciale et intellectuelle fondée sur une vision à long terme. Elle a été élaborée de longue date et appuyée sur des crédits notamment militaires, tandis que l'attitude suiviste de l'Union européenne lui a été gravement préjudiciable. Les États-Unis bénéficient d'une très forte synergie avec leurs institutions politiques et administratives. L'industrialisation du numérique y est plus aboutie qu'en Europe. Les capacités d'investissement y sont mieux mobilisées. L'ambition d'en faire un facteur de puissance est affichée. Les acteurs du marché américain disposent de moyens de développement commercial et d'investissement plus importants que leurs équivalents européens. »

Si le rapport de force peut paraître inégal, l'Union européenne a cependant de solides avantages à faire valoir dans la négociation pour ne pas se plier à la volonté des États-Unis. Fort d'un marché de 500 millions d'utilisateurs potentiels, globalement bien formés et dotés d'un pouvoir d'achat conséquent, notre continent est présent dans de nombreuses industries de pointe du secteur numérique. Surtout, il a su garantir le respect de valeurs pouvant constituer autant d'atouts pour des entreprises et des consommateurs de plus en plus sensibles à la préservation de leurs données et de leurs libertés.

(2) Des valeurs propres à l'Europe devant être réaffirmées dans les négociations

L'Europe ne doit pas faire preuve de timidité dans la protection de ses valeurs lors des négociations commerciales internationales, bien au contraire. Elle doit mettre en avant la spécificité de son approche, consistant à trouver un équilibre entre considérations économiques et préservation des libertés fondamentales.

Mme Catherine Trautmann, lors de son audition devant votre mission, a insisté sur l'importance pour l'Union européenne de « tenir » cette ligne avec fermeté. « Dès lors que, dans les négociations commerciales, nous défendons non seulement des clauses de sauvegarde environnementale et sociale mais aussi de protection des droits et libertés fondamentaux, nous tenons une position forte », a-t-elle observé. « La France s'est montrée allante sur le TTIP, sur des questions comme l'origine géographique, mais les conditions que nous avons posées quant à l'exception culturelle ont été vues d'emblée comme une attitude offensive sur la protection des données. »

C'est dans cette optique d'affirmation résolue de la spécificité du modèle européen comme un élément non négociable dans les accords commerciaux qu'est intervenue la résolution présentée par M. Claude Moraes, député européen. Elle pose en effet comme condition de l'approbation du TTIP le règlement des questions relatives à la protection des données personnelles et au respect des droits et libertés fondamentales des citoyens européens.

C'est également en ce sens que le CNNum recommande, de façon générale et comme première proposition, de « s'appuyer sur les valeurs de l'Union européenne pour faire levier dans la stratégie de négociation », mais également de « conserve[r] sa capacité à réglementer et structurer le marché numérique dans le futur, et s'attache[r] à obtenir dans la négociation du traité toutes les garanties nécessaires à cet effet ».

Cette posture générale, qui tend à « ne pas marchander » le maintien de nos valeurs européennes d'ouverture et de protection, se décline dans chacun des sous-enjeux ayant trait aux problématiques numériques abordées dans le cadre du TTIP.

· Le système de protection des indications géographiques

Les indications géographiques, en tant qu'elles sont porteuses d'une valeur économique pour les producteurs et d'informations au profit du consommateur, méritent d'être protégées par le droit. Très fortement présentes dans le secteur alimentaire, et plus précisément dans celui du vin et des spiritueux, elles constituent un vecteur essentiel du développement économique de l'Europe et de valorisation de la diversité de ses territoires.

Or, l'ouverture en cours par l'ICANN des extensions de noms de domaine au « .vin » et « .wine » menace directement ce système de protection, en risquant d'entraîner des confusions chez les consommateurs et de remettre en cause la notoriété de nos produits à l'export229(*). Le danger est d'autant plus grand que le projet de l'ICANN pourrait, à terme, s'étendre à d'autres indications géographiques européennes protégées. Ce dossier a pris une importance majeure et mobilise aujourd'hui l'ensemble des acteurs, économiques et politiques, concernés à l'échelle européenne.

Faute d'accord entre le secteur et les sociétés candidates à l'exploitation des sites en « .vin » et « .wine », les négociations semblent aujourd'hui dans une impasse risquant d'aboutir à une délégation par l'ICANN des noms de domaine en « .vin » et « .wine ». À cet égard, le manque de détermination de la Commission européenne dans les négociations commerciales, en particulier avec les États-Unis, a été soulignée par la Confédération nationale des producteurs de vin et eaux de vie de vin à Appellation d'Origine Contrôlée (CNAOC), qui voit dans l'évolution de ce dossier « un très mauvais signal pour les discussions en cours entre l'Union européenne et les États-Unis en vue de conclure un accord transatlantique »230(*).

La problématique dépasse en fait le secteur du vin pour concerner celui des indications géographiques, auxquelles les États-Unis préfèrent la notion de marque. Pour Mme Vanessa Gouret, conseillère chargée de la politique commerciale et des règles du commerce international, « les indications géographiques sont un sujet important et particulièrement complexe avec les Américains - parce qu'ils y voient une barrière commerciale, dans un environnement juridique largement dominé par le droit des marques, là où, en particulier en Europe du Sud, nous y trouvons un outil pour valoriser et protéger des territoires ». Elle a signalé que 55 sénateurs américains avaient demandé que les États-Unis s'opposent à ce qu'elles figurent dans l'accord transatlantique.

Face à ces risques, l'Union doit « parler d'une seule voix » et ne rien céder dans le maintien du système de protection existant. Dans cette optique, le renforcement dans la législation européenne d'une part, et leur reconnaissance par les États-Unis d'autre part, sont attendus comme des préalables à une discussion sur leur articulation avec les noms de domaine, comme dans le secteur du vin231(*).

Proposition n° 31 : obtenir la reconnaissance explicite par les États-Unis du système des indications géographiques avant la mise en place des noms de domaine se référant à de telles indications.

· Le traitement des données personnelles

Pour ce qui est des données, dont les Américains poussent à un renforcement de la libre-circulation entre les deux rives de l'Atlantique, toute libéralisation devrait être complétée par des dispositions permettant des restrictions fondées sur des objectifs de protection de la vie privée des personnes et de sécurité publique, qui permettraient à l'Union européenne d'adopter des actes destinés à les mettre en oeuvre.

Constatant que les services numériques intensifs en exploitation de données pénètrent durablement des domaines où il ne peut être dérogé au respect de la souveraineté et des libertés fondamentales (comme dans les secteurs de la santé, de la sécurité, des services financiers ou de l'énergie) et font naître des risques réels quant à leur préservation, le Conseil estime en effet qu'une « vigilance particulière doit être portée à l'encadrement de ces pratiques ».

Les révélations sur la surveillance massive de citoyens européens ont eu des répercussions sur la stratégie de l'Union. Peu encline désormais à s'engager dans un processus de libéralisation de la circulation des données, cette dernière a pris conscience de la nécessité, au contraire, de renforcer leur sécurisation.

Cette problématique, qui dépasse la seule question de la protection des données personnelles et constitue un véritable enjeu de politique industrielle, inclut le régime de stockage, de transfert et d'utilisation de tout type de données. L'Union serait particulièrement bienvenue, à cet égard, de s'entendre sur une stratégie commune passant notamment par la signature d'un accord sur la règlementation de ces données.

La libéralisation intégrale des flux de données doit donc être repoussée tant qu'un socle normatif protecteur n'a pas été validé au niveau européen, afin d'accompagner la transition des industries traditionnelles vers l'intermédiation numérique, et surtout de s'assurer du respect des libertés fondamentales et d'objectifs d'intérêt général (vie privée, sécurité publique, santé publique...). Il convient, dans cette perspective, de mener à bien la procédure législative d'adoption du paquet « données personnelles », dont le vote définitif est attendu avant la fin de l'année232(*).

Enfin, en cas d'adoption du principe de libre circulation des données, le CNNum recommande, à juste titre, de prévoir des exceptions à la libre circulation des données équivalentes aux dispositions des articles XIV et XIV bis de l'Accord général sur le commerce des services (AGCS)233(*) et d'exclure du champ d'application les données relatives aux domaines sensibles de la santé, de la cybersécurité et de la finance.

Proposition n° 32 : veiller à assortir toute libéralisation transatlantique de la circulation de ces données, d'exceptions justifiées par des objectifs de protection de la vie privée des personnes et de sécurité publique.

· La politique de concurrence européenne

La politique européenne de la concurrence a permis à l'Union d'établir un marché unique fluide et homogène, qui constitue un atout dans les négociations qu'elle mène avec ses partenaires commerciaux. Un tel marché ouvert peut cependant se retourner contre elle dès lors que les restrictions impliquées par cette règlementation, particulièrement strictes pour les entreprises européennes, ne se retrouvent pas dans les marchés tiers, et font donc peser sur elles un handicap concurrentiel.

Cette analyse avait été déjà clairement faite par votre rapporteure dans son rapport L'Union européenne, colonie du monde numérique ? Elle y observait ainsi que « les restrictions en matière d'aides d'État auxquelles sont soumises les entreprises européennes leur font subir un handicap concurrentiel face à des concurrents mondiaux assujettis à moins de contraintes, recevant des subventions d'une manière moins transparente qu'en Europe ou privilégiés dans les marchés publics domestiques ».

L'application d'une politique de concurrence forte au sein de l'Union doit permettre à de « nouveaux entrants » de disputer aux acteurs en place des parts de marché, et favorise en tant que tels les efforts de compétitivité et d'innovation de nos entreprises. Mais elle doit être prolongée, à l'extérieur de l'Union, par une démarche offensive tendant à l'uniformisation des règles du jeu au niveau mondial.

Comme l'a souligné le CNNum dans son rapport sur le volet numérique du TTIP, « il est essentiel que le principe d'égalité de traitement soit respecté entre les différents acteurs du numérique et que les règles de concurrence s'appliquent sur tous les segments de la chaîne de valeur du numérique ». La priorité doit donc être portée, dans les négociations commerciales internationales, à garantir un tel principe, dit « level playing field ».

Si tous les États membres de l'Union ne partagent pas forcément cette analyse, la France, qui la promeut, a été rejointe progressivement par un nombre croissant d'entre eux. Après que M. Mario Monti eut, dans son rapport Une nouvelle stratégie pour le marché unique, présenté en 2010 au président Barroso, souhaité faire de l'Union « un marché ouvert mais non désarmé », le Conseil compétitivité d'octobre 2012 a ouvert la porte à l'inclusion d'une clause d'alignement dans les accords commerciaux.

Une telle évolution assurerait une concurrence plus loyale entre l'Union européenne et les pays tiers sur les aides d'État au profit de ces technologies clefs génériques, que la Commission a identifiées comme essentielles pour la capacité industrielle et innovatrice de l'Union. Il faut aujourd'hui pousser cette inflexion jusqu'à son terme, et obtenir de la Commission européenne un véritable rééquilibrage des conditions de concurrence entre nos opérateurs et ceux des pays tiers.

Proposition n° 33 : inciter la Commission européenne à assurer une convergence règlementaire garantissant des règles de jeu équitables (level playing field) pour les entreprises européennes du numérique, notamment eu égard à l'encadrement des aides d'État.

· L'ouverture des marchés publics

Les marchés publics, qui représenteraient jusqu'à 20 % du PIB de la plupart des pays selon l'OMC, constituent un débouché très important pour les entreprises du secteur numérique. L'accès non-discriminatoire et transparent à ces marchés, garanti dans l'Union européenne, doit être également assuré dans les États tiers, afin que nos entreprises aient autant de chance d'y remporter des succès commerciaux que l'inverse.

En l'état actuel des choses, il existe une grande différence dans l'accès à ces marchés publics entre notre continent et les États-Unis, pour ne citer qu'eux. 85 % de nos marchés sont ainsi ouverts, en fait ou en droit, aux entreprises américaines, tandis que nos entreprises ne peuvent répondre qu'à 32 % des appels d'offre publics outre-Atlantique234(*). Ce taux, qui n'est que de 28 % pour le Japon, tombe à zéro pour la Chine, totalement fermée de ce point de vue.

Tout comme la grande ouverture du marché européen, la faible ouverture du marché américain relève d'une véritable volonté politique, et se manifeste à travers plusieurs grandes lois. Le Small Business Act, pour la plus connue, réserve l'accès à certains marchés publics aux PME américaines, ne donnant à nos PME que la possibilité de s'allier avec des partenaires locaux. Le Buy American Act, quant à lui, constitue un mécanisme de « préférence nationale » imposant à l'administration fédérale un traitement prioritaire pour les biens américains, sanctionnant ainsi les entreprises offrant des produits étrangers, et notamment européens.

Les accords de l'OMC proprement dit ne couvrent pas les marchés publics. Ceux-ci font en effet l'objet d'un accord spécifique de l'OMC, dit accord AMP, qui inclue les pays industrialisés (dont l'Union européenne) et quatorze autres (dont les États-Unis, le Canada, le Japon ...), mais n'est pas respecté, comme le montre la faiblesse des taux d'ouverture précités. Il en découle que les entreprises de ces pays, qui peuvent venir nous concurrencer sur notre propre marché à des prix particulièrement bas, ne sont pas inquiétées sur leur marché domestique par nos propres entreprises.

Prenant conscience des risques d'une telle concurrence déloyale sur notre potentiel de croissance externe, l'Union a fait de l'ouverture réciproque des marchés l'une de ses priorités. Le Parlement européen a notamment adopté, à la mi-janvier, une proposition de règlement235(*) allant en ce sens. Il permettrait, en cas d'adoption par le Conseil, de restreindre l'accès à nos marchés à des entreprises implantées dans des pays dont les marchés publics nous sont fermés, en application d'un principe de réciprocité.

Le Sénat a explicitement appuyé cette initiative européenne en votant une résolution européenne du 26 novembre 2012236(*) favorable à la réciprocité dans l'ouverture des marchés publics. Le texte est cependant loin d'être définitivement adopté dans la mesure où un certain nombre d'États membres s'y opposent, sous prétexte d'un risque de renchérissement de l'achat public. Il convient donc, pour notre pays, de continuer à se mobiliser pour qu'aboutisse la procédure d'adoption de ce texte protecteur de nos entreprises du secteur numérique.

Proposition n° 34 : promouvoir une plus grande réciprocité dans l'accès aux marchés publics, pour ouvrir aux entreprises européennes des marchés dans les pays tiers.

2. Exploiter les données européennes au service du « bien commun »
a) Investir l'industrie du big data

Comme l'a mis en avant la commission « innovation 2030 », « la multiplication des données créées par les particuliers, les entreprises et les pouvoirs publics sera porteuse de nouveaux usages et de gains de productivité. La mise à disposition par l'État et par ses opérateurs des données publiques constituera une opportunité pour favoriser l'essor de nouvelles start-up. »

Or, notre pays possède d'indéniables atouts pour occuper les premières places dans le traitement industriel du big data : son école de mathématiques et de statistiques, parmi les meilleures au monde ; la présence sur le territoire d'entreprises déjà leaders de sous-segments de ce marché ; ou encore l'importance des investissements consacrés à la sécurité des données et des communications sur l'Internet.

Le big data : caractéristiques et champs d'application

Le big data désigne la collecte, l'exploration et l'analyse de grandes masses de données, en vue d'expliquer ou de prédire des évolutions ou des comportements à grande échelle.

À l'origine opéré par les « géants » de l'informatique, tels qu'IBM dans les années 60, qui a créé les bases de données dites relationnelles, le big data est désormais opéré essentiellement par ceux du web, Google, Amazon, Facebook ou Twitter, qui ont développé leurs propres systèmes simplifiés, désignés génériquement par le terme Nosql.

On le présente traditionnellement comme caractérisé par la règle des trois, voire des cinq « v » :

- volume de données : de plusieurs millions de gigaoctets (Go) pour les géants du web à quelques milliers pour des fichiers de géolocalisation, il n'y a pas de limite clairement fixée ;

- vitesse d'actualisation et d'analyse des données : ces dernières sont aujourd'hui traitées en temps réel ou quasi-réel ;

- variété des données : texte, images, multimédia ... ;

- véracité des données : la précision du résultat final (ou « data mining ») dépend du degré de précision des données ;

- valeur des données : le traitement des données peut être source d'immenses plus-values.

Les champs d'application du big data sont infinis : amélioration des diagnostics et du ciblage thérapeutique pour l'industrie pharmaceutique, efficacité accrue des campagnes de publicité sur le web, estimations des primes d'assurance, recommandations accompagnées d'achats pour les marchands en ligne, anticipation de la délinquance pour la police ...237(*)

En 2013, le big data a donné lieu à plus de 425 milliards de dollars d'investissement par les entreprises américaines, 200 millions de dollars par l'administration américaine et 3 millions d'euros par la Commission européenne. En France, où la commission « innovation 2030 » en a fait l'un des sept défis d'avenir, 11,5 millions d'euros de subventions sont dédiées par l'État à son développement238(*).

Or, la collecte des données personnelles et l'utilisation des données publiques, auxquelles recourent les expériences de big data, sont affectées d'un a priori négatif sur le Vieux continent, par opposition à des pays plus jeunes et ouverts aux possibilités de développement et de croissance qu'elles recèlent pour l'ensemble de la société. Ainsi que l'a fait observer M. Stéphane Grumbach, « il y a en France, comme plus généralement en Europe, un biais dans notre perception des questions de l'Internet », biais provenant « en partie d'une très forte sensibilité aux questions de liberté individuelle, et de la perception de l'individu menacé tant par la machine étatique, via la surveillance et la censure, que par la machine industrielle, via l'exploitation de la vie privée ».

« Si ces questions sont évidemment importantes », poursuit-il, « la trop forte focalisation sur ces sujets occulte [...] des enjeux essentiels de la révolution numérique pour nos sociétés, [soit les] enjeux économiques, politiques, ainsi que géopolitiques. L'équilibre primordial entre les intérêts particuliers et le bien commun est insuffisamment discuté. » Ainsi, excessivement « focalisée sur la peur obsessionnelle du mauvais usage qu'une société peut faire des données personnelles et des atteintes à l'individu, l'Europe n'a pas anticipé ni même compris les changements en cours dans le monde, non seulement aux États-Unis, mais également dans les autres pays, acteurs de la révolution numérique ».

Pourtant, l'industrie du big data représente un poids économique potentiellement considérable. McKinsey Global Institute évalue la création de valeur potentielle par le big data à 200 milliards d'euros dans les administrations publiques européennes239(*) ; le Boston Consulting Group estime à 315 milliards d'euros en 2011 la valeur des données personnelles des consommateurs européens et considère que leur exploitation permettrait une création de valeur représentant 8 % de l'ensemble du PIB européen à l'horizon 2020240(*).

Les données personnelles constituent aujourd'hui une ressource activement recherchée par tous les acteurs du net, car elles déterminent la valeur. Si les industries de l'Internet les exploitent pour cibler avec une plus grande précision les annonceurs, les données permettent aussi d'en apprendre davantage, « non pas sur l'individu, mais sur une population » ; en ce sens, leur croisement à une très grande échelle, rendu possible grâce aux puissants algorithmes mis au point par les grands acteurs du net et aux capacités de calcul exponentielles des ordinateurs, peut revêtir une réelle utilité sociale. C'est ainsi que Google a mis en place un service de suivi statistique des épidémies de grippe en avance d'une dizaine de jours sur les instituts de veille sanitaire.

Les données sont certes le « carburant des plateformes d'intermédiation » - moteurs de recherche et réseaux sociaux - qui dégagent des connaissances exclusives sur l'activité qu'elles observent et permettent ainsi d'autres services. Mais l'intérêt des plateformes, en réalité, « dépasse largement le numérique. Les plateformes d'intermédiation ont un potentiel de révolution de nos organisations considérable », juge M. Stéphane Grumbach.

« Une telle intermédiation entre des usagers qui offrent des services et d'autres qui sont à la recherche de tels services peut conduire à une efficacité extrêmement importante, ainsi qu'à des économies de très grande ampleur. » Et cela sans compter la mise en réseau des objets connectés, qui vont augmenter les volumes de données et les services que leur traitement pourra rendre.

Ainsi, au vu de l'infinité de services que permettra l'utilisation des données, mais également de leur apport potentiel en termes de croissance et d'emploi, il est impératif que les pouvoirs publics, à l'échelle nationale comme européenne, fassent preuve de vision prospective et d'anticipation dans l'accompagnement du big data, et s'attellent à définir des méthodes rendant l'exploitation du big data compatible avec le respect de la vie privée. Comme l'indique M. Stéphane Grumbach, « il faudrait remettre en avant l'objectif du bien commun, alors que la vie privée est centrée sur l'individu ».

Les pouvoirs publics prennent peu à peu la mesure de l'importance du big data pour notre économie. La précédente ministre en charge de l'économie numérique, Mme Fleur Pellerin, avait annoncé en juillet 2013 un plan d'investissement de 300 millions d'euros dans le big data. Avec au coeur des mesures attendues, la création d'un incubateur dédié. L'objectif affiché est de pouvoir atteindre, en cinq ans, 2,8 milliards d'euros de création de valeur et de permettre la création de 10 000 emplois.

Il convient aujourd'hui de prolonger cet effort, d'évaluer son impact économique et surtout de « changer de culture » vis-à-vis du big data, en y voyant au moins autant une ressource indispensable à la création de valeur dans une économie dématérialisée et au progrès social dans son ensemble, qu'un instrument potentiellement attentatoire aux libertés individuelles et sujet à encadrement normatif.

Finalement, c'est la loi qui doit tracer la frontière entre respect des libertés et possibilités d'usage commercial. Comme l'a fait observer M. Jacky Richard, rapporteur général du Conseil d'État, « il faut définir avec attention la notion de données. [...] Le législateur devra réaliser des choix. [...] Il [lui] revient [...] de fixer la frontière entre les données privées dont la confidentialité doit être préservée et celles qui peuvent servir de base, grâce à des mécanismes d'agrégation sous réserve de précautions, à une économie fondée sur la valeur liée à l'exploitation de ces données. »

Proposition n° 35 : promouvoir le big data comme un véritable enjeu industriel, source d'amélioration du bien commun, en définissant précisément des mécanismes raisonnables pour l'agrégation de données susceptibles de faire l'objet d'une valorisation économique.

b) Miser sur l'open data comme source de valeur pour toute la société

Le Gouvernement et les administrations ne sont pas épargnés par l'évolution des flux de données en big data. La publication des données ouvertes prend, pour ces personnes publiques, le nom d'open data. Les systèmes d'intermédiation qu'il permettra de développer apporteront au citoyen de nouveaux services, sur la base d'informations indexées et organisées. Sur ce sujet, votre mission renvoie au rapport d'information récemment produit par son président et l'un de nos collègues, M. François Pillet241(*).

L'open data

L'open data est une méthode de gouvernance favorisant l'accès aux documents et aux données publiques via l'Internet, afin de renforcer la transparence, de donner aux citoyens des moyens de contrôle de l'action publique, et de générer des activités porteuses d'une plus-value pour les utilisateurs ou pour la société toute entière.

En tant que tel, l'open data utilise les ressources de l'« e-gouvernement », soit le recours aux TIC par les administrations publiques afin de rendre les services publics plus accessibles à leurs usagers et d'améliorer leur fonctionnement interne.

L'open data est source de croissance. Selon le rapport de Graham Vickery pour l'Union européenne242(*), une plus grande ouverture des données publiques, telle que la permet l'open data, serait de nature à faire croître les marchés liés à l'exploitation de ces données de 32 à 40 milliards d'euros.

L'open data concerne au premier chef l'État. La plateforme « data.gouv.fr » permet ainsi « aux services publics de publier des données publiques et à la société civile de les enrichir, modifier, interpréter en vue de coproduire des informations d'intérêt général ».

Le Président de la République, M. François Hollande, a annoncé récemment l'adhésion française au Partenariat pour un gouvernement ouvert (Open Government Partnership - OGP). Il réunit actuellement 63 États qui s'engagent à suivre les principes de la gouvernance ouverte et transparente, définis dans la déclaration de principes du 20 septembre 2011 : transparence de l'action publique, participation citoyenne à l'élaboration des politiques publiques, intégrité, innovation et utilisation des nouvelles technologies pour moderniser l'action publique, notamment à travers l'ouverture des données.

L'État devra ainsi établir, en concertation avec la société civile, un « plan d'action national » avant le 31 mars 2015, comportant des engagements en vue d'une gouvernance plus transparente, plus efficace et plus responsable. L'action de l'État en ce domaine est pilotée, sous l'autorité du Premier ministre, par la mission « Etalab », qui fait partie du Secrétariat général pour la modernisation de l'action publique (SGMAP).

Mais l'open data concerne également les collectivités, qui ont d'ailleurs ouvert la voie en étant parmi les premières personnes publiques à mettre en ligne leurs bases de données, l'association Open Data France et la 27ème Région oeuvrant notamment en ce sens.

L'open data, en ce qu'il met à disposition des données placées sous la responsabilité et l'autorité des pouvoirs publics, est un instrument qu'il convient donc de développer au nom du bien commun en apportant toutes garanties d'une collecte et d'un traitement des données respectant les principes d'anonymat et de non-discrimination qui doivent guider l'action collective en la matière. Ainsi, comme l'a souligné M. Bertrand de la Chapelle, « la collecte de données publiques ou sur objets connectés, pour leur exploitation en open data et via des mécanismes de croisement, va devenir source de valeur économique et sociale : c'est cela qu'il faut faciliter ».

Il conviendrait, à cet égard, de lever certains freins limitant l'apport potentiel de l'open data à la sphère économique et à la croissance. Ces obstacles tiennent en majeure partie à des considérations d'ordre technique : manque de précision des données empêchant de générer une information à valeur ajoutée ; hétérogénéité des données proposées entre les territoires ; hétérogénéité des formats dans lesquels sont proposées ces données...243(*) Votre rapporteure fait siennes les recommandations formulées à cet égard par la mission commune d'information du Sénat sur l'accès aux documents administratifs et aux données publiques, en particulier la recommandation n° 15 visant à l'établissement d'un « référentiel général de réutilisabilité des données, portant à la fois sur leur format, leur structuration, leur granularité, leur contextualisation, ainsi que sur la documentation des algorithmes permettant de procéder à des extractions et des agrégations »244(*).

Se pose par ailleurs une interrogation quant au modèle économique, le coût d'acquisition des données - qui sont parfois proposées contre le paiement d'une licence - pouvant être supérieur aux recettes générées, ce qui peut entraver la mise en oeuvre de l'objectif de gratuité des données de l'open data.

Proposition n° 36 : poursuivre le développement de l'open data dans l'ensemble des collectivités publiques en standardisant les données délivrées et en tendant vers la gratuité de leur mise à disposition, tout en respectant les principes d'anonymat et de non-discrimination.

3. Lancer deux projets industriels concrets : cloud européen sécurisé mais ouvert pour les données les plus sensibles, et système d'exploitation pour mobile

Pour donner corps à l'ambition industrielle de l'Union européenne en matière numérique, il convient de lancer des projets industriels concrets.

Le premier serait de nature à redonner la main à l'Union européenne sur l'Internet mobile, le second sur la maîtrise de ses données qui transitent dans le cloud.

Le système d'exploitation Androïd, qui s'est diffusé rapidement sur les téléphones mobiles, a été développé par Google, et a démontré qu'aucune position dominante - celle de Microsoft ou d'Apple, en l'occurrence - n'est incontestable sur un marché innovant. Malheureusement, aucun équivalent n'a été mis au point sur notre continent, nous contraignant aujourd'hui à utiliser les systèmes étrangers sans pouvoir recourir à un substitut européen. Ainsi, selon M. Vincent Champain, « l'Europe aurait pu décider de lancer son système d'exploitation, comme l'a fait [également] la Chine pour le téléphone mobile ».

S'il eût été souhaitable de ne pas prendre de retard en ce domaine, le principe de « contestabilité » continuelle des positions dominantes, surtout sur des marchés entièrement basés sur l'innovation, comme l'est le secteur des TIC, permet d'être optimiste. Développer un operating system (OS) mobile propre à l'Europe et de nature à concurrence Androïd et iOS semble pouvoir constituer un objectif parfaitement pertinent d'un point de vue économique, et qui, de surcroît, nous aiderait à restaurer notre souveraineté numérique.

Proposition n° 37 : favoriser le développement d'un système d'exploitation sur mobile européen constituant une alternative crédible aux principaux systèmes d'exploitation actuellement existants.

Un second projet, de plus grande envergure et viable seulement à l'échelle européenne, consisterait à faire émerger des services de cloud respectueux des exigences européennes en matière de protection des droits et libertés fondamentaux.

a) Le cloud, au coeur de l'informatique de demain

Si ses prémices sont apparues dès les années 50, avec l'accès depuis des terminaux à des applications fonctionnant sur des systèmes centraux, le cloud ne s'est vraiment développé, dans sa version contemporaine, que dans les années 2000, avec l'apparition des hébergeurs web, pouvant accueillir et conserver sur leurs serveurs des applications et des données.

Qu'est-ce que le cloud computing ?

Le cloud computing, ou « informatique en nuages », désigne, selon la définition qu'en donne le MIT, un ensemble de processus utilisant la puissance de calcul et de stockage de serveurs informatiques distants à travers un réseau, généralement l'Internet.

Il correspond à un important changement d'approche des systèmes informatiques : longtemps constitués de serveurs ou de terminaux situés au sein même des entreprises ou chez les particuliers, ils se trouvent désormais externalisés dans des centres de données, ou data centers, dont les services et les capacités de stockage sont loués à l'activité ou au forfait.

Trois types de services peuvent être offerts par le cloud :

- IaaS (« infrastructure as a service », ou infrastructure en tant que service) : mise à disposition d'une ressource matérielle virtualisée (services de calcul, de stockage et de réseau), gérée et administrée par un fournisseur ;

- PaaS (« platform as a service », ou plateforme en tant que service) : mise à disposition de plateformes nécessaires au développement ou à l'exécution d'applications ;

- SaaS (« software as a service », ou logiciel en tant que service) : mise à disposition de logiciels en ligne prêts à l'usage après un simple paramétrage.

L'utilisation d'une adresse e-mail constitue un usage courant et désormais bien établi du cloud. S'y est ajouté plus récemment l'utilisation à distance d'outils informatiques classiques (traitement de texte ou tableur, par exemple), puis l'utilisation des réseaux sociaux, qui constituent également des espaces de stockage pour des données personnelles de toutes sortes.

C'est afin de fournir l'ensemble de ces services qu'un acteur comme Google a bâti son propre cloud et représente, avec 50 milliards de dollars de chiffre d'affaires, le leader du secteur. Mais des groupes comme Amazon, Apple, Facebook, Twitter, eBay et YouTube recourent également à la technologie du cloud pour héberger les volumes extrêmement lourds de documents de leurs utilisateurs245(*).

L'émergence réelle du cloud coïncide en réalité avec le recours massif des entreprises à ses services, dans le cadre d'un modèle BtoB (« business to business », c'est-à-dire entre entreprises). Il leur permet en effet de réduire très sensiblement les dépenses d'investissement et de fonctionnement informatiques, mais aussi d'harmoniser les services, de faciliter leur accès pour tous les collaborateurs et de garantir leur mise à jour permanente. C'est ce secteur qu'ont investi des entreprises anciennement implantées dans le secteur de l'informatique, telles que Microsoft, Oracle, IBM, HP, Accenture...

En moins d'une quinzaine d'années, le cloud, véritable révolution technologique dans le monde de l'informatique, s'est développé « à la vitesse de la lumière » et représente aujourd'hui une « fantastique opportunité en termes de croissance, de productivité et d'emploi », ainsi que le soulignent dès la première phrase de leur rapport sur le sujet MM. Thierry Breton, ancien ministre de l'économie, des finances et de l'industrie, président directeur-général d'Atos, chargé de deux missions sur le cloud par le Gouvernement et par la Commission européenne, et Octave Klaba246(*).

Quelques chiffres tirés de ce rapport donnent la mesure de l'importance fondamentale du cloud pour le secteur des services informatiques, et au-delà pour l'économie en général. Représentant un marché de plus de 50 milliards de dollars dans le monde en 2013, il connaît une croissance de 20 à 30 % par an, et devrait représenter plus de 50 % des dépenses informatiques mondiales d'ici 2020.

b) Une importante avance des États-Unis sur l'Europe et la France

Ainsi que cela a été indiqué précédemment, les États-Unis sont en pointe dans le secteur du cloud, avec des acteurs occupant des positions de leader. L'Europe n'est certes pas dépourvue d'atouts en ce domaine, mais le paysage des fournisseurs européens de cloud est à la fois plus limité en volume et composé essentiellement d'acteurs des métiers informatiques traditionnels.

Il convient également de relever, comme le fait le rapport Breton-Klaba, que l'Irlande a attiré sur son territoire de très importants data centers (Amazon, Google et Microsoft) pouvant délivrer des services cloud depuis ce pays en garantissant la localisation des données en Europe, mais sans pour autant garantir leur traitement sur le sol européen, et en étant potentiellement soumis aux normes ou législations non-européennes.

La France, comme le rappelle le rapport précité, « occupe une position privilégiée avec une communauté Open Source très active et de nombreuses startups proposant diverses solutions247(*), projets248(*) et une plateforme d'expérimentation à grande échelle, Grid'5000 ». Représentant 2,8 milliards d'euros dans notre pays en 2012, le cloud a été défini comme l'un des 34 plans dans le cadre du projet de « Nouvelle France industrielle ». Par ailleurs, deux projets de centrales numériques (CloudWatt et Numergy) sont développés dans le cadre des Investissements d'avenir, qui prévoit également des subventions à des projets de R&D collaboratifs.

Pour autant, nous sommes aujourd'hui « à la traîne » des États-Unis, dans ce secteur qui sera demain capital à plusieurs égards. Ledit rapport fait ainsi état d'une situation « préoccupante dans la mesure où la majeure partie des services cloud aujourd'hui consommés dans l'Hexagone est délivrée à partir de sites situés hors de France, et même le plus souvent hors d'Europe (si l'on excepte le cas de l'Irlande), ce qui peut à terme poser des problèmes d'indépendance et de souveraineté, voire, dans certains cas, de sécurité nationale pour notre pays ».

Ce retard français, et plus globalement européen, s'explique par divers facteurs : une fragmentation des marchés locaux, le manque d'investisseurs dans les entreprises de taille intermédiaire, l'inadéquation des procédures de marché public aux offres cloud, les réticences nourries à son encontre en termes de sécurité des données et de continuité de service, les carences des dispositifs de formation et l'attirance des plus jeunes utilisateurs pour les acteurs mondiaux de pays tiers...

Fort heureusement, estime le rapport, cette situation est « encore réversible », à la condition toutefois d'agir « rapidement et en profondeur », et cela tant sur notre territoire national qu'en Europe. Sachant que « l'État - et, plus généralement, la puissance publique - ont un rôle moteur à jouer d'exemplarité, d'entraînement et de mise en place d'un environnement propice au développement d'un [tel] écosystème ».

c) Plusieurs initiatives à l'échelle européenne en faveur du cloud

L'Union européenne est le cadre de plusieurs projets ou initiatives communes concernant le cloud computing.

Les conclusions du Conseil européen d'octobre 2013 prévoient la constitution d'un réseau solide de coordinateurs nationaux en matière numérique, qui pourrait jouer un rôle stratégique dans le développement de l'informatique en nuage. Son organisation et ses missions sont en cours de discussion.

Lors du 16ème conseil des ministres franco-allemand, en février 2014, la chancelière allemande, Mme Angela Merkel, a plaidé pour la création d'un réseau européen de communications pour éviter que les données des Européens transitent par les États-Unis. Ce projet, qui implique de contraindre les fournisseurs d'accès à Internet à stocker et traiter les données personnelles des citoyens de l'Union sur le territoire européen, requiert donc le développement du stockage et du traitement des données en Europe, via le cloud et le big data.

Parallèlement à ces initiatives, la Commission européenne a mis en place l'European cloud partnership (ECP), qui vise à développer les services et prestations d'informatique dans les nuages dans un cadre sécurisé.

L'European cloud partnership

L'European cloud partnership (ECP), ou partenariat européen en faveur de l'informatique en nuage, rassemble les entreprises et les pouvoirs publics afin de contribuer à la création d'un marché unique du numérique pour l'informatique en nuage en Europe. Il a été instauré dans le cadre de la stratégie numérique pour l'Europe 2010-2020, qui appelait à « mettre en place une stratégie européenne sur «l'informatique en nuage», notamment dans les domaines de l'administration publique et de la science ».

Ce projet commun, initié par la Commission européenne dans une communication de septembre 2012, se fonde sur ses projections prometteuses pour le secteur de l'informatique en nuage à l'échelle européenne : enregistrant actuellement une croissance de plus de 20 %, il pourrait peser près de 940 milliards d'euros dans le PIB communautaire et créer 3,8 millions d'emplois en Europe d'ici à 2020.

La stratégie définie par la Commission européenne dans le cadre de l'ECP poursuit quatre grands objectifs : garantir le transfert des données d'un prestataire de services en nuage à un autre, ou leur retrait complet ; établir un système de certification à l'échelle de l'Union pour les prestataires fiables ; élaborer des modèles de contrats d'informatique en nuage indiquant clairement les obligations contractuelles ; et créer un partenariat européen en faveur de l'informatique en nuage associant secteurs public et privé, afin de déterminer les besoins existants et de veiller à ce que le secteur européen des technologies de l'information puisse y satisfaire, de sorte que les entreprises soient plus compétitives face à la concurrence étrangère.

Composé de représentants de haut niveau du secteur de l'informatique et des télécommunications et de décideurs chargés des politiques publiques en matière de TIC249(*), le comité directeur de l'ECP a été invité à conseiller la Commission européenne sur les options stratégiques à suivre pour faire de l'informatique en nuage un moteur de croissance économique durable, d'innovation et de maîtrise des coûts des services publics. Dirigé par M. Toomas Hendrik Ilves, Président de la République d'Estonie, il a tenu sa première réunion le 19 novembre 2012 et a mis la dernière main à sa proposition de « Trusted Cloud Europe » le 13 février 2014.

Ces premières pistes d'action visent à :

- favoriser la confiance des utilisateurs (guides de bonnes pratiques, mise en place de standards européens de sécurité, création d'un code de bonne conduite des fournisseurs ...) ;

- lever les restrictions nationales en matière de localisation des données, proposition qui a suscité des réserves des autorités françaises.

La Commission européenne a présenté, le 26 juin, des lignes directrices sur le cloud visant à aider les utilisateurs professionnels à faire des économies en tirant le meilleur parti de ces services. Élaborées par un groupe de parties prenantes du secteur, dans le cadre de la stratégie de la Commission en matière de cloud, elles constituent une première étape vers la normalisation de la terminologie et des paramètres des accords de niveau de service (Service Level Agreements - SLA). Elles aideront les utilisateurs à vérifier que certains éléments essentiels figurent en termes clairs dans les contrats conclus avec les fournisseurs de services d'« infonuage ».

La Commission européenne va maintenant tester ces lignes directrices auprès des utilisateurs, en particulier des PME. Elles seront également examinées par le groupe d'experts en matière de contrats d'informatique « en nuage », mis sur pied par la Commission en octobre 2013.

Aux yeux de votre mission, le maître-mot de ce « cloud à l'européenne » doit être la sécurisation des données transférées, par contraste avec les solutions de pays tiers. Plusieurs degrés de sécurisation peuvent être envisagés à cet égard, dont il n'est pas certain que le plus radical soit le plus efficace, ou du moins le plus opérationnel.

d) La « fausse bonne idée » d'un cloud souverain pour répondre à une vraie menace

· Une volonté légitime de répondre au déficit de sécurité dû au caractère extraterritorial de la législation américaine

Le projet de créer un cloud européen souverain se justifie, selon ses promoteurs, par l'absence de protection suffisante des données confiées à des solutions fournies par des prestataires de pays tiers. Ce sont les hébergeurs américains, principaux acteurs du marché, qui sont naturellement au coeur des suspicions, du fait de la règlementation à laquelle ils sont soumis.

Les lois sécuritaires adoptées par les États-Unis dans les années 2000 (« Patriot Act », « FISA Act » ...) donnent en effet aux autorités américaines (FBI, CIA, NSA) d'importants instruments d'interception de données de toutes sortes détenues par des entreprises privées et leur permettant de faire avancer leurs investigations. Ces mêmes autorités, dans une interprétation extensive des textes, vont jusqu'à exiger la remise de données possédées par des entreprises ou filiales d'entreprises américaines situées hors des États-Unis, voire d'entreprises étrangères, européennes notamment, ayant seulement des relations d'affaires systématiques avec les États-Unis.

Les révélations de l'affaire Snowden ont mis en lumière avec acuité de tels risques. Ainsi que l'indique très explicitement la DGCIS, dans la contribution remise à votre mission, « il ne peut pas [...] être tout à fait exclu que les autorités américaines se considèrent en droit de requérir de prestataires français de cloud la communication de données : si les acteurs hexagonaux de cloud venaient à commercialiser leurs offres de cloud sur le marché américain, si leur actionnariat venait à être contrôlé par des intérêts américains ou si des implantations de serveurs étaient envisagées sur le sol américain, ces prestataires français deviendraient alors directement soumis au Patriot Act ».

Les entreprises européennes, au final, sont mal protégées de l'effet extraterritorial de la législation américaine, et hésitent à mobiliser les outils existants. Soucieuses de maintenir de bonnes relations avec les autorités américaines, elles n'invoquent ainsi que très rarement la loi dite « de blocage » du 26 juillet 1968250(*). Ainsi, insiste la DGCIS, « les entreprises françaises ou européennes qui recourent aux services de cloud de prestataires américains [...] ne disposent d'aucune garantie quant à la non-communication de ces données aux agences de sécurité américaine, voire aux risques d'intelligence économique ».

· Un projet de cloud souverain difficile à mettre en place en pratique

La solution d'un cloud souverain européen est la plus radicale et, partant, la plus attirante a priori pour sécuriser le développement de notre industrie et la protection de nos données. Elle consiste à exiger, outre l'implantation sur le territoire européen du data center fournissant le service de cloud, que la pile matérielle et logicielle le constituant soit entièrement européenne, voire française.

Ainsi, aucun composant de pays tiers - américain, notamment, mais aussi chinois - n'entrerait dans la fabrication du système. Il serait alors impossible à des entreprises ou agences étrangères d'introduire des mécanismes de surveillance cachés, comme des « chevaux de Troie », dans le matériel ou le logiciel en vue d'« interroger » le système à distance. C'est ce qui a conduit les États-Unis, de leur côté, à interdire à Huawei, équipementier chinois, de fournir des routeurs aux entreprises américaines.

Si cette approche est tentante en théorie, elle semble en réalité peu praticable. En effet, elle requiert de développer et produire en Europe l'ensemble de la plateforme cloud, depuis les puces électroniques jusqu'au service Saas. Or, selon la contribution fournie par l'Institut national de recherche en informatique et en automatique (INRIA), « cela n'est clairement pas réaliste », pour au moins deux raisons.

D'une part, l'Europe ne dispose pas forcément des capacités industrielles permettant d'assurer ce type de production rapidement et dans les volumes importants que nécessiteront le développement du cloud. Par ailleurs, l'interdiction de fournisseurs étrangers n'est pas une solution imparable : la multiplication des degrés de sous-traitance rend difficile la traçabilité des produits électroniques251(*) ; en outre, certaines solutions entièrement nationales n'ont pas empêché des cyberpiratages252(*).

Par ailleurs, d'un point de vue plus juridique, et selon l'analyse opérée par le ministère de la justice, un cloud européen ne garantirait pas l'application du seul droit européen pour les entreprises soumises à la fois à la règlementation de l'Union européenne et à la loi américaine, et ce quand bien même les données seraient localisées sur le sol européen.

« Méfions-nous donc de notre propension à renouer avec le cadre familier de la frontière ; pousser trop loin la logique de souveraineté, notamment en militant pour des clouds nationaux, pourrait nous faire perdre une bonne part des bénéfices que le partage des infrastructures et le cloud peuvent apporter », a ainsi alerté Bertrand de La Chapelle. « Certes, les abus constatés ne sont pas admissibles, mais préconiser, pour y remédier, la relocalisation des données et le cloud national reste une vue de court terme, qui pourrait provoquer une fragmentation, source de dommages irréparables à long terme. »

· Une exception envisageable pour les données les plus sensibles

En réalité, la solution du cloud souverain européen, si elle n'est pas généralisable pour l'ensemble des données pour des raisons de praticité et de coût, pourrait être indiquée pour une partie d'entre elles, à savoir les plus sensibles telles celles relatives à la défense ou à la fiscalité, qui touchent aux missions régaliennes de l'État, ou encore à la santé.

Une telle solution trouverait d'ailleurs un appui dans une récente décision de la Cour de justice de l'Union européenne253(*), qui invalide la directive européenne sur la conservation des données de 2006 du fait notamment qu'elle « n'impose pas une conservation des données sur le territoire de l'Union », et qu'ainsi elle « ne garantit pas pleinement le contrôle du respect des exigences de protection et de sécurité par une autorité indépendante, comme cela est pourtant explicitement exigé par la charte des droits fondamentaux de l'Union européenne », contrôle qui « constitue un élément essentiel du respect de la protection des personnes à l'égard du traitement des données à caractère personnel ».

Comme le souligne le ministère de la justice dans la réponse au questionnaire adressé par votre mission, la perspective d'un cloud européen pour les données sensibles serait favorable aux droits des justiciables français, car les détenteurs des données resteraient responsables du traitement réalisé dans l'Union européenne. Cela éviterait à des entreprises européennes, pour la gestion de ces données capitales, de faire appel à des sous-traitants et prestataires de cloud établis hors de l'Union. Il n'est pas non plus souhaitable que des collectivités publiques confient la gestion de leurs données sensibles à des prestataires non européens, comme l'a fait la région de Bretagne en confiant ses données de santé à Amazon.

Pour les autres données que ces données d'une particulière importance, il ne serait donc pas nécessaire de requérir un cloud européen souverain, mais des solutions plus souples, comprenant une partie plus ou moins grande d'externalisation hors Union, mais dont les procédures feraient l'objet d'une certification garantissant leur sécurité.

e) La préférence pour un dispositif général de labellisation de services cloud sécurisés

Plutôt que de développer un dispositif de cloud souverain paraissant peu réaliste, les analystes semblent converger sur la nécessité de sécuriser l'usage du cloud, en favorisant l'émergence d'une offre qui se différencie par sa qualité et sa transparence. Créer un cadre pour restaurer la confiance des utilisateurs, c'est le principe qui doit guider l'intervention publique en ce domaine : après l'affaire Snowden, trop d'entreprises - cela a été rappelé à plusieurs reprises lors des auditions - hésitent aujourd'hui à mettre leurs données sur le cloud pour des raisons de sécurité et de confidentialité.

Cette volonté de conforter les opérateurs en sécurisant le cloud est justement l'objectif de la première des propositions du rapport Breton-Klaba. Elle rejoint d'ailleurs en cela les préoccupations de l'ECP, l'initiative franco-allemande et les propositions du Parlement européen. Cette proposition vise à définir « une classe de services labellisée « Secure Cloud » », ouvrant à leurs détenteurs une sorte de « permis d'opérer » dans ce secteur.

Selon ses auteurs, les opérateurs s'engageant dans cette voie proposeraient un « référentiel de conditions contractuelles types » touchant notamment à la sécurité, à l'accès au service, à la confiance et surtout à la localisation des données et de leur traitement. À cet égard, et sauf exception approuvée par le client, les infrastructures et les données, ainsi que leur traitement, se situeraient dans une « zone de confiance » formée par les pays adhérant aux recommandations de l'ECP.

Votre mission observe malgré tout qu'une telle zone de confiance ne serait pas à l'abri de l'application extraterritoriale des lois américaines. Lors de son audition, M. Thierry Breton a considéré que « les données des Européens doivent être stockées et processées en Europe. C'est là un point sur lequel il ne faut pas transiger : nos données nous appartiennent. » Il a préconisé, dans cet esprit, qu'une politique d'opt-in, c'est-à-dire de consentement préalable, soit mise en oeuvre par les pays qui s'accordent sur une approche régulatrice du traitement et du stockage des données, voyant dans l'Allemagne et la France deux pays moteurs pour l'initier.

M. Philippe Lemoine a également estimé nécessaire, « si l'on veut mettre en avant l'idée que nous pouvons offrir une industrie de l'hébergement de données plus digne de confiance que l'industrie américaine, [...] qu'existent des mécanismes juridiques ad hoc ». À cet égard, il a souligné que « la clarté des normes techniques appliquées à un traitement et la capacité à prouver, par un contrôle effectif, que la pratique des entreprises est bien conforme à la loi, sont des exigences déterminantes ».

Toutes ces idées visant à sécuriser le cloud par des mécanismes juridiques adaptés rejoignent d'ailleurs la proposition n° 8 du précédent rapport de votre rapporteure, qui consistait, « au nom de la sécurité, [à] conditionner dans l'Union européenne l'achat d'équipements hautement stratégiques, comme les routeurs de coeur de réseaux, à leur labellisation par une autorité nationale ou européenne de sécurité, afin de se prémunir contre l'espionnage par les pays fournisseurs de tels équipements à bas prix, comme la Chine ».

La labellisation préconisée par le rapport Breton-Klaba, qui s'étendrait donc à l'ensemble des éléments constitutifs du cloud
- infrastructures, plateformes et logiciels - serait ouverte à tous les opérateurs mettant effectivement en oeuvre ces bonnes pratiques, sans condition de nationalité. Un acteur européen d'émission de certificats de sécurité gagnerait à être promu pour institutionnaliser les procédures et renforcer la confiance dans le dispositif.

Ainsi que le préconise également le rapport Breton-Klaba, le lancement d'un appel à projets du Commissariat général à l'investissement (CGI) sur les solutions de sécurité cloud permettrait de valider l'approche au regard des préconisations des autorités françaises (ANSSI, CNIL) et européennes, notamment en matière de cybersécurité, et de compléter l'éventail des offres existantes.

Proposition n° 38 : définir une classe de services labellisés « Secure cloud », faisant l'objet de cahiers des charges stricts et protecteurs, et promouvoir un acteur européen compétent pour émettre des certificats de sécurité correspondants.

f) Mobiliser le levier de l'achat public

Le recours au cloud par l'ensemble des personnes publiques - État, agences, instituts de recherche, collectivités... - est source de nombreux avantages : optimisation des investissements, réduction des coûts de fonctionnement, amélioration des services rendus aux États-Unis... De plus, l'exemplarité des pouvoirs publics en la matière serait de nature à créer un effet d'entraînement sur les acteurs privés, et de permettre d'accéder à une masse critique rendant le prix des services plus attractif.

Les facilités et atouts du cloud s'inscrivent en effet dans les préoccupations d'économie des pouvoirs publics. Ainsi, les 500 à 800 millions d'euros d'économies demandées par le Premier ministre lors du Comité interministériel de modernisation de l'action publique (CIMAP) du 18 décembre dernier au secrétariat général pour la modernisation de l'action publique (SGMAP) et à la direction interministérielle des systèmes d'information et de communication (DISIC) seraient plus aisément atteints en recourant au cloud.

Dans cette perspective, le rapport Breton-Klaba préconise deux types de mesures de nature à développer le cloud grâce à une impulsion publique. La première serait d'utiliser les marchés publics informatiques comme un « puissant levier du passage au cloud ». Les procédures d'achats de la puissance publique devraient, dans cette perspective, être conçues pour permettre une réponse en mode cloud, ce qui n'est pas le cas aujourd'hui, le plus souvent. À l'inverse, les responsables administratifs devraient être fortement incités à intégrer une part de services cloud dans les réponses sélectionnées.

Surtout, les réponses aux marchés publics utilisant les services labellisés « Secure Cloud » devraient bénéficier d'une attention accrue de la part des pouvoirs publics, dès lors que cette certification garantit le respect des principes de qualité et de sécurité de service poursuivis par l'action publique.

Cet objectif de systématisation du recours au cloud dans la commande publique rejoint la proposition n° 21 du rapport précité de votre rapporteure, qui visait à « encourager l'achat public avant commercialisation de services européens de fourniture de contenus et d'applications numériques, afin d'accompagner le développement des start-up européennes et, pour ce qui concerne les services de cloud computing, de sécuriser les données personnelles des Européens ».

La seconde proposition consiste à mettre en place, sur des plateformes cloud de type « Appstore » ou « Androïd market », des applications validées à destination des personnes publiques et présentant toutes garanties en termes d'adéquation aux besoins et de sécurisation des données.

Ce concept de « place de marché », où un certain nombre de solutions de cloud pourraient être pré-référencées par un processus centralisé, puis mises à la disposition des organismes publics, ferait l'objet d'une obligation de consultation avant tout autre processus d'achat. Une telle contrainte faciliterait son adoption et accélèrerait l'atteinte d'un objectif légitime de « retour sur investissement ».

Proposition n° 39 : mieux intégrer les solutions cloud dans la commande publique et mettre en place un espace de services cloud sécurisés à destination des administrations publiques.

4. Exploiter les atouts européens en matière de sécurité sur l'Internet
a) L'importance du chiffrement dans la sécurisation des échanges sur l'Internet

La sécurisation des échanges sur l'Internet peut être favorisée par des procédés de cryptographie tels que le chiffrement et le codage254(*). Le chiffrement consiste ainsi à rendre impossible la compréhension d'un document à toute personne n'en possédant pas la clef de déchiffrement, l'algorithme utilisé n'étant quant à lui pas spécialement protégé.

L'usage de logiciels de chiffrement a longtemps été interdit en France pour des raisons de sécurité publique. Ainsi n'était-il pas permis, jusqu'il y a moins d'une vingtaine d'années, de recourir au PGP (Pretty Good Privacy), l'un des premiers logiciels de ce genre disponible sur l'Internet. C'est la loi du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN) qui a totalement libéralisé l'usage de tels logiciels, tout en maintenant leur importation ou exportation à déclaration ou autorisation.

La complexité croissante des systèmes informatiques intégrés accroît leur fragilité et leur exposition aux virus et menaces de toutes sortes, qui plus est du fait de dispositifs de protection souvent insuffisants. Le danger est aujourd'hui bien présent, et ce dans des secteurs sensibles. Devant votre mission, le responsable de Netopia, Per Strömbäck, a par exemple fait état de la vulnérabilité des codes utilisés par les centrales nucléaires américaines. Il a également attiré l'attention sur les conséquences de la diffusion des attaques liées à la faille de sécurité Heartbleed jusque dans le centre fédéral des impôts canadiens. On pourrait ajouter à cette liste les attaques dont a été victime l'opérateur historique belge Belgacom, en septembre 2013.

L'INRIA, dans la contribution qu'elle a adressée à la mission d'information, attire l'attention sur la vulnérabilité de l'Internet et les conséquences potentiellement délétères d'une corruption de grande ampleur. « Pour les mots de passe, il arrive trop souvent que les bases de données des sites web ne soient pas chiffrées (ou faiblement) et que des grands ensembles de mots de passe se retrouvent dans le domaine public. [...] De plus, une grande partie du chiffrage des communications repose sur le protocole SSL (https par exemple). Hors, tout comme les noms de domaines, les certificats SSL utilisés pour l'authentification du serveur reposent sur une structure stricte et très contrôlée par les ÉTATS-UNIS. La corruption du système de certificat aurait des impacts encore plus grands en termes de sécurité que celles des serveurs DNS. En effet, il serait possible de se faire passer pour un site commercial ou gouvernemental et de lire les informations envoyées entre les utilisateurs et le site. »

Or, la cryptographie peut contribuer à se prémunir contre ces risques d'intrusion en ligne. L'Américain Bruce Schneier, l'un des experts en sécurité mobilisés sur l'étude des documents de la NSA, mais aussi Edward Snowden, ont plaidé en faveur d'un usage généralisé du chiffrement. Les travaux récents de l'IETF et du W3C se sont également intéressés à ces moyens de protéger la confidentialité de l'Internet : la future version « 2.0 » du protocole Http, utilisée pour naviguer sur le web, serait chiffrée par défaut, tandis que le réseau Tor - réseau mondial décentralisé favorisant l'anonymat - serait étudié comme un futur standard255(*).

De plus, nous possédons sur le territoire européen d'excellents spécialistes de la cryptographie, dont le recours pourrait nous être précieux pour sécuriser les transferts de courriels, fichiers et données. M. Louis Pouzin a ainsi vanté les mérites de nos « très bons ingénieurs du chiffre, que l'on pourrait valoriser » selon lui, tandis qu'Edward Snowden a fait référence à l'excellence des cryptographes belges.

b) Une place à prendre pour l'Europe dans le domaine de la sécurité de l'Internet

Il résulte des éléments précédents que le chiffrement est une technologie dotée d'une utilité reconnue par les experts, et dont l'Europe possède la maîtrise. En conséquence, il y a là une réelle « carte à jouer » pour développer des solutions de cryptographie plus poussées, qui soient adaptées à la nature des différents besoins et deviennent des références à l'échelle internationale.

Favorable au développement de la cryptographie, dans laquelle il voit un instrument propre à renforcer la protection de l'Europe vis-à-vis, notamment, des systèmes d'investigation américains, M. Louis Pouzin a proposé d'adapter le chiffrement aux besoins : « on peut chiffrer faiblement des choses qui n'ont pas grande importance, comme le courrier personnel, certains rapports, ..., mais lorsque le sujet devient critique, il faut des chiffres très difficiles à casser, susceptibles de poser de sérieux problèmes aux attaquants ».

Il a également plaidé pour rendre plus faciles à utiliser les certificats, qui permettent d'institutionnaliser la pratique de certains chiffrements en cas de transfert d'argent ou de données personnelles exigeant un haut degré de sécurisation. Du fait d'une interface inaboutie avec les personnes, l'actuel système, PGP, serait en effet « assez barbare et décourageant ».

Proposition n° 40 : développer les compétences européennes en matière de chiffrement, notamment en facilitant l'utilisation de certificats.

c) Sécuriser juridiquement l'Internet en promouvant le recours à des noms de domaine sous juridiction française ou européenne

Les extensions de noms de domaine se référant à des territoires européens offrent une sécurité pour les acteurs européens de l'écosystème numérique, en ce qu'elles les placent sous le ressort des juridictions européennes.

Lors de son audition, M. Mathieu Weill, directeur général de l'Association française pour le nommage Internet en coopération (AFNIC), indiquait : « notre mission de service public est de développer le « .fr », qui comprend environ 2,5 millions noms de domaine, face au « .com » qui demeure leader, y compris en France. Or le fait d'être enregistré en « .com » donne un point d'appui à la juridiction américaine. » Ce dernier point est d'autant plus important que, contrairement au registre des noms de domaine en « .com », la base de données associée à la gestion des noms de domaine en « .fr » n'est pas publique : ces données ne sont communiquées qu'aux autorités françaises et seulement si elles en font la demande sur la base d'un fondement légal.

Votre mission se réjouit que « la base de données enregistrée en France demeure l'une des plus protectrices au monde », selon les mots de M. Mathieu Weill. Elle déplore en revanche que le « .fr » ne soit classé qu'au quatorzième rang mondial avec 2 652 702 noms de domaine enregistrés en septembre 2013. Cela le place certes juste devant Italie, l'Argentine et la Pologne, mais bien après le « .de » géré par l'équivalent allemand de l'AFNIC, la DENIC eG, qui compte plus de 15 730 000 noms de domaine et même le « .nl » néerlandais qui comptabilise en mars 2014 près de 5 441 358 noms de domaine. L'extension « .nl » se classe ainsi en neuvième position mondiale et représente 73,5 % de parts de marché aux Pays-Bas.

Classement mondial des extensions pays au mois de septembre 2013256(*)

Rang de classement

Extension

Nombre de noms de domaine enregistrés

1

.com - Générique

111 476 933

2

.tk - Tokelau, Gratuit

19 118 740

3

.de - Allemagne

15 504 792

4

.net - Générique, Réseaux

15 460 439

5

.co.uk - Royaume-Uni

10 460 115

6

.org - Générique, Organisation

10 284 293

7

.cn - Chine

7 808 360

8

.info - Générique

6 691 674

9

.nl - Pays-Bas

5 309 125

10

.ru - Russie

4 757 635

11

.eu - Union Européenne

3 703 240

12

.br - Brésil

3 280 402

13

.au - Australie

2 730 138

14

.fr - France

2 652 702

15

.it - Italie

2 586 024

16

.ar - Argentine

2 500 000

17

.pl - Pologne

2 456 407

18

.biz - Générique

2 408 791

19

.ca - Canada

2 118 521

20

.us - États-Unis

1 844 661

Pour les raisons juridiques susmentionnées et afin de mieux ancrer la France dans le cyberespace, votre mission estime donc souhaitable une meilleure diffusion du « .fr ». L'Union européenne devrait aussi promouvoir plus largement le recours au « .eu ».

Proposition n° 41 : promouvoir la diffusion du « .fr » et du « .eu ».

5. Préparer la place de l'Europe dans l'Internet de demain
a) Promouvoir l'open source et les logiciels libres
(1) Une approche alternative aux univers fermés en plein développement

Face à la progression des systèmes fermés et des considérations marchandes dans l'univers de l'Internet, les logiciels open source ou « libres » constituent des alternatives intéressantes pour l'Europe et la France, en ce qu'ils rompent avec les « logiques de rente et de commercialisation » dénoncées devant votre mission par M. Francesco Ragazzi, et qu'ils maintiennent la maîtrise des utilisateurs sur les systèmes.

M. Jérémie Zimmermann a insisté, dans cet esprit, sur l'importance, face à une montée en puissance depuis une quinzaine d'années des logiciels et matériels fermés, de se « concentrer sur les valeurs universelles à défendre sans compromis », parmi lesquelles « l'ouverture et la maîtrise des technologies par les citoyens », qui passent notamment par le développement des logiciels libres. Même analyse pour Roberto di Cosmo, selon lequel « il faut encourager les logiciels libres et les formats ouverts, qui sont la clé de la maîtrise de la technologie ».

Open source et logiciels libres :
un même produit pour deux approches différentes

Si open source et logiciel libre décrivent à peu près le même type de produits, c'est-à-dire des logiciels dont l'utilisation, l'étude, la modification et la reproduction sont autorisées techniquement et juridiquement, les deux concepts sont porteurs de valeurs et approches fondamentalement différentes257(*).

Les deux communautés, qui n'en faisaient qu'une à l'origine, ont « divorcé » à la fin des années 90, lorsque ceux défendant l'open source voulurent mettre en avant les aspects de puissance et de fiabilité, tout en rejetant les valeurs morales véhiculés par le mouvement à l'origine.

L'open source est ainsi devenu une méthodologie de développement basée sur des considérations pratiques : selon ses partisans, les logiciels non libres représentent des solutions sous-optimales aux problématiques à résoudre. Au coeur de l'open source, se trouve la faculté, reconnue à l'utilisateur, d'accéder aux codes sources du logiciel.

Les défenseurs du logiciel libre s'inscrivent davantage dans un mouvement de société défendant des valeurs éthiques et philosophiques : liberté, solidarité sociale, partage et coopération. Les droits relatifs aux logiciels libres peuvent être soit disponibles (s'ils relèvent, par exemple, du domaine public), soit établis par une licence dite « libre ».

Open source et logiciel libre se retrouvent toutefois dans leur hostilité au logiciel propriétaire ou privateur, c'est-à-dire non libre, sur lequel seul le développeur dispose de droits.

Open source et logiciels libres ne sont pas forcément synonymes de gratuité. Même si ce n'est pas le plus courant, ils peuvent faire l'objet de rémunérations pour couvrir les travaux de création, développement et soutien technique. À l'inverse, un logiciel gratuit (ou « freeware ») n'est pas forcément un logiciel libre, dans la mesure où son code source n'est pas systématiquement accessible, et où la licence ne correspond pas toujours à la définition du logiciel libre.

D'un niveau de qualité et de fiabilité en progression constante, les logiciels libres ont intégré, ces dernières années, les systèmes d'information de nombreuses entreprises, des PME aux grands groupes : environnements serveurs, domaines applicatifs, outils d'ingénierie, solutions de sécurité... Ils ont également investi les administrations, tant au niveau centralisé qu'à celui des agences de l'État ou des collectivités : l'exemple le plus emblématique est la gendarmerie nationale, dont les ordinateurs ont migré vers Linux.

Le Conseil national du logiciel libre (CNLL) a rendu compte du succès croissant des formats libres de logiciels : représentant 6 % de l'ensemble des logiciels et services, soit une valeur de 2,5 milliards d'euros, ils occupent 30 000 personnes - dont 3 000 chez les « pure players » - réparties dans 300 entreprises, essentiellement des PME et TPE. La filière, qui a crû de 68 % en 2012, devrait avoir progressé de 83 % en 2013.

Début 2013, le succès du logiciel libre tient à plusieurs raisons :

- il est source d'économies et de compétitivité : en rendant, comme l'observe le Premier ministre dans la circulaire DISIC258(*) de septembre 2012259(*), un service égal ou supérieur, pour un coût sensiblement moindre, aux entreprises et administrations qui le déploient, le logiciel libre est un atout en temps de crise car il améliore de manière immédiate la compétitivité de l'ensemble de notre industrie ;

- il permet aux entreprises, et notamment aux plus petites, d'innover à moindre coût et ainsi de monter en gamme : selon le cabinet d'étude Forrester260(*), l'innovation dans le logiciel est aujourd'hui dix fois moins onéreuse qu'il y a dix ans grâce au logiciel libre. Accélérant les échanges et s'opposant à un « verrouillage » durable du marché, il pousse en effet les acteurs économiques à se démarquer par l'innovation ;

- il permet de réduire la dépendance, stratégique et économique, de la France vis-à-vis de fournisseurs étrangers : « En ces temps de vaches maigres, on trouverait bien des avantages à utiliser des programmes ouverts comme LibreOffice, OpenOffice ou Firefox au lieu de verser des fortunes à Microsoft » a ainsi souligné M. Francesco Ragazzi ;

- il est plus protecteur en termes de sécurité : ainsi que l'a expliqué M. Francesco Ragazzi, il « laisse à la communauté les mains libres pour remédier aux failles de sécurité et prévenir la pratique des backdoors » et, en outre, permet « d'assurer la confidentialité de la navigation sur Internet », telle que celle qui a donné naissance au réseau Tor261(*).

(2) Des compétences nationales qu'il faut encourager par une politique adaptée

La France est parmi les pays les plus en pointe dans le domaine du logiciel libre. Ainsi que le notait une étude du cabinet Pierre Audoin Consultants de 2012262(*), « la France reste le marché phare du logiciel libre dans le monde, avec de nombreuses compétences de haut niveau qui ont une influence non négligeable dans les communautés ».

C'est donc la bonne formation et les aptitudes reconnues de sa main d'oeuvre qui déterminent l'avance dont la France bénéficie dans ces technologies, dont le rapport anticipe qu'elles pourraient représenter 9 % du marché des logiciels et services en 2015.

Depuis 2003, plusieurs clusters et associations d'entreprises du logiciel libre ont été mis en place en vue de fédérer les moyens et les projets développés dans le secteur : Prolibre, Libertis, Alliance libre, GTLL, PLOSS, PLOSS RA et Aquinetic, répartis sur l'ensemble du territoire et regroupés au sein du CNLL. Ce riche écosystème a donné naissance à plusieurs jeunes pousses en pleine ascension, à l'image de la première d'entre elles, l'éditeur de logiciels libres Talend.

Notre pays dispose donc d'importantes ressources et compétences dans le domaine du logiciel libre, qu'il lui faut aujourd'hui pousser davantage pour maintenir et conforter cet atout économique autant que stratégique.

· Conserver une approche prudente dans le recours aux logiciels libres sans obérer leur développement

En premier lieu, certains écueils doivent être évités afin de ne pas brider la croissance de la filière. À ce titre, il convient d'abord de conserver une certaine prudence, et ne pas voir dans le logiciel libre une « solution miraculeuse » : en témoignent les attaques récentes liées à la faille de sécurité Heartbleed, découverte au sein de la bibliothèque de cryptographie open source OpenSSL, à l'occasion de corrections proposées par un développeur bénévole et validées par l'équipe Open SSL263(*). En ce sens, la publication du code source, qui caractérise le logiciel libre, le rend davantage susceptible de modifications pouvant le corrompre, en même temps qu'elle permet également de les repérer et corriger plus facilement.

Par ailleurs, le logiciel libre n'est pas synonyme de protection des petits développeurs et des PME contre les grands éditeurs de logiciels et les multinationales de l'informatique. Ainsi, de grands groupes participent fréquemment à la mise au point de logiciels libres : IBM a largement contribué à la création du système d'exploitation GNU/Linux, tandis que le système Androïd est la propriété de Google264(*). Du reste, comme l'a souligné M. Roberto di Cosmo, « les services qui font fonctionner Internet aujourd'hui
- chez Google, Facebook, Tweeter ou Amazon - utilisent une quantité de logiciels libres impressionnante
 ».

Enfin, et en rapport avec l'observation précédente, il convient de veiller à ne pas brider excessivement l'innovation des PME en brevetant les logiciels. Cette limite a été observée par la mission lors de son déplacement aux États-Unis : certaines grandes entreprises du secteur des TIC y ont déposé des brevets sur des algorithmes cruciaux dans le fonctionnement de logiciels libres, rendant leur accès plus délicat et onéreux pour de petits entrepreneurs. Par ailleurs, la « guerre des brevets » que se livrent par tribunaux interposés Apple et Samsung depuis 2012265(*) illustre bien les risques de blocage de l'innovation qu'entraîne la brevetabilité des logiciels.

La promesse de campagne faite par l'actuel Président de la République en avril 2012, selon laquelle il fallait veiller « à ce que la mise en oeuvre du brevet communautaire ne soit pas l'occasion de légitimer les brevets sur les logiciels », mériterait à cet égard d'être réaffirmée et réactualisée.

Proposition n° 42 : veiller à la préservation du principe européen de non brevetabilité des logiciels.

· Développer l'usage des logiciels libres dans un cadre sécurisé

Mais la défense des logiciels libres passe également, dans une perspective plus dynamique, par la promotion de leur recours et de leur usage dans les entreprises et les administrations nationales et communautaires.

La circulaire du Premier ministre « Usage du logiciel libre dans l'administration » de septembre 2012 constitue une première reconnaissance par l'État de l'intérêt du logiciel libre pour les structures publiques. « Moindre coût, souplesse d'utilisation, levier de discussion avec les éditeurs » sont ainsi énumérés et font l'objet d'amples développements.

Toutefois, de l'avis des communautés de soutien, ce texte n'irait pas assez loin, notamment sur la question des standards ouverts266(*) et de la généralisation de ce type de logiciels.

Continuer de progresser dans la voie du logiciel libre signifie aujourd'hui, pour les pouvoirs publics, favoriser une migration progressive d'une partie croissante de leur parc informatique vers les logiciels libres. Cela peut passer, notamment, par une préférence pour les logiciels libres dans les procédures d'appel d'offre des achats publics ainsi que par l'imposition de standards ouverts.

D'autres pays vont encore plus loin, comme l'Italie qui, ainsi que l'a rapporté M. Roberto di Cosmo, a publié une circulaire imposant à toutes les administrations des règles draconiennes en faveur des logiciels libres. La responsabilité des fonctionnaires, notamment, peut être invoquée s'ils recourent à un logiciel propriétaire alors qu'il existe un logiciel libre équivalent.

En outre, il paraîtrait de bonne politique d'encourager l'usage des logiciels libres dans les enseignements informatiques. Basé sur l'ouverture et la collaboration, valeurs en phase avec la démarche scientifique, le logiciel libre peut être étudié librement de droits. Et la formation supérieure aux méthodes de création de logiciels libres peut conduire à d'importants débouchés professionnels.

À cet égard, ainsi que l'a souligné M. Roberto di Cosmo, « il faut aussi avoir les compétences pour se servir des logiciels libres. Je l'observe en permanence : tous les étudiants en informatique trouvent un emploi presque immédiatement. »

Proposition n° 43 : encourager le développement des logiciels libres par leur intégration dans les marchés publics et par l'imposition de standards ouverts, à condition de développer les compétences pour l'utilisation de ces logiciels et standards.

b) Affirmer la place de l'Union européenne dans les organes de standardisation
(1) La standardisation, un enjeu allant bien au-delà de considérations purement techniques

La question des standards revêt une importance, dans la gouvernance mondiale de l'Internet, allant bien au-delà d'un simple enjeu technique. Leur définition répond en effet à des considérations d'ordre politique et économique, qui excèdent donc largement la simple mise au point de protocoles.

D'une façon générale, le rapport Revel sur l'influence normative de la France souligne combien « le numérique met en jeu des options juridiques et politiques dans toutes les industries » et comment « la gestion du numérique mêle inextricablement le technique et le politique, le privé et le public et demande une doctrine de l'État et une stratégie à long terme, qui pourrait passer aussi par la normalisation267(*) ».

Ainsi que le souligne M. Jérémie Zimmermann, « les décisions d'ordre technique sont prises par l'IETF et le W3C, organes de standardisation, or elles ont un impact réel sur l'Internet au jour le jour, sur la structuration du réseau ». En outre, ajoute-t-il, ces « organes de standardisation de l'Internet sont étroitement encadrés par la NSA, sous prétexte de préoccupations techniques, comme cela a été le cas pour l'IPsec (Internet Protocol Security). Il faudrait donc davantage prendre en compte la nature politique de ces standards. »

Selon le rapport Revel, ces organes de standardisation sont d'une importance majeure et il est « nécessaire d'y être car les protocoles techniques sont parfois des choix qui ont des conséquences sur les citoyens ».

Pour M. Pierre-Jean Benghozi également, « l'IETF, l'organisme de standardisation des protocoles Internet, a [...] soulevé bien des critiques », dont celle consistant à s'inscrire dans un « environnement de régulation axé sur la technique alors que les enjeux peuvent aller bien au-delà, et se chiffrent en milliards de dollars ».

Or, il existe une asymétrie d'influence entre un État et le reste du monde dans la définition de ces standards. Ainsi que le pointe Mme Pauline Türk, le « World Wide Web consortium (W3C) rassemble quatre cents entreprises partenaires ; sa gestion relève du Massachusetts Institute of Technology (MIT). Les standards développés par l'Internet engineering task force (IETF) sont également issus du monde anglo-saxon. »

Cette surreprésentation de l'influence anglo-saxonne, et nord-américaine plus précisément, va de pair avec une présence trop diluée des représentants européens et nationaux. Comme le constate M. Mathieu Weill, l'AFNIC prend part aux « forums de standardisation tels que l'IETF, avec quelques autres acteurs français tels que Orange et l'Université Paris 6, sur des questions de réglementation technique et de sécurisation des données personnelles ». Or, ajoute le directeur général de l'AFNIC, « sur 2 000 participants internationaux, nous envoyons deux ingénieurs, pour vous donner une idée de la faible participation française ».

Ainsi que le souligne le rapport Revel d'une façon plus générale, notre pays est représenté dans ces instances « surtout [par] des chercheurs de très haut niveau qui y contribuent en scientifiques désintéressés économiquement et politiquement. Ils n'ont pas d'objectifs industriels, qu'on ne leur a pas donnés du reste. Les Américains et les Chinois y vont avec des feuilles de route et des instructions dans le but de promouvoir leurs industries, leurs groupes, leurs normes. »

(2) L'importance d'une présence européenne dans les enceintes de standardisation

La présence européenne dans les structures élaborant les standards de l'Internet est essentielle, car la bataille des normes conditionne - en partie au moins - toutes les autres. Autant l'Europe est très présente sur le front de la protection des libertés individuelles, à travers des structures institutionnelles dédiées, autant la régulation par les normes - la smart regulation - lui fait défaut en matière industrielle.

Comme le souligne Vincent Champain, « la régulation, au niveau européen, n'est pas homogène. Il existe autant de spécifications que de pays. En matière de normes, on a raté le coche. » Or, il y a là une problématique économique d'une importance première, pour laquelle l'Europe aurait intérêt à se rapprocher des États-Unis afin de déterminer ensemble les standards de demain, qui seront ensuite repris par le reste de la planète. « Nos normes ne s'imposeront pas si nous jouons seuls », souligne Vincent Champain. « L'enjeu central est bien [...] d'avoir, en copropriété avec les Américains, des normes susceptibles de s'imposer par la masse critique. »

· La standardisation de l'Internet en tant que tel

Ce besoin de « plus d'Europe » dans l'établissement des normes et standards de demain vaut, bien sûr, pour ce qui est de la régulation du net dans son acception la plus stricte.

De nombreux organismes participent à l'élaboration des standards de l'Internet - comme le W3C, l'Open Grid Forum (OGF), l'Institute of Electrical and Electronics Engineers (IEEE), l'European Telecommunications Standards Institute (ETSI), l'Internet Engineering Task Force (IETF) ou l'Union internationale des télécommunications (UIT). Ces trois derniers méritent que l'on s'attarde plus spécifiquement.

L'ETSI a mis sur pied un comité technique Cybersécurité (TC CYBER) en avril dernier. Il travaillera en étroite collaboration avec l'ensemble des acteurs du secteur, en interne et en externe, pour collecter, identifier et spécifier les besoins dans le domaine. Ce travail permettra à l'ETSI de développer les normes adéquates et d'améliorer la protection de la vie privée et la sécurité des entreprises et des particuliers au sein de l'Europe. Plus de 100 organisations provenant de l'industrie et du monde académique ont déjà manifesté leur intérêt de rejoindre ce nouveau comité technique.

Quant à l'IETF, il occupe une place spécifique dans la standardisation de l'Internet. Il s'agit, on l'a vu plus haut, d'une organisation ouverte où les participations sont individuelles et libres, mais où leur poids est directement lié à la capacité d'agir et à la qualité des propositions de protocoles formulées. L'objectif premier de l'IETF est de produire des spécifications de protocoles appelées RFC les plus efficaces, les plus simples et les plus lisibles possibles. Pour cela, quelques règles simples sont mises en oeuvre, telles que la discussion et la publication de ses documents.

À titre indicatif, l'IETF produit environ 250 RFC par an, dont la moitié de propositions de standards. Chaque année, deux à trois de ces propositions deviennent des standards aboutis ayant un caractère obligatoire. L'implication de la France est notable dans ce processus et représente 4 % de cette production à travers des auteurs issus du monde académique et industriel (France-Telecom, Orange, INRIA, AFNIC, Alcatel Lucent, Renater, SFR, Bouygues Telecom, Institut Telecom...).

Enfin, l'UIT est organisée en trois groupes de travail, dont l'un, l'UIT-T, traite des questions techniques et de normalisation. L'UIT-T produit principalement des recommandations ; plus de 3 000 d'entre elles sont en vigueur à l'heure actuelle. Elles constituent des normes qui définissent les modalités d'exploitation et d'interfonctionnement des réseaux de télécommunication. Bien que non contraignantes, elles sont généralement respectées en raison de leur qualité élevée, et du fait qu'elles garantissent l'interconnectivité des réseaux et permettent de fournir des services de télécommunication dans le monde entier.

Un accord de coopération a par ailleurs été conclu entre le CEN (Comité européen de normalisation), le CENELEC (Comité européen de normalisation en électronique et en électrotechnique) et l'ENISA (Agence européenne chargée de la sécurité des réseaux et de l'information), en juillet 2013, pour travailler ensemble au cours des années à venir sur un ensemble de questions liées à la cybersécurité et à la normalisation.

Le rapport Revel s'interroge, à ce niveau très général de « régulation du web », sur l'opportunité d'organiser à l'échelon ministériel une rencontre régulière entre dirigeants privés et publics sur la question de la normalisation, pour envisager une stratégie d'ores et déjà européenne, à visée internationale. Il préconise d'y associer l'APIE (Agence du patrimoine immatériel de l'État), du fait des aspects « protection des données » et « propriété intellectuelle ».

En tout état de cause, il est impératif pour l'Union européenne de « pousser » à la prise en compte de ses critères de standardisation, que ce soit au moyen d'instances européennes dédiées (ETSI) ou dans des organisations internationales (IETF, UIT).

Proposition n° 44 : conforter, au service d'objectifs industriels, la présence de l'Union européenne dans les grandes instances internationales de standardisation de l'Internet et développer les travaux menés par les organisations spécifiquement européennes en ce domaine.

· La standardisation des secteurs et technologies liés à l'Internet

Mais au-delà de cette coordination très générale, il conviendrait que l'Europe et la France s'intéressent de plus près à tous les « micro-enjeux » de standardisation d'un niveau inférieur, qui peuvent se révéler également cruciaux pour l'avenir de notre industrie et de nos emplois.

Cette analyse a été clairement faite par Mme Valérie Peugeot devant la mission. Selon elle, « les acteurs européens gagneraient également à investir davantage les espaces où se construisent les normes et les protocoles de demain, dans lesquels ils sont sous-représentés. J'ajoute que c'est dans des domaines nouveaux comme l'Internet des objets ou de la ville intelligente que se construisent les standards de demain : en l'absence d'espace de gouvernance, ce sont les entreprises américaines qui tirent le processus. Si bien que l'on risque de voir disparaître les standards ouverts, interopérables, qui ont présidé à la création de l'Internet et fait la philosophie originaire du web, qui mérite d'être préservée. »

L'exemple de l'Internet des objets est à cet égard éclairant. Cette filière va acquérir un poids substantiel dans l'économie : d'après les dernières prévisions publiées par le cabinet d'études Gartner268(*), le monde devrait recenser 26 milliards d'objets connectés à l'Internet à l'horizon 2020, pour un marché qui pèserait alors quelques 300 milliards de dollars. Or, ainsi que le souligne M. Daniel Nabet, président du Centre national de référence RFID (CNRFID), « aujourd'hui encore, trop peu d'entreprises et d'organisations françaises et européennes sont présentes dans les instances de normalisation, pour définir et influencer les standards de demain, ce qui place notre pays et notre continent dans une position de suiveurs par rapport à des règles définies par d'autres269(*) ».

La première version du standard ONS (Object Naming Service), service de nommage pour les objets de l'Internet, a été mise en oeuvre en 2008 par la société VeriSign, qui est également à l'origine du système DNS. Il a fallu près de cinq ans de travaux conjoints, menés principalement par des acteurs français, notamment GS1 France270(*), Orange, l'INRIA et l'AFNIC, pour aboutir à l'adoption d'un nouveau standard - dit ONS 2.0 - s'appuyant sur un système fédérant plusieurs racines, évitant ainsi une dépendance stratégique supplémentaire de l'Europe vis-à-vis des États-Unis. Or, les États-Unis risquent de reprendre les devants, car ils viennent de regrouper les grands acteurs américains du secteur - IBM, Intel, Cisco, AT&T et General Electrics - en une structure, l'Industrial Internet Consortium, mise sur pied avec la coopération du gouvernement américain.

Selon M. Daniel Nabet, il faut impérativement « se préoccuper fortement du développement et de la gouvernance de l'Internet des objets, en s'appuyant sur les atouts de notre pays dans ce domaine : culture scientifique de haut niveau, ingénieurs de grande qualité et dynamisme de nos entrepreneurs, mais également qualité de la réglementation sur la protection de données et de la vie privée, qui peuvent devenir le levier d'une politique industrielle ambitieuse ». Le groupe de travail « objets connectés industriels » mis sur pied dans le cadre des 34 plans de la « Nouvelle France industrielle » serait à cet égard une instance particulièrement adaptée, pour ce qui est de l'échelon national.

M. Louis Pouzin a également appelé à investir l'Internet des objets connectés, qui représente des masses d'information considérables et amenées à croître très rapidement. « C'est un domaine très flou, qui n'a pas encore été absorbé par Facebook ou Google. C'est là qu'il faut se positionner et mettre une organisation en place », a-t-il estimé. Il s'agirait, selon lui, d'inciter les différents métiers échangeant continuellement des données à instaurer un système de normalisation, avec les bases correspondantes, comme le fait GS1 pour les codes-barres ou la radio identification (RFID). Ceci permettrait la constitution d'un écosystème servant à la normalisation de certains modes de gestion des étiquettes ou des identifiants, afin qu'ils puissent circuler, soient reconnus de façon généralisée, sécurisés, et puissent évoluer.

Proposition n° 45 : veiller à la mise en place en Europe d'un système de normalisation des objets connectés afin de favoriser leur reconnaissance mutuelle, leur interconnexion et leur sécurité à l'encontre d'attaques extérieures.

La même insuffisance de leadership européen se retrouve dans un autre secteur prometteur : les smart grids, ou réseaux intelligents, dont le chiffre d'affaires devrait doubler d'ici 2020 pour atteindre 55 milliards d'euros chaque année, selon un rapport du cabinet Navigant Research paru en janvier dernier271(*). « En France comme en Europe, si l'on parle des compteurs et des réseaux concernant les clients individuels, aucune position politique de principe ne semble prise », déplore ainsi le rapport Revel, qui conclut qu'« un renforcement de la prise en main du sujet à l'Union européenne semblerait opportun ». Estimant qu'il s'agit là « d'un sujet hautement politique, mêlant libertés individuelles, équipements électriques industriels et économies d'énergie, où l'Union pourrait jouer pleinement son rôle », il juge que notre pays « devrait s'organiser pour apporter un contenu, à déterminer avec les industriels et services concernés ».

Enfin, dernier exemple de secteur industriel dont l'avenir économique se joue dans la définition des standards et normes, celui de l'identité numérique. M. Vincent Champain, qui a participé au projet IDéNum, visant à retenir une norme d'authentification pour les usages commerciaux, observe « qu'en [la] matière [...], on s'attache beaucoup plus, en Europe, aux questions qui touchent à Schengen qu'aux questions industrielles. Or, l'identité numérique, c'est aussi l'accès à différents usages, comme la banque, avec le cryptage que cela suppose ». En ce domaine également, l'Europe aurait une « carte à jouer », à condition qu'elle s'organise de façon efficace pour élaborer les standards de demain.

Proposition n° 46 : renforcer la présence européenne dans les structures de standardisation des technologies industrielles recourant à l'Internet (réseaux intelligents, identité numérique...) et en faire un véritable enjeu économique.

c) S'atteler à dessiner l'Internet du futur

· Le futur Internet, un enjeu technologique fondamental qui se prépare dès aujourd'hui

De l'avis de plusieurs des personnes auditionnées, l'Internet que l'on connaît aujourd'hui serait arrivé en « fin de vie » et devra tôt ou tard, du fait de son obsolescence, être remplacé par un nouveau dispositif.

« Le web 2.0 atteint ses limites », a ainsi annoncé M. Bernard Stiegler, et ceci pour plusieurs raisons. Parce que « l'opinion publique se retourne », comme le montre l'exemple de Facebook, à propos duquel « ce qui était positif devient négatif ». Également parce que, ainsi que le montre M. Frédéric Kaplan, chercheur à l'école polytechnique de Lausanne, cité par M. Bernard Stiegler, le système est « devenu entropique : dès lors que les annonceurs ont pris le dessus sur les contributeurs du réseau, la hiérarchie sémantique qui commande les moteurs de recherche devient toujours plus étroite, le langage lui-même s'appauvrit, et avec lui l'orthographe - et à mesure que la dysorthographie se répand, voyez comment on écrit aujourd'hui les mails, les moteurs de recherche eux-mêmes perdent en précision et pourraient devenir parfaitement inefficaces, saturés par leur propre entropie ».

« Conçu pour créer un espace de débat entre scientifiques et savants, pour débattre d'idées », l'Internet se meurt, selon M. Bernard Stiegler, d'être « devenu le principal vecteur du business mondial » et de ne plus constituer le lieu d'échange, d'information et de débat qu'il était à l'origine. Afin de mieux identifier les « apporteurs de contenus » et de mieux comprendre les processus de construction du savoir sur l'Internet, M. Bernard Stiegler propose de réintroduire de « l'herméneutique », à travers une « traçabilité des contributions ». Cette approche permettrait selon lui de rétablir « un débat sur les sources et finalement la diversité des savoirs elle-même ».

Pour M. Louis Pouzin, l'archaïsme de l'Internet tient à sa conception, qui date désormais et ne permet plus de garantir le respect des droits des internautes. « Un des gros problèmes réside dans le fait que le système Internet TCP/IP a aujourd'hui quarante ans. C'est le plus ancien, et on peut considérer qu'il est à présent obsolète. Rien ne permet d'assurer la sécurité, l'authentification, la duplication des flux, ou le multilinguisme. [...] Ce système a été construit comme un système qui fonctionne bien si l'on n'essaye pas de le casser. À partir du moment où le commerce est passé par là et, du même coup, la criminalité, le système est devenu extrêmement vulnérable, au moins à un certain niveau de fonctionnement. »

Si l'Internet actuel est parvenu à son terme, alors il faut lui en substituer un nouveau, adapté aux évolutions les plus récentes des pratiques et de l'environnement. Or, selon M. Louis Pouzin, « il n'existe pas de projet européen pour le remplacer. C'est pourtant le bon moment, car cette situation ne se présente qu'une fois tous les quarante ans. On a laissé passer le premier cycle, dans les années 1970-1980, et les États Unis ont ainsi eu le champ libre. Si on ne fait rien maintenant, on est à nouveau reparti pour un cycle qui va durer 20, 30 ou 40 ans ! Il faudrait un projet ciblé, comme Eureka en Europe autrefois. Actuellement, on ne fait que de l'arrosage ».

M. Louis Pouzin relève trois types d'obstacles différents à l'avènement d'un nouvel Internet à l'initiative de l'Europe. Le premier tiendrait au conservatisme de « ceux qui font aujourd'hui tourner l'Internet » : ils en retirent des intérêts financiers substantiels et ne seraient pas prêts à s'engager dans un nouveau modèle tant qu'ils n'en connaîtraient pas le contenu. Le deuxième frein résiderait dans la démographie des techniciens qui « pour la plupart, ne sont pas tout jeunes » et, pour les plus vieux du moins, « n'ont pas envie que les choses bougent ». Enfin, le dernier obstacle a trait au « risque » que présente toute nouveauté, qui ne peut aller « sans un certain nombre de surprises, ou de points à corriger ».

À bien y regarder cependant, l'idée d'un nouvel Internet, ou d'un « futur Internet », ainsi qu'il est appelé le plus souvent, circule activement dans les communautés concernées. M. Louis Pouzin reconnaît ainsi que « le futur Internet (FI) est maintenant partout dans les milieux scientifiques, techniques, et ceux qui financent la recherche. Il est aussi dans les programmes de la Commission européenne. » Le problème, ajoute-t-il, est qu'« on ne s'en sert pas correctement ».

Le web 3.0, qui désigne la version ultérieure du web 2.0 et constitue l'étape prochaine du développement du World Wide Web, constitue une partie importante de cet Internet du futur. Cependant, son contenu exact fait l'objet de discussions, chacun l'utilisant pour désigner sa vision du futur de l'Internet : « web sémantique » pour certains, des objets pour d'autres, de la  3D pour d'autres encore... Quel qu'il soit, l'Internet du futur sera l'objet d'un nouveau protocole, IPv6, dont le développement est inéluctable pour répondre aux besoins de croissance du net. Ce protocole réseau de nouvelle génération, dont le déploiement a commencé, devrait supplanter à terme l'actuel protocole, IPv4, victime d'une pénurie d'adresses IP dans le monde.

· Une nécessaire « montée en puissance » de la France et de l'Europe

L'Europe n'est pas absente de ce débat sur l'Internet du futur, mais il est vrai que ses travaux sont loin d'aboutir pour l'instant. L'impulsion est venue de la Commission européenne, qui a publié le 29 septembre 2008 une communication sur les réseaux et l'Internet du futur.

Début mars 2011, la vice-présidente de la Commission européenne, chargée de la stratégie numérique, Mme Neelie Kroes, avait confié trois groupes de travail à MM. Jean-Bernard Lévy, président du directoire de Vivendi, René Obermann, président-directeur-général de Deutsche Telekom, et Ben Verwaayen, directeur général d'Alcatel-Lucent, sur la physionomie de l'Internet du futur en Europe. Mais la commissaire, à qui les travaux avaient été remis en juillet de la même année, avait indiqué que la discussion « n'[avait] pas débouché sur un consensus ».

En France, le sujet est à l'ordre du jour politique depuis le précédent Gouvernement. La secrétaire d'État à l'économie numérique, Mme Nathalie Kosciusko-Morizet, avait lancé le 20 mai 2008 une consultation publique sur l'Internet du futur, en collaboration avec la ministre de l'enseignement supérieur et de la recherche, Mme Valérie Pécresse, et le secrétaire d'État chargé de l'industrie, M. Luc Chatel. L'objectif de cette consultation était d'identifier les évolutions possibles de l'Internet pour définir un plan d'actions « destiné à positionner favorablement la France dans le développement de l'Internet du futur, et favoriser ainsi les retombées économiques et industrielles pour notre pays ».

Malgré la multiplication d'initiatives, il ne se dessine pas d'orientation claire autour d'un Internet du futur ni au niveau national ni au niveau européen ; ce dernier niveau étant pourtant le plus pertinent au regard de l'ampleur du sujet.

Dans le milieu de la recherche et de l'industrie, plusieurs projets touchant à l'Internet du futur sont actuellement portés.

SystemX, l'institut de recherche technologique francilien dédié à l'ingénierie des systèmes du futur, a ainsi lancé, le 6 mai dernier, un nouveau programme de recherche baptisé « projet ARE » (architecture de réseaux). Ce projet s'insère dans le cadre du partenariat qui l'unit au Lincs (Laboratory of information, networking and communication), lequel rassemble le groupe Alcatel-Lucent, l'INRIA, l'Institut Mines Telecom ainsi que l'université parisienne Pierre et Marie Curie.

Constatant que l'architecture de l'Internet, conçue il y plus de trente ans, n'est plus idéalement adaptée aux applications d'aujourd'hui et répond de plus en plus difficilement à la croissance du trafic, ce projet entend « développer de nouvelles solutions pour l'Internet du futur en repensant l'organisation du réseau, la distribution et l'implémentation de ses fonctions, afin de définir une architecture répondant mieux aux exigences des multiples acteurs ».

Par ailleurs, le projet FIT (« Future Internet of Things »), l'un des 52 projets lauréats de la première vague d'appel à projets « Équipements d'excellence » (Equipex)272(*), vise à développer une plateforme expérimentale globale au travers de la fédération d'infrastructures, compétitive au niveau mondial, et comprenant une large base d'utilisateurs. Il est censé donner aux acteurs de l'Internet français un moyen d'expérimenter avec des réseaux mobiles sans fil dans les couches réseau et applicatives, accélérant ainsi la conception de technologies avancées pour l'Internet du futur.

Si l'Europe et la France ne sont donc pas inexistants dans la préparation du futur Internet, il convient d'accélérer l'investissement en ce domaine afin d'être aux avant-postes de cet environnement qui conditionnera le monde de demain. Nous possédons les compétences techniques indispensables pour faire émerger des solutions d'avenir, mais aussi un important capital de crédibilité et de confiance quant à la prise en compte des libertés individuelles et du respect des données privées. Reste à mieux coordonner les projets existants et à leur donner l'appui politique qui assoira leur développement.

Proposition n° 47 : préparer l'Internet du futur par une coordination plus poussée des initiatives et un soutien aux solutions mettant en avant la préservation de la confidentialité sur le réseau.


* 216 Un principe et sept ambitions pour l'innovation, rapport de la commission « innovation 2030 » présidée par Mme Anne Lauvergeon, octobre 2013.

* 217 Cf. supra.

* 218 Proposition de loi n° 183 (2013-2014) de M. Jean Bizet visant à modifier la Charte de l'environnement pour préciser la portée du principe de précaution.

* 219 Voir supra.

* 220 Voir supra.

* 221 « Concurrence : Berlin pour plus de marge de manoeuvre pour les télécoms », Agence Europe, 9 mai 2014.

* 222 À l'occasion des fusions entre Hutchinson et Orange en Autriche, et entre Hutchinson et Telefonica en Irlande.

* 223 Les entreprises de taille intermédiaire au coeur d'une nouvelle dynamique de croissance, rapport au Premier ministre, février 2010.

http://www.caissedesdepots.fr/fileadmin/PDF/06._solutionsdurables_tv/EM01-synthese_du_rapport_retailleau_sur_les_eti_original.pdf

* 224 Le soutien à l'économie numérique et à l'innovation, rapport de l'IGF, janvier 2012.

http://www.igf.finances.gouv.fr/webdav/site/igf/shared/Nos_Rapports/documents/2012/2011-M-060-02.pdf

* 225 « Vers des clusters de classe mondiale dans l'Union européenne : mise en oeuvre d'une stratégie d'innovation élargie », communication de la Commission européenne du 17 octobre 2008 ; « Une politique industrielle intégrée à l'ère de la mondialisation », communication de la Commission européenne du 28 octobre 2010.

* 226 Ou Trans-Atlantic Free Trade Agreement (TAFTA).

* 227 La première série s'est ouverte en juillet 2013 à Washington, la deuxième en novembre 2013 à Bruxelles, la troisième en décembre 2013 à Washington et la quatrième en mars 2014 à Bruxelles.

* 228 Partenariat transatlantique de commerce et d'investissement : faire du volet numérique un atout pour la négociation, avis du CNNum pour le ministre du commerce extérieur, avril 2014.

* 229 Voir supra l'encadré sur le « .vin » et « .wine ».

* 230 « « .vin » et « .wine » ou la première étape d'un racket mondial organisé », communiqué de presse de la CNAOC et de la Fédération européenne des vins d'origine (European Federation of Wine Origine - EFOW).

* 231 Voir supra.

* 232 Voir supra.

* 233 Les articles XIV et XIV bis de l'AGCS, annexé à l'accord instituant l'OMC, autorisent d'apporter à un accord de libéralisation des échanges des restrictions fondées sur des objectifs de protection de la vie privée des personnes et de sécurité publique.

* 234 Cf. rapport du CNNum sur le volet numérique du TTIP.

* 235 Proposition de règlement concernant l'accès des produits et services des pays tiers au marché intérieur des marchés publics de l'Union et établissant des procédures visant à faciliter les négociations relatives à l'accès des produits et services originaires de l'Union aux marchés publics des pays tiers, COM(2012)124 du 26 mars 2012.

* 236 Résolution n° 38 (2012-2013) sur la réciprocité dans l'ouverture des marchés publics.

* 237 Exemples cités dans l'article « Big data : trois défis pour les maths », Le Monde science et techno, 27 janvier 2014.

* 238 Chiffres cités dans l'article « Big data : perspectives de business et valeur déjà démontrée », Les Échos, ADP - Guillaume Chenu, 19 mai 2014.

* 239 La force du nombre, Réaliser le potentiel socio-économique des entrepreneurs au XXIsiècle, rapport McKinsey Global Institute, octobre 2011.

* 240 Idem.

* 241 Rapport n° 469 (2013-2014) réalisé au nom de la commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d'administration générale sur l'open data et la protection de la vie privée par MM. Gaëtan Gorce et François Pillet.

* 242 Review of recent PSI re-use studies and related market developments, Graham Vickery, septembre 2011.

* 243 Voir, à ce sujet, les propositions faites par l'AFDEL, le syndicat des éditeurs de logiciels et solutions Internet, dans son document : « Open data, bilan d'étape de la stratégie française & propositions pour en faire un axe majeur de création de valeur pour l'industrie numérique », avril 2014.

* 244 Refonder le droit à l'information publique à l'heure du numérique : un enjeu citoyen, une opportunité stratégique, rapport d'information de Mme Corinne Bouchoux, fait au nom de la mission commune d'information sur l'accès aux documents administratifs et aux données publiques (n° 589, 2013-2014) (disponible à l'adresse suivante : http://www.senat.fr/notice-rapport/2013/r13-589-1-notice.html)

* 245 Et, pour la première, proposer également des services à des fournisseurs, y compris européens.

* 246 Nouvelle France industrielle, Rapport Cloud computing, par MM. Thierrry Breton (Atos) et Octave Klaba (OVH), 31 janvier 2014.

À noter que M. Thierry Breton a également été chargé par la Commission européenne, en binome avec M. Jim Snabe, le président-directeur général de SAP, d'un autre rapport sur le cloud dans sa dimension communautaire.

* 247 Alterway, eNovance, Lyatiss, Nuxeo, Nexedi, Treeptik, VDOM ...

* 248 OW2, Compatible One, Easi-clouds, Seed4C ...

* 249 La France est représentée par la Direction générale de la compétitivité, de l'industrie et des services (DGCIS), au titre des pouvoirs publics, et par M. Thierry Breton, PDG d'Atos, au titre du monde de l'entreprise.

* 250 Loi n° 68-678 du 26 juillet 1968 relative à la communication de documents et renseignements d'ordre économique, commercial, industriel, financier ou technique à des personnes physiques ou morales étrangères.

* 251 En 2008, une agence fédérale américaine s'est ainsi aperçue que certains routeurs Cisco seraient en fait des contrefaçons chinoises.

* 252 Comme lors du piratage de Belgium Telecom qu'aurait effectué la NSA pour récupérer des méta-données sur les appels passés en Belgique.

* 253 CJUE, gr. ch., 8 avril 2014, Digital Rights Ireland et Seitlinger e.a., C-293/12.

* 254 En réalité, seul le chiffrement a pour objet de rendre les informations illisibles pour une tierce personne : le codage, s'il rend de facto plus difficile l'accès à des contenus du fait qu'il transforme des données en des symboles, vise à en réduire la taille par compression, et non à les dissimuler.

* 255 Voir, pour l'ensemble de ces références, l'article « Chiffrer le Net pour retrouver notre vie privée en ligne : une bonne solution qui pose des problèmes », Slater, 23 avril 2014.

* 256 Cf. http://www.prodomaines.com/classement-noms-domaine-extension-septembre-2013.

* 257 Sera conservée, dans la suite du rapport, le terme de « logiciel libre ».

* 258 Direction interministérielle des systèmes d'information et de communication.

* 259 Voir infra.

* 260 http://www.wcm.bull.com/internet/pr/rend.jsp?DocId=412283&lang=fr

* 261 Réseau informatique mondial et décentralisé pouvant garantir l'anonymat des échanges entre utilisateurs.

* 262 Le logiciel libre continue sa percée au sein des entreprises françaises, étude de Pierre Audoin Consultants, janvier 2012.

* 263 En effet, les moyens humains alloués à la découverte d'éventuelles failles étaient très insuffisants. Ils ont depuis été augmentés par un financement conjoint des grandes sociétés de l'Internet dans le cadre de la Core Infrastructure Initiative. Cf. http://www.generation-nt.com/openssl-google-boringssl-libressl-fork-actualite-1896622.html

* 264 Androïd est un système open source utilisant le noyau Linux.

* 265 Et qui a abouti début mai à la condamnation de l'entreprise sud-coréenne par un jury de San José, en Californie, à verser à sa rivale américaine 119,6 millions de dollars de réparation pour avoir violé ses brevets.

* 266 Protocoles ou formats de données dont les spécifications techniques sont publiques et ne peuvent faire l'objet d'aucune restriction de mise en oeuvre.

* 267 Développer une influence normative internationale stratégique pour la France, rapport de Mme Claude Revel à Mme Nicole Bricq, ministre du commerce extérieur, décembre 2012.

* 268 http://technologies.lesechos.fr/revue-de-web/26-milliards-d-objets-connectes-en-2020_a-42-1072.html

* 269 « La gouvernance, facteur clé pour le leadership européen sur le futur Internet des objets », chronique parue dans le Journal du Net du 26 mai 2014.

* 270 Émanation nationale de GS1, organisme mondial actif dans la normalisation des méthodes de codage utilisées dans la chaîne logistique.

* 271 http://www.navigantresearch.com/newsroom/utility-spending-on-smart-grid-it-systems-will-reach-nearly-20-billion-by-2022

* 272 Projets financés par le programme des « investissements d'avenir » et destinés à améliorer les équipements des laboratoires de recherche scientifique français.