CHAPITRE PREMIER : LA GOUVERNANCE DE L'INTERNET, UN NOUVEAU TERRAIN D'AFFRONTEMENT MONDIAL

La vision béate d'un Internet, qui ne serait qu'un espace de liberté et d'émancipation, a été brisée par les révélations en juin 2013de M. Edward Snowden sur la surveillance en ligne.

Depuis déjà quelques années, l'essor fulgurant de l'Internet et le bénéfice qu'en tirent certains plus que d'autres avait fait naître des crispations au regard de la redistribution des pouvoirs en résultant. Mais c'est sans conteste « l'affaire Snowden » qui a achevé de transformer l'enjeu de la gouvernance de l'Internet en un nouveau terrain d'affrontement mondial.

I. INTERNET, LA FIN D'UN MYTHE

Initialement considéré comme un espace de liberté à réguler, l'Internet est progressivement apparu, à la faveur de son succès, comme un instrument de puissance, échappant d'ailleurs largement à l'Europe, et comme support d'un monde d'hypersurveillance et de vulnérabilité.

A. L'INTERNET, UN « MIRACLE » PLANÉTAIRE OUVRANT UN NOUVEL ESPACE DE LIBERTÉ ET DE REDISTRIBUTION DU POUVOIR

Apparu dans la nébuleuse des innovations libertaires et utopistes des années 60, l'Internet, porté à l'origine par le monde de la recherche avant d'être rapidement accaparé par les intérêts militaires et commerciaux, s'est caractérisé par ses dimensions d'horizontalité et d'ouverture, en faisant un instrument technologique accessible par et pour tous.

1. La naissance de l'Internet
a) Un projet à l'origine initié par le monde de la recherche

Si l'Internet, le « réseau des réseaux », est devenu aujourd'hui une « infrastructure informatique généralisée » 2 ( * ) d'extension planétaire, ses origines ont pourtant été confidentielles , liées à une poignée d'informaticiens passionnés dans un milieu purement universitaire .

En août 1962, un chercheur du Massachusetts Institute of Technology (MIT), J. C. R. Licklider, imagina en effet l' interconnexion d'un ensemble d'ordinateurs à l'échelle mondiale afin de former un « réseau galactique ». Le terme d'origine américaine « Internet » dérive ainsi du concept d' Internetting ( ou internetworking) , c'est-à-dire de mise en relation de réseaux. Son développement théorique, puis les premières expérimentations d'interconnexion, au cours des années 60, continuèrent d'être menées par des chercheurs et universitaires, notamment au sein du MIT, mais également de l' University of California Los Angeles (UCLA) ou de celle de Stanford 3 ( * ) .

« Pendant des années, l'Internet s'est développé sans le concours de l'industrie des télécommunications , celle-ci le regardant avec méfiance, le considérant comme un réseau bizarre, sans centre », fait ainsi observer à votre mission d'information M. Maurice Ronai, membre élu de la formation restreinte de la Commission nationale de l'informatique et des libertés (CNIL), co-auteur du rapport République 2.0 : vers une société de la connaissance ouverte (avril 2007). « L'Internet a prospéré sans l'industrie des systèmes d'exploitation, et sans les constructeurs d'ordinateurs personnels, qui ont longtemps refusé d'intégrer des modems à leurs ordinateurs. »

Comme l'a expliqué un expert en sécurité reconnu, Bruce Schneier, cité par Maurice Ronai, l'invention de l'Internet relève d'un ensemble d'éléments favorables réunis concomitamment. Il s'agit selon lui d'un « accident fortuit » qui résulte « d'un désintérêt commercial initial des entreprises, d'une négligence des gouvernements et de l'inclinaison des ingénieurs à construire des systèmes ouverts, simples et faciles ».

L'échelle de développement sans précédent que connaît aujourd'hui le réseau Internet, et son immixtion chez des particuliers , étaient alors insoupçonnés . Comme le rappelle l'Internet Society, « le modèle original était composé de réseaux au niveau national [...], desquels seuls un nombre relativement faible était censé exister ». Ainsi, « une adresse IP de 32 bits fut utilisée, dont les 8 premiers bits signifiaient le réseau et les 24 bits restants désignaient l'hôte sur ce réseau. L'hypothèse que 256 réseaux seraient suffisants dans un avenir prévisible, a manifestement eu besoin d'être reconsidérée lorsque les réseaux locaux ont commencé à apparaître à la fin des années 1970. »

C'est bien, en effet, le développement exponentiel de l'informatique personnelle à partir du milieu des années 70 qui entraînera dans le même temps l'interconnexion des réseaux à grande échelle. Comme le rappelle Maurice Ronai, « en 1975, on dénombrait aux États-Unis 200 000 ordinateurs, 25 millions en 1985, 90 millions en 1995, 225 millions en 2005. On en compte 1,4 milliard aujourd'hui, auxquels il faut ajouter 400 millions de tablettes et 1,6 milliard de smartphones, tous majoritairement connectés à l'Internet. Il s'agit d'un véritable changement d'échelle. »

b) Une technologie rapidement prise en mains par la structure militaire

L'origine universitaire de l'Internet s'accompagne, dès ses débuts, d'une préemption par la sphère militaire d'une technologie perçue comme prometteuse, notamment pour ses applications potentielles dans le domaine de la défense . Les années 60 constituent en effet le coeur de la Guerre froide, durant laquelle toute avance technologique était cruciale pour les deux blocs antagonistes que fédérèrent les États-Unis et l'Union soviétique.

C'est ainsi que Licklider, pionnier du concept de l'Internet, avait pour objectif de faciliter les communications entre chercheurs de l'agence pour les projets de recherche avancée de défense : la Defense Advanced Research Projects Agency ( DARPA ) 4 ( * ) , agence du département de la défense des États-Unis chargée de la recherche et développement des nouvelles technologies destinées à un usage militaire.

En octobre 1962, Licklider devint d'ailleurs le premier chef du programme de recherche en informatique de la DARPA. L'un de ses principaux successeurs au MIT, Lawrence G. Roberts, fut à son tour engagé par la DARPA fin 1966 pour développer le concept de réseau informatique, ce qui lui permettra de mettre au point le réseau ARPANET . Premier réseau à transfert de paquets, ce dernier constitue le véritable ancêtre de l'Internet.

Reposant sur l'interconnexion d'ordinateurs hôtes à travers des « noeuds », il se vit assigner comme objectif de maintenir et sécuriser les communications militaires « quel que soit l'état de destruction du pays ». Sa construction en rhizome permettait en effet, en cas de destruction de l'un de ses noeuds, d'emprunter d'autres chemins pour atteindre systématiquement les destinataires désignés, gage de son invulnérabilité supposée.

La validation par la sphère militaire des aspects techniques de l'Internet naissant fera beaucoup pour son développement. Ainsi, les protocoles TCP/IP ( Transmission Control Protocol/Internet Protocol ), élaborés dans les années 70 5 ( * ) et que nous continuons d'utiliser aujourd'hui, ont été reconnus comme standards par la défense américaine.

Ainsi que le souligne l'Internet Society, « cela permit à la défense de commencer le partage dans la base technologique de l'Internet de DARPA et mena directement à la segmentation des communautés militaire et non militaire ». La transition d'ARPANET du protocole NCP à TCP/IP lui permit d'être scindé en deux réseaux, un réseau supportant des exigences opérationnelles de défense (MILNET) d'un côté, et ARPANET destiné à la recherche et au développement de l'autre.

L'empreinte militaire sur la création du net ne doit pas masquer une dimension antagonique, pourtant très présente dès l'origine : celle de ses sources libertaires . Faisant état de « l'irruption sur le net de la contre-culture américaine des années 1970 » et citant l'ouvrage de Fred Turner, Aux sources de l'utopie numérique , qui la retrace, M. Philippe Lemoine, président directeur-général de LaSer, président de la Fondation pour l'Internet nouvelle génération, chargé par le Gouvernement en janvier 2014 d'une « mission pour la transformation numérique de notre économie », a expliqué à votre mission comment le « love summer » de 1967 a précipité 700 000 jeunes américains urbains vers les campagnes, et de quelle façon ce milieu a généré les communautés virtuelles qui se sont formées sur le net.

« Cette composante libertaire d'origine se retrouve dans le numérique, qui, en même temps qu'il représente à la fois les plus grosses entreprises et la plus grande forme de capitalisation boursière mondiale, est habité par des utopies libertaires fortes », a observé Philippe Lemoine. Ce contraste accentué entre considérations financières et créativité débridée est toujours présent dans les entreprises dominant le monde du numérique, comme Apple, Google ou Facebook. Bien que constituant aujourd'hui des multinationales, elles laissent une liberté extrêmement importante à leurs ingénieurs et cherchent à stimuler leur inventivité et leur originalité en gommant l'organisation hiérarchisée des tâches que connaissent des entreprises plus traditionnelles.

c) Une ouverture plus tardive aux intérêts commerciaux

Mis au point par et pour les chercheurs, en partenariat étroit avec les intérêts de la Défense, l' Internet échappait à l'origine à toute visée commerciale . Ainsi que le fait observer le document de présentation de l'Internet Society, les premiers réseaux - y compris ARPANET - « furent construits dans un but précis, c'est-à-dire qu'ils étaient destinés, et largement limités, à des communautés fermées d'universitaires ».

En 1985, la National Science Fondation (NSF) créait le NSFNET, un réseau reliant des centres de recherche et d'éducation . Basé sur l'ARPANET, le NSFNET a constitué l'épine dorsale de l'Internet pour les États-Unis. Il proposait ses services gratuitement pour les institutions scolaires et les chercheurs américains, au-delà desquels il ne pouvait être étendu. La politique d'utilisation de la NSF interdisait en effet l'utilisation de l'épine dorsale à des fins « non en faveur de la recherche et de l'éducation ».

Ce n'est que plus tardivement, avec notamment la privatisation de la NSF dans les années 90 , qu'interviendra la transition d'un réseau construit à partir des routeurs de la communauté de recherche vers un équipement proprement commercial. Comme le souligne l'Internet Society, « l'Internet a évolué au-delà de ses racines essentiellement de recherche pour inclure à la fois une communauté d'utilisateurs au sens large et une activité commerciale accrue ».

Aujourd'hui, la dimension commerciale de l'Internet est devenue prépondérante , selon des modèles économiques toutefois différents. Apparu dans les années 90, concomitamment au développement du Web, le commerce électronique (ou « e-commerce ») atteignait un chiffre d'affaires colossal de 1 221 milliards de dollars en 2013, d'après l'institut eMarketer.

Mais les nouveaux « géants du Web » se financent également, pour certains d'entre eux, par un autre modèle, basé sur la publicité . C'est le cas notamment de Google, dont le chiffre d'affaires en 2013 a dépassé les 60 milliards de dollars.

d) Une Europe « précurseure », mais progressivement distancée

Si les chercheurs américains et leurs universités de rattachement ont joué un rôle majeur dans la mise au point de l'Internet, l'Europe y prit également pleinement sa part, avant cependant de laisser les États-Unis développer le dispositif sur une plus grande échelle.

La mise au point de l'Internet proprement dit doit beaucoup aux travaux d'un informaticien français, M. Louis Pouzin, un des pères de l'Internet . Formé en partie aux États-Unis, au MIT, il dirigea, de 1970 à 1978, le projet Cyclades qui, porté par des partenaires industriels sous la supervision des pouvoirs publics, chercha à créer un « ARPANET à la française ». Inventeur du datagramme et concepteur du premier réseau à commutation de paquets, il vit ses travaux largement utilisés par M. Vinton Cerf, devenu entre-temps vice-président de Google, pour la mise au point de l'Internet et du protocole TCP/IP. C'est d'ailleurs au titre de ses travaux sur TCP/IP qu'il a été récompensé en mars 2013 par le premier prix Queen Elizabeth for Engineering .

Par ailleurs, l' Organisation européenne pour la recherche nucléaire (CERN) fut l'un des acteurs majeurs de la mise au point du World Wide Web . En 1989, l'un de ses ingénieurs informaticiens, M. Tim Berners-Lee, propose de créer un système hypertexte sur son réseau informatique pour permettre à ses collaborateurs de partager des informations. Avec son collègue belge M. Robert Cailliau, qui le rejoint ensuite dans ses travaux, il conçoit le World Wide Web .

Jusqu'en 1993, c'est principalement sous l'impulsion de ces deux hommes, en Europe, qu'est développé le Web. En avril de cette même année, le CERN met dans le domaine public toutes les technologies qu'il a développées autour de ce concept. Le relai est alors pris par les États-Unis, avec la mise au point d'un navigateur Web, NSCA Mosaic, développé au National Center for Supercomputing Applications (NCSA), dans l'Illinois.

Ce navigateur pose les linéaments de l'interface graphique des navigateurs modernes, par l'intégration des images au texte, popularisant ainsi à une grande échelle l'usage du Web. Certains de ses développeurs s'en inspireront pour mettre sur le marché, fin 1994, Netscape Navigator, avec le succès que l'on sait. Fin 1995, Microsoft lancera, avec la sortie d'Internet Explorer, une guerre des navigateurs dans laquelle l'Europe sera définitivement marginalisée.

Cette mise à l'écart du Vieux continent dans la compétition internationale pour la maîtrise et le développement de l'Internet n'avait rien d'une fatalité. Elle résulte au contraire d'un manque de vision politique et d'une absence de stratégie de long terme dans un domaine pourtant fondamental pour l'avenir de nos économies. Cette carence - pour ne pas dire cet abandon, voire cette démission - de l'Europe a largement facilité la mainmise des États-Unis sur l'organisation du réseau ; elle est, en tant que telle, en grande partie à l'origine de l'américano-centrisme de l'Internet .

Comme le relevait M. Louis Pouzin lui-même devant votre mission, en matière d'innovation, « l'Europe est pratiquement restée muette depuis que l'on a abandonné l'idée d'être leader en matière de réseaux, dans les années 1970 et 1980. Faute de concurrence, ce sont essentiellement les Américains qui innovent dans ce domaine ». Même analyse de la part de M. David Fayon, administrateur des postes et télécommunications, auteur de Géopolitique d'Internet : qui gouverne le monde ? (2013) 6 ( * ) , pour qui « en France, nous manquons singulièrement d'ambition et de continuité dans l'action (...). Le général de Gaulle a lancé le Plan calcul, et depuis, il n'y a quasiment rien eu ».

Favorable au projet Cyclades porté par M. Louis Pouzin, M. Maurice Allègre, délégué à l'informatique du Plan calcul, justement, éprouvait les mêmes regrets. Il expliquait en 1999, s'être « heurté à un mur » lorsqu'il avait cherché à « faire adopter le projet par la direction générale des télécommunications comme base pour leur futur réseau de transmissions de données ». « Nous aurions pu être parmi les pionniers du monde Internet », regrettait-il, avant de reconnaître que « nous n'en sommes que des utilisateurs, fort distants des lieux où s'élabore le futur » 7 ( * ) .

Une fois passée la période des pionniers, et une fois réalisée la prise de conscience du potentiel extraordinaire de cette innovation, les acteurs se sont mobilisés pour se l'approprier et bénéficier de ses retombées. « L'initiative est venue du sommet, et le financement, de l'armée », a expliqué à votre mission M. Bernard Stiegler, directeur de l'institut de recherche et d'innovation du Centre Pompidou. La différence d'approche avec l'Europe est pour lui flagrante : aux États-Unis, « il y a bien 52 États, avec des différences très fortes, y compris dans le droit, mais l'État fédéral américain est là pour les grandes orientations, pour la prospective - alors que l'Union européenne en est parfaitement incapable, parce qu'elle ne résiste pas aux lobbies ».

Et c'est ainsi que le futur, aujourd'hui, s'élabore outre-Atlantique.

2. Un système conçu comme ouvert et décentralisé, mais exposé à des pressions contraires
a) L'interopérabilité, un concept central dans la création de l'Internet

L'essence même de l'Internet est, dès sa conception, de constituer un « interréseautage en architecture ouverte » ou une « architecture interréseaux », pour reprendre l'expression de l'Internet Society. L'image de la toile d'araignée - l'expression de « toile » est d'ailleurs souvent retenue pour désigner le réseau - et de ses innombrables liens rend bien compte du caractère polycentré de l'Internet, par opposition à celle d'architecture « en étoile » caractérisant d'autres réseaux (Minitel, par exemple). Dans cette approche, chacun des réseaux constitutifs du « méta-réseau » peut être conçu et développé séparément , en fonction des besoins spécifiques de ses utilisateurs, et posséder sa propre interface.

La structure « multi-couches » de l'Internet rend bien compte de sa capacité à faire communiquer des réseaux entre eux. Le but d'un tel système est en effet de séparer chaque problème en différentes parties (les couches) selon leur niveau d'abstraction : les plus hautes, également les plus proches de l'utilisateur, gèrent les données les plus abstraites en recourant aux services des couches plus basses, qui mettent en forme les données afin qu'elles puissent être émises sur un médium physique.

Les « couches » de l'Internet

L'Internet repose sur le modèle TCP/IP, qui correspond à une architecture réseau en couches - trois ou quatre, selon que l'on distingue ou non les couches Internet et transport, dans lesquelles les protocoles de transport TCP et de réseau IP jouent un rôle prédominant. Il s'est progressivement imposé en lieu et place du modèle OSI 8 ( * ) , qui reposait lui sur sept couches ; certaines de ses couches « reprennent » donc plusieurs couches de ce modèle OSI.

Les couches de l'Internet sont :

- La couche hôte-réseau ou accès-réseau 9 ( * ) . Elle doit permettre d'accéder à un réseau physique quel qu'il soit, et de transmettre des données via ce réseau. Son implémentation est laissée libre, mais beaucoup de réseaux locaux utilisent Ethernet 10 ( * ) .

- La couche Internet . Clé de voûte de l'architecture de l'Internet, elle réalise l'interconnexion des réseaux. Elle doit permettre l'acheminement des paquets de données (ou « datagrammes ») indépendamment les uns des autres jusqu'à destination ; s'ils y arrivent dans le désordre, ils seront réordonnés par les couches supérieures.

- La couche transport , parfois fusionnée avec la couche Internet. Si les deux couches précédentes ont pour objectif d'envoyer des informations d'une machine à l'autre, celle--ci doit permettre à des applications tournant sur des machines distantes de communiquer. Elle possède deux implémentations, dont la plus connue est le protocole TCP 11 ( * ) .

- La couche application 12 ( * ) . Située au sommet, elle contient les applications réseaux permettant de communiquer grâce aux couches inférieures. Ces applications sont pour la plupart des services réseau, c'est-à-dire des applications fournies à l'utilisateur pour assurer l'interface avec le système d'exploitation : services de connexion au réseau ou à distance, services de transfert de fichier, divers utilitaires Internet (échange de courriers électroniques ...).

Cette idée d'un tel interréseautage à architecture ouverte a été portée dès l'origine par MM. Robert E. Kahn et Vinton Cerf, co-inventeurs du protocole TCP/IP . Ce protocole prit la suite du Network Control Protocol (NCP), mis au point au début des années 70 pour le réseau ARPANET, mais qui avait le défaut de suspendre le système si des paquets de données étaient perdus.

Au contraire, le protocole TCP/IP présentait l'avantage de répondre aux besoins d'un environnement de réseau à architecture ouverte. Le premier principe que s'était fixé son concepteur posait l'autosuffisance de chaque sous-réseau et l'absence de changement interne pour le connecter à l'Internet. Comme le souligne l'Internet Society 13 ( * ) , « un concept clé de l'Internet est qu'il n'a pas été conçu pour une seule application, mais comme une infrastructure générale sur laquelle de nouvelles applications pouvaient être conçues , comme illustré plus tard par l'émergence du World Wide Web . C'est la nature polyvalente du service fourni par le TCP et l'IP qui rend cela possible. »

Comme le souligne M. Maurice Ronai, le succès de l'Internet tient à des « propriétés peu communes » ancrées « dans la technologie et dans l'architecture du réseau, qui donne aux individus le pouvoir d'émettre des contenus, autant que de les recevoir, et s'assure que leurs messages seront transmis avec la même priorité que ceux des grands groupes internationaux ». C'est donc la conception même de l'Internet qui a permis, dès l'origine, de garantir son ouverture et son interopérabilité.

Le principe du « end to end » - ou architecture de « bout en bout » - fait que « l'intelligence est située à l'extrémité du réseau, et non en son centre, comme avec les réseaux traditionnels », poursuit Maurice Ronai. Les fonctions de traitement sont assurées « aux extrémités par les ordinateurs et par les usagers. C'est cette particularité qui a permis à des développeurs, des innovateurs, et des start-ups, de mettre ces technologies à la disposition du public, personne ne pouvant les en empêcher. »

Une telle configuration est par essence vertueuse. Selon M. Bernard Benhamou 14 ( * ) , ancien conseiller de la délégation française au sommet des Nations unies pour la société de l'information (2003-2006) et ancien délégué aux usages de l'Internet (2007-2013), cette particularité a donné la possibilité « à des utilisateurs « isolés » de développer des technologies qui par la suite ont été adoptées mondialement », telles que le langage HTML, les systèmes de « pair à pair » (« peer to peer ») ou les weblogs 15 ( * ) . Du fait de sa neutralité, le réseau constitue en effet « une plateforme d'expression commune, un « bien commun » qui permet à l'ensemble des utilisateurs de développer de nouveaux contenus et de nouveaux services ».

b) Un moteur transversal de progrès dans de nombreux secteurs

L'absence de restriction technique à l'accès à l'Internet a joué un rôle de catalyseur et largement contribué à son succès. Il a également permis des développements illimités enregistrés dans des secteurs connexes à l'origine , et diffusés aujourd'hui à l' ensemble de la vie économique et sociale . « Ces propriétés - l'ouverture, l'interopérabilité, la neutralité, l'architecture du bout en bout - ont ouvert un champ inouï d'innovations, de circulation des connaissances et de développement des échanges », conclut ainsi M. Maurice Ronai.

Même analyse de la part de Mme Françoise Massit-Folléa, chercheur et consultant senior sur les usages et la gouvernance de l'Internet, selon laquelle l'Internet constitue « un véritable écosystème » du fait de ses caractéristiques techniques. « Le réseau des réseaux supporte, pour une part croissante de la population mondiale, un nombre exponentiel d'activités humaines, économiques, sociales, culturelles, politiques, qui sont favorisées par ce même principe du « end to end », une création permanente aux extrémités du réseau », explique-t-elle : « celui-ci devient ainsi l' alpha et l' oméga de la croissance, du développement, voire de toute la vie sociale ».

Ainsi que l'a rappelé M. Philippe Lemoine devant votre mission, la naissance de l'Internet s'est faite aux États-Unis, dans un contexte utopique et libertaire considérant cette technologie comme un moyen de pacification et d'émancipation des individus . Il a ainsi cité les « conférences Macy », qui rassemblaient des chercheurs comme Gregory Bateson, Margaret Mead ou Norbert Wiener, élaborant le concept de cybernétique « pour aller vers une connaissance pacifiste, en vue d'un monde meilleur - la métaphore du gouvernail indiquant bien qu'il s'agit de s'orienter dans ce monde nouveau en évitant les écueils » 16 ( * ) .

• Les apports d'ordre interne

L'apport sans précédent de l'Internet est d'abord survenu dans ce qui fait sa spécificité : l'échange de données et l'accès à l'information. C'est ainsi qu'est mise au point en 1972 sa première application fondamentale, le courrier électronique (ou « e-mail »). Cette invention a en effet bouleversé les modes de communication à distance basée sur la lecture, en accélérant la transition du papier vers le numérique. Il s'échange ainsi chaque jour plus de 300 milliards de courriels.

Si le courrier électronique représenta pendant longtemps l'application majeure de l'Internet, la deuxième invention de rupture qui le supplanta fut l'invention du World Wide Web . Élaboré par Tim Berners-Lee et Robert Cailliau au sein du CERN, il représente aujourd'hui le principal support d'utilisation de l'Internet, pour des centaines de millions d'utilisateurs à travers la planète : on compterait aujourd'hui plus de 1 000 milliards de pages Web dans le monde pour plus de 600 millions de sites consultables.

Le World Wide Web , principale application de l'Internet

Le World Wide Web (WWW, communément appelé « Web », et parfois « la Toile »), est un système hypertexte public fonctionnant sur l'Internet et permettant de consulter, au moyen d'un navigateur, des pages comportant diverses ressources (textes, images, sons, vidéos ...).

S'il est souvent confondu avec l'Internet, le Web n'en est en réalité qu'une des applications, certes la plus usitée. Il se distingue ainsi d'autres applications comme le courrier électronique, la messagerie instantanée ou le partage de fichiers en pair à pair (« peer to peer »).

L' HTTP ( HyperText Transfer Protocol ) est le nom du protocole de communication généralement utilisé pour échanger ou transférer les ressources du Web. Un navigateur Web (« browser ») est un logiciel HTTP permettant à un utilisateur d'accéder auxdites ressources.

L' URL ( Uniform Ressource Locator ) est une chaîne de caractères décrivant la localisation d'une ressource sur le Web. L'hyperlien - également inventé par Tim Berners-Lee - est un élément de type URL présent dans une ressource et renvoyant vers une autre ressource.

Le HTML ( HyperText Markup Language ) est le langage informatique le plus courant pour décrire le contenu d'un document (titre, paragraphe, intégration de photos ...) et inclure des hyperliens.

Un site Web est un ensemble de pages Web contenant des ressources publiées par un propriétaire et hébergées sur un serveur Web. Le moteur de recherche est une application Web permettant de trier les sites Web en fonction de mots-clefs.

• Les apports d'ordre externe

Au-delà de ces applications intrinsèques à l'Internet, cette technologie - et l'ensemble de celles relevant du numérique, plus largement -, par son caractère neutre et transversal, s'est diffusée dans chacun des aspects de la vie économique et sociale contemporaine , jusqu'à la bouleverser entièrement. Il n'y a plus aujourd'hui de champ d'activité qui soit soustrait à une « révolution numérique » qui « dévore le monde », pour paraphraser l'expression de Marc Andreessen, cofondateur de Netscape 17 ( * ) .

Cette invasion est, en majeure partie, source de progrès et d'émancipation pour des millions d'individus, dans des secteurs d'activité aussi nombreux que variés. Nous nous limiterons à trois exemples sectoriels particulièrement illustratifs du caractère global de cette « révolution digitale ».

Dans le domaine de la santé , tout d'abord, l'Internet est en passe de révolutionner la relation patient-médecin, mais également les pratiques médicales elles-mêmes. Au premier titre, se développe l' auto-information des particuliers sur leur état de santé et les diverses pathologies pouvant les affecter : 60 % des Français se tournent ainsi vers l'Internet pour obtenir des renseignements médicaux ou établir un premier diagnostic 18 ( * ) . Du côté des praticiens, près d'un tiers d'entre eux se connecte en consultation pour prescrire, en interrogeant prioritairement les bases de données et interactions médicamenteuses.

Au second titre, on assiste à une généralisation des objets connectés équipés de capteurs permettant de mieux connaître l'évolution physiologique d'un individu. Cette transition vers la« m-santé » à travers le « quantified self » (l'auto-mesure) étend chaque jour ses supports : tensiomètre, balance, pacemaker , et même fourchette ou brosse à dents connectés ! Elle ne se limite pas à la livraison d'informations, mais peut aller jusqu'à la réalisation de soins ou à l'intervention médicale à distance. Une entreprise française a ainsi mis au point un timbre numérique permettant d'administrer jusqu'à sept médicaments simultanément ou de façon séquentielle. Programmable par des professionnels de la santé, cette innovation pourrait révolutionner la façon de soigner, notamment la maladie d'Alzheimer.

L'impact de l'Internet dans le domaine de l'éducation est tout aussi spectaculaire et prometteur. L'usage du réseau permet en effet une démocratisation de l'accès à la connaissance , par la consultation des articles, encyclopédies, bibliothèques numériques publiques (Gallica) ou privées (Google Books), forums de discussion spécialisés... Ainsi que le souligne le rapport du Commissariat général à la stratégie et à la prospective sur l'Internet à l'horizon 2030 19 ( * ) , « le web est devenu une archive vivante : 23 millions d'articles sur Wikipedia dans près de 300 langues, réactualisés en permanence, 20 millions d'ouvrages numérisés sur Google Books, des millions d'informations nouvelles publiées chaque jour en mode flux ... ».

L' approche de l'enseignement se trouve par ailleurs elle-même remise en cause. L'enseignant ne s'adresse plus à ses seuls élèves physiquement présents, mais potentiellement à chaque individu s'intéressant à son champ d'intervention. Les « MOOCs » ( Massive Open Online Courses , ou cours en lignes ouverts et massifs), qu'a promus le lancement en janvier dernier de la plateforme France université numérique (FUN), sont ainsi en passe de devenir un mode d'apprentissage à part entière.

Si les grandes universités ont depuis longtemps ouvert certains de leurs cours par leur diffusion en ligne (ou podcast ), la Khan Academy, organisation à but non lucratif qui se donne pour mission « d'offrir une éducation gratuite et de première classe pour tous, partout », est allée plus loin en proposant des espaces numériques d'apprentissage par le jeu et la vidéo. C'est le domaine des « jeux sérieux » (ou serious games ), dont l'une des applications les plus intéressantes concerne le champ pédagogique, à travers les « jeux éducatifs » (ou edugames ), auxquels il peut être recouru dans tout type de formation et à tout âge.

Enfin, dernier exemple de secteur dans lequel le numérique est source de progrès : la recherche d'une croissance durable . Si la moindre consommation de ressources physiques que permet la numérisation des contenus se trouve contrebalancée par l'accroissement des dépenses énergétiques qu'elle implique, la valeur ajoutée qu'apportent les systèmes d'intégration connectés - tels que les « réseaux électriques intelligents » (ou smart grids ) pour l'énergie - laisse augurer d'importants gisements d'économie de ressources rares, ainsi que le développement de ressources circulaires ou renouvelables.

Les technologie de ces « réseaux intelligents », particulièrement prometteuses en termes de durabilité, devraient à terme permettre d'optimiser la consommation d'énergie, de réduire les émissions de CO 2 et de stimuler le développement de nouveaux usages, comme le véhicule électrique. Au cours des dix dernières années, plus de 5 milliards d'euros ont été investis dans environ 300 projets concernant ces types de réseaux en Europe. Les compteurs intelligents, qui en constituent la première brique, devraient équiper 80 % de la population européenne d'ici 2020, et générer un marché de 40 à 50 milliards d'euros d'ici ce même horizon 20 ( * ) .

c) Le risque de dérives vers des systèmes fermés et centralisés

• La fermeture des équipements, systèmes d'exploitation et applications

Le caractère originairement ouvert et décentralisé de l'Internet s'est vu progressivement contrarié par des tentatives de fermeture et de concentration, provenant des grands acteurs privés du secteur. L'usage de l'Internet via les équipements mobiles ( smartphones , tablettes...) en donne un exemple particulièrement éclairant.

L'offre est en effet partagée aujourd'hui entre deux grands systèmes d'exploitation, iOS (Apple) et Androïd (Google) , qui se partagent plus de 95 % du marché 21 ( * ) . Chaque terminal est pré-équipé de l'un de ces systèmes, selon les accords passés entre les constructeurs et ces entreprises éditrices de logiciels, sachant que certaines de ces dernières sont également constructeurs (c'est le cas notamment d'Apple avec ses iPhones). Or, cette « surcouche » de logiciel d'exploitation conditionne grandement les choix de l'utilisateur, qui devra rester dans « l'univers » de l'éditeur pour tirer toutes les possibilités de son équipement.

Cet « emprisonnement » de l'usage dans un système d'exploitation dit « propriétaire » se retrouve au niveau de l'interface et des fonctionnalités de base de l'appareil, mais surtout au niveau des « applications » (ou « applis ») qu'il permet d'enregistrer et d'utiliser. Ces « applis » sont en effet téléchargeables depuis des « plateformes » de téléchargement créées et exploitées par les éditeurs de logiciels : iTunes pour les produits équipés d'iOS et Androïd Market pour ceux équipés d'Androïd. Ainsi, le possesseur d'un smartphone ou d'une tablette qui « tourne » sur iOS ne peut télécharger ses « applis » que sur iTunes, et celui utilisant Androïd ne le peut de son côté que sur Androïd Market 22 ( * ) .

Il y a là une logique de « silo » (tel téléphone, équipé de tel système d'exploitation, et permettant d'accéder - uniquement - à telle plateforme de téléchargement) qui nuit à la fluidité du marché et restreint la liberté de choix des consommateurs. Ceux-ci n'ont en effet d'autre alternative que de choisir l'application apparentée à leur « univers logiciel » ; or, elle peut être moins performante ou plus chère que l'application liée au système d'exploitation concurrent, voire ne pas exister du tout. D'autre part, l'utilisateur perd l'usage de toutes les applications qu'il avait téléchargées le jour où il change de téléphone et en acquiert un muni du système concurrent.

Ce cloisonnement des équipements et des usages a été initié par les deux principaux éditeurs, Apple et Google, qui « verrouillent » ainsi le marché des applications mobiles et découragent leurs clients de se tourner vers des offres alternatives. Les enjeux financiers sont colossaux : le cabinet Gartner a estimé à près de 26 milliards de dollars le chiffre d'affaires généré en 2013 par les 102 milliards de téléchargements enregistrés. Un chiffre d'affaires appelé à augmenter avec le développement massif des achats intégrés depuis l'application (ou in-app purchases - IAP), invite l'utilisateur d'une application gratuite à l'enrichir de nouveaux contenus ou services payants.

Ce modèle d'architecture fermée des appareils, des systèmes d'exploitation et des applications a, historiquement, été poussé par Apple , qui a toujours cumulé les trois fonctions de constructeur de terminaux, éditeur de systèmes logiciels et éditeur d'applications. Le projet de Steve Jobs, le dirigeant charismatique du groupe, jusqu'à sa mort en 2011, a toujours été « d'emprisonner » l'utilisateur dans un écosystème privé où, à terme, tout contenu deviendrait payant, ou dont la gratuité serait financée par le visionnage obligatoire de publicités de sa régie.

L'un des principaux acteurs et inventeurs de l'Internet, Sir Tim Berners-Lee, s'est montré particulièrement inquiet de ces dérives . Lors de la conférence mondiale du Web qui s'est tenue à Lyon en avril 2012, il s'est dit préoccupé par l'évolution des applications mobiles, un marché selon lui cloisonné par les fabricants de matériel et éditeurs de logiciels. « Le Web, ce sont des standards, et chaque internaute doit pouvoir accéder au même contenu », a rappelé Tim Berners-Lee lors de cette conférence, avant de vanter les mérites du HTML5, langage de programmation qui évite d'avoir à réécrire une application pour chaque système et permet donc de diminuer les coûts de développement de ces applications.

Mais cette évolution, qui concerne le web et les applications auxquelles il permet d'accéder, est en réalité beaucoup plus large et s'avère caractéristique d'une reconfiguration de l'univers du net . Ainsi que le soulignait le magazine en ligne spécialisé Wired en 2010 23 ( * ) , « aujourd'hui, le contenu que vous voyez dans votre navigateur [...] compte pour moins d'un quart du trafic sur Internet... et ça baisse. Les applications qui comptent davantage dans le trafic Internet incluent les transferts de fichiers P2P, la messagerie électronique, les réseaux privés virtuels ( Virtual Private Network - VPN), les communications entre interfaces de programmation ( Application Programming Interface - API), les appels Skype, World of Warcraft et les autres jeux en ligne, le Xbox Live, iTunes, la voix sur IP, iChat et la diffusion en streaming de films depuis Netflix... La plupart des nouvelles applications du net sont des réseaux fermés, souvent propriétaires. »

• La gestion intégralement centralisée de la racine du net

Plus généralement encore, c'est l' architecture même de l'Internet qui peut être considérée comme fermée , ou du moins centralisée, sous influence américaine. Elle s'enracine dans la création, en 1982, par une équipe de San Francisco, de la première version du Domain Name System (DNS), ensemble de fichiers interconnectés qui remplit la fonction d'annuaire. Or, c'est l' Internet Corporation for Assigned Names and Numbers (ICANN), société de droit californien à but non lucratif, mais dont les liens avec le département d'État américain au commerce sont connus 24 ( * ) , qui en a depuis 1998 la gestion. Par ailleurs, la société américaine VeriSign est opérateur de la racine A 25 ( * ) , qui sert pour la mise à jour de toutes les racines de l'annuaire 26 ( * ) .

Il en résulte, s'inquiète M. Louis Pouzin 27 ( * ) , que « les États-Unis gèrent donc l'ensemble de l'annuaire , même s'il est physiquement réparti dans tous les pays du monde ». Reconnaissant que le DNS est devenu indispensable, l'ingénieur français fait toutefois observer que « sa structure centralisée n'a rien d'indispensable ».

Prenant l'exemple du téléphone mobile, et des 1 500 ou 2 000 opérateurs qui s'interrogent entre eux de par le monde « grâce à un système de numérotation plus intelligent que l'Internet, basé sur un code pays et un code opérateur » et sur la gestion par chaque opérateur de l'interconnexion de son propre annuaire, il estime ce modèle applicable à l'Internet. « Mais les États-Unis ont conçu le système de manière à ce que les États ne puissent pas intervenir dans sa gestion », note-t-il.

Cette hyper centralisation de la structure du net, au-delà des critiques politiques qu'elle peut alimenter, est porteuse de réels dangers pour la sécurité du réseau . « Tout point de passage obligé induit une fragilité, c'est un fait. Avec son annuaire unique, Internet est un terrain plus propice aux attaques malveillantes », souligne M. Louis Pouzin. « Elles sont rarement de grande ampleur. Mais le risque est là. C'est la conséquence de l'absence de cloisonnements et donc de pare-feux. » Surtout, cette centralisation induite par le système des noms de domaine déroge à la nature de l'Internet, conçu comme ouvert, décentralisé et distribué.

La solution, qui passerait par une maîtrise du DNS au niveau national , est toutefois difficilement envisageable à court terme . Elle susciterait en effet une forte hostilité des États-Unis, et ceci à plusieurs égards. La première réticence est d'ordre sociologique : « les Américains estiment que l'Internet leur appartient. Toucher au DNS, c'est toucher à leur pré carré », prévient M. Louis Pouzin. La deuxième raison de cette hostilité est politique : « le DNS, ainsi conçu, est un excellent moyen d'observation. Il est évidemment impossible d'observer tout ce qui se passe. Mais par échantillonnage, il est possible d'examiner plus précisément le trafic de tel ou tel utilisateur. C'est un outil d'intelligence économique. Il n'y a pas de preuve formelle qu'il est aujourd'hui utilisé à cette fin. Mais un pays qui aurait une telle capacité et ne s'en servirait pas serait bien fou. » Enfin, restent « les raisons économiques et l'usage commercial possible des flux dont VeriSign garde la trace » ainsi qu'un « volet corporatiste très lourd dans la mesure où la carrière de très nombreuses personnes, souvent compétentes, est liée à la continuité de ce système ».

Mis à part la Chine, qui a créé son propre DNS, en 2003, les initiatives nationales visant à briser ce « cadenassement » de l'Internet sont encore embryonnaires . On peut néanmoins citer les États du Golfe, qui ont mis en place une sorte « d'Intranet arabe », ou encore la Russie, dont la volonté d'indépendance en la matière peine toutefois à se réaliser. Pour ce qui est de l'Europe, où l'usage de l'Internet et du DNS sous contrôle américain est ultra-majoritaire, seul un mouvement de grande ampleur soutenu par les institutions étatiques et communautaires permettrait de développer progressivement des DNS nationaux interconnectés.

3. Une innovation de rupture offrant à chacun le pouvoir d'agir

L'invention et la diffusion de l'Internet à travers la planète a profondément modifié les grands équilibres économiques, le modèle d'organisation de nos sociétés, nos modes de vie et jusqu'à notre rapport au monde. Plus qu'une simple révolution industrielle, le numérique emporte un véritable bouleversement philosophique qui interroge la dimension anthropologique de l'homme.

a) Une technologie de rupture à part entière

En ce sens, et pour le seul champ économique, l'Internet peut être qualifié de « technologie de rupture » ( disruptive technology ), selon le sens qu'en donne Clayton Christensen dans son ouvrage The Innovator's Dilemma , publié en 1997. Il s'agit bien d'une innovation fondamentale ayant pour particularité de rompre avec le modèle existant et de conduire à une modification radicale du paysage économique . L'Internet compte d'ailleurs les deux-tiers des douze technologies de rupture listées par Mac Kinsey dans son rapport de 2013 sur les technologies de rupture qui vont modifier le monde en 2025 28 ( * ) .

La dématérialisation des données, l'augmentation exponentielle des capacités de stockage et la possibilité de les transmettre de façon instantanée en s'affranchissant des contraintes physiques ont en effet remis en question les modèles classiques , ceux de la « vieille économie », et rebattu les cartes dans tous les secteurs d'activité économique.

Comme l'a fait observer à votre mission M. Pierre Bellanger, fondateur et président directeur-général de la radio Skyrock, auteur de La Souveraineté numérique 29 ( * ) , l'automobile est sans doute l'exemple le plus illustratif de cette évolution dans le secteur industriel . Elle sera demain connectée et pourvue d'un système d'exploitation, devenant en elle-même un simple « terminal » dont la valeur résidera moins dans la qualité du châssis ou du moteur, que dans celle du « résogiciel » qui l'anime (les « résogiciels » désignant pour M. Bellanger les grands réseaux de services en ligne). La connexion de l'ensemble des GPS en temps réel permettra de connaître la circulation de façon prédictive et de gagner de la fluidité. L'étape suivante sera celle de la conduite automatisée, sur laquelle travaillent déjà de nombreuses entreprises, de l'industrie automobile comme de l'Internet. Le rapprochement entre ces deux mondes, autrefois étrangers, a déjà commencé, Nissan ayant par exemple signé un accord avec Google, tandis que certaines voitures sont équipées du logiciel Carplay d'Apple.

Outre l'industrie, les services sont également touchés , comme dans la banque et l'assurance . La possession de données personnelles permettra aux grandes plateformes Internet de personnaliser leur offre de crédit ou d'assurance à l'extrême, et donc d'emporter un avantage concurrentiel par rapport aux banques ou compagnies d'assurance classiques, qui ne connaîtront pas aussi bien le comportement de leurs clients. En réalité, ce sont l'ensemble des services « classiques » qui sont potentiellement affectés par ce changement de modèle : la santé, l'éducation, les loisirs...

Lors de son audition devant votre mission, M. Vinton Cerf a montré comment la conception même de l'Internet, en permettant aux développeurs de générer de nouvelles applications sans demander la permission des fournisseurs d'accès, a représenté « une innovation au regard de la permission et a facilité le développement des connaissances et des pratiques commerciales ».

Cette rupture technologique entraîne, dans la sphère économique, des changements de perspective importants. Elle redistribue le pouvoir de concevoir et d'innover au profit de la base . D'une économie de l'offre, on basculerait ainsi vers une économie où la demande créerait elle-même sa propre offre et d'une économie de la production à une économie où la valeur ajoutée est dans la distribution. Cela est rendu possible par la personnalisation des produits à distance , grâce à des spécifications fournies par le consommateur et permettant d'adapter un modèle de base à ses besoins ou à ses préférences.

Le stade ultérieur consiste pour le consommateur à concevoir, mais également à fabriquer lui-même le produit qu'il désire. Le développement des Fabrication laboratorys (ou FabLabs ), concept défini en 2004 au sein du MIT, va dans ce sens. Plateformes ouvertes de création d'objets physiques équipées par des machines à commande numérique de niveau professionnel, telles qu'une imprimante 3D, une machine à sérigraphie ou une presse à circuits imprimés, elles permettent de créer rapidement des produits personnalisés en série limitée, avant éventuellement de les commercialiser à une plus grande échelle 30 ( * ) .

b) L'instrument d'une révolution politique et philosophique

La « révolution Internet » va en réalité au-delà de cette redéfinition des hiérarchies économiques, qui redonne l'avantage aux structures légères et innovantes par rapport aux grands ensembles installés. Elle constitue en effet une rupture politique et philosophique , dans la mesure où elle réinvente entièrement le rapport à la connaissance, et redistribue de façon horizontale le « pouvoir d'agir ».

M. Michel Serres a longuement développé devant la mission les soubassements de cette révolution, qui trouve son origine dans la modification contemporaine du « couple support-message » , ainsi qu'il l'a décrit dans son ouvrage Petite Poucette . L'humanité en serait à la troisième phase d'évolution de ce couple, celle qui rendrait possible l'avènement d'une démocratie véritable « du fait de l'indépendance de l'individu par rapport à l'information ».

La première de ces trois ruptures se serait située lors du passage de l'oralité à l'écrit , qui a produit « un véritable miracle d'externalisation, par l'objectivation du support » : au corps humain (plus exactement, à la parole qu'il permet) se sont alors substitués des supports externes tels que la peau, le parchemin et le papier, matérialisant et mettant à distance la parole.

La deuxième rupture daterait de l' invention de l'imprimerie , à la Renaissance. La possibilité de lire « renouvelle l'idée même de démocratie, de lien avec les autorités », politiques comme religieuses. « La cognition, la pédagogie, la science changent [...]. Le spectre des changements se reproduit, aussi large que celui qu'avait produit l'apparition de l'écriture. »

Enfin, l' Internet constitue donc « un troisième état de cette affaire, une réplique ». Il se matérialise dans le « téléphone-ordinateur », qui est le « dernier avatar du couple support-message que l'humanité connaît depuis ses origines ». La révolution numérique passe toute entière, selon le sociologue, par cette alliance de matériaux et de logiciels qui permet à sa Petite Poucette, par sa seule main, et plus précisément encore par son seul pouce, d'attraire à elle, instantanément et sans bouger, le monde tout entier.

Saisissant cet appareil hybride et connecté, sa Petite Poucette « tient trois choses : les lieux du monde - grâce à son GPS, à Google Earth -, les informations du monde - qui sont en plus stockées dans une mémoire colossale, lui donnant un souvenir immédiat, maintenant -, et elle tient encore les personnes du monde [...]. Petite Poucette a donc cette devise : « main-tenant, tenant en main le monde. »

Il y a là un renversement complet de la relation de l'être aux autres et au monde . Alors que cette « faculté de tenir le monde en main n'a jamais appartenu qu'à quelques personnes seulement dans l'histoire du monde », ce sont aujourd'hui « 3,75 milliards de Petite Poucette qui tiennent en main le monde ». À l'approche descendante classique (dite aussi top-down ), voulant que les possesseurs de l'autorité et de la connaissance déversent les pouvoirs et les savoirs aux étages inférieurs de la pyramide sociale, se substitue une approche sinon ascendante ( bottom-up ), du moins horizontale , où chaque individu est source d'initiative ou d'information qu'il peut partager avec ses semblables, voire faire remonter vers les sommets de la hiérarchie sociale.

Si cette révolution est globalement source de progrès et d'émancipation, elle n'en implique pas moins une reconfiguration des rapports interindividuels , insiste M. Michel Serres. Les élèves et étudiants , à l'encontre desquels les maîtres et professeurs nourrissaient une « présomption d'incompétence », se voient reconnaître une « présomption de compétence », dès lors qu'ils peuvent consulter le thème du cours sur l'Internet. Les relations intrafamiliales sont également bouleversées, car « si la science est ce que les parents enseignent à leurs enfants, la technologie est ce que les enfants enseignent à leurs parents ». Les rapports entre patients et médecins sont aussi à réviser, Petite Poucette tenant en main « tous les chiffres, alors qu'ils étaient hier encore l'apanage des seuls experts ».

Ce renversement de point de vue, outre sa dimension philosophique et anthropologique, a un impact politique , en ce qu'il redéfinit les relations de pouvoir et d'autorité . L'Internet représente ainsi, pour M. Michel Serres, « la révolution qui rend possible un changement de la gouvernance du monde : c'est Internet qui va redéfinir le système politique, et non l'inverse ». Selon lui, le changement opéré est si radical qu'il « exige de penser de nouvelles formes politiques, une nouvelle démocratie » : c'est « cet état des choses qui fait advenir une véritable utopie démocratique, unique dans l'histoire de l'humanité ».

À un XIXème siècle prolifique en matière d'invention de systèmes politiques, a succédé un XXème siècle particulièrement pauvre en ce domaine. « Voilà ce qui nous manque aujourd'hui alors que le monde a changé si vite », estime M. Michel Serres. Il existerait ainsi un décalage entre ce monde nouveau , façonné par l'Internet et reposant sur des relations interindividuelles, égalitaires et ignorant les frontières, et une organisation politique et institutionnelle reposant sur une conception ancienne du monde, basée sur l'autorité et la hiérarchie. À terme, le changement de gouvernance de l'Internet doit donc évoluer vers une modification de la gouvernance du monde elle-même.


* 2 Expression tirée de l'article « Un bref historique de l'Internet », publié sur le site de l' Internet Society :

http://www.internetsociety.org/fr/Internet/qu'est-ce-que-l'Internet/histoire-de-l'Internet/un-bref-historique-de-lInternet#Origins

* 3 En parallèle, et sans que chaque groupe de chercheurs n'ait connaissance des autres, furent menés des travaux du même type au National Physical Laboratory (NPL) britannique et dans la fondation américaine RAND.

* 4 L' Advanced Research Projects Agency (ARPA) a été rebaptisée Defense Advanced Research Projects Agency (DARPA) en 1971, puis à nouveau ARPA en 1993, avant de redevenir DARPA en 1996 pour en conserver l'acronyme.

* 5 Voir infra .

* 6 Géopolitique d'Internet : qui gouverne le monde ? , David Fayon, Ed. Economica, 2013.

* 7 Cité par Stéphane Foucart dans son portrait sur « Louis Pouzin, L'homme qui n'a pas inventé Internet », publié dans Le Monde du 5 août 2006.

* 8 L'OSI ( Open Systems Interconnection ) est un standard de communication en réseau de l'ensemble des systèmes informatiques, qui sera supplanté par la norme TCP/IP .

* 9 Elle rassemble les couches « physique » et « liaison de données » du modèle OSI.

* 10 Bien qu'il implémente la couche physique, le protocole Ethernet est traditionnellement classé dans les couches de liaison de données.

* 11 L'autre étant le protocole UDP.

* 12 Elle rassemble les couches « session », « présentation » et « application » du modèle OSI.

* 13 Voir note supra .

* 14 « Organiser l'architecture de l'Internet », article de M. Bernard Benhamou publié sur Internet à l'adresse : http://www.diplomatie.gouv.fr/fr/IMG/pdf/OrganiserlarchitecturedelInternetBernardBenhamou-2.pdf

* 15 Ou « blogs » : type de site web utilisé pour la publication régulière d'articles rendant compte d'une actualité ou d'une opinion autour d'un sujet donné.

* 16 L'icône de Netscape est constituée d'un gouvernail de bateau.

* 17 « Software is eating the world », c'est-à-dire « le logiciel dévore le monde » , est exactement l'expression qui lui est attribuée.

* 18 « La santé s'impose sur Internet et les réseaux sociaux », article du Figaro du 28 novembre 2012.

* 19 La dynamique d'Internet, prospective 2030 , rapport du Commissariat général à la stratégie et à la prospective, étude 2013, n° 1.

* 20 Le marché des smart grids en France et en Europe , étude réalisée par Eurostaf, décembre 2012.

* 21 Existent des systèmes d'exploitation concurrents - tels que Windows Phone (Windows), Bada (Samsung), BlackBerry OS (RIM), Symbian OS (Symbian)... - mais leurs parts de marché sont marginales par rapports aux deux principaux.

* 22 Existent d'autres plateformes de téléchargement concurrentes, rattachées aux systèmes d'exploitation alternatifs précités, mais là encore, la diversité des choix qu'elles permettent et leur audience les confinent à un rôle anecdotique.

* 23 Cité dans « Le créateur du web critique les applications mobiles fermées », article de Numerama du 19 avril 2012.

* 24 Voir infra , sur ce sujet, les développements consacrés à la question de l'indépendance de l'ICANN.

* 25 La racine est la partie de l'annuaire qui se trouve au sommet de la hiérarchie. Elle contient uniquement les principales extensions : .com, .eu, .fr, .uk ...

* 26 Il existe de par le monde 280 copies de l'unique racine du DNS, mises à jour automatiquement par VeriSign.

* 27 Interview de M. Louis Pouzin pour le Club Parlementaire du Numérique par Armel Forest.

* 28 Disruptive technologies: Advances that will transform life, business, and the global economy , rapport McKinsey, mai 2013.

* 29 La souveraineté numérique , Pierre Bellanger, Ed. Stock, 2014.

* 30 Les pouvoirs publics ont aujourd'hui pris conscience de l'intérêt social, mais aussi économique, de ces FabLabs . Les nombreux espaces publics numériques (EPN) ouverts depuis la fin des années 90 se reconvertissent progressivement en FabLabs . Fin juin 2013, le Gouvernement a lancé un appel à projets d'aide au développement d'ateliers de fabrication numérique qui visait notamment ces EPN. Ainsi, il est prévu qu'un fonds finance une dizaine de projets à hauteur de 50 000 à 200 000 euros chacun.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page