Allez au contenu, Allez à la navigation



La neutralité de l'Internet

11 février 2011 : La neutralité de l'Internet ( rapport d'information )

II. TABLE RONDE SUR LA NEUTRALITÉ DES RÉSEAUX

Mme Catherine MORIN-DESAILLY, présidente du groupe d'études « Médias et nouvelles technologies »

Le moment est venu de passer à la seconde table ronde sur la neutralité des réseaux.

Un certain nombre d'entre vous a utilisé le terme d'écosystème de la culture, soulignant le fait qu'il existe une chaîne de valeur à respecter de manière équitable. A quoi bon les tuyaux si l'on n'a pas les contenus ?

On a beaucoup évoqué, ces dernières années, le risque d'assèchement de la création ; vous avez également parlé du risque de limitation du flux financier pour financer la création traditionnelle ou nouvelle. Une capacité de production doit être maintenue, voire développée face aux nouveaux supports.

Vous parlez également du maintien d'une harmonisation avec les autres pays et vous admettez que la chaîne de valeur est en train d'évoluer. L'un d'entre vous a d'ailleurs fait référence à la désintermédiation, terme fort parlant.

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Les Français ont en partage un double héritage, la diversité culturelle et la liberté d'expression. Le Conseil constitutionnel lui même a récemment reconnu qu'Internet concourrait à cette liberté d'expression !

Nous allons retrouver, au cours de cette table ronde sur la neutralité des réseaux, deux problématiques, celle de la chaîne de valeur d'un écosystème que l'on doit faire vivre face à des investissements très lourds et celle lié à l'aspect international et européen, qui est fondamental.

La neutralité des réseaux est peut-être plus simple à définir que la neutralité des contenus. On se trouve confronté à une explosion des trafics, le streaming et la vidéo changeant profondément la nature des flux. Le risque est soit de congestionner les réseaux du fait de l'appauvrissement de l'investissement, soit d'entraver le libre accès aux contenus, aux services et aux applications.

La parole est aux intervenants.

M. Claude KIRCHNER, délégué général à la recherche et au transfert pour l'innovation à l'Institut national de recherche en informatique et automatique (INRIA)

L'INRIA développe des recherches en sciences informatiques et mathématiques avec huit centres de recherche situés à Sophia-Antipolis, Rocquencourt, Paris, Rennes, Bordeaux, Nancy, Lille et Grenoble.

Nous avons été parmi les premiers utilisateurs du réseau à des fins de recherche mais aussi de communication. Il est clair que le type de recherches que nous développons a des conséquences immédiates sur la neutralité de l'Internet. Je préfère parler moi aussi de neutralité du réseau plutôt que de neutralité d'Internet, le concept étant plus général.

Aujourd'hui, la technologie permet aux fournisseurs de contrôler l'accès aux applications et aux contenus. Comment ce contrôle va-t-il pouvoir s'exercer ? A quoi va-t-il servir ? Comment souhaite-t-on l'exercer ? C'est le point qui nous rassemble ici aujourd'hui.

Ce contrôle va impacter par exemple la liberté d'expression de l'homme et du citoyen, objet d'une jurisprudence constante du Conseil constitutionnel qui a noté, au moment des discussions autour de la loi Hadopi, qu'il était important de pouvoir laisser à tous les citoyens un libre accès à Internet.

Il faut insister sur le fait qu'Internet est au coeur de l'économie. Le chiffre d'affaires du secteur des technologies de l'information et de la communication avoisine les 3 000 milliards d'euros, soit 7 % du PIB mondial. On devrait atteindre 20 % du PIB mondial dans dix ans. Cela signifie que l'ensemble des informations qui transiteront sur les réseaux vont représenter 20 % de la richesse mondiale. On dépasse donc largement le problème des contenus artistiques.

En matière d'accès à l'information, les outils de recherche sont fondamentaux tant la quantité des éléments que l'on trouve sur le réseau est importante. On a aujourd'hui de très bons algorithmes mais les intérêts particuliers peuvent, pour des raisons politiques, économiques ou publicitaires, modifier le retour après analyse.

Imaginons que l'on veuille, dans un pays comme la France, inciter les citoyens à regarder des contenus de type francophone : l'outil de recherche présenterait d'abord ce type de résultats au détriment de la neutralité du contenu.

Autre exemple : il y a dix jours, les députés organisaient une session autour de l'impact des nouvelles technologies sur les transactions financières. Une des transactions financières qui s'impose depuis quelques années est le « trading haute fréquence » qui consiste à faire monter des enchères de façon très rapide puisque l'on peut aller jusque 500 enchères par seconde.

Dans un tel système, les choses vont très vite ; on programme donc un certain nombre de logiciels pour gérer ces enchères. Le délai de réponse est de 2 millisecondes ; si le réseau n'est pas neutre, il peut fort bien ralentir votre offre ou l'accélérer, faire échouer les enchères ou avoir un impact sur la façon dont elles vont se jouer. La neutralité du Net ne concerne donc pas seulement l'accès à l'information mais aussi la façon dont on va pouvoir communiquer.

La neutralité des réseaux s'appuie sur la connaissance qu'on en a. En France, on a la chance d'avoir autour des réseaux une communauté de recherche particulièrement forte. Un certain nombre de chercheurs sont impliqués dans la réflexion sur la neutralité. Il est dommage qu'ils ne le soient pas plus dans les réflexions. Certes, des universitaires anglo-saxons ont été approchés dans le cadre de la consultation publique sur la neutralité organisée par l'ARCEP mais la France en compte également d'excellents.

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Il me semble que l'INRIA a été impliqué dans les travaux en amont du secrétariat d'État au numérique, qui ont débouché sur le rapport du Gouvernement...

M. Claude KIRCHNER, délégué général à la recherche et au transfert pour l'innovation à l'Institut national de recherche en informatique et automatique (INRIA)

Je parlais de la consultation publique de l'ARCEP !

La consultation publique organisée en France a été très courte, environ un mois alors qu'elle a duré cinq mois aux États-Unis. Les retours sont donc très différents. Il faut donc savoir s'appuyer sur la communauté de recherche mais aussi sur la communauté sociale au sens large pour arriver à avancer dans ces domaines.

On pourrait estimer qu'il n'existe pas aujourd'hui de législation en matière de neutralité du Net. On arrive cependant à vivre, à regarder des contenus artistiques divers et variés. En fait, si l'on ne fait rien, la technique va le faire à notre place - c'est d'ailleurs déjà le cas.

Un protocole de communication contient une certaine philosophie de communication. Il existe ainsi un nouveau protocole dont le principe est d'envoyer votre requête non au moteur de recherche mais au fournisseur d'accès, qui s'occupe de la faire traiter par les moteurs de recherche qu'il souhaite. Ce protocole pose la question de la neutralité. On ne peut avancer sans faire une confiance très importante aux fournisseurs d'accès.

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Voulez-vous dire que les protocoles ou les algorithmes ne sont jamais neutres ?

M. Claude KIRCHNER, délégué général à la recherche et au transfert pour l'innovation à l'Institut national de recherche en informatique et automatique (INRIA)

On ne peut pas dire cela : ils peuvent déterminer un certain comportement. Cela dépend de ce que l'on appelle la neutralité. Ils implémentent une stratégie qui peut être plus ou moins neutre. Sans expertise des réseaux, on ne peut être sûr de cette neutralité

On a la même difficulté avec des sujets techniques ou scientifiques, d'où l'importance de développer des capacités de recherche. Ce sera l'objet de mon dernier point : le rôle fondamental de la recherche dans cette approche.

Aujourd'hui, on ne sait pas ce que sont Internet ni le réseau mondial, en ce sens qu'il s'agit d'un objet dont on ne comprend pas le comportement. Il existe bien des approches statistiques sur le comportement global du réseau mais on ne comprend pas comment il fonctionne.

Il est important de développer un observatoire du réseau, tâche qui est en cours à l'INRIA. Il s'agit de se donner les outils pour comprendre les protocoles qui fonctionnent sur le réseau et la façon d'utiliser le réseau. Il faut donc concevoir l'instrument. Sa construction est déjà en soi un objet de recherche. Une fois la construction achevée, l'instrument devient une base opérationnelle de recherche sur les réseaux ; on va pouvoir ensuite observer et quantifier la neutralité.

Il existe d'autres sujets de recherche fondamentaux, comme les aspects relatifs à la sécurité et à la fiabilité. Quelque chose qui n'est pas fiable n'est pas neutre. Les contenus circulent dans des paquets de nombres que l'on retrouve sur le réseau ; « étiquetés » par ceux-là même qui les envoient, ils peuvent recourir à de fausses étiquettes. Ces paquets, « emballés » de façon différente, vont passer au travers des filtres des opérateurs. Combinés à des techniques de cryptographie, de dissimulation d'informations dans des images, ils peuvent permettre de passer de l'information, certainement pas en très grosse quantité - au moins aujourd'hui - mais de façon cependant significative.

Autre sujet : la standardisation. Un standard de fait va-t-il permettre d'implémenter quelque chose de neutre ? Non, car c'est un standard de fait - bien souvent celui d'une entreprise donnée - et il n'est pas forcément ouvert !

Dans ce cadre, un fort positionnement européen est important ; de ce point de vue, la France, au travers de l'INRIA, a une forte implication dans les aspects concernant le réseau, en particulier le réseau européen pour ce qui est de la recherche.

D'autre part, le partenariat entre sciences, techniques et législatif est fondamental. Ce n'est pas la peine d'avoir aujourd'hui une solution technique si, d'un point de vue législatif, elle n'est pas appliquée. D'autre part, ce n'est pas la peine d'introduire des lois dont la réalisation pratique repose sur des techniques qui ne seraient pas avérées !

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Bien entendu, vous ne visez aucune loi en particulier ! Merci. Vos propos nous permettent de prendre du recul et de la hauteur.

Je pense que la recherche a beaucoup à nous apprendre. Même si l'on n'est pas dans la préoccupation de l'instant, il est toujours important de prendre un peu de recul sur un sujet comme la neutralité.

M. Bernard BENHAMOU, délégué aux usages d'Internet

Internet a constitué une rupture tant d'un point de vue industriel que d'un point de vue stratégique, économique et politique. C'est la seule invention qui, quelques années après sa naissance, ait justifié à elle seule l'organisation d'un sommet des Nations-Unies là où, pour mémoire, le droit de la mer a mis 400 ans à se structurer ! C'est une évolution qui a eu un impact majeur sur la gouvernance et sur les relations internationales.

Je me permettrais toutefois une nuance sur ce qui a été dit concernant le fait qu'on l'on n'arrive pas à définir l'Internet. Au risque de faire une boucle, je prendrai une définition qui vient des chercheurs qui travaillent sur l'Internet et qui le décrit sous une forme triple : Internet, c'est un ensemble de réseaux qui utilisent des technologies TCP/IP, ce sont les communautés qui utilisent ces réseaux et ce sont les ressources mises à la disposition de ces communautés.

Cette définition détermine trois niveaux, celui de l'infrastructure, celui des opérations logiques qui ont lieu sur le réseau et enfin celui des contenus.

La neutralité, c'est la capacité à séparer ces trois niveaux et à faire en sorte qu'aucun acteur - opérateur, éditeur de services ou de contenus - n'ait la main mise sur ces trois niveaux en même temps et ne puisse « verticaliser » le réseau.

De très nombreux acteurs ont tenté de créer un Internet fermé. Ce n'est pas terminé ; le combat dans ce domaine continue. On a vu autrefois Microsoft tenter de créer un Microsoft Network, qui était ni plus ni moins qu'un Minitel évolué ; on a vu plus récemment des AOL avoir des envies de grandeur - mais cela n'a pas fonctionné. Aujourd'hui Apple et d'autres tentent de recréer des systèmes fermés. Ce combat est l'un des déterminants du débat sur la neutralité.

Le Minitel était un réseau entièrement verrouillé et contrôlé par l'opérateur. Il fut une époque où, pour créer un « service » Minitel - cela ne s'appelait pas un « site » - il fallait un numéro de commission paritaire et être adossé à un organe de presse. Toute autorisation émanait d'une structure centrale.

Certes, Internet est d'une complexité que personne ne nie et c'est de très loin l'animal technologique le plus complexe qu'aient jamais eu à gérer les techniciens, et plus encore les politiques, mais sa particularité est de ne nécessiter aucune autorisation préalable pour créer un site, un logiciel ou un outil.

Je rappelle que, parmi les outils de l'Internet, figure le web, qui n'est pas superposable à l'Internet, qui n'en est qu'un sous-ensemble inventé en Europe par un Européen pour des chercheurs et qui s'est répandu à la vitesse que l'on sait pour devenir le média qui a connu la plus forte croissance de tous les médias existants.

Tim Berners Lee, le créateur du web, dit très bien que si l'on avait eu, à quelque niveau que ce soit, à demander une autorisation à une instance gouvernementale, à un opérateur de télécommunications ou plus encore de contenu, jamais on n'aurait pu créer le web !

Lui-même a eu la générosité de ne pas déposer de brevet de son invention mais il n'empêche qu'il sait fort bien que le succès est lié au fait que l'infrastructure du réseau, l'architecture du double protocole TCP/IP permettait d'éviter que ne soit créée une instance centrale, un pouvoir centralisé.

Or, tout le débat que nous avons autour de ces questions, en Europe comme en France, consiste à savoir ce que signifie la neutralité, dans la perception politique, économique, stratégique traditionnelle.

A l'heure actuelle, c'est le premier levier en matière de création. Là encore, les auteurs parlent d'innovation sur les franges du réseau...

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

D'innovation sans permis...

M. Bernard BENHAMOU, délégué aux usages d'Internet

En effet. Vous disiez que ce droit est reconnu par nos plus hautes juridictions institutionnelles. Ce droit n'est pas simplement le droit de s'exprimer mais d'utiliser l'effet de levier politique et surtout économique que constitue le réseau. Disposer d'un marché de presque 2 milliards d'individus est une chose considérable. Ce premier point est essentiel.

Le second point qui a été beaucoup discuté outre-Atlantique est le fait que la neutralité apparaît comme la véritable loi antitrust des réseaux dès lors qu'un acteur déjà présent n'empêche pas de plus petits d'entrer, soit en modifiant les conditions et les paramètres de fonctionnement, soit en faisant en sorte qu'il ne puisse y entrer techniquement ou économiquement, en rendant la charge demandée impensable pour une structure récente. Google n'a pas facturé de clients durant les trois premières années de son existence et l'on pourrait dire la même chose de Facebook et de quelques autres !

C'est cette capacité à générer des acteurs que l'Europe n'a pas su mettre en oeuvre. Lors de ces vingt dernières années, l'Europe a, en permanence, manqué le virage de l'Internet et des services...

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Pourquoi ?

M. Bernard BENHAMOU, délégué aux usages d'Internet

Il existe plusieurs raisons à cela. La première réside dans le fait que nos acteurs de l'infrastructure sont parmi les meilleurs au monde mais - c'est le « syndrome Nokia » - l'infrastructure prévaut sur le service. C'est une erreur majeure. L'ingénieur a forcément raison et le client forcément tort ! L'Internet mobile est en train de démontrer à très grande vitesse que ceci s'avère dramatiquement faux pour ceux qui le croient. Il faut prévoir en Europe une revalorisation politique et stratégique de ces métiers, en même temps qu'un abaissement des barrières européennes et la création d'un véritable marché unique des services paneuropéens sur mobiles. L'Europe a son mot à dire ! C'était l'objet de la discussion avant la présidence française.

Nous avons trois opportunités majeures dans ce domaine : le marché, les ressources et les cerveaux.

Nous disposons du plus important marché régional de la planète, devant les États-Unis et - encore un temps - devant la Chine, avec un niveau de vie moyen bien supérieur à celui de ce pays.

Nous bénéficions de données informationnelles, culturelles, patrimoniales, environnementales et géographiques, qui sont les plus demandées au monde. Ces données sont hautement valorisables. Lorsqu'il est question de la BnF et de numérisation, on voit bien l'intérêt stratégique de mettre la main sur ce corpus de données que l'Europe possède en abondance.

Nous avons créé, au sein du secrétariat d'État, dans le cadre du plan de relance, un appel à projets qui a amené à créer le premier portail de service public sur mobile, Proxima Mobile ; nous avons financé toute une série d'applications avec des entreprises, des PME et des institutions publiques. La plus téléchargée est le Musée du Louvre, qui approche les 3 millions de téléchargements - dont 60 % aux États-Unis.

Enfin, nous avons les cerveaux - que l'on nous vole abondamment en leur proposant d'aller travailler sous le soleil californien !

Nous disposons donc des trois piliers fondamentaux qui permettraient de créer cette ressource ; nous ne l'avons pas fait. C'est une erreur historique de survalorisation de l'infrastructure ! Il faut une politique industrielle à l'échelle européenne et française dans ce domaine car nous n'avons pas de succès internationaux dans le secteur des services sur Internet.

Or, le débat qui nous réunit aujourd'hui concerne les conditions qui doivent s'appliquer d'un point de vue technologique, économique et politique pour que ces innovations puissent naître en Europe. Certes, c'est le cas de certaines mais elles ont été exportées. Le but est de créer un écosystème et d'éviter que ne se verrouillent les positions de certains acteurs, ce qui empêcherait toute innovation d'aboutir.

Il faut faire en sorte que ces petites sociétés deviennent des ETI, des entreprises de taille intermédiaire ! En France, les PME brillantes ont deux solutions, le rachat à 18 mois ou l'expatriation ! C'est inacceptable dans la durée ! Dans le domaine de la neutralité, il faut retirer les fruits de ce qui s'est produit ailleurs - et pas simplement aux États-Unis - en termes d'innovation.

Il a été question de la télévision : c'est le point sur lequel se portent tous les acteurs de l'Internet. Jusqu'à présent, la télévision était rétive à l'Internet et on ne pouvait y voir de contenus issus de l'Internet, hormis les flux audiovisuels - mais c'est un sujet à part. Apple et Google sont sur le point de sortir des « box » qui permettront de distribuer des applications et des services sur la télévision avec, dans le collimateur, le magnifique marché publicitaire que cela représente.

On sait que, pour le mobile, le marché de la publicité géolocalisée va être explosif ; pour la télévision, les enjeux que représentent les régies traditionnelles pour Apple, Google ou d'autres sont colossaux !

Comment faire en sorte que des acteurs français et européens puissent avoir une place dans cet écosystème avant qu'il ne soit verrouillé - comme cela a été trop souvent le cas ? Comme le dirait mon ami et collègue américain Lawrence Lessig, le code crée du droit. Vous posiez la question de savoir si les protocoles étaient neutres par nature ou non : absolument pas ! Aucune création humaine n'est neutre dans l'absolu et le code informatique encore moins qu'un autre ! Il crée du droit, de l'organisation sociale et les citoyens doivent le contrôler. C'est tout le débat autour de la neutralité : faire en sorte que la validation ultime soit entre les mains du citoyen et non d'une autorité centralisée qui, par définition, ne serait ni innovante, ni vecteur de croissance et de création d'emplois !

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

J'ai retenu que si nous voulons continuer à bénéficier d'un écosystème qui permette des innovations sans barrière, sans permis, sans trop de coûts, il nous faut préserver un Internet ouvert.

Vous avez parlé de la télévision : M. Brunet est directeur des relations extérieures et des affaires juridiques de Sony France. Nous allons donc traiter de la télévision connectée...

M. Arnaud BRUNET, directeur des relations extérieures et des affaires juridiques de Sony France

Tout le monde parle beaucoup de télévisions connectées mais personne ne les a encore véritablement vues ! C'est normal puisqu'elles arrivent sur le marché. Il est d'ailleurs assez extraordinaire de voir comment une innovation technologique provoque autant de débats, d'inquiétudes et suscite de fantasmes !

Emmanuel Gabla a parlé du marché de la télévision et des télévisions connectées - ou connectables. Le marché de la télévision est extrêmement dynamique. C'est un des rares secteurs en forte croissance, pour plusieurs raisons, la principale étant la numérisation du signal.

On connaît tous le succès de la TNT. Le coeur de métier bat bien autour de la télévision hertzienne gratuite ; c'est ce qui fait aujourd'hui le succès de la télévision, ne nous y trompons pas !

On va vendre en France en 2010 près de 9 millions de téléviseurs - record historique - essentiellement grâce aux nouvelles technologies incorporées dans les téléviseurs - haute définition, 3 D, connexion Internet - mais surtout parce que l'on bascule du signal analogique au signal numérique et qu'il est donc nécessaire d'acheter un nouveau téléviseur ou un adaptateur.

Sur ces 9 millions de téléviseurs vendus en France en 2010, ou presque, on estime que 10 % seront connectables. D'après les premières informations que l'on recueille sur les usages, environ 25 % des téléviseurs connectables sont effectivement connectés au moins une première fois - il s'agit donc là d'un phénomène naissant.

Aujourd'hui, 60 % de la gamme des téléviseurs Sony est connectable. Ce sera près de 100 % l'année prochaine, ce qui va accélérer le mouvement. A chaque fois que l'on introduit une nouvelle technologique, un phénomène d'accélération apparaît après une phase de latence et de démarrage.

Ces téléviseurs connectés permettent de regarder la télévision hertzienne, télévision de qualité, dont je rappelle qu'elle est totalement « à la main » des éditeurs : ce sont en effet les chaînes qui déterminent leurs programmes. Nous sommes là dans un modèle historique et pérenne.

A noter que ces télévisions connectées ne se connectent pas directement au réseau mais toujours via une « box » ; nous sommes donc aujourd'hui dans une sorte de dépendance technologique et avons un passage « obligé » qui est la « box » des FAI pour accéder au réseau.

Qu'allons-nous faire avec ces télés connectées? Dans un premier temps, de l'interactivité à partir des flux de programmes de télévision. C'est une capacité que nous offrons aux chaînes de télévision d'enrichir leurs programmes et l'expérience de télévision. Pour ce faire, nous allons utiliser la technologie appelée HbbTV qui consiste à associer le programme qui sera diffusé à une connexion Internet, de façon à apporter de la profondeur aux programmes : recettes en ligne d'une émission culinaire, résultats d'un joueur dans le cadre d'une émission sportive et, à terme, paris en ligne, etc.

La seconde possibilité que l'on a déjà vue apparaître sur les téléviseurs est ce que l'on appelle les « widgets », c'est-à-dire la capacité à aller chercher, via de petites applications, du contenu très spécialisé sur Internet pour donner la météo, le cours de bourse, la situation du trafic en Île-de-France, etc.

Nous sommes en train de tisser un continuum entre l'image classique diffusée et le web à l'état pur. Il va donc y avoir une série de solutions intermédiaires.

L'étape suivante concerne l'accès à des contenus audiovisuels à la demande tels que la télé de rattrapage. Sony a, par exemple, un accord non exclusif avec M6 pour M6-Replay. On peut ainsi décliner, comme le font aujourd'hui tous les constructeurs avec toutes les chaînes, l'accès à ces programmes de télévision au moment choisi.

Autre solution : la VàD. L'exemple le plus récent pour Sony est Qriocity, une offre de programmes de films de différents éditeurs - majors hollywoodiennes mais aussi éditeurs européens. On achète du contenu audiovisuel soit par abonnement, soit à la demande, on le télécharge ou on le regarde en streaming. Toutes les possibilités sont offertes par cette connexion Internet.

Petit à petit, on va se rapprocher de ce qui est véritablement la télévision Internet qui n'est, elle, pas encore sur le marché ; s'agissant de Sony, elle arrive aux États-Unis. Cette télévision Internet fait le pari d'apporter le meilleur du web au monde audiovisuel. Nous avons conscience de mettre le pied dans la fourmilière et cela nous dépasse probablement un peu, mais cela va permettre d'avoir accès à une multitude de contenus, d'où la nécessité de disposer de moteurs de recherche, de façon à mieux sélectionner, mieux comprendre, mieux interagir. C'est pourquoi Google se positionne notamment, en partenariat avec Sony, sur la télévision Internet.

Nous avons fait le choix, à l'inverse de certains, d'un modèle totalement ouvert aux développeurs et au monde audiovisuel.

Tout ceci se met donc en place de façon progressive et se trouve conditionné par le fait que nous créons un nouvel écosystème. Celui-ci ne fonctionnera que si nous avons accès au réseau de manière équitable et que nous obtenons les débits nécessaires pour faire en sorte que le téléspectateur accède à tous ces contenus. Si le « robinet » est fermé, on pourra déployer toutes les télévisions connectables que l'on veut, ce sera un échec.

J'en reviens à cet état de dépendance que nous imaginons vis-à-vis des infrastructures : il est clair que nous allons venir concurrencer des offres gérées par les opérateurs et nous craignons qu'à l'occasion de la gestion intelligente du réseau, le flux direct de la télévision connectée ne soit défavorisé. C'est peut-être une crainte infondée de la part des fabricants de téléviseurs connectés, mais elle est réelle. C'est ce qui explique l'intérêt que nous portons à la neutralité du Net.

Évidemment, c'est un monde qui se met en place et les fabricants ont aujourd'hui un peu de mal à se positionner en termes d'obligations. Un certain nombre de réflexions sont en cours, notamment en ce qui concerne le financement de la création. Or, plus on va aller vers le web et l'ouverture du système, plus on va se rapprocher du monde du PC. Nous demandons à ne pas être plus mal traités que les autres : lorsqu'il existera une télécommande intelligente permettant de « surfer » sur Internet, on ne sera ni plus ni moins face à un nouveau type de PC et les mêmes règles devront s'appliquer aux mêmes usages.

Nous sommes ouverts à toutes les discussions avec les différents acteurs ; c'est ce que nous faisons aujourd'hui dans différentes enceintes mais il y a beaucoup à faire et beaucoup de réflexions à mener, la technique étant allée un peu plus vite que le cadre réglementaire.

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

La télévision connectée ne constitue-t-elle pas simplement un moment de la télévision ? On a eu des télévisions Full HD, des télévisions numérisées intégrant l'adaptateur numérique... N'aura-t-on pas, avec la convergence des terminaux, des écrans de PC, des écrans de télévision ?

M. Arnaud BRUNET, directeur des relations extérieures et des affaires juridiques de Sony France

Probablement. La notion de télévision va évoluer. C'est la première fois que l'on sort de ce modèle historique de télévision diffusée, un modèle où le téléspectateur est assez passif vis-à-vis de l'image - encore qu'il ait la capacité de zapper, d'éteindre ou de faire autre chose. Il va désormais avoir la possibilité d'aller chercher du contenu additionnel et d'enrichir son expérience de télévision.

A la différence de la HD, qui était une amélioration de la qualité du contenu, au delà de la 3 D, qui est aussi une amélioration de la qualité, on a là quelque chose de très nouveau qui consiste à sortir du modèle classique et qui rend le téléspectateur beaucoup plus actif vis-à-vis de l'image qu'il regarde.

C'est une chance pour les chaînes de télévision mais aussi un risque - on l'a vu avec les questions relatives à la publicité. Il faut que chacun se positionne rapidement et trouve un certain confort dans cette évolution technologique.

M. Bernard BENHAMOU, délégué aux usages d'Internet

L'un des échecs historiques de la connexion du web à la télévision vient du fait que les gens n'ont pas envie d'intervenir dans leur salon comme s'ils se trouvaient devant un PC. Il faut l'admettre.

En revanche, nous nous dirigeons vers les mêmes systèmes qui sont présents sur les téléphones, les tablettes interactives et sur la télévision avec connexions multiples à domicile, qui comporteront des services spécifiques de type réseaux sociaux, informations, commerce, publicité.

La nouveauté vient de la possibilité de cibler ses choix, là où la télévision ne le permettait que très peu, en fonction des horaires. On aura là une publicité extrêmement personnalisée, avec des applications qui ne demanderont pas l'interaction que l'on peut avoir avec une souris ou un clavier.

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Emmanuel Forest, pour en revenir à la neutralité des réseaux, comment situez-vous le point d'équilibre à trouver entre opérateurs, FAI, prestataires de services d'Internet, sachant que le mobile dispose de moins de capacités que le haut débit fixe ?

M. Emmanuel FOREST, directeur général délégué et vice-président de Bouygues Telecom

Mon intervention sera plus terre à terre, étant un simple opérateur de réseau.

Dans les cahiers de l'ARCEP sur la neutralité du Net, Jean-Ludovic Silicani indique en introduction que « l'enjeu principal de la neutralité du Net est celui de l'avenir d'Internet et de son bon fonctionnement sur le long terme ». Il ajoute : « S'il reste des enjeux importants de second rang - économiques, techniques et sociétaux - comment financer le développement des réseaux et des contenus ? ».

Chacun étant dans son rôle, je dirais que le premier problème est celui du financement des réseaux : sans financement, point de réseaux et donc point de neutralité du Net ! C'est le sujet le plus important qu'il faut objectiver avant de réfléchir à des décisions plus philosophiques sur l'équilibre entre réseau et contenu.

On se trompe parfois sur le problème économique du réseau : la grande difficulté vient de ce qu'Internet et le web nous ont habitués à une idée de gratuité. La devise de Wikipédia est : « Chacun ses capacités, chacun ses besoins ». Cela rappelle certaines choses mais laisse penser qu'il existe des infrastructures collectives qui pourraient être gratuites et que l'économie des réseaux connaît un rendement croissant. Il existerait donc des coûts fixes ; une fois absorbés, on peut faire circuler tous les paquets de façon libre et égale.

Certes, il existe des coûts fixes importants mais la contrainte qui pèse sur le mobile est celle de la boucle locale radio. Or, les contenus audiovisuels peuvent être aussi se présenter sous forme de produits classiques ou de « users generated contents », comme YouTube. Cela commence à peser sur le besoin en bande passante : il faut augmenter la capacité de chaque antenne relais, en installer de nouvelles et densifier le réseau pour augmenter la capacité. Les coûts variables peuvent donc devenir importants. Ils ont été à l'ordre du jour en début d'année. L'affolement est venu des États-Unis et on a craint de le voir se transmettre à la France.

C'est vrai aussi pour le fixe, le problème des coeurs de réseaux étant commun au fixe et au mobile. Si l'on veut permettre aux clients d'avoir une expérience positive, il faut que ceux-ci tiennent le coup pour acheminer le trafic. Cela coûte cher. Les spécialistes expliquent que dans quinze ans, il faudra des équipements laser de bien meilleure qualité et que tout cela a un coût.

Il convient donc de trouver la manière intelligente de garantir à chacun un Internet de qualité, un accès au web commun à tous mais de permettre aussi des classes de services pour les gros utilisateurs qui payent aux opérateurs le prix que coûte cette utilisation.

Dans l'article 3 de sa proposition de loi sur la neutralité du Net, Christian Paul indique que : « Les personnes dont l'activité est d'offrir un accès à des services de communication au public en ligne ne peuvent interdire ou appliquer des conditions tarifaires spécifiques à leurs abonnés qui connectent simultanément ou successivement différents équipements à un même accès à des services de communication au public en ligne ».

En d'autres termes, l'usage personnel du Smartphone et son usage familial - grâce à une borne wifi elle-même connectée à la fibre ou à l'ADSL - devrait faire l'objet de la même tarification. Nous ne sommes pas d'accord car la façon dont on va utiliser le réseau sera certainement bien différente d'un support à l'autre !

Nous comprenons bien l'intention de M. Paul mais une tarification, en fonction de l'usage et de la charge du réseau nous apparaît tout à fait légitime !

Selon les cahiers de l'ARCEP, Internet est devenu un bien collectif stratégique. L'article 9 du préambule de la Constitution de 1946 relatif aux biens ou entreprises qui acquièrent la qualité de service public national étant toujours en vigueur, il est possible de nationaliser l'Internet. Je crois comprendre que ce n'est pas à l'ordre du jour ; certains débats ont laissé entendre que ce ne serait pas la meilleure solution !

L'autre formule est celle de M. Jean-Ludovic Silicani : « Il appartient aux pouvoirs publics de promouvoir des règles afin que les réseaux et les services associés fonctionnent bien ». Il convient de le faire avec les acteurs privés qui financent et assurent le fonctionnement du système.

Le grand défi va sûrement être de trouver la synthèse entre deux approches différentes. La première est celle du marketing et des opérateurs privés dont c'est le métier. Il s'agit ici de dégager, par les analyses de marchés, les intérêts particuliers de certains segments et de les réunir au sein d'offres différenciées. L'intérêt général, sous un angle segmenté, sera donc satisfait.

L'autre approche est plus collectiviste et consiste à dire qu'il existe un intérêt général et qu'il convient de fixer des règles extrêmement interventionnistes. Cela signifierait une péréquation.

La proposition de loi de Christian Paul va dans le sens d'une péréquation générale, avec un même Internet pour tous, au même prix. Je crains que ceci n'amène un prix élevé, les plus petits consommateurs devant payer le même prix que les gros !

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Il est intéressant d'entendre le point de vue des consommateurs et de l'UFC-Que Choisir...

M. Édouard BARREIRO, chargé de mission à UFC-Que Choisir

Cela fait environ deux ans que l'UFC-Que Choisir s'intéresse à ce sujet ; on a même saisi l'ARCEP en janvier 2009 en lui demandant d'éclaircir cette problématique à laquelle vient aujourd'hui s'ajouter le « paquet télécom ».

Notre position est de dire que le « paquet télécom » n'est pas suffisant. Il propose la transparence, ce qui signifie que l'opérateur est libre de vendre n'importe quoi. On voit très bien le préjudice qui en découle pour le consommateur : l'UFC-Que Choisir poursuit Orange et SFR en justice pour leur offre « Internet illimité ». En effet, ce n'est pas de l'Internet car on n'a pas accès à tous les services et ce n'est pas illimité non plus ! La transparence ne signifie donc pas grand chose.

C'est peut-être la raison pour laquelle il existe tant de problèmes avec le réseau mobile : on a tellement dit aux consommateurs qu'il pouvait tout faire qu'il a essayé et a saturé les réseaux ! Il faut donc faire attention aux monstres que l'on crée...

S'agissant des encadrements, comment garantir au consommateur qu'il aura accès à un véritable Internet ? Qu'appelons-nous le véritable Internet ? Le véritable Internet, c'est la possibilité de se connecter à partir d'un périphérique sans se préoccuper de savoir si c'est ou non compris dans son abonnement. Un des problèmes avec l'Internet mobile est qu'on a fait croire au consommateur que c'était la même chose ; or, ce n'est pas le cas !

L'ARCEP préconise un réseau « best effort » avec un certain niveau de qualité encadrée. Il faut cependant être certain que ce niveau soit suffisant pour que le plus grand nombre puisse avoir accès à un Internet de qualité.

Il faut prendre garde à ne pas créer un déversoir, un Internet moins cher et de moins bonne qualité et un Internet de meilleure qualité mais très cher, avec des notions d'exclusivité - comme la chaîne d'Orange ou de YouTube !

Cela ne signifie pas que l'on ne puisse donner la priorité à certains contenus sur le réseau. Si on nous dit qu'il faut ralentir les mails pour favoriser la vidéo, pourquoi pas - à condition que ce soit proportionné et dûment justifié, comme l'a préconisé l'ARCEP ? Il faut aussi que les protocoles mis en place soient validés également par l'ARCEP pour être certain qu'il n'existe pas d'abus.

Nous sommes également hostiles au fait que les FAI aient un rôle de police sur Internet et filtrent les contenus. Il existe aujourd'hui un dérapage, notamment de la part des autorités européennes, dans cette volonté d'imposer le filtrage qui fait appel à des technologies dignes des États autoritaires, certains opérateurs décidant de ce qui est légal ou non, légitime ou non sur Internet. Toute mesure de filtrage ne doit donc être prise en dernier recours que par un juge, une autorité indépendante...

M. Bruno RETAILLEAU

Ce n'est pas la même chose !

M. Édouard BARREIRO, chargé de mission à UFC-Que Choisir

En effet, il ne peut s'agir que du juge...

La thématique de l'interconnexion est par ailleurs très complexe. On ne peut rester neutre sur le sujet car certains signaux sont nécessaires pour orienter au mieux les acteurs. En laissant l'interconnexion en l'état, est-on certain que les opérateurs seront toujours incités à investir au mieux ?

Les inducteurs de trafic feront-ils également au mieux ? Les opérateurs voudraient que les prestataires de services se rapprochent un peu plus des consommateurs.

On peut également poser la question des formats de compression des vidéos : YouTube, Dailymotion ou d'autres feront-ils au mieux en termes de protocole vidéo sans le bon signal économique ? Ne peut-on facturer un coût incrémental à un opérateur spécifique qui souhaiterait agrandir un « tuyau » pour faire entrer du contenu sur le territoire - sans pour autant lui facturer la boucle locale ?

Certains opérateurs se déclarent en faveur d'une terminaison data. Nous n'y sommes pas hostiles si les choses sont faites convenablement. Si l'on ne prend que le coût de la « collecte » et le coût incrémental en incluant une très grande asymétrie des flux, pourquoi pas ?

Cependant, dans l'économie, on distingue vraiment le réseau fixe du mobile. M. Forest dit qu'on ne peut facturer le même tarif à deux consommateurs s'ils ne consomment pas la même chose. Sur un réseau fixe, que le consommateur consomme beaucoup ou non, il coûte exactement la même chose ! Pour le mobile, le coût marginal est très important en fonction de la consommation mais toutes les offres sont limitées à 500 mégas et à 2 gigas et différentes les unes des autres. Ne demandez donc pas qu'on le fasse pour le fixe, car cela ne se justifie pas économiquement.

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

L'ARCEP a émis en septembre dix recommandations. Quelles sont pour vous, monsieur Distler, les plus importantes en matière de neutralité des réseaux ?

M. Philippe DISTLER, directeur général de l'Autorité de régulation des communications électroniques et des postes (ARCEP)

La structure concurrentielle du marché est un élément fondamental du débat. Aux États-Unis, le débat sur la boucle locale est probablement moins vif qu'en France. J'ai l'impression que certains acteurs prennent le débat sur la neutralité comme un moyen de corriger les insuffisances concurrentielles du marché de la boucle locale.

En second lieu, la gestion de trafic est consubstantielle au réseau, celui-ci étant par définition une ressource partagée entre tous les services et les utilisateurs. Les opérateurs essayent de trouver un optimum économique entre le nombre de clients actifs à un moment donné et la consommation de chacun des services, notamment en termes de bande passante.

Les recommandations les plus importantes sont liées au principe de définition d'un accès Internet neutre, dans lequel la définition de qualité de service garantit l'accès à un certain débit, à certaines caractéristiques techniques, au principe de liberté d'accès à toutes les applications et à tous les services, dans le respect de l'intégrité du réseau, sans discrimination sur les flux individuels d'applications, sauf exception dument justifiée au regard d'un certain nombre de principes, tout ceci devant être le plus transparent possible pour l'utilisateur, même si l'exercice est toujours perfectible.

Le second paquet de recommandations concerne le suivi et l'analyse des pratiques de gestion de trafic au regard des principes de pertinence de proportionnalité, d'efficacité vis-à-vis de l'encadrement d'un certain nombre de pratiques jugées collectivement acceptables.

La partie touchant la qualité de service est la prolongation de ce que l'on fait depuis un certain nombre d'années sur les réseaux mobiles et fixes ; il s'agit de définir des paramètres de qualité de service de l'accès à Internet, de faire mesurer ces paramètres régulièrement par les opérateurs et de les faire publier pour donner une information pertinente aux consommateurs.

Le dernier point porte sur l'aspect économique et le partage de la valeur entre les différents acteurs de la chaîne, les opérateurs de boucle locale et les prestataires de services. Le trafic devient de plus en plus dissymétrique du fait des flux vidéo et pose la question des investissements incrémentaux dans les réseaux de boucle locale fait par les opérateurs, sachant que l'on est dans un marché biface où la valeur du réseau est liée au nombre d'utilisateurs connectés mais aussi au nombre d'applications accessibles. Il faut donc trouver un juste point d'équilibre pour les fournisseurs de services et les utilisateurs finaux.

Enfin, il ne faut pas oublier, dans cette chaîne de la valeur, le rôle des terminaux, en particulier avec les intégrations de plus en plus fortes du système d'exploitation des smartphones, acteur important, ou les télévisions connectées qui vont arriver sur le marché et qui peuvent déplacer le curseur entre fournisseurs de services, opérateurs et fabricants de terminaux.

Débat avec la salle

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Y a-t-il des questions ?

M. Pascal PEREZ, directeur du cabinet de conseil « Formules économiques locales »

Je voudrais poser une question à Olivier Esper. Y a-t-il des discussions entre Verizon et Google en matière de financement des réseaux ? Google et beaucoup d'autres nécessitant énormément de bande passante, on s'attend à ce que les émetteurs de fichiers et de vidéo y concourent plus que les malheureuses collectivités locales françaises qui sont pourtant impatientes de le faire à la place de certains opérateurs ! Ce débat pourrait-il être ouvert à l'Europe et à la France ?

M. Olivier ESPER, directeur des relations institutionnelles de Google France

Je vous renvoie à la lettre de l'ARCEP, qui figure également sur le blog de Google. Nous avons écrit un article expliquant que le compromis entre Google et Verizon n'est pas un accord commercial mais une position commune.

Aux États-Unis, le débat est un peu dans une impasse, la FCC - l'ARCEP américaine - ayant pris une décision très importante dans le débat sur la neutralité du Net qui a été cassée. Google et Verizon ont donc mis cette proposition commune sur la table pour essayer de relancer le débat.

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

De ce point de vue, l'objectif de relancer le débat a été atteint !

M. Pascal PEREZ, directeur du cabinet de conseil « Formules économiques locales »

Quelle est la place d'un grand émetteur de contenus dans le financement du passage au très haut débit ?

M. Olivier ESPER, directeur des relations institutionnelles de Google France

L'accord ne porte pas là dessus mais sur la neutralité du Net et sur les principes de transparence et de non-discrimination qui ont été énoncés.

S'agissant du financement des réseaux, la position de Google est la même que celle des autres acteurs : il s'agit de participer au financement de l'infrastructure à travers le rapprochement des internautes, via des interconnexions directes avec les opérateurs, via des serveurs caches qui prépositionnent les contenus les plus demandés, en particulier en matière de vidéo, près des grappes d'internautes. Ce foisonnement d'applications représente une certaine attractivité pour les réseaux et pour l'abonnement au haut débit, les revenus d'accès constituant la principale source de financement des réseaux.

M. Édouard BARREIRO, chargé de mission à UFC-Que Choisir

Si on va au bout de la logique, ce sont les petits qui doivent payer et non les gros !

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

La réponse est dans la question ! C'est pourquoi un certain nombre de règles sont nécessaires en matière de régulation.

Il faut répéter qu'Internet est un bien collectif stratégique et même universel.

En second lieu, la neutralité d'Internet et des réseaux est un élément constitutif du réseau des réseaux. On doit toutefois pouvoir trouver un chemin entre l'exigence de préservation d'un écosystème fragile et de pratiques de gestion du trafic, à condition qu'elles soient justes, transparentes et non discriminatoires.

C'est cet exercice que l'on doit réaliser tous ensemble et que l'ARCEP a engagé avec ses dix recommandations.

Sur le fond, en matière de neutralité des réseaux, la concurrence est plutôt l'amie de la neutralité. Plus on sera dans des situations concurrentielles et moins on aura de risques de discrimination. De ce point de vue, la régulation doit continuer. L'univers concurrentiel met en effet en relation des opérateurs et des fournisseurs de contenus.

Il existe par ailleurs un problème de capacité et d'accroissement des ressources et il ne faut pas que la régulation défavorise l'investissement. Parmi les smartphones, il en existe qui sont très consommateurs de bande passante et d'autres beaucoup moins. Il y a, là aussi, des progrès à faire : on peut, à ressources constantes mais avec des protocoles et des terminaux différents, économiser, optimiser et fluidifier l'acheminement du trafic.

Je suis d'accord avec Édouard Barreiro pour dire que le « paquet télécom », à lui seul, ne suffit pas. Il existe quand même des outils intéressants en matière de transparence dans la gestion du trafic, de pouvoirs donnés au régulateur concernant le règlement de différends entre des PSI et les FAI - ce que l'ARCEP ne peut faire pour le moment - et d'exigences minimales en termes de qualité de service.

Ce seront les trois outils qui seront à consolider dans la transposition mais cela ne suffit pas et c'est là que l'on va nous attendre. Des efforts sont à faire notamment en matière de transparence. On a parlé du concept d'Internet et d'offres illimitées. Qu'est-ce que cela signifie ? L'ARCEP commence à mener un certain nombre de travaux : il faudra l'accompagner mais tout ce qui peut amener les informations et assurer leur lisibilité pour le consommateur est une bonne chose. Il faudra vraisemblablement conforter cette obligation de transparence.

S'agissant de la non-discrimination, il conviendra de compléter l'article du code des postes et des communications électroniques. La neutralité est un principe de non-discrimination qu'il faudra sans doute réinscrire dans le texte.

On a parlé de marché et d'interconnexion : il est mal connu, opaque. Il faudra le suivre au-delà des frontières.

Pour terminer, certains sont favorables à une loi, d'autres moins. Je m'inscris plutôt dans la seconde tendance. Je pense que le développement d'Internet a été possible parce qu'il existait un cadre réglementaire relativement souple. On ne peut légiférer une fois pour toutes sur des technologies et des usages qui changent très rapidement. On doit pouvoir, dans la loi de transposition, améliorer significativement les choses plutôt que de produire un « big bang » législatif ! On sait toujours ce que l'on met sur la table lorsqu'on dépose un texte de loi mais jamais trop ce qui peut en ressortir. Comme Montesquieu, je crois qu'il faut toucher à la loi d'une main tremblante !