Rapport d'information n° 302 (2010-2011) de M. Pierre HÉRISSON , Mme Catherine MORIN-DESAILLY et M. Bruno RETAILLEAU , fait au nom de la commission de la culture et de la commission de l'économie, déposé le 11 février 2011

Disponible au format PDF (212 Koctets)


N° 302

SÉNAT

SESSION ORDINAIRE DE 2010-2011

Enregistré à la Présidence du Sénat le 11 février 2011

RAPPORT D'INFORMATION

FAIT

au nom de la commission de l'économie, du développement durable et de l'aménagement du territoire (1) , par le groupe d'études « Postes et communications électroniques » (2) et au nom de la commission de la culture, de l'éducation et de la communication (3), par le groupe d'études « Médias et nouvelles technologies » (4) sur la neutralité de l' Internet .

Par M. Pierre HÉRISSON, Mme Catherine MORIN-DESAILLY et M. Bruno RETAILLEAU,

Sénateurs.

(1) Cette commission est composée de : M. Jean-Paul Emorine , président ; MM. Gérard César, Gérard Cornu, Pierre Hérisson, Daniel Raoul, Mme Odette Herviaux, MM. Marcel Deneux, Daniel Marsin, Gérard Le Cam , vice-présidents ; M. Dominique Braye, Mme Élisabeth Lamure, MM. Bruno Sido, Thierry Repentin, Paul Raoult, Daniel Soulage, Bruno Retailleau , secrétaires ; MM. Pierre André, Serge Andreoni, Gérard Bailly, Michel Bécot, Joël Billard, Claude Biwer, Jean Bizet, Jean-Marie Bockel, Yannick Botrel, Martial Bourquin, Jean Boyer, Jean-Pierre Caffet, Yves Chastan, Alain Chatillon, Roland Courteau, Jean-Claude Danglot, Philippe Darniche, Marc Daunis, Denis Detcheverry, Mme Évelyne Didier, MM. Michel Doublet, Daniel Dubois, Alain Fauconnier, Alain Fouché, Serge Godard, Francis Grignon, Didier Guillaume, Michel Houel, Alain Houpert, Mme Christiane Hummel, M. Benoît Huré, Mme Bariza Khiari, MM. Daniel Laurent, Jean-François Le Grand, Philippe Leroy, Claude Lise, Roger Madec, Michel Magras, Hervé Maurey, Jean-François Mayet, Jean-Claude Merceron, Jean-Jacques Mirassou, Robert Navarro, Louis Nègre, Mmes Renée Nicoux, Jacqueline Panis, MM. Jean-Marc Pastor, Georges Patient, François Patriat, Jackie Pierre, Rémy Pointereau, Ladislas Poniatowski, Marcel Rainaud, Charles Revet, Roland Ries, Mmes Mireille Schurch, Esther Sittler, Odette Terrade, MM. Michel Teston, Robert Tropeano, Raymond Vall, René Vestri.

(2) Ce groupe d'études est composé de : M. Pierre Hérisson, président ; MM. Jean-Claude Frécon, Hervé Maurey, Jean-Jacques Mirassou, Bruno Retailleau, Bruno Sido, Michel Teston, vice-présidents ; Mme Marie-France Beaufils, MM. Philippe Dominati, Michel Doublet, Mmes Françoise Férat, Mireille Schurch, secrétaires ; MM. Pierre André, Bertrand Auban, Jean-Michel Baylet, Claude Biwer, Martial Bourquin, Mme Bernadette Bourzai, MM. Jean Boyer, Yvon Collin, Jean-Claude Danglot, Philippe Darniche, Marc Daunis, Mme Marie-Hélène Des Esgaulx, M. Jean Desessard, Mmes Anne-Marie Escoffier, Nathalie Goulet, MM. Didier Guillaume, Serge Lagauche, Mme Catherine Morin-Desailly, MM. Jackie Pierre, Daniel Raoul, Jean-Pierre Sueur, Raymond Vall et François Vendasi.

(3) Cette commission est composée de : M. Jacques Legendre, président ; MM. Ambroise Dupont, Serge Lagauche, David Assouline, Mme Catherine Morin-Desailly, M. Ivan Renar, Mme Colette Mélot, MM. Jean-Pierre Plancade, Jean-Claude Carle vice-présidents ; Mme Marie-Christine Blandin, MM. Yannick Bodin, Christian Demuynck, Mme Catherine Dumas, M. Pierre Martin, secrétaires ; M. Claude Bérit-Débat, Mme Maryvonne Blondin, M. Pierre Bordier, Mmes Bernadette Bourzai, Marie-Thérèse Bruguière, M. Jean-Claude Carle, Mme Françoise Cartron, MM. Jean-Pierre Chauveau, Yves Dauge, Claude Domeizel, Alain Dufaut, MM. Jean-Léonce Dupont, Louis Duvernois, Pierre Fauchon, Mme Françoise Férat, MM. Jean-Luc Fichet, Bernard Fournier, Mmes Brigitte Gonthier-Maurin, Sylvie Goy-Chavent, MM. Jean-François Humbert, Soibahadine Ibrahim Ramadani, Mme Marie-Agnès Labarre, M. Philippe Labeyrie, Mmes Françoise Laborde, Françoise Laurent-Perrigot, M. Jean-Pierre Leleux, Mme Claudine Lepage, M. Alain Le Vern, Mme Christiane Longère, M. Jean-Jacques Lozach, Mme Lucienne Malovry, MM. Jean Louis Masson, Philippe Nachbar, Mmes Mireille Oudit, Monique Papon, MM. Daniel Percheron, Jean-Jacques Pignard, Roland Povinelli, Jack Ralite, André Reichardt, René-Pierre Signé, Jean-François Voguet.

(4) Ce groupe d'études est composé de : Mme Catherine Morin-Desailly, présidente ; MM. David Assouline, Mme Catherine Dumas, MM. Serge Lagauche, Bruno Retailleau, vice-présidents ; MM. Pierre Hérisson, Jean-Pierre Leleux, Hervé Maurey, Ivan Renar, Richard Yung, secrétaires ; MM. Jean-Paul Alduy, Claude Bérit-Débat, Paul Blanc, Mme Bernadette Bourzai, MM. Philippe Darniche, Christian Demuynck, Mme Marie-Hélène Des Esgaulx, M. Jean-Luc Fichet, Mlle Sophie Joissains, MM. Philippe Leroy, Jean-Pierre Plancade, Daniel Raoul, Raymond Vall et Jean-Paul Virapoullé.

INTRODUCTION

M. Pierre HÉRISSON, président du groupe d'études « Postes et télécommunications »

Mesdames et Messieurs les présidents et directeurs, Mes chers collègues, Mesdames, Messieurs, je suis particulièrement heureux de vous accueillir aujourd'hui au Sénat pour discuter d'un sujet dont nous n'avons, sauf erreur, jamais débattu dans cette enceinte : la neutralité du Net.

L'expression même de « neutralité du Net », qui était jusqu'à peu confinée dans les discussions entre geeks , fait aujourd'hui l'actualité et s'étend au grand public. De purement technique, elle est devenue économique et prend désormais une tournure politique justifiant que la représentation nationale se penche sur la question.

Internet - et c'est ce qui a fait sa force et son succès - est un espace ouvert et libre, ce qui permet une création et une innovation perpétuelles assurant son développement.

Or, l'accroissement de la demande en bande passante pour les « usages innovants », tels que la vidéo à la demande, remet en cause ce principe fondateur de liberté.

Même si les cas sont encore rarissimes, il incite ou incitera en effet certains acteurs à restreindre ou à prioriser l'accès au réseau, en vue d'éviter son engorgement.

Parallèlement à cette remise en cause de la neutralité du réseau, des interrogations sont apparues quant à la liberté de diffusion des contenus, ceci avec le développement de mesures de blocage ou de filtrage de certains flux pour des motifs tenant à la préservation d'intérêts publics et privés.

Neutralité des contenus, neutralité des réseaux, tels sont les deux grands thèmes que nous avons souhaité aborder avec vous aujourd'hui.

C'est donc très naturellement que les deux commissions compétentes sur le sujet - commission de la culture pour le premier, commission de l'économie pour le second - ont décidé d'organiser ensemble ces tables rondes. Je remercie à cet égard leurs présidents respectifs, MM. Jacques Legendre et Jean-Paul Émorine, de nous avoir apporté leur soutien précieux dans l'organisation de cet après-midi de débats.

Nos deux commissions ont souhaité inscrire cet événement dans le cadre de leurs deux groupes d'études concernés : le groupe d'études « Médias et nouvelles technologies », présidé par ma collègue, Catherine Morin-Desailly, et le groupe d'études « Poste et communications électroniques », que j'ai l'honneur de présider.

Deux commissions et deux groupes d'études donc, pour deux grandes thématiques et - cela s'imposait - deux tables rondes qui réuniront chacune quelques-uns des spécialistes de la question au plan national.

La première, consacrée à la neutralité des contenus, sera présidée par Mme Morin-Desailly ; la seconde, qui traitera de la neutralité des réseaux, sera quant à elle présidée par mon collègue Bruno Retailleau, vice-président des deux groupes d'études, dont chacun connaît les compétences sur ces sujets.

Quant à l'état des lieux de la question, que justifie la préservation du principe de neutralité ? Peut-on y déroger et sous quelles conditions ? Faudra-t-il légiférer et comment ? Telles sont les questions auxquelles nous aurons à répondre.

En fin d'après-midi, nous aurons le plaisir d'accueillir, pour conclure les débats, notre secrétaire d'État à l'économie numérique, Mme Nathalie Kosciusko-Morizet, qui nous parlera sans doute du rapport qu'elle a remis au Parlement à ce sujet et des suites attendues.

Je donne à présent la parole à mes deux collègues qui animeront les tables rondes, non sans vous avoir remerciés d'être venus au Sénat aujourd'hui. Je salue particulièrement chacun des intervenants qui nous font l'honneur de leur présence.

Je vous souhaite un après-midi de débats et de discussions sur un thème dont nous n'avons pas fini d'entendre parler dans les mois et les années à venir.

Nous en avons terminé avec la loi Hadopi, au moins en ce qui concerne l'aspect législatif et réglementaire. Dans mon département, un jeune député de la majorité a voté contre. J'espère qu'il n'a pas raison tout seul : c'est un spécialiste de l'informatique, il connaît bien les nouvelles technologies. Il a rappelé un certain nombre de réalités dont on doit s'inspirer pour entrer dans le sujet qui nous intéresse aujourd'hui, que nous ne maîtriserons jamais complètement dans le cadre législatif.

Mme Catherine MORIN-DESAILLY, présidente du groupe d'études « Médias et nouvelles technologies »

Pour nous parlementaires, cette question de la neutralité est essentielle et traverse de nombreuses problématiques.

Parmi les sujets qui nous ont occupés ces deux dernières années, je citerai la loi « création Internet », la loi sur la sécurité intérieure, la loi sur les jeux en ligne ou le texte dont nous allons débattre ce soir, le livre numérique. La neutralité du Net est au coeur de la problématique.

A cet égard, les discussions au Parlement sur la transposition en droit français des nouvelles directives du « paquet télécom », qui soulève de nombreuses questions en lien avec la neutralité du Net, devraient être de trois ordres.

Tout d'abord, ce devra être le moment approprié pour aborder enfin ce sujet sur le fond. Ce devra être également le moyen pour le Sénat de définir une ligne de pensée. Enfin, ce devra être pour nous le support permettant de fixer dans notre corpus législatif les règles qui auront découlé de notre réflexion.

L'enjeu des deux tables rondes est donc pour nos commissions de préparer ces débats et de constituer une base permettant de construire une réflexion autour de quelques grands principes.

Nous abordons donc cette demi-journée sans opinion préconçue et souhaitons ardemment que les interlocuteurs s'expriment librement et développent au mieux leur pensée et point de vue.

La première table ronde, que j'aurai l'honneur de présider, va s'attacher à développer un thème encore peu exploré mais très important pour le groupe d'études « Médias et nouvelles technologies », celui de l'application du principe de neutralité du Net aux contenus transitant sur les réseaux de communications électroniques.

C'est une véritable problématique culturelle, qui fonctionne à double sens. D'une part, on aurait tendance à vouloir appliquer la neutralité la plus grande s'agissant de la nature des contenus transitant sur Internet afin que les innovations culturelles et les créations numériques les plus originales soient diffusées rapidement sur la toile.

A cet égard, l'Internet apparaît en effet comme un « eldorado de la nouveauté » et on ne peut que l'encourager. Mais parallèlement, comme on l'a vu lors de la discussion sur la création d'Hadopi, des règles doivent aussi s'appliquer sur Internet, de protection des droits d'auteur mais aussi de protection de la jeunesse ou d'ordre public.

Des mesures plus volontaristes de promotion de la diversité culturelle sont même envisagées, notamment pour les services de médias audiovisuels à la demande. Ces objectifs sont susceptibles de se heurter au principe de neutralité interprété au sens strict.

Un point d'équilibre entre la neutralité du Net et une certaine vision de la politique culturelle ou encore entre des mesures de protection de l'ordre public et l'exercice de droits fondamentaux devra donc être déterminé.

Je suis de plus en plus convaincue que c'est un monde qu'il convient de prendre dans sa globalité sans jamais opposer les choses.

L'un des enjeux de cette table ronde est de dessiner des pistes de compromis et d'envisager des modes de résolution originaux des conflits qui pourraient intervenir sur ces sujets.

Afin de compléter ce bref cadrage de la première table ronde, je souhaite également rappeler que la problématique de la neutralité du Net n'est pas et ne doit pas être, un débat de spécialistes et de quelques geeks débattant entre eux de questions qu'eux seuls comprennent.

Il s'agit d'un débat citoyen et forcément grand public.

Je tiens à souligner à cet égard que les services de médias audiovisuels - la télévision et la radio que nous regardons et écoutons tous les jours - forment déjà une catégorie particulière de contenus accessibles notamment par les réseaux de communication électroniques dont la régulation est assurée par le Conseil supérieur de l'audiovisuel (CSA) et auxquels s'appliquent de très nombreuses obligations.

Ainsi une télévision ou une radio sur Internet, ce n'est pas un contenu comme les autres, et les règles s'appliquant à ces services sont nombreuses.

De même, les services de médias audiovisuels à la demande sont pour la plupart des services gérés proposés par les fournisseurs d'accès à Internet et soumis à une réglementation spécifique, selon le souhait du législateur.

La problématique des téléviseurs connectés sera à cet égard au coeur de la question du lien entre neutralité du Net et contenus culturels.

Des fabricants de téléviseurs et des acteurs du secteur audiovisuel signent des accords d'exclusivité. Des modèles fermés d'applications et de contenus risquent de se mettre en place. L'Internet sur la télévision pourrait alors ne plus être neutre.

Les pouvoirs publics doivent donc, sur cette question comme sur d'autres, être vigilants et prévoyants. C'est notre rôle en tant que législateur d'avoir les éclairages permettant de prendre les bonnes décisions.

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Après cette première table ronde sur la neutralité des contenus, une seconde lui succédera sur la neutralité des réseaux.

Nous sommes tous attachés au principe de la neutralité. Catherine Morin-Desailly me demandait de le définir. On y reviendra tout à l'heure avec des chercheurs. La neutralité, c'est un double principe, un premier qui est un principe d'ouverture, un second qui est un principe de liberté de choix et d'accès vis-à-vis de contenus, de services et d'applications.

La neutralité des réseaux n'est pas une question qui date d'aujourd'hui, ni une question franco-française. Les premières alertes, nous les avons eues en 2001, lors de la fusion entre Time Warner et AOL ; un certain nombre d'observateurs avait dit que cette fusion préparait la mort du libre accès du citoyen aux différents contenus et aux services.

Ce fut la première alarme dans l'histoire. D'autres affaires ont eu lieu, comme celle entre Comcast et BitTorrent aux États-Unis. La justice fédérale avait d'ailleurs sanctionné Comcast. En France, la justice n'a pas été saisie mais l'affaire entre Dailymotion et Neuf a fait un peu de bruit. Neuf a compris ses intérêts et très rapidement interrompu les choses.

Cette question dépasse aussi le strict cadre national puisque la tension réglementaire est montée d'un cran quand le Président de la Federal communications commission (FCC), qui se trouve être un ami du Président Obama, a mis en consultation publique les six grands principes qui, selon lui, pouvaient dicter un encadrement équilibré du principe de neutralité du Net.

Les régulateurs, les législateurs, se sont penchés sur la question et la question est très vite arrivée en Europe et en France dans la dimension réglementaire qui intéresse le législateur, le Parlement étant aussi un régulateur.

Dès lors, on a vu fleurir un certain nombre d'initiatives parlementaires ; je ne reviendrai pas sur les quelques propositions de loi en préparation mais je voudrais dire que le Gouvernement, cet été, a déposé un rapport d'information qui fait que le point sur les enjeux.

L'Autorité de régulation des communications électroniques et des postes (ARCEP), à la rentrée, a précisé dix grands principes pouvant selon elle encadrer la neutralité des réseaux. L'Europe, elle aussi, à travers le paquet « télécom » mais également un Livre Blanc prévu pour la fin de l'année, s'est saisie de la question qui dépasse largement le cadre national.

La question de la neutralité des réseaux est en train de rebondir du fait de deux grandes questions fondamentales, l'explosion des usages et des besoins en bande passante et l'explosion du trafic par utilisateur, qui double tous les deux ans, notamment sur le sans fil. En 2009, année où, pour la première fois, le trafic des données a dépassé le strict trafic de la voix sur le mobile, on a eu une augmentation de 150 %. Le risque d'embolie des réseaux est donc réel. Il existe des études alarmistes sur ce point : sont-elles fondées ? On y reviendra...

Par ailleurs, on constate que la valeur se déplace d'amont en aval dans toute la chaîne, des réseaux vers les services. De grandes questions se posent : quand les opérateurs réalisent des investissements, à qui profitent-ils ? Les modèles économiques actuels vont-ils permettre à l'investissement de capacité de suivre peu ou prou les pratiques et la demande en termes de trafic ?

Le sujet est large ; il déborde les réseaux - télévisons connectées, terminaux, moteurs de recherche. Les problèmes d'exclusivité constituent également une atteinte à la neutralité, notamment au regard des contenus. Le sujet est donc extrêmement varié.

Nous nous efforcerons, à la fin de l'après-midi, de tracer quelques perspectives - législatives ou non - permettant d'encadrer ce principe de la neutralité d'Internet auquel nous tenons tant.

I. TABLE RONDE SUR LA NEUTRALITÉ DES CONTENUS

M. Emmanuel GABLA, membre du Conseil supérieur de l'audiovisuel (CSA)

Ainsi que vous l'avez dit, la question de la neutralité des réseaux a été débattue en premier lieu de l'autre côté de l'Atlantique, puis le débat s'est transporté en Europe. J'ai autrefois participé à la négociation de directives dans le domaine des communications électroniques. Le débat a toujours été centré sur les réseaux, thème de la seconde table ronde.

Il nous apparaît toutefois indispensable de s'intéresser au contenu. Pourquoi ? Ce phénomène de convergence dont on nous rebat les oreilles arrive enfin. L'apparition des téléviseurs connectés va complètement changer la donne de la révolution numérique.

Premier constat : personne ne conteste que de plus en plus de contenus audiovisuels sont consultés sur Internet. Aux États-Unis, 36,5 milliards de vidéos ont été vues sur Internet en juillet 2010, soit une croissance de plus de 70 % par rapport à juillet 2009. En France, plus de la moitié des internautes ont consulté des vidéos Internet en juin 2010. C'est un des très grands usages d'Internet. Que doit-on en déduire face à notre système de régulation ou de réglementation ?

Je l'ai dit, le développement des téléviseurs dits connectés progresse énormément dans notre pays. Près d'un quart des téléviseurs vendus en 2010 sont connectés ; à l'horizon 2013 ou 2014, la quasi-totalité des téléviseurs le sera.

Jusqu'à présent, le monde de l'Internet et celui de l'audiovisuel étaient bien distincts. L'arrivée du téléviseur connecté fait se télescoper ces deux univers. Ce n'est pas totalement une nouveauté : les « box » des opérateurs permettaient déjà d'accéder via le téléviseur à une partie d'Internet davantage des services gérés que de l'Internet en général. Dorénavant, la totalité des contenus Internet va être disponible sur le téléviseur.

Quel est l'impact sur le secteur audiovisuel ? Quelle conception et quelle approche avons-nous de ce concept de neutralité des réseaux et de l'Internet ? Je préfère parler de neutralité des réseaux plutôt que de neutralité de l'Internet, la neutralité devant selon moi concerner également les services gérés.

Du point de vue du régulateur audiovisuel, du fait des téléviseurs connectés, les enjeux d'accès au contenu se déplacent au niveau de l'accès Internet. Il pourrait en effet y avoir une éventuelle question de contrôle, de filtrage ; ceci pose directement la question de la liberté laissée au consommateur de contenu audiovisuel.

La seconde question est relative à la qualité de service. Les contenus audiovisuels vont-ils pouvoir être vus avec une qualité de service équivalente pour tous ? Le consommateur aura-t-il bien accès de manière non discriminatoire à tous les contenus audiovisuels dans des qualités qui ne seront pas dégradées ?

Ce sont des questions complexes. Le CSA n'a pas totalement arrêté sa position, contrairement à l'ARCEP - mais nous allons lancer une série de consultations et d'auditions.

On peut déjà souligner trois points forts.

Sur le plan juridique, on touche clairement à la défense de la liberté de communication. Ceci est déterminant pour le CSA, garant du pluralisme de l'information politique. Il est indispensable pour nous que tout internaute puisse envoyer le contenu qu'il souhaite, le recevoir et puisse utiliser l'ensemble des services et des applications disponibles.

Par ailleurs, nous devons à tout prix éviter la marginalisation de certaines sources d'information. C'est indispensable pour la liberté d'expression et constitue un des fondements principaux de notre démocratie.

A ce stade, je voulais saluer l'initiative du ministère des affaires étrangères qui va tenir la semaine prochaine une conférence sur Internet et la liberté d'expression. Il est vraiment important qu'Internet soit un vecteur et favorise cette liberté d'expression. C'est vrai dans certains pays totalitaires mais aussi dans notre pays. Le CSA veillera à être le garant de cette liberté d'expression et évitera la marginalisation de certaines sources d'information par le filtrage ou la diminution d'une qualité de service.

Le second point est plus économique. Il apparaît dans les principes édités par l'ARCEP. Je tiens d'ailleurs à remercier l'ARCEP de nous avoir inclus dans cette réflexion ; cette question de neutralité des réseaux est un excellent exemple de coopération entre les deux régulateurs.

On peut certainement accepter certains aménagements au principe de neutralité en permettant aux opérateurs de mettre en place quelques mesures de gestion du trafic adaptées afin de répondre à des exigences de service en temps réel et rendre plus attractive certaines offres d'accès à l'Internet public qui vont indirectement financer l'établissement de nouvelles infrastructures. On a tous conscience qu'il faut développer de nouveaux réseaux. Développer la fibre optique, c'est aussi faciliter l'accès à des contenus audiovisuels.

Qui va financer ces infrastructures ? Si le contenu visionné doit participer au financement des infrastructures, il faut aussi pérenniser notre système de financement de contenus.

Ce concept de neutralité ne doit pas se traduire par un appauvrissement du flux qui viendra financer la création de nos contenus. C'est pourquoi la neutralité ne doit pas aboutir à une banalisation de certains acteurs. Je ne cherche pas à prêcher pour la chapelle des éditeurs de contenus audiovisuels mais toujours est-il que ce sont eux qui, pour l'instant, financent la création. Il faudra bien que, dans la multiplicité des contenus qui vont être visionnés, quelques mécanismes apparaissent pour continuer à financer la création.

Enfin, la neutralité doit aussi s'appliquer aux moteurs de recherche. Pourquoi ? On voit apparaître de nouveaux services comme Apple TV ou Google TV, qui va être fondé sur un moteur de recherche. Pour faciliter la visualisation de contenus d'origine française ou européenne, il faut être certain que ces moteurs de recherche soient relativement neutres afin de ne pas favoriser des contenus venus d'outre-Atlantique.

Il va donc falloir aller plus avant dans ce concept de neutralité, ce qui n'a pas encore été fait et qui ne fera pas forcément plaisir à l'ensemble des acteurs, même si on nous affirme que tout est transparent.

M. Pierre LOUETTE, secrétaire général d'Orange

La neutralité des réseaux est un sujet assez neuf pour moi ; depuis mon arrivée dans le groupe France Télécom, je n'ai toutefois cessé de penser qu'il allait prendre de l'ampleur et devenir un sujet de débats.

Première réflexion liminaire : on souhaiterait que ce sujet ne devienne pas un de ces grands débats à la française où l'on s'envoie des anathèmes, chacun parlant de son point de vue ! Les uns vont accuser les autres de vouloir manipuler les réseaux et les contenus et certains diront qu'il faut que prévalent définitivement une totale liberté et une totale gratuité de tout ce qui circule sur l'Internet.

Selon une phrase que j'ai trouvée sur Internet et qui définit assez bien la façon dont le débat a été posé, la neutralité de l'Internet signifierait que tous les paquets de données sont libres et égaux en droit. Tout ce qui a été mis en ligne sur le réseau devrait donc y avoir une existence parfaitement légale. Ce principe est aux origines d'un réseau fondé sur l'échange des connaissances et le développement du savoir tel qu'il a été imaginé au départ.

Le groupe de télécommunications que je représente - Bruno Retailleau ainsi que d'autres l'ont évoqué - doit gérer la montée en puissance des contenus sur des réseaux qui se développent et dans lesquels France Télécom Orange investit jusqu'à 12 % de son chiffre d'affaires tous les ans. Ce sont des milliards d'euros qui sont mobilisés chaque année pour continuer à faire monter ces réseaux en puissance et nous devons faire face au danger de saturation.

Nous devons donc nous situer entre deux enjeux, la circulation des paquets de données d'une part et la garantie d'en permettre l'accès à tous d'autre part.

Les chiffres sont assez largement connus mais on ne cesse de rappeler à quel point le trafic augmente. La consommation de données sur le réseau mobile a été multipliée par 2,5 entre 2008 à 2009. Un milliard de vidéos sont regardées par jour sur YouTube. Il existait, en 2009, 5 milliards de téléphones mobiles, dont 400 millions de Smartphone, qui consomment autant de données que les 4,6 milliards d'autres téléphones !

Or, on sait que les achats et les utilisations de Smartphone se développent énormément. Les iPhones se vendent très bien et ont en outre une vertu du point de vue des opérateurs : ils développent les revenus par abonné et limitent énormément le désabonnement ! En Angleterre, ceux qui adoptent ce téléphone sont de moins en moins prompts à se désabonner. En outre, le système d'Apple est assez fermé - avec des monopoles ou des exclusivités de distributions accordées ici ou là...

Tout l'objectif des travaux auxquels le Sénat nous convie et auxquels le Parlement sera appelé à concourir dans les années à venir est de trouver ce point d'équilibre entre les deux impératifs. Les opérateurs de télécommunications vont donc devoir continuer à développer leurs réseaux, y héberger et y faire circuler tous les contenus produits en nombre croissant.

Je me souviens avoir entendu un responsable de Google, lors d'une conférence en Espagne, déclarer à propos de la coopération entre Google et les opérateurs : « A vous de construire les réseaux ; nous, nous prendrons les profits ! ». Depuis lors, Google a évolué plus vite qu'on ne l'aurait imaginé vers des modes de coopération. L'accord avec Verizon - que certains ici pourront contester - est une première indication de cette volonté de se rapprocher des opérateurs.

Comment arriver à concilier tout cela ? Nous allons favoriser le maintien de services garantis de télévision et de vidéo à la demande sur les réseaux Internet car, si l'on devait en effet adopter une posture totalement passive, on aurait tôt ou tard des risques de voir certains services moins bien gérés qu'avant dans l'incapacité de satisfaire leur utilisateurs - y compris payants !

On réfléchit également, au niveau européen, à la possibilité d'étudier la capacité à gérer l'accès à des services professionnels. L'importance des paquets de données relatifs à la santé revêt-il la même importance que tout autre type de contenu ? Selon moi, certainement pas et l'on doit pouvoir organiser des formes de priorité - sans porter préjudice aux autres contenus.

Ne pas en tenir compte serait dangereux ; un éminent responsable d'une autorité indépendante se demandait ce matin, paraphrasant Lénine, si la gratuité n'était pas la maladie infantile de l'Internet. On peut se poser la question, le système de pseudo gratuité, de neutralité et de passivité ne permettant pas d'assurer au mieux le service qu'attendent les utilisateurs.

M. Alain LE DIBERDER, conseiller « Création interactive » au conseil d'administration de la Société des auteurs et compositeurs dramatiques (SACD)

Je saisis l'occasion qui m'est donnée pour déplorer que la question des rapports entre créateurs, auteurs, artistes et Internet ait été ces dernières années trop souvent caricaturée. Certains aiment la réduire à une opposition entre un vieux monde qui serait déboussolé face aux innovations, cramponné à des privilèges et qui ne verrait en Internet qu'une porte ouverte sur le pillage de ses oeuvres.

C'est tout à fait injuste car le monde de la création a été l'un des premiers - le second après le monde de la science et de l'université - à se ruer sur Internet. Pour les auteurs et créateurs, Internet n'est pas qu'une offre : c'est de plus en plus le lieu de la formation de la demande. A ce titre, tous les gens qui côtoient la culture savent qu'il n'y a pas une seule compagnie de théâtre, pas une seule troupe de danse, pas un seul film qui n'ait son site Internet, son blog, sa page Facebook !

Internet a démultiplié le rôle du bouche à oreille. Bien avant les critiques ou le marketing, le bouche à oreille et les réseaux sociaux sont le ferment où se forme la demande de biens culturels et d'oeuvres.

La neutralité d'Internet réside d'abord dans la possibilité d'accès à ces informations. Rien ne nous inquiéterait plus de savoir que certaines informations disponibles chez Orange ne le sont pas chez SFR !

Pour créer et diffuser nos oeuvres, les auteurs ont besoin d'Internet ; nous sommes des acteurs d'Internet, nous aimons Internet et nous n'apprécions pas que l'on nous renvoie l'image de dinosaures qui voudraient en limiter le développement alors que c'est tout le contraire !

Il existe un second point qui concerne la distinction entre les contenus légaux et ceux qui ne le sont pas. Les auteurs peuvent parfois décider de mettre gratuitement leur oeuvre à la disposition du public sur Internet. C'est leur droit mais il faut tout autant défendre leur droit à ne pas partager cet avis.

Le créateur qui vit de son travail est libre de décider que son oeuvre est payante ; ce n'est pas au consommateur de décider ce qui doit être gratuit ou qui ne doit pas l'être. Il est de la liberté de l'auteur de choisir un modèle économique qui lui permette de payer son loyer !

Il n'y a donc pas d'hésitation à avoir entre deux systèmes de régulation, l'un qui garantit l'exercice de notre liberté et l'autre qui ne la garantit pas. On préférera toujours celui qui, par une régulation, une intervention des pouvoirs publics ou d'acteurs privés, garantit cette liberté. La liberté de voir nos oeuvres disponibles sur le réseau de manière payante est une liberté fondamentale. Après tout, les grands auteurs du XVIII e siècle ont pensé que c'était là le début de la civilisation marchande, le droit de ne pas se faire voler. Nous sommes donc pour un système qui défend vigoureusement et efficacement cette liberté, qui n'est pas contradictoire, pour certains auteurs, avec la décision de diffuser gratuitement leur oeuvre.

Le troisième et dernier point concerne l'écologie de la création : avec le temps, suivant différents tempéraments nationaux, s'est mis en place un système de rémunération de la création par l'aval. Certains pays font plus confiance aux contrats, d'autres à la loi mais, dans le monde entier, une salle de cinéma reverse 50 % de sa recette pour financer le film. N'importe quelle chaîne de télévision reverse entre un quart et un tiers de sa recette pour financer les oeuvres qu'elle diffuse ; il en va de même pour le DVD ou le jeu vidéo.

Aujourd'hui, avec les téléviseurs connectés, les services de VOD, les tablettes, Internet au sens large vient prolonger l'offre existante et la remplacera peut-être un jour. Ce sont la technologie et les consommateurs qui décident mais nous avons deux exigences...

La première, c'est le maintien des réglementations nationales. Elles sont harmonisées au niveau européen dans le cadre de directives, ce ne sont pas les mêmes dans tous les pays mais elles respectent toutes ce principe qui veut que l'aval finance l'amont. Quand un consommateur dépense un euro, une fraction significative doit financer les oeuvres.

Il est inadmissible qu'un opérateur régulier soit concurrencé injustement par ceux qui, au Luxembourg, n'adhèrent pas à l'écosystème de la création. Si le principe de neutralité de l'Internet - dont nous ne sommes pas spécialistes - venait s'opposer à ce principe, nous préférerions qu'un certain nombre de limites soient fixées.

Nous savons qu'il existe des désintermédiations et que la chaîne de valeur doit et est en train de changer, que les pourcentages, les modalités de perception et de versement doivent s'adapter. Cependant, ces règles de financement ne se sont pas créées toutes seules. Ces réglementations n'ont pas été décidées arbitrairement par des gens qui n'auraient pas étudié la question. Elles sont le produit de l'histoire, de la politique, de la technologie et bénéficient à tout le monde. De ce point de vue, les auteurs sont attentifs aux conséquences de la déformation de la chaîne de valeur des différentes options de régulation qui seront prises.

On ne peut concurrencer d'anciens systèmes qui financent la création à 50 % de leurs recettes par d'autres qui n'y consacreraient que 5 ou 10 %. Il y a sans doute des marges de discussions mais il existe une grande inquiétude quant à l'écroulement général de systèmes qui n'empêchent pas TF1 ou M6 de faire des profits importants, dont une partie sert à financer les oeuvres que ces chaînes diffusent !

M. Giuseppe de MARTINO, président de l'Association des services Internet communautaires (ASIC)

L'ASIC, l'Association des services Internet communautaires, est une exception qui n'existe nulle part ailleurs qu'en France. Cette association regroupe des géants de l'Internet comme Facebook, Google, Microsoft, des champions locaux assez modestes comme Price Minister ou Dailymotion, des associations mondiales comme Wikimedia ou des micros startups comme La Cartoonerie.

En France, en 2007, pour la première fois au monde a eu lieu une véritable atteinte à la neutralité du Net. C'est Dailymotion qui, à l'époque, en a été victime du fait d'une négociation difficile avec un FAI sur le peering payant. Nous refusions de passer sous ses fourches caudines et de payer des tarifs prohibitifs. En rétorsion, le débit sur notre service a été réduit. Nous nous en sommes sortis mais les acteurs de l'industrie communautaire ont décidé de se regrouper pour montrer que nous avions des intérêts communs et un message à faire passer.

Le credo que nous avions à l'époque et qui n'a pas évolué depuis est la transparence : nous exigeons que le fournisseur de réseau soit transparent, qu'il existe une non-discrimination, verticale ou non, au sein du groupe ou non. Nous avons la chance de lancer notre association avec des géants américains comme Google, qui aurait pu décider de payer un fournisseur de réseau pour obtenir un meilleur service que le nôtre.

Nous comprenons cependant que les opérateurs aient besoin de décongestionner les réseaux. La France est une exception dans le cadre du « triple play » ; nous souhaitons que le fournisseur de réseau puisse assurer la décongestion de son réseau au sein d'un « play » sans en favoriser un autre.

Nous lançons cette association fin 2007 et nous nous mobilisons très vite mais, rapidement, nous sommes submergés par des questions qu'on ne pose pas ailleurs, comme la taxation de notre activité d'industrie d'Internet ou le fait de savoir si nous sommes éditeurs et hébergeurs. Nous oublions un peu ce débat sur la neutralité de l'Internet et suivons de plus ou moins loin l'adoption du « paquet télécom ». On se satisfait que la notion de transparence soit inscrite dans ce paquet, un peu moins que la notion de non-discrimination n'y figure pas et on oublie, pour tout dire, ce qui faisait l'objet de la création de l'association, nos relations avec les FAI se passant de mieux en mieux.

A l'automne 2009, nous découvrons le caractère polysémique de l'expression de neutralité du Net à l'occasion d'un colloque organisé par une association de protection de l'enfance avec les opérateurs de réseaux américains et européens. On nous décrit durant quelques heures les abominations que pourrait représenter la neutralité du Net qui, en empêchant de pouvoir toucher au contenu des services transitant par les réseaux, serait susceptible de mettre en danger nos chères têtes blondes en leur permettant d'accéder à n'importe quel contenu !

Nous nous sommes alors dit qu'il était temps de réagir. La neutralité du Net, l'Internet ouvert, n'est au départ pour nous qu'une question économique afin que les relations entre opérateurs de réseau et fournisseurs de services se déroulent sur une base gagnant-gagnant.

L'ASIC s'est donc mobilisée : grâce à l'appui du sénateur Retailleau, nous avons pu organiser des colloques et faire de la pédagogie auprès des médias. Aujourd'hui, nous sommes satisfaits du travail réalisé par l'ARCEP. Il reste beaucoup de choses à faire pour faire comprendre que 40 % de nos coûts sont de l'investissement réseau : bande passante, matériels, peering payant avec les FAI. Nous participons donc au développement des réseaux. Si on nous demande de participer davantage, pourquoi ne pourrait-on pas profiter davantage des abonnements ? Si l'on s'abonne aujourd'hui, c'est aussi pour bénéficier de nos services : vidéo, moteurs de recherche, etc. !

Pour en revenir au caractère polysémique, Bernard Kouchner, avec qui j'ai eu une discussion à ce sujet, voit plutôt la neutralité du Net comme une défense du cyberdissident chinois. Les affaires étrangères souhaiteraient en effet qu'il existe dans chaque ambassade un correspondant Internet afin que l'on sache comment se passe localement la connexion et pourquoi nous sommes interdits en Tunisie ou en Syrie. Personne, dans les ambassades, n'est capable de nous aider à trouver des solutions...

On a dénombré, lors du colloque de l'ARCEP, pratiquement plus de lobbyistes de l'industrie du contenu que de l'industrie des opérateurs réseau. Pourquoi ? On a compris que le débat sur la neutralité du Net devenait de plus en plus un débat philosophique, mais surtout juridique, autour de la question de savoir si la neutralité du Net permet de lutter contre Hadopi. Nous n'avons pas d'avis sur cette question mais nous n'imaginions pas, en 2007, que la question de la neutralité du Net serait reprise sous cette forme !

On voit également poindre aujourd'hui la question de la neutralité du Net sous l'angle du rempart contre la directive sur le commerce électronique, ce qui nous paraît hasardeux. Cette directive permet d'encadrer la responsabilité des acteurs, qui s'exerce a posteriori . Il y a certainement des liens avec la neutralité du Net mais ce n'est pas ainsi que l'on pourra remettre en cause cette directive, mise en place à la fin des années 2000 pour aider les acteurs Internet à lutter contre l'hégémonie américaine. Les géants de l'Internet sont tous américains ; les modestes acteurs locaux que nous sommes avaient à l'époque besoin de ce texte pour se lancer.

Le caractère polysémique existe aussi en matière de supports : aujourd'hui, le constructeur de tablettes a le choix de mettre en avant tel ou tel service. Nous pensons qu'il a une obligation de transparence par rapport au monde économique.

Enfin, nous sommes ravis d'assister à l'essor des téléviseurs connectés. On n'a plus besoin de fournisseurs d'accès ! Aujourd'hui, nous sommes des produits d'appel pour les « widgets » mais, demain, qui empêchera Apple ou autre géant américain de payer pour être mis en avant par les constructeurs et éradiquer ainsi des acteurs locaux sans moyens financiers ? Nous ne le savons pas ! Il est bon, d'ores et déjà, de se poser la question !

Mme Catherine MORIN-DESAILLY, présidente du groupe d'études « Médias et nouvelles technologies »

Certains ont anticipé la deuxième table ronde ; il est vrai que tout est lié mais je rappelle que l'objectif est de parler de la chaîne de valeur et des modèles économiques émergents.

M. Frédéric GOLDSMITH, délégué général de l'Association des producteurs de cinéma (APC)

J'ai appris récemment qu'il s'est échangé plus d'informations entre 2003 et aujourd'hui que depuis le début de l'humanité jusqu'à 2003. Cela donne une idée du phénomène dans lequel nous nous situons, de la masse d'informations et de la problématique à laquelle nous sommes confrontés. Il est donc normal que l'on se pose de nombreuses de questions.

On peut constater aisément que tout le monde est devenu d'un coup spécialiste du droit d'auteur, alors que ce sujet était confidentiel à une certaine époque.

Chacun a son idée sur le sujet mais il faut revenir aux fondamentaux.

Je crois que le débat sur la neutralité du Net est une opportunité à cet égard.

Je rappelle que la neutralité du Net n'est pas antagoniste à la propriété intellectuelle. C'est un point fondamental. La neutralité du Net ne signifie pas la libre violation des droits de la propriété intellectuelle. Nous sommes dans un cadre constitutionnel au sein duquel la propriété intellectuelle est un droit fondamental et tous les moyens juridiques, respectueux des libertés fondamentales, doivent être mis en oeuvre pour faire respecter ce droit.

Certes, nous attachons beaucoup d'importance à l'Internet et au développement des réseaux électroniques mais il s'agit ici de l'avenir de la création et de l'exploitation des oeuvres. On ne peut donc traiter ce sujet comme on colmate une brèche. La loi Hadopi a jeté des bases à travers la création d'une autorité administrative indépendante.

D'autres aspects sont importants, au premier rang desquels la neutralité au regard de la régulation, qui doit rester cohérente quelles que soient les technologies utilisées. Il faut que les règles que nous avons initiées dans le domaine matériel se retrouvent dans le domaine immatériel, même si des adaptations peuvent être nécessaires.

Ainsi, le modèle français du cinéma est un modèle que tout le monde nous envie. C'est un écosystème disposant d'un équilibre global, constitué d'une série d'éléments qui, mis ensemble, permettent aux acteurs de vivre et de croître.

On nous dit que, si l'Internet n'est pas régulé, cela n'empêchera pas la création d'exister. En Italie, le fait de ne pas réguler la télévision a fait disparaître une grande partie du cinéma italien. Une absence de régulation peut donc aboutir très rapidement à une destruction de la capacité de production, qui est essentielle pour que les citoyens aient accès à des services de qualité à travers les infrastructures.

A l'inverse, la France, lors de l'apparition de la télévision, a constaté que le cinéma était un produit d'appel. Il y a donc eu régulation des services de télévision pour faire en sorte que ceux qui utilisent les oeuvres comme produits d'appel investissent dans celles-ci.

La régulation des services en ligne est prévue quant à elle par le décret SMAD (Services de médias audiovisuels à la demande) qui est en cours de finalisation. Cette régulation vise également l'exposition des films car, si nous voulons garder notre capacité de production, il faut qu'il existe une régulation dynamique des oeuvres dans toute leur diversité. C'est ce dont le public a besoin.

Des expériences marketing ont été menées dans le domaine des produits de grande consommation. Ainsi, lorsque seules trois marques de confiture sont disponibles pour les consommateurs, les parts de marché sont également réparties entre les trois marques ; lorsqu'il y en a 15, une seule marque récupère une majorité du marché ! Quand il y a pléthore de contenus, sans qu'il existe de possibilités de les sérier, le public se concentre sur celle qui bénéficie du plus fort « marketing ».

Or, nous sommes dans un phénomène de profusion. Il est essentiel que la régulation s'intéresse à la diversité et à la mise en avant des contenus, faute de quoi ils disparaîtront purement et simplement face à la puissance « marketing ». Il y a donc nécessité d'avoir cette régulation des services, dans le cadre de la chronologie des médias. Cette chronologie, qui établit une organisation des exploitations des oeuvres dans leurs différentes versions, permet de préserver ceux qui investissent, d'amener de nouveaux opérateurs à investir, sans détruire la valeur de la chaîne d'exploitation.

Elément nouveau, certains services peuvent aller à l'étranger ; ceci a amené le CSA à rendre un avis quelque peu abrupt sur le projet de décret SMAD.

Notre premier problème concerne la TVA : il est très choquant qu'un service situé au Luxembourg applique un taux de TVA déloyal vis-à-vis de ses voisins européens. Il y a là un problème politique majeur. On ne peut laisser se développer de telles distorsions. C'est une absurdité à laquelle il faut mettre fin.

Suivi des oeuvres et transparence sont également des éléments importants. Il existe des initiatives pour dynamiser le marché dont le Parlement, entre autres, pourrait dresser un état des lieux avec les ayants droit, les plates-formes, les opérateurs de réseaux, etc. Il est important que les pouvoirs publics apportent leur soutien financier (grand emprunt, etc.) aux projets émergents.

Enfin, la question de la régulation des flux par les opérateurs dépasse les contenus mais les concerne cependant. Nous avons le sentiment d'avoir déjà beaucoup donné pour accroître l'effet de club et le nombre d'abonnés aux réseaux électroniques. Il serait choquant qu'on nous demande de contribuer encore au développement de ces réseaux dans l'optique de passer à un modèle économique rentable.

Nous sommes en revanche très ouverts aux nouveaux modèles économiques à valeur ajoutée qui vont permettre le déploiement de services gérés. Nous sommes très favorables à des partenariats avec les opérateurs mais il faut que le partage de la valeur soit équitable.

Nous sommes confrontés à un phénomène nouveau. L'audiovisuel et le cinéma sont des produits d'appel pour développer de nouvelles infrastructures et justifier un investissement. Toutefois, la valeur n'est plus seulement dans les services ; elle s'est largement déportée vers les terminaux et les réseaux. Que pouvons-nous faire pour que les acteurs économiques concernés contribuent à l'investissement dans les oeuvres dont ils bénéficient ? C'est une question qu'on ne peut éluder. Il existe en outre des systèmes technologiquement fermés que l'on ne peut interdire mais dont on doit faire en sorte qu'ils bénéficient aux contenus. C'est un sujet délicat sur lequel il importerait également de se pencher pour trouver des solutions.

Débat avec la salle

Mme Catherine MORIN-DESAILLY, présidente du groupe d'études « Médias et nouvelles technologies »

La parole est à la salle...

M. Olivier ESPER, directeur des relations institutionnelles de Google France

Comment se présente Google TV, que M. Gabla a évoqué ? L'idée est de mettre un navigateur dans la télévision, de la même manière que l'Internet mobile a réellement pris son essor avec l'arrivée de l'iPhone et du système d'exploitation Androïd, qui consiste à mettre un navigateur permettant d'accéder à tout l'Internet depuis son téléphone. C'est un facteur d'ouverture qui va permettre à la télévision connectée de se développer.

On retrouve là les enjeux d'Internet : il faut une offre riche pour qu'elle soit la plus présente possible sur les téléviseurs connectés.

Quant à la neutralité des moteurs de recherche, elle ne se situe pas dans le même monde que la neutralité des réseaux. Changer de moteur de recherche ne demande pas la même démarche que changer de fournisseur d'accès.

Il ne s'agit pas non plus du même métier. Tirer au sort le classement des résultats est difficilement envisageable. En revanche, l'exhaustivité est bien l'objectif des moteurs de recherche : il s'agit d'indexer la plus grande partie du web pour fournir les résultats les plus pertinents.

Nous sommes dans un monde qui évolue vite ; aujourd'hui, les moteurs de recherche sont des algorithmes mais, avec l'Internet mobile, l'internaute accède aux contenus directement à travers des places de marché d'application. Quant à l'Internet social, on recourt de plus en plus aux recommandations de ses « amis ».

Comme sur Internet, il faut que les acteurs français soient proactifs et proposent l'Internet via le téléviseur, de la même manière qu'on le propose via l'ordinateur ou le téléphone.

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

N'y a-t-il pas une bonne et une mauvaise télévision connectée ? La bonne intégrerait, sui generis , un navigateur qui permettrait de rechercher les contenus que l'on souhaite et la moins bonne serait un système fermé, avec un univers verrouillé. J'ai conscience du caractère polémique de ma question...

M. Emmanuel GABLA, membre du Conseil supérieur de l'audiovisuel

Il existe en effet deux sortes de téléviseurs connectés. Jusqu'à présent, on parlait beaucoup de ceux que vous avez cités en second. L'apparition de Google TV ouvre le jeu et donne complètement accès à l'Internet. Ceux que vous qualifiez de mauvais modèles organisent certes des centres d'exclusivité ou des silos mais garantissent aussi un certain financement des contenus. Le modèle de Google TV risque fort d'emporter la mise mais comment assure-t-on un mécanisme de financement ?

Nous sommes favorables à une contribution des éditeurs de SMAD pour financer la création. Il faut laisser le temps à ces acteurs de se développer de façon que les parts de marché ne soient pas totalement grignotées par des opérateurs étrangers qui ne financent pas la création. L'objectif est bien de mettre en place des mécanismes qui fassent que ces nouveaux fournisseurs de contenus contribuent au financement de la création en France et en Europe. Il va donc falloir réfléchir à la façon de faire contribuer les acteurs. Qui doivent-ils être ? Les éditeurs de télévision, les distributeurs ou faut-il descendre dans la chaîne de valeur pour s'appuyer sur celui qui reste sur notre territoire ? C'est une question que l'on devra se poser...

M. Arnaud BRUNET, directeur des relations extérieures et des affaires juridiques de Sony France

J'avais plutôt compris que la mauvaise télévision était ouverte et que la bonne offrait un contenu référencé, choisi, la création étant finalement rémunérée grâce au contenu financé soit par la publicité, soit par la VOD.

Je pense que tout ceci est faux car on va offrir un continuum entre la télévision historique, broadcastée, le flux et le monde de l'Internet, avec des solutions progressives et variées. Il s'agira alors plutôt d'un monde d'opportunité pour tout le monde !

M. Frédéric GOLDSMITH, délégué général de l'Association des producteurs de cinéma (APC)

Je ne crois pas que nous ayons été, pour ce qui nous concerne, contre le principe de montée en charge qui existe dans la régulation audiovisuelle. Ce qui nous choque, c'est le cumul avec le fait de prévoir un seuil de 10 millions d'euros d'exonération totale de régulation ! Un dispositif de montée en charge vaut pour tout le monde ! Pourquoi un seuil en-deçà duquel les gens ne subissent aucune forme de régulation ?

Cela amène les acteurs à se différencier vers le bas et c'est par ailleurs assez troublant pour les acteurs étrangers. Je pense que c'est contreproductif. Le principe de montée en charge a déjà été expérimenté mais la régulation s'applique à tout le monde.

M. Stéphane LARCHER (Cités numériques)

Ne conviendrait-il pas d'évoquer à nouveau la licence globale pour assurer le financement de la création et la rémunération des auteurs ?

M. Alain LE DIBERDER, conseiller « Création interactive » au conseil d'administration de la Société des auteurs et compositeurs dramatiques (SACD)

Notre propos est ici de rappeler les principes : contribution au financement, respect des réglementations et attachement des auteurs au développement d'Internet sous toutes ses formes et notamment sous l'angle de la formation de la demande - sujet très peu traité mais essentiel pour nous.

La licence globale n'est qu'un moyen qui a été contesté dans son efficacité. Si cette proposition comporte un élément positif - le fait de contribuer à la création - un autre élément nous paraît moins bon : le fait de savoir qui décide.

La liberté de proposer son oeuvre de manière payante ou non doit être laissée à l'ensemble de ceux qui concourent à la création. Cela nous semble un principe de philosophie politique. L'inconvénient de la licence globale est de retirer cette possibilité.

Je ne me prononcerai pas sur l'efficacité financière mais c'est un moyen qui nous semble mauvais sur le plan de la philosophie politique, car il prive les détenteurs de la propriété intellectuelle d'un droit fondamental.

Mme Catherine MORIN-DESAILLY, présidente du groupe d'études « Médias et nouvelles technologies »

La question avait fait beaucoup débat au moment de la loi DADVSI 1 ( * ) , il y a quelques années.

On voit qu'avec l'arrivée des téléviseurs connectés, de nouveaux formats sont plus que jamais nécessaires. Les réalisateurs, les producteurs et les auteurs en sont-ils conscients, en amont et en aval des programmes habituels ?

M. Emmanuel GABLA, membre du Conseil supérieur de l'audiovisuel

Il n'est pas impossible qu'un certain nombre de contenus actuellement diffusés sur nos chaînes de télévision et qui ne proviennent pas forcément de notre territoire soient demain proposés directement aux consommateurs ; les studios américains peuvent très bien décider de faire un jour chez nous ce qu'ils ont fait pour les séries de télévision avec Hulu ou de créer une plateforme de VàD qui proposerait l'ensemble de leurs films.

Les chaînes doivent donc essayer d'avoir leur contenu propre et de créer avec les producteurs et les réalisateurs français des contenus spécifiques, comme Canal Plus l'a fait avec « Maison Close » ou « Braquo ».

Le CSA a mené il y a peu, sous la houlette de Michel Reiser, une étude sur la fiction. Contrairement à d'autres pays, notre pays plébiscite la fiction américaine dans les dix premières audiences alors qu'au Royaume-Uni, il s'agit de séries britanniques, en Allemagne de séries allemandes et en Italie de séries italiennes.

Il y a donc un vrai travail à mener avec les auteurs ; le Centre national du cinéma et de l'image animée (CNC) en a conscience et travaille de plus en plus sur ces ateliers d'écriture afin de les financer. Il est également nécessaire de refonder nos contenus français et de faire en sorte qu'ils soient vus par les téléspectateurs. C'est une réflexion commune aux auteurs, réalisateurs, producteurs, CNC, CSA. Il va falloir que la télévision s'adapte sous peine d'aboutir à une éviction totale des chaînes françaises qui, en France, font vivre le cinéma et la fiction.

M. Pierre LOUETTE, secrétaire général d'Orange

La neutralité de l'Internet se caractérisera de plus en plus par la loi de la demande. La compétition sera de plus en plus largement ouverte.

L'enquête dont il est fait ici mention est extrêmement intéressante : on a un système de production bien financé et ces productions sont les plus regardées !

Après bien des déboires, le cinéma italien est réapparu et le cinéma allemand, qui n'a jamais vraiment été aidé, s'est révélé assez vivant ces dernières années. La profusion des subventions ne conduit donc pas à elle seule à la qualité.

M. Alain LE DIBERDER, conseiller « Création interactive » au conseil d'administration de la Société des auteurs et compositeurs dramatiques (SACD)

Il convient de distinguer au moins deux formes de télévision. Les programmes premium - exclusivités sportives, films de cinéma, grandes séries de fiction et documentaires d'événements - ont une économie assez particulière et fragile car il s'agit de produits coûteux. Par nature, ils sont financés par le régime de l'exclusivité. La défense de l'originalité, les enjeux culturels, industriels et réglementaires de cet univers sont différents des autres.

Les autres, ce sont de petites émissions de services, des rediffusions. Les acteurs ne sont pas les mêmes. On a globalisé les choses à plusieurs reprises, le dernier grand moment durant lequel on a réfléchi à la régulation à la télévision remontant aux années 1980, à la loi Lang de 1985 et à la loi « communication et liberté » de 1986. Cette réflexion sur la télévision a pris un peu de retard. Il était alors légitime de considérer l'audiovisuel comme un tout. Il faut peut être y introduire davantage de subtilité.

La télévision de services - météo, circulation, formation, etc. - n'est pas menacée par les offres étrangères. En revanche, la télévision des oeuvres premium est confrontée à un marché mondial et se révèle plus importante pour la vitalité du tissu créatif français. Prendre en compte ces deux univers qui obéissent à des lois différentes serait un grand progrès.

M. Pierre LOUETTE, secrétaire général d'Orange

Le consommateur raisonne en termes de navigation et va pouvoir de plus en plus basculer, avec la même télécommande, d'un service de VOD à un service de télévision payante par Internet. Cette navigation est encore une fois une invitation pour le législateur à être particulièrement créatif et subtil puisqu'il va falloir gérer une forme de décloisonnement juridique dans des univers qui font pour l'instant l'objet de champs de réglementation et de législation très séparés.

Je sais que vous êtes à même de relever les défis les plus complexes ; c'est pourquoi je vous lance cette invitation !

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Imaginez-vous la fusion des régulateurs ? ( Rires ).

M. Pierre LOUETTE, secrétaire général d'Orange

Je n'esquiverai pas la question : on a beaucoup procédé par adjonctions successives d'autorités indépendantes et de régulateurs. Face à la fusion des services, il faudra réfléchir à une fusion des entités. Cela ne me paraît pas aberrant. Il n'existe pas d'autorité qui ne porte pas sa fin en elle. On peut imaginer les redécouper autrement - mais il ne m'appartient pas de le dire.

M. Emmanuel GABLA, membre du Conseil supérieur de l'audiovisuel

Une série quelque peu violente ne doit pas être diffusée avant 22 heures 30 et il faut y adjoindre un pictogramme. Avec la télévision connectée, vous pouvez voir le même contenu à n'importe quel moment et sans aucune protection pour les mineurs ! Le législateur va devoir se pencher sur la question...

Mme Catherine MORIN-DESAILLY, présidente du groupe d'études « Médias et nouvelles technologies »

Le Sénat avait émis l'hypothèse d'un CSA de l'Internet ; on en est encore loin mais c'est une préoccupation.

M. Claude KIRCHNER, délégué général à la recherche et au transfert pour l'innovation à l'Institut national de recherche en informatique et automatique (INRIA)

Vous avez présenté le téléviseur connecté comme une nouveauté technologique. Il s'agit plutôt d'un ordinateur avec une télécommande élaborée ! Le problème est un peu biaisé car il ne s'agit pas uniquement de télévision.

Par ailleurs, Internet présente des contenus bien plus divers que les contenus artistiques : comment en assurer la neutralité ? C'est une question qui déborde largement ce qui a été abordé.

Enfin, la localité de l'information n'étant plus assurée, faut-il s'assurer de la non-neutralité du réseau, de façon à pouvoir garantir une certaine neutralité de contenu ? Comment positionner les choses d'un point de vue international ?

M. Frédéric GOLDSMITH, délégué général de l'Association des producteurs de cinéma (APC)

Dans l'état de notre corpus institutionnel, la régulation est territoriale ainsi que les droits. Chacun souhaite une régulation européenne harmonisée - voire mondiale - mais il s'avère que nos garanties constitutionnelles et démocratiques sont en grande partie territoriales ; d'ailleurs, l'économie spécifique de nos industries culturelles est territoriale et un décret anti-contournement est en cours de publication ; il vise les services étrangers qui s'adressent au public français.

La notion de grande licence paneuropéenne est totalement dévastatrice pour le tissu de production local car on a besoin d'acteurs locaux pour financer les millions d'euros que coûte une oeuvre cinématographique. Un budget moyen de film s'élève à 5 millions d'euros. Il faut donc raisonner dans cette perspective internationale en tenant compte de la régulation.

Il existe également des standards de marché : quelqu'un qui s'intéresse au marché français doit s'y impliquer pour conquérir réellement les consommateurs. C'est là un subtil équilibre entre la régulation, les autorités de régulation et les professionnels.

II. TABLE RONDE SUR LA NEUTRALITÉ DES RÉSEAUX

Mme Catherine MORIN-DESAILLY, présidente du groupe d'études « Médias et nouvelles technologies »

Le moment est venu de passer à la seconde table ronde sur la neutralité des réseaux.

Un certain nombre d'entre vous a utilisé le terme d'écosystème de la culture, soulignant le fait qu'il existe une chaîne de valeur à respecter de manière équitable. A quoi bon les tuyaux si l'on n'a pas les contenus ?

On a beaucoup évoqué, ces dernières années, le risque d'assèchement de la création ; vous avez également parlé du risque de limitation du flux financier pour financer la création traditionnelle ou nouvelle. Une capacité de production doit être maintenue, voire développée face aux nouveaux supports.

Vous parlez également du maintien d'une harmonisation avec les autres pays et vous admettez que la chaîne de valeur est en train d'évoluer. L'un d'entre vous a d'ailleurs fait référence à la désintermédiation, terme fort parlant.

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Les Français ont en partage un double héritage, la diversité culturelle et la liberté d'expression. Le Conseil constitutionnel lui même a récemment reconnu qu'Internet concourrait à cette liberté d'expression !

Nous allons retrouver, au cours de cette table ronde sur la neutralité des réseaux, deux problématiques, celle de la chaîne de valeur d'un écosystème que l'on doit faire vivre face à des investissements très lourds et celle lié à l'aspect international et européen, qui est fondamental.

La neutralité des réseaux est peut-être plus simple à définir que la neutralité des contenus. On se trouve confronté à une explosion des trafics, le streaming et la vidéo changeant profondément la nature des flux. Le risque est soit de congestionner les réseaux du fait de l'appauvrissement de l'investissement, soit d'entraver le libre accès aux contenus, aux services et aux applications.

La parole est aux intervenants.

M. Claude KIRCHNER, délégué général à la recherche et au transfert pour l'innovation à l'Institut national de recherche en informatique et automatique (INRIA)

L'INRIA développe des recherches en sciences informatiques et mathématiques avec huit centres de recherche situés à Sophia-Antipolis, Rocquencourt, Paris, Rennes, Bordeaux, Nancy, Lille et Grenoble.

Nous avons été parmi les premiers utilisateurs du réseau à des fins de recherche mais aussi de communication. Il est clair que le type de recherches que nous développons a des conséquences immédiates sur la neutralité de l'Internet. Je préfère parler moi aussi de neutralité du réseau plutôt que de neutralité d'Internet, le concept étant plus général.

Aujourd'hui, la technologie permet aux fournisseurs de contrôler l'accès aux applications et aux contenus. Comment ce contrôle va-t-il pouvoir s'exercer ? A quoi va-t-il servir ? Comment souhaite-t-on l'exercer ? C'est le point qui nous rassemble ici aujourd'hui.

Ce contrôle va impacter par exemple la liberté d'expression de l'homme et du citoyen, objet d'une jurisprudence constante du Conseil constitutionnel qui a noté, au moment des discussions autour de la loi Hadopi, qu'il était important de pouvoir laisser à tous les citoyens un libre accès à Internet.

Il faut insister sur le fait qu'Internet est au coeur de l'économie. Le chiffre d'affaires du secteur des technologies de l'information et de la communication avoisine les 3 000 milliards d'euros, soit 7 % du PIB mondial. On devrait atteindre 20 % du PIB mondial dans dix ans. Cela signifie que l'ensemble des informations qui transiteront sur les réseaux vont représenter 20 % de la richesse mondiale. On dépasse donc largement le problème des contenus artistiques.

En matière d'accès à l'information, les outils de recherche sont fondamentaux tant la quantité des éléments que l'on trouve sur le réseau est importante. On a aujourd'hui de très bons algorithmes mais les intérêts particuliers peuvent, pour des raisons politiques, économiques ou publicitaires, modifier le retour après analyse.

Imaginons que l'on veuille, dans un pays comme la France, inciter les citoyens à regarder des contenus de type francophone : l'outil de recherche présenterait d'abord ce type de résultats au détriment de la neutralité du contenu.

Autre exemple : il y a dix jours, les députés organisaient une session autour de l'impact des nouvelles technologies sur les transactions financières. Une des transactions financières qui s'impose depuis quelques années est le « trading haute fréquence » qui consiste à faire monter des enchères de façon très rapide puisque l'on peut aller jusque 500 enchères par seconde.

Dans un tel système, les choses vont très vite ; on programme donc un certain nombre de logiciels pour gérer ces enchères. Le délai de réponse est de 2 millisecondes ; si le réseau n'est pas neutre, il peut fort bien ralentir votre offre ou l'accélérer, faire échouer les enchères ou avoir un impact sur la façon dont elles vont se jouer. La neutralité du Net ne concerne donc pas seulement l'accès à l'information mais aussi la façon dont on va pouvoir communiquer.

La neutralité des réseaux s'appuie sur la connaissance qu'on en a. En France, on a la chance d'avoir autour des réseaux une communauté de recherche particulièrement forte. Un certain nombre de chercheurs sont impliqués dans la réflexion sur la neutralité. Il est dommage qu'ils ne le soient pas plus dans les réflexions. Certes, des universitaires anglo-saxons ont été approchés dans le cadre de la consultation publique sur la neutralité organisée par l'ARCEP mais la France en compte également d'excellents.

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Il me semble que l'INRIA a été impliqué dans les travaux en amont du secrétariat d'État au numérique, qui ont débouché sur le rapport du Gouvernement...

M. Claude KIRCHNER, délégué général à la recherche et au transfert pour l'innovation à l'Institut national de recherche en informatique et automatique (INRIA)

Je parlais de la consultation publique de l'ARCEP !

La consultation publique organisée en France a été très courte, environ un mois alors qu'elle a duré cinq mois aux États-Unis. Les retours sont donc très différents. Il faut donc savoir s'appuyer sur la communauté de recherche mais aussi sur la communauté sociale au sens large pour arriver à avancer dans ces domaines.

On pourrait estimer qu'il n'existe pas aujourd'hui de législation en matière de neutralité du Net. On arrive cependant à vivre, à regarder des contenus artistiques divers et variés. En fait, si l'on ne fait rien, la technique va le faire à notre place - c'est d'ailleurs déjà le cas.

Un protocole de communication contient une certaine philosophie de communication. Il existe ainsi un nouveau protocole dont le principe est d'envoyer votre requête non au moteur de recherche mais au fournisseur d'accès, qui s'occupe de la faire traiter par les moteurs de recherche qu'il souhaite. Ce protocole pose la question de la neutralité. On ne peut avancer sans faire une confiance très importante aux fournisseurs d'accès.

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Voulez-vous dire que les protocoles ou les algorithmes ne sont jamais neutres ?

M. Claude KIRCHNER, délégué général à la recherche et au transfert pour l'innovation à l'Institut national de recherche en informatique et automatique (INRIA)

On ne peut pas dire cela : ils peuvent déterminer un certain comportement. Cela dépend de ce que l'on appelle la neutralité. Ils implémentent une stratégie qui peut être plus ou moins neutre. Sans expertise des réseaux, on ne peut être sûr de cette neutralité

On a la même difficulté avec des sujets techniques ou scientifiques, d'où l'importance de développer des capacités de recherche. Ce sera l'objet de mon dernier point : le rôle fondamental de la recherche dans cette approche.

Aujourd'hui, on ne sait pas ce que sont Internet ni le réseau mondial, en ce sens qu'il s'agit d'un objet dont on ne comprend pas le comportement. Il existe bien des approches statistiques sur le comportement global du réseau mais on ne comprend pas comment il fonctionne.

Il est important de développer un observatoire du réseau, tâche qui est en cours à l'INRIA. Il s'agit de se donner les outils pour comprendre les protocoles qui fonctionnent sur le réseau et la façon d'utiliser le réseau. Il faut donc concevoir l'instrument. Sa construction est déjà en soi un objet de recherche. Une fois la construction achevée, l'instrument devient une base opérationnelle de recherche sur les réseaux ; on va pouvoir ensuite observer et quantifier la neutralité.

Il existe d'autres sujets de recherche fondamentaux, comme les aspects relatifs à la sécurité et à la fiabilité. Quelque chose qui n'est pas fiable n'est pas neutre. Les contenus circulent dans des paquets de nombres que l'on retrouve sur le réseau ; « étiquetés » par ceux-là même qui les envoient, ils peuvent recourir à de fausses étiquettes. Ces paquets, « emballés » de façon différente, vont passer au travers des filtres des opérateurs. Combinés à des techniques de cryptographie, de dissimulation d'informations dans des images, ils peuvent permettre de passer de l'information, certainement pas en très grosse quantité - au moins aujourd'hui - mais de façon cependant significative.

Autre sujet : la standardisation. Un standard de fait va-t-il permettre d'implémenter quelque chose de neutre ? Non, car c'est un standard de fait - bien souvent celui d'une entreprise donnée - et il n'est pas forcément ouvert !

Dans ce cadre, un fort positionnement européen est important ; de ce point de vue, la France, au travers de l'INRIA, a une forte implication dans les aspects concernant le réseau, en particulier le réseau européen pour ce qui est de la recherche.

D'autre part, le partenariat entre sciences, techniques et législatif est fondamental. Ce n'est pas la peine d'avoir aujourd'hui une solution technique si, d'un point de vue législatif, elle n'est pas appliquée. D'autre part, ce n'est pas la peine d'introduire des lois dont la réalisation pratique repose sur des techniques qui ne seraient pas avérées !

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Bien entendu, vous ne visez aucune loi en particulier ! Merci. Vos propos nous permettent de prendre du recul et de la hauteur.

Je pense que la recherche a beaucoup à nous apprendre. Même si l'on n'est pas dans la préoccupation de l'instant, il est toujours important de prendre un peu de recul sur un sujet comme la neutralité.

M. Bernard BENHAMOU, délégué aux usages d'Internet

Internet a constitué une rupture tant d'un point de vue industriel que d'un point de vue stratégique, économique et politique. C'est la seule invention qui, quelques années après sa naissance, ait justifié à elle seule l'organisation d'un sommet des Nations-Unies là où, pour mémoire, le droit de la mer a mis 400 ans à se structurer ! C'est une évolution qui a eu un impact majeur sur la gouvernance et sur les relations internationales.

Je me permettrais toutefois une nuance sur ce qui a été dit concernant le fait qu'on l'on n'arrive pas à définir l'Internet. Au risque de faire une boucle, je prendrai une définition qui vient des chercheurs qui travaillent sur l'Internet et qui le décrit sous une forme triple : Internet, c'est un ensemble de réseaux qui utilisent des technologies TCP/IP, ce sont les communautés qui utilisent ces réseaux et ce sont les ressources mises à la disposition de ces communautés.

Cette définition détermine trois niveaux, celui de l'infrastructure, celui des opérations logiques qui ont lieu sur le réseau et enfin celui des contenus.

La neutralité, c'est la capacité à séparer ces trois niveaux et à faire en sorte qu'aucun acteur - opérateur, éditeur de services ou de contenus - n'ait la main mise sur ces trois niveaux en même temps et ne puisse « verticaliser » le réseau.

De très nombreux acteurs ont tenté de créer un Internet fermé. Ce n'est pas terminé ; le combat dans ce domaine continue. On a vu autrefois Microsoft tenter de créer un Microsoft Network, qui était ni plus ni moins qu'un Minitel évolué ; on a vu plus récemment des AOL avoir des envies de grandeur - mais cela n'a pas fonctionné. Aujourd'hui Apple et d'autres tentent de recréer des systèmes fermés. Ce combat est l'un des déterminants du débat sur la neutralité.

Le Minitel était un réseau entièrement verrouillé et contrôlé par l'opérateur. Il fut une époque où, pour créer un « service » Minitel - cela ne s'appelait pas un « site » - il fallait un numéro de commission paritaire et être adossé à un organe de presse. Toute autorisation émanait d'une structure centrale.

Certes, Internet est d'une complexité que personne ne nie et c'est de très loin l'animal technologique le plus complexe qu'aient jamais eu à gérer les techniciens, et plus encore les politiques, mais sa particularité est de ne nécessiter aucune autorisation préalable pour créer un site, un logiciel ou un outil.

Je rappelle que, parmi les outils de l'Internet, figure le web, qui n'est pas superposable à l'Internet, qui n'en est qu'un sous-ensemble inventé en Europe par un Européen pour des chercheurs et qui s'est répandu à la vitesse que l'on sait pour devenir le média qui a connu la plus forte croissance de tous les médias existants.

Tim Berners Lee, le créateur du web, dit très bien que si l'on avait eu, à quelque niveau que ce soit, à demander une autorisation à une instance gouvernementale, à un opérateur de télécommunications ou plus encore de contenu, jamais on n'aurait pu créer le web !

Lui-même a eu la générosité de ne pas déposer de brevet de son invention mais il n'empêche qu'il sait fort bien que le succès est lié au fait que l'infrastructure du réseau, l'architecture du double protocole TCP/IP permettait d'éviter que ne soit créée une instance centrale, un pouvoir centralisé.

Or, tout le débat que nous avons autour de ces questions, en Europe comme en France, consiste à savoir ce que signifie la neutralité, dans la perception politique, économique, stratégique traditionnelle.

A l'heure actuelle, c'est le premier levier en matière de création. Là encore, les auteurs parlent d'innovation sur les franges du réseau...

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

D'innovation sans permis...

M. Bernard BENHAMOU, délégué aux usages d'Internet

En effet. Vous disiez que ce droit est reconnu par nos plus hautes juridictions institutionnelles. Ce droit n'est pas simplement le droit de s'exprimer mais d'utiliser l'effet de levier politique et surtout économique que constitue le réseau. Disposer d'un marché de presque 2 milliards d'individus est une chose considérable. Ce premier point est essentiel.

Le second point qui a été beaucoup discuté outre-Atlantique est le fait que la neutralité apparaît comme la véritable loi antitrust des réseaux dès lors qu'un acteur déjà présent n'empêche pas de plus petits d'entrer, soit en modifiant les conditions et les paramètres de fonctionnement, soit en faisant en sorte qu'il ne puisse y entrer techniquement ou économiquement, en rendant la charge demandée impensable pour une structure récente. Google n'a pas facturé de clients durant les trois premières années de son existence et l'on pourrait dire la même chose de Facebook et de quelques autres !

C'est cette capacité à générer des acteurs que l'Europe n'a pas su mettre en oeuvre. Lors de ces vingt dernières années, l'Europe a, en permanence, manqué le virage de l'Internet et des services...

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Pourquoi ?

M. Bernard BENHAMOU, délégué aux usages d'Internet

Il existe plusieurs raisons à cela. La première réside dans le fait que nos acteurs de l'infrastructure sont parmi les meilleurs au monde mais - c'est le « syndrome Nokia » - l'infrastructure prévaut sur le service. C'est une erreur majeure. L'ingénieur a forcément raison et le client forcément tort ! L'Internet mobile est en train de démontrer à très grande vitesse que ceci s'avère dramatiquement faux pour ceux qui le croient. Il faut prévoir en Europe une revalorisation politique et stratégique de ces métiers, en même temps qu'un abaissement des barrières européennes et la création d'un véritable marché unique des services paneuropéens sur mobiles. L'Europe a son mot à dire ! C'était l'objet de la discussion avant la présidence française.

Nous avons trois opportunités majeures dans ce domaine : le marché, les ressources et les cerveaux.

Nous disposons du plus important marché régional de la planète, devant les États-Unis et - encore un temps - devant la Chine, avec un niveau de vie moyen bien supérieur à celui de ce pays.

Nous bénéficions de données informationnelles, culturelles, patrimoniales, environnementales et géographiques, qui sont les plus demandées au monde. Ces données sont hautement valorisables. Lorsqu'il est question de la BnF et de numérisation, on voit bien l'intérêt stratégique de mettre la main sur ce corpus de données que l'Europe possède en abondance.

Nous avons créé, au sein du secrétariat d'État, dans le cadre du plan de relance, un appel à projets qui a amené à créer le premier portail de service public sur mobile, Proxima Mobile ; nous avons financé toute une série d'applications avec des entreprises, des PME et des institutions publiques. La plus téléchargée est le Musée du Louvre, qui approche les 3 millions de téléchargements - dont 60 % aux États-Unis.

Enfin, nous avons les cerveaux - que l'on nous vole abondamment en leur proposant d'aller travailler sous le soleil californien !

Nous disposons donc des trois piliers fondamentaux qui permettraient de créer cette ressource ; nous ne l'avons pas fait. C'est une erreur historique de survalorisation de l'infrastructure ! Il faut une politique industrielle à l'échelle européenne et française dans ce domaine car nous n'avons pas de succès internationaux dans le secteur des services sur Internet.

Or, le débat qui nous réunit aujourd'hui concerne les conditions qui doivent s'appliquer d'un point de vue technologique, économique et politique pour que ces innovations puissent naître en Europe. Certes, c'est le cas de certaines mais elles ont été exportées. Le but est de créer un écosystème et d'éviter que ne se verrouillent les positions de certains acteurs, ce qui empêcherait toute innovation d'aboutir.

Il faut faire en sorte que ces petites sociétés deviennent des ETI, des entreprises de taille intermédiaire ! En France, les PME brillantes ont deux solutions, le rachat à 18 mois ou l'expatriation ! C'est inacceptable dans la durée ! Dans le domaine de la neutralité, il faut retirer les fruits de ce qui s'est produit ailleurs - et pas simplement aux États-Unis - en termes d'innovation.

Il a été question de la télévision : c'est le point sur lequel se portent tous les acteurs de l'Internet. Jusqu'à présent, la télévision était rétive à l'Internet et on ne pouvait y voir de contenus issus de l'Internet, hormis les flux audiovisuels - mais c'est un sujet à part. Apple et Google sont sur le point de sortir des « box » qui permettront de distribuer des applications et des services sur la télévision avec, dans le collimateur, le magnifique marché publicitaire que cela représente.

On sait que, pour le mobile, le marché de la publicité géolocalisée va être explosif ; pour la télévision, les enjeux que représentent les régies traditionnelles pour Apple, Google ou d'autres sont colossaux !

Comment faire en sorte que des acteurs français et européens puissent avoir une place dans cet écosystème avant qu'il ne soit verrouillé - comme cela a été trop souvent le cas ? Comme le dirait mon ami et collègue américain Lawrence Lessig, le code crée du droit. Vous posiez la question de savoir si les protocoles étaient neutres par nature ou non : absolument pas ! Aucune création humaine n'est neutre dans l'absolu et le code informatique encore moins qu'un autre ! Il crée du droit, de l'organisation sociale et les citoyens doivent le contrôler. C'est tout le débat autour de la neutralité : faire en sorte que la validation ultime soit entre les mains du citoyen et non d'une autorité centralisée qui, par définition, ne serait ni innovante, ni vecteur de croissance et de création d'emplois !

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

J'ai retenu que si nous voulons continuer à bénéficier d'un écosystème qui permette des innovations sans barrière, sans permis, sans trop de coûts, il nous faut préserver un Internet ouvert.

Vous avez parlé de la télévision : M. Brunet est directeur des relations extérieures et des affaires juridiques de Sony France. Nous allons donc traiter de la télévision connectée...

M. Arnaud BRUNET, directeur des relations extérieures et des affaires juridiques de Sony France

Tout le monde parle beaucoup de télévisions connectées mais personne ne les a encore véritablement vues ! C'est normal puisqu'elles arrivent sur le marché. Il est d'ailleurs assez extraordinaire de voir comment une innovation technologique provoque autant de débats, d'inquiétudes et suscite de fantasmes !

Emmanuel Gabla a parlé du marché de la télévision et des télévisions connectées - ou connectables. Le marché de la télévision est extrêmement dynamique. C'est un des rares secteurs en forte croissance, pour plusieurs raisons, la principale étant la numérisation du signal.

On connaît tous le succès de la TNT. Le coeur de métier bat bien autour de la télévision hertzienne gratuite ; c'est ce qui fait aujourd'hui le succès de la télévision, ne nous y trompons pas !

On va vendre en France en 2010 près de 9 millions de téléviseurs - record historique - essentiellement grâce aux nouvelles technologies incorporées dans les téléviseurs - haute définition, 3 D, connexion Internet - mais surtout parce que l'on bascule du signal analogique au signal numérique et qu'il est donc nécessaire d'acheter un nouveau téléviseur ou un adaptateur.

Sur ces 9 millions de téléviseurs vendus en France en 2010, ou presque, on estime que 10 % seront connectables. D'après les premières informations que l'on recueille sur les usages, environ 25 % des téléviseurs connectables sont effectivement connectés au moins une première fois - il s'agit donc là d'un phénomène naissant.

Aujourd'hui, 60 % de la gamme des téléviseurs Sony est connectable. Ce sera près de 100 % l'année prochaine, ce qui va accélérer le mouvement. A chaque fois que l'on introduit une nouvelle technologique, un phénomène d'accélération apparaît après une phase de latence et de démarrage.

Ces téléviseurs connectés permettent de regarder la télévision hertzienne, télévision de qualité, dont je rappelle qu'elle est totalement « à la main » des éditeurs : ce sont en effet les chaînes qui déterminent leurs programmes. Nous sommes là dans un modèle historique et pérenne.

A noter que ces télévisions connectées ne se connectent pas directement au réseau mais toujours via une « box » ; nous sommes donc aujourd'hui dans une sorte de dépendance technologique et avons un passage « obligé » qui est la « box » des FAI pour accéder au réseau.

Qu'allons-nous faire avec ces télés connectées? Dans un premier temps, de l'interactivité à partir des flux de programmes de télévision. C'est une capacité que nous offrons aux chaînes de télévision d'enrichir leurs programmes et l'expérience de télévision. Pour ce faire, nous allons utiliser la technologie appelée HbbTV qui consiste à associer le programme qui sera diffusé à une connexion Internet, de façon à apporter de la profondeur aux programmes : recettes en ligne d'une émission culinaire, résultats d'un joueur dans le cadre d'une émission sportive et, à terme, paris en ligne, etc.

La seconde possibilité que l'on a déjà vue apparaître sur les téléviseurs est ce que l'on appelle les « widgets », c'est-à-dire la capacité à aller chercher, via de petites applications, du contenu très spécialisé sur Internet pour donner la météo, le cours de bourse, la situation du trafic en Île-de-France, etc.

Nous sommes en train de tisser un continuum entre l'image classique diffusée et le web à l'état pur. Il va donc y avoir une série de solutions intermédiaires.

L'étape suivante concerne l'accès à des contenus audiovisuels à la demande tels que la télé de rattrapage. Sony a, par exemple, un accord non exclusif avec M6 pour M6-Replay. On peut ainsi décliner, comme le font aujourd'hui tous les constructeurs avec toutes les chaînes, l'accès à ces programmes de télévision au moment choisi.

Autre solution : la VàD. L'exemple le plus récent pour Sony est Qriocity, une offre de programmes de films de différents éditeurs - majors hollywoodiennes mais aussi éditeurs européens. On achète du contenu audiovisuel soit par abonnement, soit à la demande, on le télécharge ou on le regarde en streaming . Toutes les possibilités sont offertes par cette connexion Internet.

Petit à petit, on va se rapprocher de ce qui est véritablement la télévision Internet qui n'est, elle, pas encore sur le marché ; s'agissant de Sony, elle arrive aux États-Unis. Cette télévision Internet fait le pari d'apporter le meilleur du web au monde audiovisuel. Nous avons conscience de mettre le pied dans la fourmilière et cela nous dépasse probablement un peu, mais cela va permettre d'avoir accès à une multitude de contenus, d'où la nécessité de disposer de moteurs de recherche, de façon à mieux sélectionner, mieux comprendre, mieux interagir. C'est pourquoi Google se positionne notamment, en partenariat avec Sony, sur la télévision Internet.

Nous avons fait le choix, à l'inverse de certains, d'un modèle totalement ouvert aux développeurs et au monde audiovisuel.

Tout ceci se met donc en place de façon progressive et se trouve conditionné par le fait que nous créons un nouvel écosystème. Celui-ci ne fonctionnera que si nous avons accès au réseau de manière équitable et que nous obtenons les débits nécessaires pour faire en sorte que le téléspectateur accède à tous ces contenus. Si le « robinet » est fermé, on pourra déployer toutes les télévisions connectables que l'on veut, ce sera un échec.

J'en reviens à cet état de dépendance que nous imaginons vis-à-vis des infrastructures : il est clair que nous allons venir concurrencer des offres gérées par les opérateurs et nous craignons qu'à l'occasion de la gestion intelligente du réseau, le flux direct de la télévision connectée ne soit défavorisé. C'est peut-être une crainte infondée de la part des fabricants de téléviseurs connectés, mais elle est réelle. C'est ce qui explique l'intérêt que nous portons à la neutralité du Net.

Évidemment, c'est un monde qui se met en place et les fabricants ont aujourd'hui un peu de mal à se positionner en termes d'obligations. Un certain nombre de réflexions sont en cours, notamment en ce qui concerne le financement de la création. Or, plus on va aller vers le web et l'ouverture du système, plus on va se rapprocher du monde du PC. Nous demandons à ne pas être plus mal traités que les autres : lorsqu'il existera une télécommande intelligente permettant de « surfer » sur Internet, on ne sera ni plus ni moins face à un nouveau type de PC et les mêmes règles devront s'appliquer aux mêmes usages.

Nous sommes ouverts à toutes les discussions avec les différents acteurs ; c'est ce que nous faisons aujourd'hui dans différentes enceintes mais il y a beaucoup à faire et beaucoup de réflexions à mener, la technique étant allée un peu plus vite que le cadre réglementaire.

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

La télévision connectée ne constitue-t-elle pas simplement un moment de la télévision ? On a eu des télévisions Full HD, des télévisions numérisées intégrant l'adaptateur numérique... N'aura-t-on pas, avec la convergence des terminaux, des écrans de PC, des écrans de télévision ?

M. Arnaud BRUNET, directeur des relations extérieures et des affaires juridiques de Sony France

Probablement. La notion de télévision va évoluer. C'est la première fois que l'on sort de ce modèle historique de télévision diffusée, un modèle où le téléspectateur est assez passif vis-à-vis de l'image - encore qu'il ait la capacité de zapper, d'éteindre ou de faire autre chose. Il va désormais avoir la possibilité d'aller chercher du contenu additionnel et d'enrichir son expérience de télévision.

A la différence de la HD, qui était une amélioration de la qualité du contenu, au delà de la 3 D, qui est aussi une amélioration de la qualité, on a là quelque chose de très nouveau qui consiste à sortir du modèle classique et qui rend le téléspectateur beaucoup plus actif vis-à-vis de l'image qu'il regarde.

C'est une chance pour les chaînes de télévision mais aussi un risque - on l'a vu avec les questions relatives à la publicité. Il faut que chacun se positionne rapidement et trouve un certain confort dans cette évolution technologique.

M. Bernard BENHAMOU, délégué aux usages d'Internet

L'un des échecs historiques de la connexion du web à la télévision vient du fait que les gens n'ont pas envie d'intervenir dans leur salon comme s'ils se trouvaient devant un PC. Il faut l'admettre.

En revanche, nous nous dirigeons vers les mêmes systèmes qui sont présents sur les téléphones, les tablettes interactives et sur la télévision avec connexions multiples à domicile, qui comporteront des services spécifiques de type réseaux sociaux, informations, commerce, publicité.

La nouveauté vient de la possibilité de cibler ses choix, là où la télévision ne le permettait que très peu, en fonction des horaires. On aura là une publicité extrêmement personnalisée, avec des applications qui ne demanderont pas l'interaction que l'on peut avoir avec une souris ou un clavier.

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Emmanuel Forest, pour en revenir à la neutralité des réseaux, comment situez-vous le point d'équilibre à trouver entre opérateurs, FAI, prestataires de services d'Internet, sachant que le mobile dispose de moins de capacités que le haut débit fixe ?

M. Emmanuel FOREST, directeur général délégué et vice-président de Bouygues Telecom

Mon intervention sera plus terre à terre, étant un simple opérateur de réseau.

Dans les cahiers de l'ARCEP sur la neutralité du Net, Jean-Ludovic Silicani indique en introduction que « l'enjeu principal de la neutralité du Net est celui de l'avenir d'Internet et de son bon fonctionnement sur le long terme ». Il ajoute : « S'il reste des enjeux importants de second rang - économiques, techniques et sociétaux - comment financer le développement des réseaux et des contenus ? ».

Chacun étant dans son rôle, je dirais que le premier problème est celui du financement des réseaux : sans financement, point de réseaux et donc point de neutralité du Net ! C'est le sujet le plus important qu'il faut objectiver avant de réfléchir à des décisions plus philosophiques sur l'équilibre entre réseau et contenu.

On se trompe parfois sur le problème économique du réseau : la grande difficulté vient de ce qu'Internet et le web nous ont habitués à une idée de gratuité. La devise de Wikipédia est : « Chacun ses capacités, chacun ses besoins ». Cela rappelle certaines choses mais laisse penser qu'il existe des infrastructures collectives qui pourraient être gratuites et que l'économie des réseaux connaît un rendement croissant. Il existerait donc des coûts fixes ; une fois absorbés, on peut faire circuler tous les paquets de façon libre et égale.

Certes, il existe des coûts fixes importants mais la contrainte qui pèse sur le mobile est celle de la boucle locale radio. Or, les contenus audiovisuels peuvent être aussi se présenter sous forme de produits classiques ou de « users generated contents », comme YouTube. Cela commence à peser sur le besoin en bande passante : il faut augmenter la capacité de chaque antenne relais, en installer de nouvelles et densifier le réseau pour augmenter la capacité. Les coûts variables peuvent donc devenir importants. Ils ont été à l'ordre du jour en début d'année. L'affolement est venu des États-Unis et on a craint de le voir se transmettre à la France.

C'est vrai aussi pour le fixe, le problème des coeurs de réseaux étant commun au fixe et au mobile. Si l'on veut permettre aux clients d'avoir une expérience positive, il faut que ceux-ci tiennent le coup pour acheminer le trafic. Cela coûte cher. Les spécialistes expliquent que dans quinze ans, il faudra des équipements laser de bien meilleure qualité et que tout cela a un coût.

Il convient donc de trouver la manière intelligente de garantir à chacun un Internet de qualité, un accès au web commun à tous mais de permettre aussi des classes de services pour les gros utilisateurs qui payent aux opérateurs le prix que coûte cette utilisation.

Dans l'article 3 de sa proposition de loi sur la neutralité du Net, Christian Paul indique que : « Les personnes dont l'activité est d'offrir un accès à des services de communication au public en ligne ne peuvent interdire ou appliquer des conditions tarifaires spécifiques à leurs abonnés qui connectent simultanément ou successivement différents équipements à un même accès à des services de communication au public en ligne ».

En d'autres termes, l'usage personnel du Smartphone et son usage familial - grâce à une borne wifi elle-même connectée à la fibre ou à l'ADSL - devrait faire l'objet de la même tarification. Nous ne sommes pas d'accord car la façon dont on va utiliser le réseau sera certainement bien différente d'un support à l'autre !

Nous comprenons bien l'intention de M. Paul mais une tarification, en fonction de l'usage et de la charge du réseau nous apparaît tout à fait légitime !

Selon les cahiers de l'ARCEP, Internet est devenu un bien collectif stratégique. L'article 9 du préambule de la Constitution de 1946 relatif aux biens ou entreprises qui acquièrent la qualité de service public national étant toujours en vigueur, il est possible de nationaliser l'Internet. Je crois comprendre que ce n'est pas à l'ordre du jour ; certains débats ont laissé entendre que ce ne serait pas la meilleure solution !

L'autre formule est celle de M. Jean-Ludovic Silicani : « Il appartient aux pouvoirs publics de promouvoir des règles afin que les réseaux et les services associés fonctionnent bien ». Il convient de le faire avec les acteurs privés qui financent et assurent le fonctionnement du système.

Le grand défi va sûrement être de trouver la synthèse entre deux approches différentes. La première est celle du marketing et des opérateurs privés dont c'est le métier. Il s'agit ici de dégager, par les analyses de marchés, les intérêts particuliers de certains segments et de les réunir au sein d'offres différenciées. L'intérêt général, sous un angle segmenté, sera donc satisfait.

L'autre approche est plus collectiviste et consiste à dire qu'il existe un intérêt général et qu'il convient de fixer des règles extrêmement interventionnistes. Cela signifierait une péréquation.

La proposition de loi de Christian Paul va dans le sens d'une péréquation générale, avec un même Internet pour tous, au même prix. Je crains que ceci n'amène un prix élevé, les plus petits consommateurs devant payer le même prix que les gros !

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Il est intéressant d'entendre le point de vue des consommateurs et de l'UFC-Que Choisir...

M. Édouard BARREIRO, chargé de mission à UFC-Que Choisir

Cela fait environ deux ans que l'UFC-Que Choisir s'intéresse à ce sujet ; on a même saisi l'ARCEP en janvier 2009 en lui demandant d'éclaircir cette problématique à laquelle vient aujourd'hui s'ajouter le « paquet télécom ».

Notre position est de dire que le « paquet télécom » n'est pas suffisant. Il propose la transparence, ce qui signifie que l'opérateur est libre de vendre n'importe quoi. On voit très bien le préjudice qui en découle pour le consommateur : l'UFC-Que Choisir poursuit Orange et SFR en justice pour leur offre « Internet illimité ». En effet, ce n'est pas de l'Internet car on n'a pas accès à tous les services et ce n'est pas illimité non plus ! La transparence ne signifie donc pas grand chose.

C'est peut-être la raison pour laquelle il existe tant de problèmes avec le réseau mobile : on a tellement dit aux consommateurs qu'il pouvait tout faire qu'il a essayé et a saturé les réseaux ! Il faut donc faire attention aux monstres que l'on crée...

S'agissant des encadrements, comment garantir au consommateur qu'il aura accès à un véritable Internet ? Qu'appelons-nous le véritable Internet ? Le véritable Internet, c'est la possibilité de se connecter à partir d'un périphérique sans se préoccuper de savoir si c'est ou non compris dans son abonnement. Un des problèmes avec l'Internet mobile est qu'on a fait croire au consommateur que c'était la même chose ; or, ce n'est pas le cas !

L'ARCEP préconise un réseau « best effort » avec un certain niveau de qualité encadrée. Il faut cependant être certain que ce niveau soit suffisant pour que le plus grand nombre puisse avoir accès à un Internet de qualité.

Il faut prendre garde à ne pas créer un déversoir, un Internet moins cher et de moins bonne qualité et un Internet de meilleure qualité mais très cher, avec des notions d'exclusivité - comme la chaîne d'Orange ou de YouTube !

Cela ne signifie pas que l'on ne puisse donner la priorité à certains contenus sur le réseau. Si on nous dit qu'il faut ralentir les mails pour favoriser la vidéo, pourquoi pas - à condition que ce soit proportionné et dûment justifié, comme l'a préconisé l'ARCEP ? Il faut aussi que les protocoles mis en place soient validés également par l'ARCEP pour être certain qu'il n'existe pas d'abus.

Nous sommes également hostiles au fait que les FAI aient un rôle de police sur Internet et filtrent les contenus. Il existe aujourd'hui un dérapage, notamment de la part des autorités européennes, dans cette volonté d'imposer le filtrage qui fait appel à des technologies dignes des États autoritaires, certains opérateurs décidant de ce qui est légal ou non, légitime ou non sur Internet. Toute mesure de filtrage ne doit donc être prise en dernier recours que par un juge, une autorité indépendante...

M. Bruno RETAILLEAU

Ce n'est pas la même chose !

M. Édouard BARREIRO, chargé de mission à UFC-Que Choisir

En effet, il ne peut s'agir que du juge...

La thématique de l'interconnexion est par ailleurs très complexe. On ne peut rester neutre sur le sujet car certains signaux sont nécessaires pour orienter au mieux les acteurs. En laissant l'interconnexion en l'état, est-on certain que les opérateurs seront toujours incités à investir au mieux ?

Les inducteurs de trafic feront-ils également au mieux ? Les opérateurs voudraient que les prestataires de services se rapprochent un peu plus des consommateurs.

On peut également poser la question des formats de compression des vidéos : YouTube, Dailymotion ou d'autres feront-ils au mieux en termes de protocole vidéo sans le bon signal économique ? Ne peut-on facturer un coût incrémental à un opérateur spécifique qui souhaiterait agrandir un « tuyau » pour faire entrer du contenu sur le territoire - sans pour autant lui facturer la boucle locale ?

Certains opérateurs se déclarent en faveur d'une terminaison data . Nous n'y sommes pas hostiles si les choses sont faites convenablement. Si l'on ne prend que le coût de la « collecte » et le coût incrémental en incluant une très grande asymétrie des flux, pourquoi pas ?

Cependant, dans l'économie, on distingue vraiment le réseau fixe du mobile. M. Forest dit qu'on ne peut facturer le même tarif à deux consommateurs s'ils ne consomment pas la même chose. Sur un réseau fixe, que le consommateur consomme beaucoup ou non, il coûte exactement la même chose ! Pour le mobile, le coût marginal est très important en fonction de la consommation mais toutes les offres sont limitées à 500 mégas et à 2 gigas et différentes les unes des autres. Ne demandez donc pas qu'on le fasse pour le fixe, car cela ne se justifie pas économiquement.

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

L'ARCEP a émis en septembre dix recommandations. Quelles sont pour vous, monsieur Distler, les plus importantes en matière de neutralité des réseaux ?

M. Philippe DISTLER, directeur général de l'Autorité de régulation des communications électroniques et des postes (ARCEP)

La structure concurrentielle du marché est un élément fondamental du débat. Aux États-Unis, le débat sur la boucle locale est probablement moins vif qu'en France. J'ai l'impression que certains acteurs prennent le débat sur la neutralité comme un moyen de corriger les insuffisances concurrentielles du marché de la boucle locale.

En second lieu, la gestion de trafic est consubstantielle au réseau, celui-ci étant par définition une ressource partagée entre tous les services et les utilisateurs. Les opérateurs essayent de trouver un optimum économique entre le nombre de clients actifs à un moment donné et la consommation de chacun des services, notamment en termes de bande passante.

Les recommandations les plus importantes sont liées au principe de définition d'un accès Internet neutre, dans lequel la définition de qualité de service garantit l'accès à un certain débit, à certaines caractéristiques techniques, au principe de liberté d'accès à toutes les applications et à tous les services, dans le respect de l'intégrité du réseau, sans discrimination sur les flux individuels d'applications, sauf exception dument justifiée au regard d'un certain nombre de principes, tout ceci devant être le plus transparent possible pour l'utilisateur, même si l'exercice est toujours perfectible.

Le second paquet de recommandations concerne le suivi et l'analyse des pratiques de gestion de trafic au regard des principes de pertinence de proportionnalité, d'efficacité vis-à-vis de l'encadrement d'un certain nombre de pratiques jugées collectivement acceptables.

La partie touchant la qualité de service est la prolongation de ce que l'on fait depuis un certain nombre d'années sur les réseaux mobiles et fixes ; il s'agit de définir des paramètres de qualité de service de l'accès à Internet, de faire mesurer ces paramètres régulièrement par les opérateurs et de les faire publier pour donner une information pertinente aux consommateurs.

Le dernier point porte sur l'aspect économique et le partage de la valeur entre les différents acteurs de la chaîne, les opérateurs de boucle locale et les prestataires de services. Le trafic devient de plus en plus dissymétrique du fait des flux vidéo et pose la question des investissements incrémentaux dans les réseaux de boucle locale fait par les opérateurs, sachant que l'on est dans un marché biface où la valeur du réseau est liée au nombre d'utilisateurs connectés mais aussi au nombre d'applications accessibles. Il faut donc trouver un juste point d'équilibre pour les fournisseurs de services et les utilisateurs finaux.

Enfin, il ne faut pas oublier, dans cette chaîne de la valeur, le rôle des terminaux, en particulier avec les intégrations de plus en plus fortes du système d'exploitation des smartphones , acteur important, ou les télévisions connectées qui vont arriver sur le marché et qui peuvent déplacer le curseur entre fournisseurs de services, opérateurs et fabricants de terminaux.

Débat avec la salle

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

Y a-t-il des questions ?

M. Pascal PEREZ, directeur du cabinet de conseil « Formules économiques locales »

Je voudrais poser une question à Olivier Esper. Y a-t-il des discussions entre Verizon et Google en matière de financement des réseaux ? Google et beaucoup d'autres nécessitant énormément de bande passante, on s'attend à ce que les émetteurs de fichiers et de vidéo y concourent plus que les malheureuses collectivités locales françaises qui sont pourtant impatientes de le faire à la place de certains opérateurs ! Ce débat pourrait-il être ouvert à l'Europe et à la France ?

M. Olivier ESPER, directeur des relations institutionnelles de Google France

Je vous renvoie à la lettre de l'ARCEP, qui figure également sur le blog de Google. Nous avons écrit un article expliquant que le compromis entre Google et Verizon n'est pas un accord commercial mais une position commune.

Aux États-Unis, le débat est un peu dans une impasse, la FCC - l'ARCEP américaine - ayant pris une décision très importante dans le débat sur la neutralité du Net qui a été cassée. Google et Verizon ont donc mis cette proposition commune sur la table pour essayer de relancer le débat.

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

De ce point de vue, l'objectif de relancer le débat a été atteint !

M. Pascal PEREZ, directeur du cabinet de conseil « Formules économiques locales »

Quelle est la place d'un grand émetteur de contenus dans le financement du passage au très haut débit ?

M. Olivier ESPER, directeur des relations institutionnelles de Google France

L'accord ne porte pas là dessus mais sur la neutralité du Net et sur les principes de transparence et de non-discrimination qui ont été énoncés.

S'agissant du financement des réseaux, la position de Google est la même que celle des autres acteurs : il s'agit de participer au financement de l'infrastructure à travers le rapprochement des internautes, via des interconnexions directes avec les opérateurs, via des serveurs caches qui prépositionnent les contenus les plus demandés, en particulier en matière de vidéo, près des grappes d'internautes. Ce foisonnement d'applications représente une certaine attractivité pour les réseaux et pour l'abonnement au haut débit, les revenus d'accès constituant la principale source de financement des réseaux.

M. Édouard BARREIRO, chargé de mission à UFC-Que Choisir

Si on va au bout de la logique, ce sont les petits qui doivent payer et non les gros !

M. Bruno RETAILLEAU, vice-président des groupes d'études « Médias et nouvelles technologies » et « Postes et télécommunications »

La réponse est dans la question ! C'est pourquoi un certain nombre de règles sont nécessaires en matière de régulation.

Il faut répéter qu'Internet est un bien collectif stratégique et même universel.

En second lieu, la neutralité d'Internet et des réseaux est un élément constitutif du réseau des réseaux. On doit toutefois pouvoir trouver un chemin entre l'exigence de préservation d'un écosystème fragile et de pratiques de gestion du trafic, à condition qu'elles soient justes, transparentes et non discriminatoires.

C'est cet exercice que l'on doit réaliser tous ensemble et que l'ARCEP a engagé avec ses dix recommandations.

Sur le fond, en matière de neutralité des réseaux, la concurrence est plutôt l'amie de la neutralité. Plus on sera dans des situations concurrentielles et moins on aura de risques de discrimination. De ce point de vue, la régulation doit continuer. L'univers concurrentiel met en effet en relation des opérateurs et des fournisseurs de contenus.

Il existe par ailleurs un problème de capacité et d'accroissement des ressources et il ne faut pas que la régulation défavorise l'investissement. Parmi les smartphones , il en existe qui sont très consommateurs de bande passante et d'autres beaucoup moins. Il y a, là aussi, des progrès à faire : on peut, à ressources constantes mais avec des protocoles et des terminaux différents, économiser, optimiser et fluidifier l'acheminement du trafic.

Je suis d'accord avec Édouard Barreiro pour dire que le « paquet télécom », à lui seul, ne suffit pas. Il existe quand même des outils intéressants en matière de transparence dans la gestion du trafic, de pouvoirs donnés au régulateur concernant le règlement de différends entre des PSI et les FAI - ce que l'ARCEP ne peut faire pour le moment - et d'exigences minimales en termes de qualité de service.

Ce seront les trois outils qui seront à consolider dans la transposition mais cela ne suffit pas et c'est là que l'on va nous attendre. Des efforts sont à faire notamment en matière de transparence. On a parlé du concept d'Internet et d'offres illimitées. Qu'est-ce que cela signifie ? L'ARCEP commence à mener un certain nombre de travaux : il faudra l'accompagner mais tout ce qui peut amener les informations et assurer leur lisibilité pour le consommateur est une bonne chose. Il faudra vraisemblablement conforter cette obligation de transparence.

S'agissant de la non-discrimination, il conviendra de compléter l'article du code des postes et des communications électroniques. La neutralité est un principe de non-discrimination qu'il faudra sans doute réinscrire dans le texte.

On a parlé de marché et d'interconnexion : il est mal connu, opaque. Il faudra le suivre au-delà des frontières.

Pour terminer, certains sont favorables à une loi, d'autres moins. Je m'inscris plutôt dans la seconde tendance. Je pense que le développement d'Internet a été possible parce qu'il existait un cadre réglementaire relativement souple. On ne peut légiférer une fois pour toutes sur des technologies et des usages qui changent très rapidement. On doit pouvoir, dans la loi de transposition, améliorer significativement les choses plutôt que de produire un « big bang » législatif ! On sait toujours ce que l'on met sur la table lorsqu'on dépose un texte de loi mais jamais trop ce qui peut en ressortir. Comme Montesquieu, je crois qu'il faut toucher à la loi d'une main tremblante !

III. CONCLUSION

Merci à tous. La parole est à Mme Nathalie Kosciusko-Morizet, secrétaire d'État à l'économie numérique, à qui il revient de conclure ces deux tables rondes.

Mme Nathalie KOSCIUSKO-MORIZET, ministre de l'écologie, du développement durable, des transports et du logement

Merci à tous ceux qui ont donné un peu de leur temps sur un sujet à propos duquel nous avons besoin des parlementaires. Il existe une place pour l'initiative parlementaire sur cette question. Je considère qu'elle est nécessaire et attendue.

C'est le bon moment pour s'en saisir. Il y a en effet aujourd'hui sur la table deux documents qui permettent, je pense, de trouver un bon point de départ, le rapport du secrétariat d'État, qui a été réalisé suite à une initiative parlementaire et les fameux dix commandements de l'ARCEP. Les deux sont assez convergents et on n'aura donc pas à se demander dans lequel aller chercher de bonnes options.

Par ailleurs, le sujet est mûr et il me semble que la présence de ce panel varié et équilibré, comme l'émergence du sujet dans les médias ces derniers temps, et la façon dont il a traversé l'océan, en font un objet dont on peut se saisir, ce qui n'aurait pas été le cas il y a encore deux ans.

J'ai toutefois été surprise par l'intitulé de la première table ronde consacrée à la neutralité des contenus. Je milite pour une vision large de la neutralité du Net et même de l'Internet. De ce point de vue, le titre est bien choisi et je trouve qu'il faut parler de la question des contenus car la neutralité du Net inclut pour moi la question du référencement et des terminaux d'accès mais un observateur malavisé aurait pu se dire que l'on veut ainsi contrôler les contenus. Comment savoir si un contenu est neutre ou non ? Un contenu n'a pas vocation à être neutre : c'est la manière dont on le transporte qui doit être neutre !

Au-delà de sujets sémantiques, je trouve que cette vision globale qui regroupe tous les types d'acteurs augure bien de la suite. On attend donc, dans l'année qui vient, la tenue des assemblées parlementaires...

Aujourd'hui Internet fonctionne selon le modèle « best effort », ce qui ne répond pas tout à fait aux enjeux et à l'ampleur des défis dont il est porteur. Ceci est propre au monde du numérique. Les choses se sont constituées par couche et très vite. Il existe un décalage entre la façon dont le système est organisé, les institutions qui le gèrent et les intérêts dont il est porteur.

Je n'en reviens pas que l'ICANN (l' Internet corporation for assigned names and numbers ) soit une association de droit californien ! Ce n'est pas raisonnable pour l'institution qui doit gérer les noms de domaines ! Cela leur pose d'ailleurs problème car il existe des responsabilités qu'ils préfèreraient partager, même au niveau international, afin d'élargir la gouvernance.

C'est un peu la même chose en matière de neutralité du Net : on n'a pas vraiment les outils pour faire face à l'ampleur des défis auxquels on est confronté.

Pourquoi cela a-t-il changé si vite ces dernières années ? Tout d'abord, les équipementiers des réseaux ont accompli des progrès techniques qui leur permettent de mener aujourd'hui des actions de management et de gestion des flux dont les techniques, pour certaines, sont assez récentes.

Par ailleurs, les réseaux commencent à être victimes de leur succès mais on ne serait pas sur le point d'investir de telles sommes si l'on ne sentait pas que l'on arrive assez rapidement au point de croisement entre la largeur de la bande passante et la demande fortement exponentielle qui en est faite.

Depuis quinze ans, on a vu émerger et grandir les nouveaux acteurs du monde de l'Internet. Il aurait été plus facile de parler de neutralité du Net, il y a quelques années mais on n'était pas mûr pour le faire ; aujourd'hui, plus nombreux sont ceux avec qui il faut en parler. Ce sera plus riche, plus intéressant et permettra peut-être de trouver quelque chose de plus équilibré mais il est certain que la discussion ne peut seulement avoir lieu entre fournisseurs d'accès. Les fournisseurs de services sur Internet doivent pouvoir y participer. Je milite en ce sens, même si cela a été très débattu au moment où l'on a réalisé notre travail.

Enfin, les terminaux d'accès sont de plus en plus sophistiqués mais de moins en moins interopérables, ce qui pose un problème en matière de neutralité. J'insiste pour que cette question soit prise en compte dans le débat sur la neutralité.

En fait, la neutralité peut être assurée au coeur du réseau et remise en cause aux extrémités. Il faut que l'on puisse en parler - même si tout le monde n'en a pas envie, ce que je comprends.

Le Gouvernement et l'ARCEP partagent le même constat sur le sujet. L'accueil extrêmement chaleureux réservé aux propositions de l'ARCEP a fait un écho intéressant à l'accueil critique qui a été porté pendant l'été aux propositions du Gouvernement. C'est assez drôle car il s'agit parfois des mêmes : on a vu des acteurs du monde de l'Internet adopter des postures assez radicalement différentes, ce qui prouve que, chez certains commentateurs, on ne traite pas le contenu de la même façon en fonction de son émetteur. On pourra un jour organiser une table ronde sur la neutralité des blogueurs !

Selon moi, le « paquet télécom » répond à un certain nombre de défis de manière prudente et technique mais utile. De cette manière, il pose des bases nécessaires pour pouvoir poursuivre le travail sur la neutralité du Net - transparence des offres, renforcement des prérogatives des autorités nationales de régulation, etc. Cela étant, je considère qu'il n'épuise pas le sujet et qu'il y a de la place pour autre chose.

Ces éléments sont vitaux. On doit les transposer et on va le faire. On en a besoin. Le « paquet télécom » est pour l'essentiel de qualité et cela doit être fait rapidement pour laisser la place à une action plus politique. Je pense que c'est une chance pour que le politique, une fois ces questions techniques résolues, puisse prendre toute sa place qui, selon moi, sur un tel sujet, doit être préemptée par le Parlement.

Je ne prévois pas, à ce stade, de projet de loi : je crois qu'il y a matière à proposition de loi sur ce sujet. Quel peut être le calendrier ? Le Livre Blanc est prévu pour décembre ; il devrait avoir quelques semaines de retard, selon la Commissaire, qui a pris un peu de retard dans ses travaux.

Je trouve difficile de discuter d'un texte avant d'avoir entre les mains les propositions de la Commission - même si l'on pressent la façon dont elle voit les choses. Il faut donc attendre son calendrier avant d'établir le nôtre mais tout cela peut être assez cohérent et je me réjouis que vous preniez les devants !

Permettez-moi de considérer cette table ronde comme le début d'une réflexion qui peut aboutir à une discussion sur une proposition de loi avec vos collègues de l'Assemblée nationale. Je vous en laisse le soin.

M. Pierre HÉRISSON, président du groupe d'études « Postes et télécommunications »

Il est rare qu'un ministre nous incite à déposer une proposition de loi ! Cela m'est déjà arrivé avec Michèle Alliot-Marie à propos de la sécurité des manèges !

Merci, madame la ministre, de nous avoir rejoints pour apporter conclusion et propositions. Les uns et les autres ont pu s'exprimer cet après-midi sur un sujet qui me paraît mûr - pour reprendre votre expression - et sur lequel il faut travailler rapidement pendant que les choses sont possibles. C'est le moment d'avancer !

Je crois que nous avons, les uns et les autres, intérêt à travailler. C'est l'engagement que nos deux commissions peuvent prendre ici, en demandant à chacun sa contribution à la proposition que vient de nous faire Mme la ministre.


* 1 Loi DADVSI n° 2006-961 du 1 er août 2006 relative au droit d'auteur et aux droits voisins dans la société de l'information.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page