Informatique : servitude ou libertés ?



Colloque organisé par la Commission Nationale de l'Informatique et des libertés (CNIL) et l'université Panthéon-Assas-Paris II - Sénat - 7 et 8 novembre 2005

LUNDI 7 NOVEMBRE 2005

I. 14H00-14H30

A. ALLOCUTION D'OUVERTURE

1. Alloc ution de M. Alex TÜRK,
Président de la Commission Nationale de l'Informatique et des Libertés

Mesdames, Messieurs, permettez-moi de remercier le Sénat et son Secrétaire général Alain DELCAMP, le Professeur CHAGNOLLAUD ainsi que Dominique WOLTON qui sera présent demain. C'est à partir de rencontres informelles que progressivement s'est développée cette idée de mettre en place un colloque qui nous permette d'approfondir un certain nombre de questions.

Je voudrais maintenant m'exprimer sur le thème « informatique : servitude ou libertés ». Pour vous dire la vérité, j'aurais préféré l'expression « Servitude et libertés ». Peut-être suis-je plus pessimiste que les autres membres de notre petit groupe de réflexion. Il se trouve que j'ai le sentiment que nous vivons aujourd'hui dans une société où la servitude et la liberté se partagent autour de la problématique de l'informatique. C'est déjà pour moi une façon de prendre position dans le débat. Quoiqu'il en soit, cela signifie, à mes yeux, qu'il y a au moins une question sur laquelle il s'agirait d'avancer. Comment en finir avec le mythe du Big brother ? Il y a deux façon d'en finir.

La première consiste à le rejeter en considérant que nous ne sommes pas dans une société surveillée par le Big brother . Mais il en est une autre et je ne vous cache pas que c'est ma thèse : ce mythe a disparu puisqu'il est devenu une réalité entre-temps.

En effet, je crois que fondamentalement nous vivons dans une société de surveillance. La vraie question que je me pose est donc de savoir comment on peut essayer de vivre dans cette société tout en exerçant une espèce d'auto vigilance. Il y a ceux qui se demandent comment éviter d'entrer dans cette société et ceux qui se demandent comment y vivre. D'une certaine façon, ils se rejoignent car tous ceux qui ont des responsabilités dans ce domaine se demandent comment assurer le progrès économique et social et en même temps assurer le mieux possible la préservation des libertés fondamentales.

Dans le débat d'aujourd'hui, la CNIL n'est qu'un acteur. Je l'espère un acteur important. Mais elle est d'abord là pour écouter. La vocation de la CNIL n'est pas d'être une juridiction, n'est pas d'être une association, ni d'être le législateur, ni l'exécutif, ni une société commerciale. Et pourtant, la vocation d'une autorité administrative comme la nôtre, c'est tout de même d'exercer un certain de nombre de tâches qui ressortissent à chacun des acteurs que je viens d'évoquer. C'est ce qui lui donne à la fois sa spécificité et son originalité. Peut-être que parfois cela trouble un peu son image. C'est pourquoi après un an et demi de présidence de la CNIL, je crois bon de rappeler le positionnement singulier et la sensibilité particulière que doit avoir la CNIL vis-à-vis des problématiques qui nous intéressent aujourd'hui.

Comment cela se traduit-il ? Premièrement, la CNIL doit toujours tenter de se placer dans le futur. Son rôle n'est pas d'être un organe qui contrôle, vérifie la légalité en tant que telle seulement. Ce n'est pas non plus, on l'a dit déjà, un organe qui est à l'origine des textes. La CNIL doit s'efforcer de se placer un peu plus loin dans le futur et essayer d'imaginer les dérives potentielles en germe dans les actions ou les textes pour proposer en amont, par exemple dans le débat parlementaire, des solutions pour faire en sorte que le champ des garanties soit le plus précis et le plus étendu possible.

La CNIL ne se prononce pas seulement en légalité pure et encore moins en opportunité. Lorsque l'on a expliqué à la CNIL quelle était la finalité d'un projet, elle se prononce en termes de proportionnalité. Mais tous les juristes qui sont présents dans la salle savent à quel point la notion même de proportionnalité emprunte à la fois au concept de légalité et au concept d'opportunité. C'est aussi une des raisons qui font que les positions de la CNIL sont parfois mal comprises : parce qu'on ne l'attend pas là où elle doit se trouver en vertu des lois fondatrices. Notre commission se voit confiée, surtout depuis la loi de 2004, des tâches extrêmement lourdes.

La première est de mettre en route cette nouvelle loi et de développer un effort considérable en matière de pédagogie, d'information, de formation et de développement des correspondants informatique et libertés. Ceux-ci constituent en effet un nouveau mécanisme dont nous attendons énormément puisqu'il doivent s'implanter dans l'ensemble des entreprises, des administrations ou des collectivités locales. Nous devons également renforcer de façon très significative notre politique de contrôle puisque c'est le corollaire de l'allègement des formalités préalables. À défaut, c'est le niveau de protection des données personnelles qui serait en cause.

Deuxièmement la CNIL a en charge l'analyse des textes législatifs et réglementaires. Je pense, par exemple, au développement de l'administration électronique, au dossier médical personnel et à tous les textes liés au développement d'impératifs de sécurité pour les raisons que chacun connaît.

Enfin, la CNIL se trouve au coeur de problématiques fondamentales pour notre société. Je citerai la biométrie, la géolocalisation, la vidéosurveillance, les lignes éthiques, les fichiers positifs sur l'endettement des particuliers, les fichiers d'infractions mais aussi la relation transatlantique (États-Unis / Europe) vis-vis du champ de la protection des données.

C'est une commission nouvelle qui vient aujourd'hui participer à ce colloque et qui attend beaucoup des échanges qui vont suivre. Si nous avons une vocation, nous avons aussi, si j'ose dire, un « destin ». Notre destin est d'être systématiquement au milieu d'un champ croisé de critiques, d'une « interconnexion » de critiques. Comment sortir d'un débat quand on sait que soit les internautes, soit les sociétés d'édition musicale seront mécontents ? Je pourrais multiplier les exemples. On le voit, notre situation est toujours difficile et complexe. Nous ne pourrons jamais, et ce n'est pas notre rôle, plaire à tout le monde. Notre rôle, est à un moment donné, de proposer un équilibre fondamental qui nous paraisse acceptable par la société. Il nous faut faire preuve de stoïcisme pour affronter les « avanies » que suscitent nos positons présentes tout en faisant preuve de clairvoyance et tenter de deviner le futur. Nous venons ici devant vous pour essayer de mieux éclairer notre chemin.

Qu'il me soit également permis de remercier Christophe PALLEZ, secrétaire général, Marie GEORGES ainsi qu'Elsa TROCHET-MACÉ qui ont contribué à l'organisation de ce colloque.

2. Allocution de M. Dominique CHAGNOLLAUD
Professeur à l'Université de Paris II (Panthéon-Assas),
Vice-président du Conseil supérieur de la recherche et de la technologie (CSRT)

C'est un grand honneur pour notre université de droit, que la CNIL ait bien voulu nous associer à ce colloque. Son thème est en effet au coeur des préoccupations des juristes, y compris des constitutionnalistes dans la mesure où il embrasse des questions intéressant directement les droits et libertés fondamentaux. Vous savez que notre université est à la pointe des études françaises et comparatives sur ces questions. Je vous remercie donc encore une fois, monsieur le président de la CNIL, de nous avoir associé à cette rencontre.

Je voudrais aussi remercier le président PONCELET, qui a souvent appuyé nos initiatives et je sais l'attachement de la deuxième chambre aux libertés. Je remercie tout particulièrement M. Alain MÉART, directeur de cabinet de M. PONCELET. Enfin, je remercie M. Dominique WOLTON, qui a contribué par sa réflexion à ce colloque, ainsi que M. PALLEZ, secrétaire général de la CNIL. Tous ensemble, nous avons construit ce projet qui je l'espère sera réussi.

Je suis pour ma part quelque peu néophyte dans les matières qui nous intéressent aujourd'hui puisque je ne m'y suis intéressé qu'indirectement, par le biais des droits et libertés fondamentaux. Mais en lisant, en relisant et en écrivant un certain nombre de choses, en compulsant la littérature étrangère et française, j'ai été frappé de quelques points très simples, que, devant ce public de spécialistes, j'ai peine à rappeler. Il s'agit avant tout de l'interdépendance entre trois facteurs : d'abord la norme ou l'édiction de la norme, puis la fabrication implicite des normes que peut produire la technologie, et enfin le marché. Je dirais, pour être bref, comme l'avait souligné un de mes collègues il y a quelques années, qu'il s'agit précisément d'analyser cette interaction entre ces trois secteurs : la norme juridique, la technologie qui produit ses propres normes, et le marché.

C'est à partir de là que le juriste que je suis, politologue aussi à ses heures, est extrêmement humble : je suis pleinement conscient de la difficulté qu'il y a à encadrer des phénomènes qui, pour certains, sont absolument effrayants, dès lors que l'on ne dispose pas d'une capacité de contrôle et de coopération avec les acteurs du secteur, ni d'une bonne connaissance des technologies qui sont en jeu, en tous cas en Europe, puisque le modèle américain est différent.

Je m'arrêterai là en vous disant qu'au fond, en tant que juriste, il m'est apparu central d'essayer de comprendre comment ces trois secteurs - le secteur juridique, le secteur technologique, le marché - pouvaient interagir.

L'enjeu de ces questions ne doit pas être sous estimé, il s'agit tout de même, sans exagérer, non seulement la protection de la vie privée mais aussi la dignité humaine. Nous aurions donc aussi pu, à ce propos, convier à ce colloque des anthropologues, et nous essayer à l'anthropologie juridique. Ces questions peuvent porter atteinte à la dignité même de l'homme et à ce titre, elles nécessitent d'être réexaminées.

En tous états de cause, en organisant ce colloque, nous avons cherché à y associer des personnalités d'horizons très divers : juristes, politologues, magistrats, sociologues, industriels. Je les remercie pour leur présence et comme le disais quelqu'un que j'aime beaucoup : « c'est à ce carrefour de la pensée que nous vous invitons donc maintenant ». Je vous remercie.

B. L'HOMO INFORMATICUS : RÉALITÉS ET TENDANCES

14h30-18h00
Présidence M. Alex TÜRK

1. Sécurité : l'exemple de l'identification biométrique

M. Bernard DIDIER

Directeur Scientifique et du Développement des Affaires - Division Sécurité - Sagem Défense Sécurité - groupe SAFRAN

M. Philippe LEMOINE

Président directeur général de LaSer et de Cofinoga, membre de la CNIL

M. Bernard DIDIER
Directeur Scientifique et du Développement des Affaires - Division Sécurité - Sagem Défense Sécurité - groupe SAFRAN

En introduction, de courtes présentations de films présentent le développement de la biométrie dans différents pays et pour différents usages :

Afrique du Sud : plus de deux millions de pensions sont distribuées dans le bush et des villages reculés. En présence d'une population en partie analphabète, la biométrie se substitue à l'usage de code de sécurité personnel.

Mauritanie : la biométrie est utilisée dans le désert pour aider à la constitution d'un état civil et d'une liste électorale sans doublon.

France : plus de 130.000 personnes utilisent régulièrement des contrôles d'accès à empreinte digitale, avec des badges sans contact, pour accéder aux zones sensibles des aéroports d'Orly et de Charles de Gaulle.

Australie : le projet Smartgate de contrôle du passage aux frontières avec des passeports à lecture sans contact et reconnaissance automatique du visage.

France : le projet Pégase de contrôle de passage aux frontières par reconnaissance de l'empreinte digitale.

Angleterre : le projet Iris de contrôle de passage aux frontières par reconnaissance de l'iris.

France : l'exemple du contrôle des passagers, à l'aide de reconnaissance automatique d'empreintes digitales, à l'enregistrement et lors de l'embarquement dans des avions.

Allemagne : des paiements par empreinte digitale dans un supermarché suppriment l'usage de cartes bancaires ou de chèques.

Un rappel sur les fondements de la biométrie, dont l'objectif est d'établir un lien entre la représentation immatérielle d'un monde et le monde vivant, permet de comprendre la complémentarité de cette technique avec les autres techniques d'authentification. Il est ensuite donné une définition de la biométrie, qui pour la première fois, étend le concept d'identification et d'authentification à celui d'un groupe de personnes . Enfin, sont rappelés les trois critères de choix d'une biométrie : l'unicité, l'universalité et l'immuabilité.

Ces critères permettent d'apprécier subjectivement les performances que l'on peut attendre de la reconnaissance du visage, de l'empreinte, de l'iris et de techniques moins performantes telles que la reconnaissance des longueurs des doigts ou de la signature. L'appréciation objective est introduite au travers des ratios classiques de faux rejets et de fausses acceptations présentant l'arbitrage incontournable entre confort et sécurité.

Ce volet technique est ensuite complété par une présentation des marchés :

Une première segmentation présente un marché gouvernemental , acteur historique sur le segment de marché mature de la Police et acteur de développement d'un segment de marché de gestion de droits civils (passeports, cartes d'identité...), un marché des entreprises en début de développement et un marché des particuliers qui connaît une amorce de croissance particulièrement rapide au travers des équipements en capteur d'empreintes d'ordinateurs portables, de téléphones mobiles ou d'assistants personnels.

Une analyse, vue sous un angle plus technologique, complète la précédente. Ainsi le marché des droits civils s'adresse à quelques Intégrateurs aptes à développer des solutions d'ampleur étatique, ce marché des systèmes policiers est tenu principalement par quatre Systémiers maîtres de leur technologie biométrique, le marché des entreprises concerne plus particulièrement des Equipementiers biométriques au nombre de quelques centaines, enfin le marché des particuliers est aujourd'hui couvert par quelques vendeurs OEM de Composants de lecture d'empreintes.

Pour conclure cet exposé sont présentés les grandes tendances en matière de biométrie :

Historiques : la demande biométrique à usage civil n'est pas née de l'après 11 septembre 2001, ce marché a pris corps au début des années 1990 et son chiffre d'affaires est devenu supérieur à celui du marché policier en 2004. Sur le plan technique, l'empreinte digitale qui a bénéficié d'investissements réguliers depuis plusieurs décennies reste de loin la technologie la plus utilisée.

Géopolitiques : l'après 11 septembre a suscité la mise en place d'une interopérabilité mondiale et transformé la biométrie en technologie de souveraineté. Dans un tel contexte, certains États ont retardé leurs décisions d'équipements. L'industrie américaine de la biométrie devrait tirer quelques avantages : d'un marché intérieur important, de la politique de protection des frontières et des budgets de recherches du gouvernement américain. Face à la montée en puissance d'une demande biométrique, l'Asie plus que l'Europe semble pouvoir concurrencer un tel développement.

Techniques : l'empreinte restera la technologie de référence, mais la technologie de reconnaissance du visage devrait être celle qui connaîtra les améliorations les plus importantes, l'iris devrait définitivement avoir résolu ses problèmes de facilité d'usage et devrait devenir une technique confortable et performante. Les gouvernements devraient utiliser assez rapidement des technologies en combinaison pour améliorer les performances et rendre plus difficile la fraude. Un effort particulier sera fait sur les mécanismes de détection des attaques par leurre et devrait amener à reconsidérer le concept de biométrie à trace. Enfin, dans un proche avenir l'existence de mécanismes permettant de déduire des codes stables à partir de l'analyse intrinsèque d'un élément biométrique pourrait modifier profondément l'univers de la biométrie.

Usages : des populations importantes vont découvrir la biométrie au travers des contrôles de passage aux frontières, la mise en place de cartes d'identité biométriques devrait suivre dans un second temps. Le relais d'usage devrait se faire, via des emplois personnels, au travers d'objets mobiles (téléphone, PDA, ordinateurs portables). Les entreprises devraient utiliser la biométrie pour sécuriser leurs systèmes d'informations et exiger ultérieurement une convergence avec la sécurité physique. Enfin les banques pourraient être amenées à se substituer à des opérateurs indépendants qui auront été des précurseurs de moyens de paiements biométriques.

Economiques : sauf accidents dus à des promesses déraisonnables de développements de certains acteurs - qui pourraient provoquer un effondrement des valeurs de société, ternir l'usage de la biométrie et ralentir le développement du marché - la valeur des sociétés de biométrie devrait continuer à s'appuyer sur des ratios exceptionnels avant de retrouver, avec la consolidation des acteurs, un contexte plus classique.

M. Philippe LEMOINE
Président directeur général de LaSer et de Cofinoga, membre de la CNIL

Le problème de l'identification biométrique est abordé sous trois angles par la loi du 6 Janvier1978 modifiée par la loi du 6 Août 2004 :

- Sous l'angle d'abord de la protection de l'identité humaine : le principe posé par l'article 1 de la loi est que l'informatique ne doit en aucun cas porter atteinte à l'identité humaine. C'est même le premier des critères : « elle ne doit porter atteinte ni à l'identité humaine, ni aux droits de l'homme, ni à la vie privée, ni aux libertés individuelles ou publiques. »

- Sous l'angle juridique ensuite des conditions de licéité des traitements de données à caractère personnel : le principe posé par l'article 8 de la loi est l'interdiction de collecter ou de traiter certaines catégories de données. En tête de ces données souvent qualifiées de données sensibles se trouvent toutes les données qui pourraient faire apparaître directement ou indirectement les origines raciales ou ethnique des personnes, parmi lesquelles figurent évidemment les données biométriques. Les autres composantes de ce que la loi considère en quelque sorte comme le noyau dur de l'identité humaine sont « les opinions et les appartenances (politiques, philosophiques, religieuses, syndicales) ». Y ont été ajoutées les données relatives à la santé et à la vie sexuelle, qui peuvent avoir de plus lointains rapports avec la biométrie.

- Sous l'angle pratique enfin des formalismes auxquels sont soumis les traitements comportant des données biométriques nécessaires au contrôle de l'identité humaine : ces traitements échappent au régime déclaratif du droit commun pour relever de procédures d'autorisation. Les procédures ne sont toutefois pas les mêmes, selon que les traitements sont mis en oeuvre par des entreprises ou par l'État, qu'ils relèvent d'un usage répandu ou qu'ils concernent la sûreté de l'État, la Défense et la sécurité publique.

Ces trois points de vue philosophique, juridique, pratique ont une importance particulière au regard d'un double choc . Le choc technologique d'abord que constitue le progrès très rapide des technologies biométriques, qu'il s'agisse de la numérisation de certaines caractéristiques que l'on savait saisir depuis longtemps (photos, empreintes digitales, empreintes vocales), de détection de nouveaux moyens biologiques (iris, ADN, odeur etc...), de perfectionnement de logiciels de reconnaissance automatique des formes, de capacité de moins en moins onéreuses de stockage de masse, de rapidité de balayage des grandes bases, de données, d'actualisation des composants électroniques situés sur des cartes ou des documents, de lecture à distance d'implants électroniques ou directement de composants biologiques. Le deuxième choc est de caractère sociétal voire civilisationnel avec la montée de toutes les questions relatives aux enjeux de sécurité, au premier rang desquels figure le terrorisme international dont l'universalité de la menace est telle que certains considèrent les démocraties comme engagées dans une sorte de 3 ème guerre mondiale.

La mise en perspective est donc celle de trois questions fondamentales :

- l'interrogation philosophique : qu'est-ce que l'identité humaine et en quoi est-elle en jeu avec la biométrie ?

- l'interrogation juridique : qu'est-ce que l'identification biométrique a-t-elle de particulier et en quoi le traitement par une machine de certaines données est-il plus sensible que celui par exemple qui s'opère dans un cerveau humain ?

- l'interrogation pratique et politique : les procédures et les formalismes qui ont été définis sont-ils efficaces ? Assurent-ils un bon équilibre dans un État moderne de Droit ?

1. Qu'est-ce que l'identité humaine ?

Il est bien évidemment hors de propos de vouloir ici, dans ce Colloque, répondre à une telle question. Il n'est même pas pensable de vouloir faire le tour de ses différentes dimensions.

Il est par contre utile de rappeler le contexte dans lequel la problématique « Informatique et Liberté » s'est constituée en France et dans les démocraties européennes, afin de comprendre la portée conférée par la loi à cette notion d'identité humaine. Ce contexte est triple :

- Un débat est en cours au milieu des années 70 sur le numéro d'identification des Français et sur le système SAFARI. Celui-ci entend généraliser dans l'informatique le numéro de Sécurité Sociale créé en France en 1942 afin de contrôler les populations dans le cadre de l'Occupation et de détecter les personnes survivant sous une fausse identité. Un ensemble de questions liées à la seconde guerre mondiale remontent alors à la surface et justifient que l'on se réfère à l'identité humaine : les questions fondamentales soulevées par le totalitarisme et formulées notamment par Alfred KOESTLER, par Anna HARENDT et par Georges ORWELL ; les questions plus spécifiques ayant fait irruption dans le champ philosophique et soulevées par le nazisme, par le projet de solution finale et par les camps de concentration et d'extermination.

- Ce débat des années 70 reprend ainsi des questions des années 40 mais il ré-interroge également une expérience historique longue, celle de l'histoire humaine qui établit que l'humanité se pense elle-même à travers certains interdits concernant les représentations. La Bible enseigne que l'on ne compte pas les hommes comme des moutons. De nombreuses religions interdisent la représentation corporelle de Dieu et mettent en garde contre le risque d'idolâtrer l'image de l'homme, dans les représentations de son visage ou de son corps. Les anthropologues illustrent l'universalité des conduites liées au caractère sacré de la mort et à la non sacralisation des représentations de la vie. Dans « Lascaux ou la naissance de l'Art », Georges BATAILLE montre comment l'homme préhistorique représente parfaitement les bisons et les aurochs mais qu'il s'interdit de se représenter lui-même et que c'est par cet interdit qu'il parvient à la conscience même de ce qu'est l'humanité.

- Une troisième dimension du débat des années 70 concerne les sciences sociales et l'opposition entre anthropologues et sociologues dans l'approche du concept sociétal d'identité. Un séminaire animé par Claude LEVY-STRAUSS au Collège de France en 1978 porte précisément sur cette opposition. Les anthropologues considèrent que l'identité relève de l'ordre du Même, des invariants qui caractérisent une société et, donc pour chaque individu de ce qui appartient à la tradition, de ce qui est transmis et hérité. Les sociologues considèrent au contraire cette définition de l'identité comme pré-sociologique, représentative d'une société holiste ou chacun se définit par rapport au Tout, mais sans pertinence par rapport à une société individualiste où la société se constitue par les interactions et les projets noués entre les personnes. Pour celles-ci, l'identité relève de moins en moins de l'héritage et de plus en plus d'un projet personnel dont chacun veut être l'architecte. C'est même ainsi que l'on peut définir la modernité sous ses différentes acceptions et plus encore les formes nouvelles de modernité qui apparaissent à compter des années 70, en rupture avec la modernité classique. Depuis DERRIDA, LYOTARD, Ulrich BECK et Anthony GIDDENS, la notion de personne se libérant d'une définition unitaire de l'identité institutionnelle et construisant une trajectoire spécifique à partir de l'éclatement des identités multiples et de l'acceptation de la différence, est au coeur du projet émergent de nouvelles modernités.

2. On en vient à la seconde grande question : en quoi les données biométriques interfèrent-elles avec ces enjeux et en quoi la mise en oeuvre informatisée des procédures d'identification constitue-t-elle une menace spécifique ?

Les quatre horizons temporels que nous venons de rappeler caractérisent bien les quatre catégories d'enjeux qui concernent l'identité humaine : l'enjeu immédiat des années 70 c'est le projet SAFARI et l'informatisation de l'identité administrative. L'enjeu des années 40 qui remonte ainsi à la surface c'est celui des dangers de l'État totalitaire et en particulier ceux du contrôle centralisé des comportements individuels et ceux de la discrimination raciale. L'enjeu d'histoire longue qui a été ré-évoqué, c'est celui de l' identité humaine , ce qui fait qu'un homme est un sujet et non un objet, un corps parlant et pensant, distinct d'un animal, un sujet vivant mais qui ne se prend pas pour Dieu ou un sur-homme. L'enjeu prospectif, celui d'un futur émergent dès les années 70, plus nettement affirmé aujourd'hui, c'est celui d'une modernité tiraillée par la crise des ordres et des institutions mais relayant malgré tout une demande de sécurité, tandis que les personnes font de la construction de soi un enjeu majeur, bien plus citoyen que simplement égoïste, en rupture avec les identités héritées, immuables, affiliées ou assignées.

Ces quatre enjeux sont tous démultipliés par la biométrie. La biométrie, c'est en effet l'évacuation de l'ambiguïté que recèlent les différentes dénominations patronymiques et c'est toute la problématique du risque de contrôle totalitaire. C'est par définition le règne des données bio-corporelles et c'est la crainte d'une dérive vers les idéologies de la discrimination raciale. C'est la multiplication des facettes du corps vues, analysées et commentées, avec tous les dangers d'une banalisation de l'idée même d'humain. C'est la recherche de critères toujours plus immuables et intangibles, au moment où la revendication démocratique prend la forme d'une aspiration à l'auto-production de soi.

Aussi est-ce par rapport à ces quatre enjeux fondamentaux et à leur combinatoire que la CNIL élabore depuis plusieurs années une doctrine et une pratique de l'identification biométrique :

- Face au risque de contrôle totalitaire, la CNIL essaye de dissocier le moyen d'authentification de l'identité personnelle que forment des données biométriques stockées sur une puce et le moyen de contrôle généralisé que constitueraient ces mêmes données reprises dans une base de données centrale. La distinction est loin d'être inutile aujourd'hui, même si les perspectives technologiques des réseaux et du P-2-P effaceront progressivement cette distinction au profit de notions de bases de données virtuelles éclatées entre de multiples supports de plus en plus communicants. Aussi cette première distinction, se double-t-elle aujourd'hui d'une distinction entre données stockées sur une puce qui ne peut être lue que par un contact physique, maîtrisé humainement, et sur un composant de type RFID qui peut être lu à distance.

- Face au danger de la discrimination, la CNIL s'attache au principe fondamental qu'est pour elle le principe de finalité. Une application est autorisée dans un certain but et des données collectées dans un but ne peuvent être utilisées qu'à cette fin. Ce principe essentiel doit se doubler de trois précautions. D'abord des précautions en cas de sortie possible du régime d'État de Droit : il peut être ainsi imaginé que la CNIL se réserve le droit de détruire tel ou tel système d'information autorisé en temps normal. Ensuite en cas de détournement des finalités : cela suppose un arsenal de moyens de sanctions dont la CNIL dispose et un arsenal de moyens de contrôle dont la CNIL dispose juridiquement mais pas financièrement. Enfin, un principe d'exigence et d'intelligence froide doit présider à l'examen des finalités décrites dans les demandes d'autorisation qui peuvent être présentées dans des contextes très chauds et très émotionnel d'attentats, de massacres, de violence. On y reviendra.

- Face à la multiplication des représentations du corps et à la banalisation possible de la vie humaine, la CNIL construit une jurisprudence fondée sur la notion de « traces » . Dès lors que les capteurs électroniques se multiplient, toutes les données biométriques peuvent laisser derrière elles des traces. On considère ainsi que quelqu'un qui travaille à Manhattan laisse derrière lui chaque jour 75 images de son visage sur les systèmes de vidéosurveillance. Les Londoniens dépassent 200 dès lors qu'ils sont au volant d'une voiture. Il n'empêche que certaines mesures ont besoin d'un capteur pour être transformées en traces : c'est le cas de la photo ou de l'analyse de l'iris par exemple. Par contre, l'ADN et l'empreinte digitale laissent spontanément des traces bio-chimiques que l'on peut décrypter a posteriori. La CNIL est donc plus réservée sur ces outils.

- Face à la rigidification d'une identité biométrique devenue immuable, la CNIL veille à ce que tous les systèmes soient mis en place pour des durées définies et légitimes , conformes à la finalité spécifique d'un traitement. La question est importante car la plupart des marqueurs biométriques sont des identifiants éternels parfaits : ils sont uniques, avec des risques de confusion infinitésimaux ; ils ne varient pas dans le temps. La photographie d'un visage est certes de moins en moins juste avec le temps. Mais un article récent rappelait que la reconnaissance automatique du visage avait été classée technologie ultra-fiable, alors qu'au moment des attentats de septembre 2001, le taux de réussite d'un logiciel comparant une photo et une base d'images importantes n'était que de 60%. Ce taux dépasse aujourd'hui 90% et des recherches fondées sur un traitement 3D de l'image visent à maintenir un taux satisfaisant de reconnaissance malgré un maquillage ou malgré le vieillissement.

3. Il y a aussi des marges de manoeuvre dont la CNIL se saisit et c'est son rôle de le faire. Mais chacun peut en voir les limites. D'où l'interrogation pratique et politique : les procédures et les formalismes définis sont-ils efficaces ? Assurent-ils un bon équilibre entre les impératifs de sécurité et de Libertés ?

Dans un article sur l'identité informatisée publié en 1980, nous écrivions que le risque majeur de l'informatique allait consister en un achèvement du mouvement séculaire de quadrillage de l'identité humaine par l'identité administrative et en un enracinement brusque et direct de cette identité administrative dans une identité biologique et corporelle. Autrement dit fromage et dessert ! Les dangers de la glaciation et de la réification de l'humain tels que les envisagèrent FOUCAULT et le structuralisme dans les années 70, celui d'un homme pris en tenaille entre un pouvoir et un savoir de plus en plus imbriqués. Les dangers de la désagrégation des légitimités institutionnelles et des mécanismes d'ordre, de la contamination généralisée de l'instabilité et du doute qui sont propres au savoir. Les deux risques se conjuguent pour mettre en scène, dans un contexte de communication généralisée, la spirale folle de personnes à la recherche de leurs identités et de sociétés en quête de leur sécurité, dans un tourbillon où les uns et les autres se répondent à travers des technologies de plus en plus sophistiquées, mais de moins en moins maîtrisées, d'identification, de simulation, de prévision et de prévention.

Internet joue un rôle d'accélérateur dans ce tourbillon. L'attractivité du nouvel espace public que constitue le Web est telle que beaucoup d'applications qui s'y développent ont des impératifs de sécurité inconciliables avec la mentalité libertaire qui y règne. Beaucoup d'applications transactionnelles auraient plus leur place sur des réseaux privatifs utilisant Internet que sur le Web. Mais ce n'est pas ce qui se passe et des solutions de plus en plus sophistiquées se développent, souvent fondées sur la biométrie, pour tenter de concilier l'ouverture du Web et le besoin de sécurité.

Mais ce qui accélère vraiment les dérèglements de la spirale, c'est le couple Internet/terrorisme. Les démocraties utilisent les technologies d'information pour traquer le terrorisme ; les terroristes utilisent Internet pour s'organiser. Il s'agit en quelque sorte de deux frères ennemis. On dit parfois qu'Internet est ATAWAD : any time, anywhere, any device. Tout le temps, partout, avec n'importe quel média. Est-ce que cela ne serait pas aussi le slogan de la terreur, ATAWAD ? Elle peut frapper partout, à toute heure, avec n'importe quelle arme.

Ces mécanismes contribuent à créer des contextes passionnels où le risque c'est que plus personne ne contrôle ce qui se passe. Les ministres ne contrôlent plus toujours leurs services. Les chefs de Gouvernement, leurs ministres. Le Parlement, les Gouvernements. Or il est indispensable de contrôler au sens de vérifier, analyser en profondeur, lutter contre la désinformation, distinguer, dans un contexte où se mêlent paranoïa technologique et paranoïa sécuritaire.

Vérifier : des faits peuvent être inexistants, comme l'illustre par exemple l'élaboration de règles de police administrative dans l'affaire montée de toutes pièces du bagagiste d'Orly ou l'incroyable contraste entre les faux repérages d'usines atomiques en Irak par les services secrets et l'impression que peut avoir le grand public de voir la terre entière à travers le logiciel Google Earth. Analyser en profondeur : j'ai déjà raconté comment, alors Commissaire du Gouvernement auprès de la CNIL, j'avais détecté une mention « type juif » dans la nomenclature du système VAT (violence/attentats/terrorisme) conçu par un Ministre de Gauche à la suite de l'attentat de la Rue des Rosiers ! Lutter contre la désinformation : le Président BUSH père se méfiait tellement des dossiers de la CIA qu'il avait dirigée, qu'il se dit que, devenu Président, il avait créé une équipe B, chargée de contre instruire les dossiers, à laquelle appartenait Paul WOLFOWITZ. Distinguer : la CNIL s'attache en permanence à maintenir une distinction entre police judiciaire et police administrative, alors que les textes sécuritaires tendent à gommer cette distinction, créant des situations incroyables où des jeunes qui ont fumé un joint se retrouvent mêlés à des suspects du terrorisme et barrés, même pour un emploi d'agent de sécurité dans un aéroport !

Sur tous ces sujets, la CNIL dispose des compétences humaines et techniques pour faire face. Peut-être devrait-elle mieux faire savoir et la gravité des enjeux et les positions qu'elle soutient ? Une limite est toutefois le cas, de plus en plus fréquent, où un système sécuritaire est créé par la loi. Alors que la hiérarchie des normes donnait une grande efficacité à la loi Informatique et Libertés face à des systèmes d'information créés par décret ou par arrêté, le contexte actuel amène de plus en plus souvent les politiques à recourir à la loi. Les menaces que la biométrie peut faire courir à notre civilisation, couplées aux enjeux inéluctables de la lutte contre le terrorisme devraient conduire à agir sur ce point. Il faudrait faire en sorte qu'en matière biométrique notamment, la CNIL intervienne sur les projets ou les propositions de loi et qu'elle soit peut-être à la disposition du Conseil Constitutionnel pour examiner la constitutionnalité de telle ou telle disposition arrêtée par le Parlement.

Ce dernier point, comme tout ce qui précède d'ailleurs, est un point de vue personnel, celui de quelqu'un qui croit réellement à l'importance de ces enjeux. Il n'engage en rien l'institution à laquelle j'appartiens.

2. Commerce : la personnalisation des relations

M. Christophe POUPINEL

Président-directeur général de ChateauOnline

M. Serge GAUTHRONET

Consultant - Président du Directoire ARETE

M. Christophe POUPINEL
Président-directeur général de ChateauOnline

Mon propos va être bien plus terre à terre, je vais vous parler de vin, nous allons redescendre dans les vignes... Mais plus exactement, on m'a demandé de représenter ici, un certain type de société qui utilisaient donc les données personnelles, des sociétés d'Internet, et à l'intérieur des sociétés d'Internet, les sociétés qui font du commerce, qui vendent des choses.

En un mot, qui nous sommes, ce qui vous permettra de mettre en perspective mon discours et moi de faire un peu de publicité, si vous voulez acheter du vin, maintenant vous savez où le faire ! ChateauOnline est la société leader de vente de vin sur Internet, donc 50% de notre activité en France, 50% en Europe. 90% de ce chiffre est fait en vente aux particuliers, et donc, nous avons dans nos bases de données, dont on va parler, 500 000 abonnés à nos newsletters - donc des particuliers qui ont cliqué ou qui ont appuyé sur un petit bouton qui dit « je souhaite recevoir la lettre des grands vins », « la lettre des enchères sur le vin », « la lettre éditoriale sur le vin », voilà les différentes lettres d'information - dont à peu près 60 000 clients.

Les trois questions auxquelles je vais essayer de répondre : de façon très terre à terre, vous montrer le type de données que l'on recueille, comment nous les recueillons ; deuxième question, qu'est-ce que l'on en fait ; et , mon point de vue, est-ce que c'est une liberté ou une servitude pour le consommateur.

Premier point : quel type de données consommateur et comment les recueillir ? Nous avons deux types d'informations : des données historiques de comportement d'achat et des données déclaratives. Donc les données historiques, pour ceux qui viennent de l'Industrie ou qui sont familier avec l'Industrie et la vente par correspondance, cela paraît totalement évident, mais comme vous venez d'univers différents, je crois que c'est important de le rappeler.

Première chose très simple : nous conservons l'historique des commandes de chaque client. ChateauOnline a été créé dès 98, pour faire de l'Internet, donc dès le premier jour de notre activité, nous savions que c'était le coeur de notre métier et donc, nous avons mis en place tout un système de bases de données pour pouvoir recueillir ce type d'informations. Nous savons ce que chacun de nos clients a acheté et quand il a passé cette commande : c'est la base de la Vente Par Correspondance, ce qui est un peu nouveau c'est que l'informatique s'est développé depuis ces dernières années, il y a eu une sorte d'accélération, alors qu'il y a pas mal de société de VPC qui ont 50 ans et dont les bases de données n'étaient pas très bien structurées pour pouvoir utiliser de façon aussi efficace que les bases de données que d'autres sociétés comme la nôtre ont pu mettre en place immédiatement. Parce que c'est une chose d'avoir les bases de données, c'en est une autre de pouvoir les utiliser.

Deuxième type de données, ce sont les données déclaratives : on pose un certain nombre de questions à nos clients, bien sûr leur âge, et des informations sur leurs goûts, leurs habitudes. Comment les recueillir ? Les données historiques de comportement d'achat, le client qui achète sur chateauOnline, comme sur beaucoup d'autres sites e-commerce, dispose d'un compte client, lui permettant de ne pas re-saisir son adresse, son numéro de téléphone, de consulter l'historique de ses commandes, de suivre la livraison de ses commandes en cours, et bien d'autres fonctionnalités, comme justement la gestion de ses abonnements aux newsletters, la gestion et la possibilité d'avoir plusieurs adresses de livraison et des cadeaux récurrents... Si vous avez passé des commandes sur le net, vous connaissez cela très bien. Juste une information : nous ne conservons pas les données bancaires, certains sites le font, nous ne le faisons pas. Si le client utilise son compte, toutes ses commandes lui sont rattachées et il n'a « rien à faire de plus » qu'utiliser son compte. Rien n'empêche un client d'ouvrir un compte différent : en général, ce n'est pas volontaire de la part du client, c'est plutôt qu'il a oublié son mot de passe, et donc il va recréer un compte, et donc il est possible d'avoir un même client qui va avoir plusieurs comptes. On peut, comme on dit, dédupliquer les comptes sur, par exemple, le nom de famille et scinder ces comptes, ce qui normalement est un travail que toute bonne société doit faire régulièrement. Les données déclaratives sont communiquées à travers divers questionnaires en ligne, à certains points de contact avec le client, je vais vous en montrer un, qui est très simple, c'est un questionnaire sur le profil d'amateur de vin, que l'on pose à différents moments : quand vous venez d'ouvrir votre compte, on vous pose ces questions, vous n'êtes évidemment pas obligé d'y répondre ; lorsque vous venez de passer une commande, dans les envois d'e-mail de confirmation de commande, on va vous renvoyer des liens vers ces questionnaires. Nous avons toute une batterie de moyens pour savoir si nos clients ont répondu à ce questionnaire ou d'autres, et continuer à poser ces questions, pour justement remplir nos bases de données.

Petits exemples de questions :

ce que vous aimez, vos régions de prédilection ...

Là c'est une segmentation régionale, donc on demande à nos clients s'ils aiment bien, s'ils ne connaissent pas très bien mais qu'ils aimeraient découvrir, s'ils ne sont pas du tout intéressés. Vous pouvez imaginer ce qu'on en fait après...

Une question amusante :

votre niveau en vin est : nul et le restera ; et c'est exactement phrasé de cette façon là ; et il y a assez peu de Français qui répondent oui à cette question là, beaucoup plus d'Anglais et d'Allemands.

Il y a des questions amusantes comme les questions entre le déclaratif et la réalité : lorsque vous demandez au client combien il dépense par bouteilles ou même dans l'année, il y a toujours une surestimation de ce que l'on fait vraiment, alors ils vont vous dire qu'ils achètent des bouteilles à 20 ou 30€ et après vous voyez dans leurs données historiques, qu' ils achètent plutôt à 10-15€.

D'autres questions assez typiques sur le degré de satisfaction sur ChateauOnline sont posées.

Deuxième point : que fait-on de ces données ? Le scoring .

Encore une fois pour les spécialistes de la VPC et du commerce, ce que je vais dire, vous le connaissez par coeur, pour les autres, ça vaut le coup d'être explicité. Vous avez sans doute entendu parler du scoring : le scoring généralement se fait sur de nouveaux clients. Le problème, quand vous avez un nouveau client, une première commande, c'est que vous ne connaissez pas le potentiel de ce client. Une des utilisations du scoring, c'est de pouvoir déterminer ou plutôt d'évaluer le potentiel de ce client. Donc le client passe une première commande, donc on a des données sur une première commande. S'il a répondu à certains questionnaires, nous avons aussi des données déclaratives. Ce que l'on fait, c'est comparer les données de la première commande et les données déclaratives au profil d'un « bon client ». On sait statistiquement ce qu'est la première commande d'un « bon client », puisqu'on a huit ans d'histoire et d'historique de commandes. On a dans la base, le profil type d'une bonne première commande, c'est-à-dire celui d'une commande d'un client qui va, après, en passer d'autres. C'est un programme statistique qui nous permet de « comparer » cette « première commande » à la « bonne » première commande-type et d'attribuer donc un score à ce nouveau client : plus le score est élevé, plus ce nouveau client a du potentiel. L'idée est évidemment d'investir plus de temps et d'argent sur le bon client.

M. Serge GAUTHRONET
Consultant - Président du Directoire ARETE

Notre cabinet d'expertise technologique est un bon observatoire des efforts technologiques considérables que déploient les entreprises commerciales pour améliorer leur connaissance client et diversifier les canaux de distribution avec notamment les entrepôts de données, les centres d'appels téléphoniques et le web. Depuis plusieurs années les investissements se concentrent aussi sur la mise en oeuvre de logiciels de Gestion de la Relation Client, la GRC ou encore le CRM ( Customer Relationship Management ). Nous observons cette tendance plus particulièrement dans le monde des services et des établissements financiers, secteurs traditionnels qui peu à peu adoptent le CRM par l'intégration de progiciels ou la reconfiguration de leurs outils commerciaux traditionnels. La technologie du CRM, en ce qu'elle amplifie la collecte des données et permet de personnaliser les relations que les entreprises entretiennent avec leurs clients, n'est pas neutre du point de vue du respect de la vie privée des personnes. Notre expérience nous amène à faire trois grandes séries de constats :

1. En matière de gestion de la connaissance client et de la relation commerciale, une technologie ne chasse pas l'autre ; elles s'additionnent.

Il est d'usage de considérer qu'il y a trois grandes époques dans le développement des technologies du marketing : le marketing de masse, le marketing de segmentation et le « one to one », pour faire simple.

Aujourd'hui, nous constatons qu'à ces époques correspondent des générations technologiques qui cohabitent très bien et qui même s'imbriquent les unes avec les autres :

· Le marketing de masse, celui des études de marché grâce auxquelles on réussit à déterminer la réceptivité des différentes catégories de clientèle à un produit et à en déduire le design existe toujours, que l'on sache, et c'est ce que l'on appelle le marketing produit.

· Le marketing des socio-types continue plus que jamais à produire ce que Philippe LEMOINE appelle les « artefacts statistiques ». On continue à segmenter les fichiers pour déterminer des profils de risques, par exemple, ou encore des propensions à consommer ou tout simplement des cibles de campagnes de marketing direct. Ce qui a changé évidemment au cours des années récentes c'est la quantité d'informations accumulées sur les clients et sur leurs comportements d'une part et d'autre part l'arrivée sur le marché d'outils de gestion de base de données sophistiqués et leur modélisation dans des datarmarts .

Ainsi, les entreprises n'en poursuivent pas moins la mise en oeuvre de traitements statistiques extrêmement poussés ; cette sophistication culmine dans les établissements bancaires avec le calcul des notes de risque individualisées, la cotation Mac Donough, qui résulte de l'application des accords internationaux dits de Bâle II dont l'objectif premier est de proposer un nouveau ratio de couverture des risques par les fonds propres. Ces traitements manipulent mensuellement et suivant les modèles de calcul appliqués entre 200 et 300 informations par client.

· Enfin, il y a le marketing one to one qui a été pensé il y a un peu moins de 10 ans et qui aujourd'hui devient une réalité dans un nombre croissant d'entreprises à travers notamment la mise en oeuvre de logiciels de CRM.

2. La logique d'utilisation du CRM dans ces entreprises reste majoritairement animée par une volonté d'enrichissement et de rationalisation des processus existants et ceci n'est pas neutre du point de vue de la protection des données et de la vie privée.

Plus précisément, les principaux objectifs poursuivis à travers le CRM sont au nombre de trois :

· La collecte et l'accumulation de données qualitatives sur le client. C'est là une des innovations du CRM qui s'impose finalement comme un outil assez rustique permettant de documenter à la volée chaque relation qu'un vendeur est susceptible d'avoir avec son client. Il s'agit de capter l'information utile : les projets de voyage, les opportunités d'investissement, une intention de résiliation d'un abonnement, une promesse de remboursement dans une procédure pré-contentieuse. Au plan pratique, la méthode consiste à saisir du texte libre dans des zones ad hoc ou à cocher des cases dans des zones pré-contraintes afin de qualifier la relation que l'on vient d'avoir.

· Le partage de l'information au sein des organisations complexes qui sont devenues multicanal. Dès lors se pose la question de centraliser et d'historiser en un lieu unique du système d'information commercial les données client, de sorte que la relation puisse être reprise là où elle a été interrompue la fois précédente, et ce quel que soit le canal emprunté. C'est là un des fondamentaux du one to one. Le CRM, a priori, répond bien à cet objectif. Il corrige aussi l'un des effets négatifs de la mise en portefeuille des clients qui conduit à des phénomènes de trop forte appropriation par les gestionnaires.

· Enfin, troisième objectif du CRM, est celui de la gestion événementielle de la relation client. Jusqu'à présent, la gestion événementielle s'opérait à travers des traitements informatiques assez banals consistant à déclencher une relation client à une date anniversaire ou à une échéance de contrat par exemple. Le CRM permet quant à lui « d'agender des actions », pour reprendre la terminologie appropriée ; cela signifie qu'en fonction des données qui auront été collectées, le commercial va demander à ce qu'une action soit remontée dans sa corbeille de tâches à telle ou telle date. Nous observons que cette gestion événementielle, alimentée également par des traitements de masse, est très délicate à régler. Dans la pratique, le CRM n'a pas encore réussi à casser la fâcheuse habitude qu'ont les entreprises de solliciter toujours les mêmes 20% de leurs clients.

3. Le respect du client et de sa vie privée est une dimension absente aujourd'hui de la plupart des systèmes de CRM.

Dans l'esprit du concepteur du marketing one to one , la collecte d'informations s'inscrit dans une relation d'échange équilibrée et consensuelle. Don PEPPER et Martha RODGERS insistent particulièrement sur cette exigence et Seth GODIN l'a décliné de façon extrêmement pertinente dans le contexte de commerce électronique, à travers le concept de « permission marketing » : en deux mots, plus grandit la confiance entre le consommateur et l'institution commerciale, plus il est engagé dans la relation directe, stimulé par des promesses finement adaptées, plus il est enclin à donner de plus en plus de permission, permission de collecter plus de données sur son style de vie, ses passe-temps, ses centres d'intérêt ; permission pour être sollicité sur de nouvelles catégories de produits ou de services, permission pour recevoir des points cadeau ou des miles gratuits, un abonnement temporaire, etc. Au fur et à mesure que se construisent ces échanges, l'individu anonyme devient contact, prospect, puis bon client et enfin client fidèle. C'est le stade idéal de la relation participante avec le client, que Seth GODIN appelle le stade intraveineux.

Nous sommes malheureusement encore assez loin de l'application des ces principes-clés dans les entreprises des secteurs traditionnels qui s'essayent au one to one et au CRM. Que constate-t-on ?

· Tout d'abord, les applications du CRM restent modelées par le marketing de masse et les statistiques : il est frappant d'abord qu'y figurent en bonne place dans la partie supérieure d'une fiche CRM, les données calculées par le système d'informations commerciales : les notes, les scores et les segments. De sorte que la relation reste vue principalement à travers le prisme de marqueurs d'identification dont le client la plupart du temps ignore l'existence et qu'il découvre seulement lorsqu'ils sont à l'origine de décisions qui lui sont opposées. Il est ainsi symptomatique d'observer à ce sujet que les établissements bancaires se sont empressés de faire figurer la cotation risques Mac Donough sur la fiche électronique du client ; sans pour autant en préciser le mode d'emploi pour les commerciaux.

· Nous constatons également que le client n'a aucune idée et encore moins un quelconque contrôle sur la façon dont sont synthétisés et reportés dans l'outil de CRM les éléments saillants qui ressortent de son interaction avec l'institution commerciale. Ce phénomène est particulièrement inquiétant et les audits que nous réalisons régulièrement sur ces enregistrements montrent :

- que les équipes commerciales manquent cruellement de discernement et de formation quant au caractère approprié de l'information qu'il convient de collecter ;

- que les entreprises commerciales des secteurs traditionnels ont parfois tendance à s'inscrire plutôt dans une relation de défiance voire d'exclusion à l'égard de certains de leurs clients.

· Troisième constat, le CRM vu comme un outil de partage et de circulation de l'information au sein d'une grande organisation change complètement le statut de la confiance intime qui peut exister entre un client et son commercial. En d'autres termes, peut-on être intime avec une entreprise comme on peut l'être avec par exemple un conseiller en gestion patrimoniale auquel le client peut être amené à révéler des projets financiers extrêmement confidentiels ?

En conclusion, nous pensons que les entreprises commerciales des secteurs traditionnels vivent dans l'illusion de la relation personnalisée, alors que tous leurs efforts restent concentrés sur une logique d'individualisation de la connaissance client. Il s'agit de deux approches radicalement différentes. Autant la personnalisation est sécurisante du point de vue de la vie privée car l'individu conserve une certaine maîtrise dans la relation, autant le schéma de l'individualisation renvoie aux questions bien connues de la problématique informatique et libertés qui sont celles de la loyauté de la collecte, de la circulation de l'information et de la finalité des traitements.

L'action de la CNIL sur ce terrain est majeure ; on pense notamment à son action concernant la décision automatique et les scores à la lumière du nouvel article 25 de la loi modifiée qui introduit désormais le régime de l'autorisation préalable ; à sa recommandation précisément concernant l'utilisation du ratio Mac Donough qu'elle préconise de réserver à l'instruction d'un crédit et de ne pas faire figurer dans un outil de gestion commerciale ; on pense enfin à son action contre la collecte de données stigmatisantes dans les zones en texte libre qui valent régulièrement des avertissements aux entreprises qui se laissent aller à des dérapages.

Mais il s'agit d'actions ponctuelles qui ne règlent pas le problème de fond qui est que l'on doit complètement repenser la gestion de la relation commerciale dans les secteurs traditionnels et revenir aux fondamentaux du one to one et de la personnalisation qui sont la confiance et le consentement dans l'échange. Pour cela nous pensons qu'il faut creuser et promouvoir quelques grands cas d'expériences réussies dans la nouvelle économie, par exemple, et qui montrent comment on peut conjuguer la performance économique et le respect du client et de sa vie privée.

3. Confort : les traces de l'usage quotidien des réseaux

M. Marc FOSSIER

Directeur éxécutif en charge des technologies - France Télécom

M. Daniel KAPLAN

Délégué général de la Fondation Internet Nouvelle Génération FING

M. Marc FOSSIER
Directeur éxécutif en charge des technologies France Télécom

Plutôt que de rentrer dans le détail d'un certain nombre de problématiques techniques ou juridiques qui se posent à l'heure actuelle, je vais essayer de présenter la vision que nous avons de ce monde extraordinairement mouvant des communications électroniques au sens le plus large.

Il est d'abord intéressant de faire un retour sur les positions passées de France Télécom : Notre entreprise, au terme d'évolutions techniques très importantes s'est toujours considérée comme un opérateur de réseaux de télécommunication et non comme un fournisseur de services : il s'agissait de vendre un seul service, le téléphone, et toute notre intelligence technologique était focalisée sur ce domaine, dans l'amélioration des techniques de ce secteur : les réseaux, les fibres optiques, ...

La situation a énormément changé depuis quinze à vingt ans, et ce, d'abord du fait de l'apparition du téléphone mobile . Au début, tout le monde a considéré qu'il s'agissait d'un système « en mobilité », mais il s'est rapidement transformé en un système de communication personnel. Ceci au point qu'aujourd'hui, entre 30 et 40% des appels téléphoniques mobiles sont passés de chez soi, bien que la téléphonie mobile soit en général plus chère et de qualité inférieure à la téléphonie fixe.


Tout ceci renvoie à un usage personnel du mobile, que ce soit grâce à son numéro, qui est un identifiant fort et totalement personnel, ou grâce à un certain nombre de facilités d'usage, qu'il s'agisse du carnet d'adresse ou de l'habitude d'emporter son terminal toujours avec soi, qui devient un objet « affectif ».

La deuxième grande évolution est l'arrivée de l'Internet, qui est par ailleurs un concept très évolutif et qui reste encore à préciser . Les premières applications grand public développées (navigation sur le Web avec le protocole http ou le courrier électronique) qui ont introduit des dimensions proprement révolutionnaires dans l'organisation des communications personnelles . En effet, ces technologies ont introduit une dimension « asynchrone », c'est à dire la possibilité de communiquer en temps différé, ce qui n'existait que très rarement avant, ou seulement sous forme d'échec (le message sur le répondeur). Cela a des conséquences pour les grands organismes ou les grandes entreprises pour lesquels les seuls moyens de communication se résumaient à la voix, au coup de téléphone, ou à la note qui mettait en général entre une demi journée et plusieurs jours pour arriver à son destinataire. Ceci a complètement changé aujourd'hui avec la messagerie électronique.

La seconde innovation introduite par Internet est le multimédia, extraordinaire vecteur de nouveaux usages (transmissions d'images et de photographies par le net, de fichiers divers...).

Il faut aussi mentionner un point jusque là implicite dans les analyses sociologiques et qui depuis s'est incarné dans les nouvelles technologies : il s'agit du lien très fort entre contenu, de quelque nature que ce soit, et communication interpersonnelle. Il était jusque là connu des sociologues que les gens s'échangeaient plus d'informations à l'occasion d'un événement, comme un match de football, mais les outils Internet ont permis de matérialiser beaucoup plus ce couplage, que ce soit par des liens hypertextes permettant de rebondir d'une page web vers un forum, ou sur un courrier électronique, ou de transmettre par un simple lien cliquable facilement les coordonnées de tel site Internet.

Ces points sont très importants et ont permis de faire apparaître un certain nombre d'évolutions complètement nouvelles. Peut-être jusque là étions nous régis comme par notre seul hémisphère gauche en matière de communication, avec une démarche logique : « j'ai un message à transmettre à quelqu'un, donc je compose son numéro ». Aujourd'hui, regardez dans certaines tranches de la population, je pense notamment aux adolescents, fréquents utilisateurs des messageries instantanées, on est dans un système un peu différent : je me connecte, je vois qui est en ligne, et j'adapte mon message ou ma façon de communiquer à ceux qui sont en ligne (présents dans ma « buddy list »).

Voici ce que l'on a constaté jusqu'à présent dans l'usage de ces nouvelles technologies. Alors, on peut s'interroger sur ce qui va se passer à l'avenir ? Ces évolutions vont-elles se stabiliser ? ou au contraire ces technologies vont encore s'enrichir et se diversifier ?

Permettez à l'ingénieur que je suis de vous donner un aperçu de quelques grandes évolutions qui vont être au coeur des évolutions des technologies de l'information et de la communication pour ces prochaines années.

D'abord, il paraît évident pour tous les spécialistes, que le fameux protocole qui sous tend Internet (l'« Internet Protocol », l'IP), va devenir la base de toutes les télécommunications et de tous les échanges. Si ce problème peut paraître technique, il faut bien comprendre les conséquence que cela risque d'avoir. D'abord, « l'Internet Protocol » permet d'adresser n'importe quel contenu, à n'importe qui sur un même réseau. Ce qui est une révolution par rapport à ce que nous connaissions jusqu'à présent, où l'on distinguait un réseau « télex », un réseau téléphonique, des satellites pour la télévision, des réseaux hertziens... Toutes ces technologies étaient cloisonnées et porteuses d'un service distinct.

Le protocole IP a beaucoup de défauts , il est moins efficace que d'autres protocoles plus spécialisés, car moins optimisé, mais c'est un protocole qui a deux immenses qualités . La première est qu'il est utilisé par tous les acteurs . Les développements, la recherche et les prix de revient en deviennent extraordinairement bon marché. Deuxième qualité de ce protocole : il se sophistique, se raffine , quitte à intégrer des éléments qui ne faisaient pas partie de la logique initiale. Á titre d'exemple, les « cookies » (qui n'ont pas été inventés pour créer des problèmes avec le respect de la vie privée), ont été inventés car le protocole qui permettait de naviguer sur le Web était insuffisant robuste pour gérer des sessions de communication, c'est à dire pour enchaîner des demandes successives.

Ainsi, lorsque vous passez d'une page Web à une deuxième page, il faut d'une manière ou d'une autre indiquer que c'est la même personne qui demande la deuxième page, donc il fallait faire un lien. Les cookies, qui paraissent intrusifs, ont donc été créés pour palier aux insuffisances d'un protocole qui initialement a été conçu pour permettre d'accéder à la documentation en ligne pour les chercheurs du CERN.

Ce petit exemple vous montre bien que ce protocole, assez rustique, assez pauvre, a été raffiné au fur et à mesure, jusqu'à devenir un support omniprésent.

Le second point, mais encore peu observé, est que le protocole IP, qui permet de transmettre n'importe quel contenu, de manière universelle, à tout le monde, peut aussi permettre l'émergence de services totalement intégrés . Il s'agit encore pour le moment d'un rêve, dans la mesure où nous restons dans des mondes relativement cloisonnés. L'idée par exemple d'enchaîner des communications de un à plusieurs, de plusieurs vers un, en mélangeant du temps réel, du temps différé ... est quelque chose qui est technologiquement possible, mais les usages n'ont pas encore permis d'exploiter ces possibilités.

La seconde évolution technologique très importante concernant l'Internet , dont on commence à percevoir les conséquences sur les réseaux fixes, que ce soit en ADSL ou bientôt en fibre optique, c'est le haut débit .

Ainsi par exemple, le protocole IP ne permet pas encore aujourd'hui de faire efficacement de la communication par la voix sur des terminaux mobiles rattachés à des réseaux existants. Actuellement, ma voix est codée de manière bien plus efficace sur un réseau GSM. Sur des réseaux fixes, la situation est différente, le protocole IP permet des communications vocales très efficaces, en se greffant sur des réseaux vieux de cinquante ans. Mais sur le mobile, qui est une technologie datant des années 80, on code de façon plus efficace la voix en GSM que sur IP.

Par contre, dès que les réseaux mobiles auront des bandes passantes plus élevées, ce que l'on commence à voir avec l'UMTS, ou grâce au « WI FI » (réseau à plus courte portée), la voix sur mobile via le protocole IP sera une véritable alternative, permettant aussi d'ajouter la technologie de la visiophonie de façon simple.

Le haut débit, permet d'exploiter le plein potentiel de l'IP. Il va permettre dans un avenir proche de faire des assemblages de services. Mais déjà aujourd'hui des applications de ce type existent : un même protocole permet de faire de la téléphonie, de la télévision et permet un accès à d'autres services internet.

La troisième grande évolution technologique tient aux progrès extraordinaires de la radio . Des choses éblouissantes se font aujourd'hui en matière de transmission radio, qui ne manqueront pas de s'amplifier à l'avenir. Grâce à de nouvelles fréquences, jusque là utilisées seulement par des applications professionnelles notamment militaires, on atteint des débits extraordinaires, avec une grande simplicité d'usage . On peut aujourd'hui capter des satellites sous les toits, ce qui était impossible naguère. On peut transmettre des débits importants, sans la médiation des tours de radiodiffusion. Il est possible d'imaginer que bientôt, des techniques « d'ubiquité » vont se mettre en place permettant d'être en permanence connecté par une connexion radio, où que l'on soit.

Cela modifie les pratiques habituelles, d'abonnement à des réseaux cellulaires d'extérieur, mais l'on peut imaginer des continuités, notamment avec les téléphones fixes sans fil à la maison.

Quatrième grande évolution, qui fonctionne toujours par rupture, c'est l'impact de la micro-électronique dans les terminaux . Ceux-ci deviennent de plus en plus intelligents, ainsi aujourd'hui, les ordinateurs portables sont plus puissants que les PC d'il y a quelques années.

Les progrès des terminaux se traduisent par des ruptures d'usage périodiques : il devient soudain possible d'utiliser son PC pour de nouvelles applications, impossibles jusque là.

Par exemple, les protocoles de communication de « pair à pair » ou « peer to peer », utilisent et ne reposent que sur l'intelligence des terminaux. Ils sont d'ailleurs extrêmement instructifs pour les visions classiques des télécoms. Naguère, il existait des terminaux fonctionnant de façon assez simple (un téléphone, c'est un micro à grenaille, une pile, un fil, un transformateur et un interrupteur) qui reposaient sur le réseau pour établir des appels. La téléphonie de « peer to peer », c'est quelque chose qui n'utilise plus les compétences du réseau pour un appel. Lorsque vous voulez joindre votre correspondant, les différents logiciels implantés sur les différents correspondants possédant ce même logiciel, s'identifient les uns les autres, et tiennent à jour leur localisation et leur disponibilité sur le réseau.

Ce sont les terminaux entre eux qui effectuent la communication, s'appuyant simplement sur des fonctions de routage extrêmement simples du réseau et non plus sur des fonctions d'établissement de la communication. Pour le dire clairement, lorsque vous utilisez ce genre de logiciel, le réseau devient un simple transporteur, il ne fait que transmettre telle requête à un ordinateur, et n'assume plus son ancienne mission : établir une conversation électronique vers telle personne.

Ces nouvelles pratiques posent une question redoutable : Qui gère finalement cette intelligence d'adressage ?

Avant, l'UIT (Union Internationale des Télécommunications) gérait des plans de numérotage publics, et était encadré par un traité international. Aujourd'hui, on observe des fonctionnements communautaires à savoir que les acteurs disposant des mêmes logiciels et services, s'identifient les uns les autres.

Une bonne partie des usages se concentrent au sein d'un groupe fermé (amis, famille...), mais ils coexistent avec des technologies plus anciennes préservant toujours la possibilité de sortir de ces réseaux fermés et d'accéder à des correspondant qui eux sont universellement joignables car ils sont sur les plans d'adressage téléphonique historiques, et donc ouverts.

Lorsque vous joignez la troisième et la quatrième évolution dont je vous ai parlé, soit les possibilités de la radio et l'intelligence des terminaux, vous obtenez des choses dont on commence à voir les usages, qui sont ces fameuses « intelligences d'ambiance » ou « poussières d'intelligence », c'est à dire des objets extrêmement petits, dont le seul problème à l'heure actuelle n'est pas la miniaturisation mais l'alimentation en énergie, et qui peuvent être installés à peu près n'importe où.

Chacun de ces petits objets émet sur des courtes distances des ondes radio, identifie des congénères, et de proche en proche se maillent les uns par rapport aux autres et transmettent des signaux qui peuvent être des capteurs.

Les applications futures de ces « poussières intelligentes » laissent rêveur. Il est possible d'imaginer des utilisations militaires, mais même en restant dans le domaine des utilisations civiles, il est possible d'imaginer l'application de ces techniques pour la surveillance d'une installation domestique ou industrielle, (il s'agira alors de localiser un certain nombre de ces capteurs sur des endroits sensibles).

Le réseau en question sera alors un « réseau maillé », décentralisé, sans intelligence centrale. Ce sera la configuration automatique et intelligente de ces différents petits objets les uns par rapport aux autres qui fait le réseau dans son ensemble.

Ces nouvelles technologies semblent séduisantes sur le plan technologique, mais elles posent quelques questions importantes, renvoyant à certaines idéologies décentralisées. Des questions intéressantes y compris pour des usages industriels ou commerciaux : Qui est responsable de l'objet ainsi constitué ? Le responsable au sens juridique, au sens commercial. Á qui dois-je payer cette technologie ?

Si l'on compare le monde des transports et le monde de la communication, il apparaît que dans le monde des télécoms, nous sommes en train de passer d'un monde où il n'y avait que le train (c'est-à-dire une certaine qualité de service, garantie, et des ressources affectées), et un opérateur de voies ferrées, moyens plus coûteux, mais dont la qualité est garantie, et la responsabilité clairement identifiée, à une situation dans laquelle on est tous dans un modèle de routes : lorsque vous n'arrivez pas à destination à l'heure convenue, c'est la responsabilité de beaucoup d'acteurs : c'est peut être votre véhicule qui est tombé en panne, ou c'est peut être l'infrastructure autoroutière qui est défaillante, ou encore la congestion due aux autres utilisateurs. Ces modèles beaucoup plus diffus posent des problèmes de responsabilité .

Lorsque vous avez un empilage de services et de prestations qui permettent d'offrir in fine le service bout en bout, il est toujours tentant lorsque l'on a une problématique de responsabilité, de recherche et de détection des infractions pénales par les services spécialisés de l'État, de se demander quel est le maillon qui, à défaut de la vision d'ensemble va me rendre compte de ce qui s'est passé, et, si l'on reprend les exemples précédents, rendre les infrastructures routières responsables des embouteillages.

Cette tâche nous revient souvent, car France Télécom et les autres FAI font partie des infrastructures les plus « basses », qui permettent de mettre en place ces logiciels de pair à pair. Il nous est éventuellement possible de savoir si tel utilisateur a mis en place un tel logiciel, notamment en observant les fluctuations sur la bande passante, mais quant à entrer dans les détails des communications réalisées, cela est non seulement pour le moment au delà de nos possibilités techniques, mais aussi au delà de nos possibilités contractuelles. Nous sommes en effet aujourd'hui simple fournisseur de certaines formes de connectivité, et non plus d'un service de bout en bout.

Ces révolutions technologiques sont assez structurantes, car elles bouleversent la chaîne de valeur. En effet, à partir du moment où tout est intégré, sur une infrastructure IP, on arrive à ce paradoxe, qui secoue le monde des télécommunications : l'essentiel de notre chiffre d'affaire était jusque là la facturation de la voix de bout en bout, alors que sur des réseaux haut débit, la voix est très marginale .

Par exemple, transmettre toutes les communications téléphoniques de la France, demande une fraction de plus en plus minime des réseaux de transport de données Internet. Aujourd'hui, la voix est un coût marginal d'un réseau plus vaste. On en voit la conséquence dans la tarification actuelle de la voix, qui ne cesse de baisser.

Est-ce que les clients veulent payer pour le transport ? Ce qui a été notre métier jusque là, le « transport » (une technologie servant à transporter d'un bout à l'autre une communication), et qui constituait le gros de notre chiffre d'affaire, tend à devenir de plus en plus marginal.

Actuellement, la demande du public va vers un certain nombre de fonctionnalités, qui, avec la baisse du coût du transport prennent une importance croissante. Il s'agit notamment de la « joignabilité », c'est-à-dire l'interconnexion des personnes quelque soient les réseaux traversés. Mais là encore des questions se posent : Comment le secteur s'organisera et qui sera la personne qui gèrera ce service ?

Deuxième sujet qui apparaît, qui était dans les usages, mais qui ne faisait pas partie du service en tant que tel, c'est ce que nous appelons la gestion de « présence » ou la gestion de contexte (que votre commission connaît bien sous le nom de la « localisation »). C'est un sujet qui a été le centre de beaucoup de débats. Ce sont des procédures complexes à mettre en place, mais qui sont en voie de développement.

Le troisième point que je voudrais citer dans ces grandes tendances, c'est la gestion des carnets d'adresse , des listes de correspondants. Vous avez bien vu l'importance de cette notion dans tous les nouveaux protocoles de services qui sont apparus avec l'Internet, que ce soit la messagerie instantanée ou les communications de pair à pair. La gestion de ces carnets d'adresse est très importante. Elle correspond soit à la gestion de correspondants privilégiés sur un réseau ouvert, soit est au coeur d'une réseau de service. La messagerie instantanée repose sur la gestion de ce carnet d'adresses.

Un point qui devient important, qui est non seulement une des conséquences de la faiblesse du protocole IP mais qui est aussi une demande extrêmement forte de toutes les couches de la société, ce sont les aspects d'identification et d'authentification . On est très frappé sur le marché des entreprises de voir que l'objet de la facturation est moins le mégabit transporté, que la qualité d'intégration du système et la qualité des authentifications. Il est très possible de travailler chez soi avec un PC et d'accéder au réseau interne de l'entreprise, mais cela n'est acceptable que si c'est sécurisé .

Enfin, un sujet qui fera le lien avec l'exposé précédent, ce sont les aspects de paiement . Traditionnellement les télécommunications ont été un support voire un médias pour certaines transactions commerciales, et cela a été fait avec des outils en général assez captifs des différents supports utilisés : le kiosque audiotel, le kiosque minitel... C'est un sujet qui est compliqué, car on est toujours dans des zones « grises » entre les fonctions des opérateurs de télécommunication et les fonctions bancaires , au sens législatif du droit des moyens de paiement. Ce sont des sujets parfois conflictuels , même si les télécommunications sont des médiateurs souvent bien placés pour offrir des contenus, qui peuvent être soit des contenus éditoriaux, soit des prestations de service.

En conclusion, on est donc face à une situation extrêmement mouvante, assez paradoxale, qui se traduit à la fois par une séparation des différentes couches de services (avant un seul opérateur était responsable de la chaîne complète du service). Vous pouvez maintenant choisir l'accès chez l'un, l'identification chez un autre prestataire, avec une responsabilité partagée. Mais vous avez aussi une demande de personnalisation et une demande de responsabilité qui probablement emmènera à une situation très contrastée, avec des prestataires qui devront assumer leur responsabilité et des situations où les clients ou utilisateurs assembleront eux même leurs services.

Le problème des traces se pose avec d'autant plus d'acuité, elles ne peuvent être gérées par la responsabilité contractuelle ou législative de tel acteur, chacun ne pourra rendre compte que de la couche qu'il a lui même contribué à offrir. Cela amène à des débats compliqués, mais qui peuvent éventuellement trouver une analogie avec ce que l'on voit sur la route, où un certain nombre de règles ont été établies ( nous considérons par exemple qu'il est nécessaires d'avoir un minimum de règles, en particulier sur les adressages, il est difficile de penser que des services pourront naître sur des adressages complètement fermés qui confèrent des avantages aux premiers arrivés.

M. Daniel KAPLAN
Délégué général de la Fondation Internet Nouvelle Génération FING

Je voulais dire quelques mots sur la manière dont on peut évaluer à la fois l'évolution des usages et l'évolution des technologies, à la lumière des questions qui nous réunissent aujourd'hui, à savoir celles de l'identité et des données personnelles.

Je vais commencer par vous dévoiler un certain nombre de résultats d'une enquête que l'on a mené en ligne il y a un an de cela auprès d'internautes volontaires (donc ce n'est pas un sondage, mais un questionnaire permettant de dégager de grandes tendances et de tracer des portraits). Nous avions appelé ce questionnaire « vous et votre identité en ligne » et l'analyse de ce questionnaire a été réalisé par une étudiante en thèse de marketing. Cette étude sera présentée à l'université de Dauphine en juillet prochain.

Tout d'abord, lorsque l'on demande aux internautes si ils sont sensibles au thème de la protection des données transitant via Internet, ils répondent majoritairement oui. Lorsqu'on leur demande s'ils considèrent que lorsqu'ils agissent sur Internet, ils font face à des situations à risques concernant leurs données personnelles, ils répondent aussi par l'affirmative.

Il est donc intéressant d'observer les comportements construits par les internautes sont typiquement des comportements de gestion du risque. L'intérêt de ce questionnaire était de savoir quelles données ces internautes divulguaient, à qui, dans quelles circonstances, et en échange de quoi. La confiance est plus facilement accordée aux organismes publics, puis aux entreprises connues, avec lesquelles les internautes entretiennent déjà des relations.

Á qui donner ces informations : L'idée qui est ressortie est que l'on donne plus facilement des informations lorsque l'on achète un produit que pour autre chose. Ensuite, on va donner des informations pour obtenir des informations ou pour s'abonner à une newsletter. Au cours d'un jeu concours, on a des caractères assez divergents, on va avoir des personnes qui donnent les informations demandées et d'autres au contraire qui ne donnent rien. Il s'agit pour ce dernier point d'observer des divergences de comportement impliquant une vulnérabilité de la part de certaines catégories de la population.

La nature des données : la donnée la plus sensible pour les utilisateurs qui nous ont répondu, et de loin, c'est le numéro de téléphone portable (plus encore que le numéro de carte bancaire). Cela nous ramène sans doute à l'idée que le téléphone portable est devenu un outil extrêmement personnel, symbole de soi dans sa communication avec les autres. Le numéro de téléphone portable est devenu plus sensible que son numéro de carte bancaire, et que le numéro de téléphone fixe. Des données moins sensibles, on y reviendra, sont l'âge, le sexe, et l'adresse de courrier électronique.

On est donc face à un comportement de gestion économique et stratégique du risque , ou l'utilisateur ne va pas répondre simplement « oui » ou « non », mais va s'inscrire dans une attitude de calcul.

On constate également que, dans la mesure où l'on se situe dans un domaine touchant à la protection de données personnelles et à la construction de soi, tous ces internautes, actifs, ont plusieurs adresses e-mail et jonglent avec ces différentes adresses. On a donc des formes de manifestations de son identité différentes, et huit sur dix personnes de cette population utilise des pseudonymes. Elles le font à la fois pour se protéger, pour ne pas être reconnues et pour d'autres choses, comme pour libérer la parole, pour être mieux compris en choisissant mon nom, pour gérer une forme de contexte par exemple.

Ce sont les comportements observables aujourd'hui, des comportements assez matures, mais liés malgré tout au fait que l'Internet aujourd'hui est un univers relativement pauvre. La vie est ailleurs. Toutefois, la situation semble s'inverser, on est de plus en plus souvent « en ligne », notamment grâce au téléphone mobile, s'il a les fonctionnalités correspondantes (GPRS).

Cette situation de connexion continue va s'étendre de plus en plus. Cela manifeste plus qu'une omniprésence des réseaux, cela manifeste une continuité des réseaux. Il y aura omniprésence des réseaux (ou que l'on soit, il y aura possibilité de se connecter aux réseaux, pour communiquer). Mais le plus important est que ces réseaux seront en continu. Il sera possible de se déplacer en restant connecté, en passant d'un réseau à l'autre. Aujourd'hui, plus que la question de l'omniprésence, la question de la continuité est importante. Et cette continuité pourra s'appliquer à une multitude d'objets, c'est-à-dire aux objets communicants traditionnels, mais aussi à toutes sortes d'objets qui seront en communication les uns avec les autres.

Quelles seront les implications futures de ces changements de comportements ? La barrière à laquelle on avait fini par s'habituer entre le virtuel et le réel n'existe plus du tout aujourd'hui . Le physique a une extension dans le numérique et inversement. Les capteurs, actionneurs qu'il y aura dans l'environnement ou que l'on portera sur soi seront des liens continus entre ces différents réseaux.

Tout cela n'émerge pas tant de ce que l'on pourrait qualifier de « folie totalitaire », mais d'une demande de services, de confort, ou de sécurité (par exemple la traçabilité alimentaire), de mobilité. Plus généralement il s'agit d'une demande née des contraintes de la vie moderne individualisée, dont les rythmes sont décalés, et pour autant dans laquelle nous avons au moins autant d'interrelations avec les autres qu'avant, mais sous des formes différentes.

Autre élément, ces moyens de communication ne seront pas que passifs. Cela signifie que nous serons nous même des capteurs, grâce à ces nouveaux moyens, nous pourrons surveiller notre monde et notre entourage. Nous ne serons pas seulement les utilisateurs de ces services, mais aussi des « capteurs » et des « diffuseurs » de ces données omniprésentes et continues . On imagine bien entendu qu'à partir du moment où nos actes ont une existence numérique, cela multiplie les traces et les occasions de les produire, diffuser, stocker...

Ces traces « individuelles » vont à l'avenir probablement se combiner à la généralisation des traces permettant une identification et une authentification forte. Tout cela n'est pas neutre.

Ces techniques ne sont pas en elles même répréhensibles, je voudrais simplement m'attarder sur un seul point, à savoir la tendance naturelle, dès lors que l'on dispose de ces techniques et qu'elles sont d'accès faciles (surtout si elles sont publiques), à s'en servir pour tout .

L'occasion est trop belle : un système, éventuellement est agréé par l'État qui pousse à s'en servir, quelques fois à tort et à travers. Á ce niveau, si l'on ajoute à cela la dimension précédente, on est probablement dans une forme de risque, que je vais simplement illustrer en proposant à vous tous d'essayer de réfléchir aux nombre de transactions importantes que vous avez signé dans votre vie. Quelle est la proportion ? Probablement ultra-minoritaire. Ceci même dans vos relations d'affaires : est-ce que vous demandez toujours à vos clients, si c'est pour un service, de signer « avant » de commencer à faire quelque chose ? Si vous le faisiez, vous seriez sûr de perdre votre client.

Cela signifie que ces technologies et techniques de la « confiance » ont émergé à partir de technologies de la défiance . Au fond, la multiplication des technologies de la sécurité participe dans une certaine mesure du même mouvement que monsieur GAUTHRONET nous a décrit tout à l'heure, c'est à dire de l'expression d'une forme de défiance vis à vis du client. Les prestataires de services ou les agents commerciaux vont donc sécuriser leurs systèmes.

Lorsque l'on ajoute toutes ces traces, nous sommes dans des dimensions troublantes au regard de ce qu'est la réalité d'une société dans laquelle la construction de soi est sans arrêt une forme de fuite vis à vis d'une origine biologique, familiale ou sociale univoque . Dans ce domaine là, les régulateurs et les professionnels ont une responsabilité collective.

Sur la dimension de la régulation , qui reste absolument nécessaire, il faut fixer des bornes , il faut fixer ce qui est possible et ce qui ne l'est pas. Il faut bien voir que l'on est aujourd'hui en face de milliards de sources, installées par des gens différents. Je vous incite, si vous n'êtes pas allergiques à la science fiction, à lire un ouvrage qui a dix ans, qui s'appelle « l'âge de diamant », de STEPHENSON, et dans lequel il imagine un monde surveillé par des milliards de nano-caméra, accessibles au plus grand nombre. Dans ce cadre, un commerçant qui aurait envie d'aller espionner un concurrent enverrai sa nano-caméra, et vice versa. Á un moment donné, si vous vous promenez dans la rue et vous pouvez vous retrouver pris dans un nuage de nano-particules...

Cet exemple vous montre plus fondamentalement à quel point toutes ces données vont devenir difficiles à identifier. Il faut donc à la fois définir des règles, les faire respecter, et aussi il va falloir explorer des formes autant décentralisées que possibles de liberté . De ce point de vue là, on arrive assez rapidement à des formes de responsabilité des professionnels, y compris au regard de la « ligne du bas » (il y a un moment ou cette forme de défiance peut devenir mortifère en terme d'affaires).

Les professionnels vont devoir travailler pour le respect des droits informatique et libertés , mais ils vont aussi devoir se demander s'ils ont vraiment besoin de savoir telle chose sur leur client. Dans beaucoup de cas, ce n'est pas nécessaire. Le stockage des données pour le stockage des données est inutile, répandu, mais inutile. Il y a des milliers de données dont on sait pertinemment qu'elles ne seront jamais utilisées.

Une autre dimension, esquissée déjà, c'est ce que j'appelle la « déconnexion action ». Il s'agit de se dire que si la situation par défaut est celle de la communication, là où j'exerce ma liberté, donc là où il y a de la valeur, c'est dans la création de discontinuité. Le rôle de l'humain alors est de créer des discontinuités dans les systèmes techniques. Il faut avoir le choix de dire où non où je suis, de pouvoir éventuellement mentir sur sa géo-localité. Il s'agit de me laisser voir par mes amis à un moment, par mes collègues à un autre, de me laisser la possibilité d'être indisponible pour un certain nombre de gens, de me travestir, de travestir le contexte, etc...

Il y a un énorme travail de recherche et de scénarisation à mener sur ces points . Il faut que les gens puissent réellement exercer cette possibilité là, et il faut réfléchir sur quelles possibilités offrir aux utilisateurs, au fur et à mesure, dans la réalité du tissus quotidien.

Voilà un certain nombre de pistes de création de valeur et de création d'espaces de liberté, dans ce contexte technologique qui est assez différent et qui est en train de s'ouvrir à nous.

Parce que les capacités de stockage , de traitement et d'échange d'information seront demain répartis dans l'espace numérique et physique, à un niveau sans commune mesure avec celui que nous connaissons aujourd'hui, on a besoin de trouver des solutions de principe, de contrôle, mais également des solutions les plus décentralisées possible . Dans le cas contraire, nous serons dans la fiction d'une réalité d'une maîtrise de l'identité et de la circulation des données personnelles. Parce que tout ce que nous ferons aura une forme de continuité numérique, et c'est bien dans la création de cette discontinuité que réside notre liberté et l'exercice de notre volonté.

Pour terminer je voulais insister sur le fait que je suis persuadé que tous ces dispositifs devront être pensés par les professionnels, au moment de la création des artéfacts, je vous recommande à ce sujet un livre d'un designer nommé Adam GREENFIELD , appelé « Every where ». GREENFIELD s'est posé des questions proches de celles que je viens d'aborder, mais de son point de vue de designer, en se demandant si ce que nous créons avec l'intelligence ambiante, l'informatique en continu, c'est à la fois un univers de services, qui répond à de vrais besoins, et un potentiel de débats sans commune mesure puisque l'on ne joue plus seulement avec des symboles et des informations, mais avec des corps, de l'espace. Donc si l'on veut résumer : trois millions de virus dans des ordinateurs c'est très ennuyeux, trois cent virus dans les pacemakers, c'est dramatique.

GREENFIELD dit qu'il va falloir réfléchir à la nature des systèmes d'intelligence ambiante, et il propose cinq principes, à discuter et à débattre , qui paraissent intéressant à réfléchir, à la fois par des concepteurs de service, par des juristes et par des politiques .

Le premier est celui de l'innocuité par défaut . Le système doit être configuré par défaut de manière à ne pas pouvoir mettre en danger la sécurité physique, matérielle ou biologique de son utilisateur.

Le second principe, c'est celui de la transparence : qu'est-ce que je fais, pour quelle finalité ? qui est responsable ?

Le troisième principe est celui de la considération : ne pas faire perdre la face à son utilisateur.

Le quatrième est l'économie de temps ou la simplicité : ne pas compliquer indûment les tâches quotidiennes. C'est à dire ne pas imposer la logique de système à des utilisateurs.

Le cinquième principe consiste à d' admettre le refus , à considérer que c'est une situation normale de pouvoir refuser une technologie et préférer « passer en mode manuel ». Cela est très difficile, car une part importante de l'économie des systèmes, consiste à supprimer le mode de fonctionnement classique. Arriver à imaginer comment on va permettre au contraire à l'autre mode de fonctionnement de continuer à exister tout en recherchant les gains de productivité en terme de service, est difficile, mais c'est selon moi des choses que l'on a besoin de regarder ensemble.

Les thèmes associés à ce dossier

Page mise à jour le

Partager cette page