Allez au contenu, Allez à la navigation

Projet de loi relatif à la protection des données personnelles

18 avril 2018 : Protection des données personnelles ( rapport - nouvelle lecture )

CHAPITRE V - DISPOSITIONS PARTICULIÈRES RELATIVES AUX DROITS DES PERSONNES CONCERNÉES

Article 14 A (supprimé) (art. 7-1 [nouveau] de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés) - Âge du consentement autonome des mineurs au traitement de leurs données par certains services en ligne

Introduit par l'Assemblée nationale en première lecture, à l'initiative de sa rapporteure, l'article 14 A du projet de loi abaisse de 16 à 15 ans l'âge à partir duquel un mineur peut consentir seul au traitement de ses données concernant l'offre directe de services de la société de l'information. Il prévoit également un double consentement (des parents et du mineur) en-dessous de cet âge et soumet les responsables de traitement à une obligation d'information des mineurs dans des termes adaptés à leur jeune âge.

Supprimé par le Sénat en première lecture, cet article a été réintroduit en nouvelle lecture par l'Assemblée nationale.

Bien consciente du caractère extrêmement délicat du choix à opérer ici, votre rapporteur a, à nouveau, proposé à votre commission, qui l'a suivie, un amendement de suppression COM-20 qui maintient à 16 ans l'âge à partir duquel le responsable d'un traitement de données peut se fonder sur le consentement autonome d'un mineur dans le cadre d'une offre directe de services de la société de l'information.

Votre rapporteur rappelle qu'il s'agit de l'âge par défaut prévu par le RGPD, et auquel les États membres ne devraient déroger qu'après une analyse approfondie sur la pertinence des différents critères d'âge à prendre en compte, ce qui est loin d'être le cas. En fixant cet âge à 16 ans, le Sénat rejoint ainsi la position défendue au niveau européen par la France lors des négociations sur le règlement, position de prudence adoptée tant par la CNIL que par notre commission des affaires européennes. En tout état de cause, ces hésitations révèlent avant tout un problème de société qui doit être réglé par le développement d'une véritable éducation au numérique dotée de moyens à la hauteur des enjeux.

Votre rapporteur tient à souligner qu'elle n'a pas été convaincue non plus par l'introduction d'un double consentement, qui conditionne la licéité du traitement des données des mineurs de moins de 15 ans au consentement tant du représentant légal que du mineur concerné :

- d'un point de vue juridique, cet ajout ne semble pas compatible avec les termes du RGPD qui ne prévoit ni n'autorise une telle condition supplémentaire12(*) ;

- en pratique, votre rapporteur s'interroge concrètement sur la façon dont de telles dispositions trouveront à s'appliquer dans le cas de jeunes enfants incapables d'une manifestation de volonté éclairée et dont les représentants légaux souhaiteraient faire bénéficier de certains services en ligne...

Votre commission a supprimé l'article 14 A.

Article 14 (art. 10 de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés ; art. L. 612-3 du code de l'éducation) - Décisions prises sur le fondement d'algorithmes

L'article 14 du projet de loi traite des décisions prises, par des personnes publiques ou privées, sur le fondement de traitements automatisés de données à caractère personnel et produisant des effets juridiques sur d'autres personnes ou les affectant de manière significative. Il vise à adapter le droit interne à l'article 22 du RGPD - qui prohibe par principe de telles décisions - tout en tirant parti d'une marge de manoeuvre laissée aux États membres, afin d'autoriser sous certaines conditions les décisions administratives individuelles automatisées.

· Les garanties apportées par le Sénat en première lecture pour la protection des droits des personnes physiques

Considérant que cet article ouvrait la voie à de dangereuses dérives, parce qu'il étendait à l'extrême la faculté d'automatiser entièrement des décisions affectant les individus, le Sénat avait veillé, en première lecture, à apporter plusieurs garanties indispensables.

L'extension de l'interdiction de principe des décisions automatisées

À l'initiative de votre rapporteur, votre commission avait d'abord étendu la portée de l'interdiction de principe des décisions exclusivement fondées sur des traitements automatisés de données personnelles aux décisions qui, sans produire d'effets juridiques, affectent les personnes de manière significative. En cela, votre commission n'avait fait que reprendre les termes mêmes du règlement européen.

Une automatisation strictement encadrée des décisions individuelles prises par l'administration

Votre commission avait également encadré beaucoup plus strictement le champ des décisions administratives individuelles susceptibles d'être intégralement automatisées. En effet, le texte adopté en première lecture par l'Assemblée nationale ouvrait la voie à l'automatisation de n'importe quelle décision individuelle, depuis la liquidation d'un impôt jusqu'à l'expulsion d'un étranger en passant par la délivrance d'une autorisation d'urbanisme ou l'interdiction d'une réunion publique, à la seule condition qu'elle ne soit pas fondée sur un traitement de données dites « sensibles » - et moyennant le respect des exigences de motivation prévues par ailleurs par le code des relations entre le public et l'administration en ce qui concerne les décisions défavorables.

À cet égard, votre rapporteur avait alerté sur un triple risque :

- le risque qu'une décision automatisée soit aveugle à des circonstances de l'espèce qui mériteraient d'être prises en compte ; le recours exclusif aux algorithmes doit donc être réservé à des cas qui n'appellent aucun pouvoir d'appréciation ;

- le risque, lié à l'essor de l'intelligence artificielle et des algorithmes « auto-apprenants », que des décisions individuelles soient prises par l'administration sans qu'elle-même sache exactement suivant quels critères : c'est le phénomène des « boîtes noires » ;

- le risque, illustré par le cas d'« Admission post-bac » (APB), que la programmation des algorithmes n'aboutisse à contourner les règles de forme et de fond qui encadrent l'exercice du pouvoir réglementaire. Il en va ainsi lorsque les opérations effectuées par un algorithme (tel que programmé par les services informatiques d'une administration) ne correspondent qu'approximativement, voire pas du tout, aux règles édictées par l'autorité compétente, dans les formes requises, dans le respect de la hiérarchie des normes et sous le contrôle du juge.

Votre commission, sans remettre en cause l'intérêt lié à l'automatisation de certaines tâches répétitives et que l'on dit justement « mécaniques », avait donc réservé la faculté d'automatiser entièrement des décisions administratives individuelles :

- aux décisions fondées sur des traitements automatisés de données ayant pour seul objet d'appliquer strictement des dispositions légales ou réglementaires à des situations individuelles, caractérisées par des faits dont la matérialité et la qualification juridique sont établies sur un autre fondement qu'un algorithme ;

- aux décisions par lesquelles l'administration se borne à exercer ses pouvoirs de contrôle ou d'enquête (par exemple l'engagement d'un contrôle fiscal), décisions qui ne font pas grief par elles-mêmes.

Votre commission avait considéré qu'en toute hypothèse, les décisions par lesquelles l'administration se prononce sur un recours gracieux ou hiérarchique ne sauraient être elles-mêmes intégralement automatisées.

Enfin, votre commission avait souhaité que l'omission, sur le texte d'une décision prise sur le fondement d'un traitement algorithmique, des mentions prévues à l'article L. 311-3-1 du code des relations entre le public et l'administration13(*), devait entraîner la nullité de plein droit de la décision, cette omission privant la personne concernée d'une garantie essentielle pour ses droits et libertés.

En séance publique, le Sénat avait adopté un amendement de notre collègue Sylvie Robert et des membres du groupe socialiste et républicain, précisant que l'administré à l'égard de qui aurait été prise une décision automatisée devait avoir la possibilité d'exprimer son point de vue et de contester la décision.

Par l'adoption d'un amendement du Gouvernement et d'un amendement identique présenté par notre collègue Jérôme Durain et les membres du groupe socialiste et républicain, le Sénat avait supprimé l'exception introduite en commission en faveur des actes de contrôle ou d'enquête14(*).

Enfin, par l'adoption d'un amendement de notre collègue Maryse Carrère, le Sénat avait prévu que les règles définitoires et les principales caractéristiques de mise en oeuvre des traitements algorithmiques sur le fondement desquels l'administration prend des décisions individuelles seraient désormais systématiquement publiées.

La transparence de « Parcoursup »

Votre commission, suivie en cela par le Sénat, avait également supprimé la dérogation aux règles de transparence prévues par le code des relations entre le public et l'administration au bénéfice des algorithmes utilisés par les établissements d'enseignement supérieur pour le classement des candidats à l'admission en première année, dans le cadre de la procédure dite « Parcoursup ». Cette dérogation a été introduite tout récemment dans notre droit par la loi n° 2018-166 du 8 mars 2018 relative à l'orientation et à la réussite des étudiants15(*).

Il convient de s'étendre un peu sur ce point, sur lequel le Gouvernement a délibérément entretenu la confusion.

En premier lieu, contrairement à ce que le Gouvernement a prétendu, la suppression de la dérogation aux règles de transparence des algorithmes n'avait aucunement pour effet de priver de base légale l'examen « humain » des dossiers des candidats par les équipes pédagogiques des établissements.

En deuxième lieu, cette suppression n'avait pas d'effet notable sur la motivation des décisions d'admission ou de refus d'admission prises par les chefs d'établissement, ni sur la publicité donnée aux délibérations des équipes pédagogiques. Car sur ce point, le Gouvernement n'a jamais pris de position claire, et la loi reste ambiguë. Certes, la dérogation aux règles de transparence des algorithmes est justifiée, dans le texte de la loi, par le souci de « garantir la nécessaire protection du secret des délibérations des équipes pédagogiques chargées de l'examen des candidatures »16(*), ce qui a indirectement pour effet de donner force légale à la protection de ce secret. Néanmoins, la loi dispose aussi que les candidats peuvent obtenir, s'ils en font la demande, « la communication des informations relatives aux critères et modalités d'examen de leurs candidatures ainsi que des motifs pédagogiques qui justifient la décision prise », ce qui revient à admettre que les équipes pédagogiques ne disposent pas du même pouvoir souverain d'appréciation qu'un jury d'examen ou de concours17(*), et que les décisions d'admission ou de non-admission en licence, comme en master18(*), sont soumises à une obligation de motivation a posteriori.

L'intention du Sénat n'était pas de mettre à mal le secret des délibérations des équipes pédagogiques, sous réserve de ces exigences de motivation des décisions auxquelles elles donnent lieu. En revanche, il lui a paru légitime que les algorithmes de classement utilisés par les établissements, supposément en tant qu'« aides à la décision », soient soumis aux mêmes règles de transparence que l'ensemble des algorithmes employés par l'administration19(*). Après tout, c'est le scandale provoqué par l'algorithme de classement du précédent système d'affectation des bacheliers dans l'enseignement supérieur, dit « Admission post-bac », qui a motivé en grande partie l'introduction de ces règles de transparence dans la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique ! Il ne serait pas si difficile, pour les établissements, de communiquer ou de publier les règles de fonctionnement des algorithmes qu'ils utilisent, tout en indiquant que le classement produit par l'algorithme a pu être modifié par l'équipe pédagogique au vu d'éléments non pris en compte par celui-ci.

En outre - et c'est là le troisième aspect sous lequel l'argumentation du Gouvernement se révèle fallacieuse -, il apparaît clairement, d'après les informations recueillies par votre rapporteur, que le classement des candidats dans un grand nombre de formations sera très largement délégué à la machine. Compte tenu du fonctionnement de « Parcoursup », les établissements devront traiter un nombre de dossiers beaucoup plus élevé que précédemment, et ils devront classer toutes les candidatures reçues. Qui peut penser que les équipes d'enseignants-chercheurs auront le temps et les moyens de procéder à un examen individualisé de milliers de dossiers ? Beaucoup devront se contenter de paramétrer l'algorithme de classement fourni par le ministère afin d'en affiner et d'en pondérer les critères, d'appliquer cet algorithme à l'ensemble des candidatures, et de n'examiner ensuite, tout au mieux, qu'un nombre limité de dossiers (par exemple ceux qui seront classés de part et d'autre de l'effectif maximal d'une formation, ou les dossiers classés ex aequo)20(*). Dès lors, il est encore moins légitime de dissimuler aux candidats les règles de fonctionnement de l'algorithme, qui aura entièrement déterminé le sort réservé à leur demande.

· Les reculs successifs de l'Assemblée nationale et la position de votre commission, ouverte au compromis mais ferme sur les principes

Après l'échec de la commission mixte paritaire, qui avait notamment achoppé sur cet article 14, l'Assemblée nationale est revenue, en nouvelle lecture, sur la plupart des garanties apportées par le Sénat. Votre commission, tout en prenant acte des quelques avancées acceptées par les députés et en se montrant ouverte au compromis sur d'autres points, a estimé nécessaire de défendre fermement certains principes.

Nos collègues députés ont accepté d'étendre la portée du principe de prohibition des décisions automatisées inscrit dans la loi Informatique et libertés à celles qui, sans produire d'effets juridiques, affectent significativement une personne. On ne peut que s'en féliciter. Ils ont également souhaité que, dans la sphère privée, les décisions dérogeant à ce principe soient soumises aux mêmes règles de transparence que celles qui s'imposent aux décisions administratives individuelles, y compris lorsqu'elles ne produisent pas d'effets juridiques. Tout en exprimant derechef ses doutes sur la pertinence et le caractère praticable d'une telle extension, votre rapporteur n'y a pas vu d'objection de principe ; aussi votre commission s'est-elle ralliée sur ce point à la rédaction de l'Assemblée nationale en signe de bonne volonté.

Dans la sphère administrative, nos collègues députés ont bien voulu conserver l'un des garde-fous ajoutés par le Sénat, afin que les décisions prises dans le cadre d'un recours administratif ne soient pas elles-mêmes entièrement automatisées.

En revanche, ils ont rétabli l'autorisation extrêmement large des décisions administratives individuelles intégralement automatisées, aux seules conditions qu'elles ne se fondent pas sur le traitement de données sensibles et que « le responsable de traitement s'assure de la maîtrise du traitement algorithmique et de ses évolutions afin de pouvoir expliquer, en détails et sous une forme intelligible, à la personne concernée la manière dont le traitement a été mis en oeuvre à son égard ». Ce caveat permet de se prémunir contre les algorithmes « boîtes noires ». En revanche, il n'écarte pas les deux autres risques indiqués par votre rapporteur : d'une part, que l'administration n'exerce pas le pouvoir d'appréciation qui lui est reconnu pour tenir compte de la singularité de chaque cas ; d'autre part, que le paramétrage des algorithmes aboutisse à contourner les règles de forme et de fond qui régissent l'édiction de règlements.

Aussi votre commission a-t-elle rétabli la rédaction adoptée par le Sénat en première lecture, nettement plus protectrice des droits et libertés individuels (amendement COM-22 rectifié du rapporteur).

S'agissant de la nullité de plein droit des décisions prises sur le fondement d'un traitement algorithmique où serait omise la mention en ce sens prévue par le code des relations entre le public et l'administration, la commission des lois de l'Assemblée nationale en avait d'abord admis le principe, tout en reportant son application au 1er janvier  2019. Toutefois, en séance publique a été adopté un amendement du Gouvernement qui limite cette nullité de plein droit aux décisions prises sur le seul fondement d'un traitement algorithmique, à l'exclusion de celles pour lesquelles l'algorithme n'aurait servi que d'« aide à la décision ». Selon le Gouvernement, la mention légale ne constituerait une garantie substantielle que dans le premier cas, ce qui est tout à fait contestable. Doit-on s'en remettre à l'appréciation du juge, en supposant par exemple qu'à défaut de mention, il annulerait la décision si celle-ci est défavorable et que l'algorithme y a joué un rôle déterminant ? Encore faudrait-il que le juge fût saisi, ce qui supposerait que l'intéressé soit informé du fait qu'un algorithme a été utilisé pour prendre la décision...

En outre, les députés ont accepté, toujours à l'initiative du Gouvernement, de reporter l'application de cette disposition au 1er juillet 2020, « à des fins de bonne administration » (article 24)... Il est tout de même paradoxal que l'administration, alors même qu'elle se verrait désormais autorisée à prendre des décisions sur le seul fondement d'un traitement algorithmique, ne soit pas en mesure de l'indiquer sur le texte de ces décisions et de respecter ainsi une obligation légale qui lui incombe d'ores et déjà !

Sur proposition de son rapporteur, votre commission a donc rétabli à ce sujet la rédaction adoptée par le Sénat en première lecture.

La commission des lois de l'Assemblée nationale est revenue sur la modification aux règles de transparence des algorithmes introduite par le Sénat en séance publique, contre l'avis de votre commission, par un amendement de notre collègue Maryse Carrère, visant à ce que les règles et caractéristiques de mise en oeuvre des traitements algorithmiques fondant des décisions individuelles soient systématiquement publiées en ligne, et non plus communiquées sur demande. Sur ce point, votre rapporteur souscrit aux arguments avancés par le Gouvernement devant le Sénat : imposer la publication systématique des « principales caractéristiques de mise en oeuvre » des algorithmes obligerait les administrations à ne publier que des informations standardisées, alors que cette notion doit être entendue comme désignant les modalités précises d'utilisation et d'application d'un algorithme à chaque situation concrète21(*). Votre commission a donc fait le choix de ne pas reprendre cette disposition dans le texte qu'elle a établi.

S'agissant enfin de « Parcoursup », votre commission a rétabli le texte adopté par le Sénat en nouvelle lecture, qui supprime la dérogation aux règles de transparence des algorithmes prévues par le code des relations entre le public et l'administration au bénéfice des algorithmes de classement utilisés par les établissements d'enseignement supérieur (amendement COM-23 du rapporteur). Sur ce point, l'obstination du Gouvernement et de l'Assemblée nationale est d'autant plus incompréhensible que deux éléments nouveaux sont apparus depuis la première lecture, qui confortent la position du Sénat.

D'une part, dans sa délibération du 22 mars 2018 sur « Parcoursup », la CNIL a relevé que le droit d'accès des personnes physiques aux données personnelles qui les concernent, au sens de la loi Informatique et libertés, comprend le droit de se voir communiquer tous les éléments permettant de comprendre la logique qui sous-tend un algorithme ayant fondé une décision à l'égard de ces personnes. La dérogation introduite, au bénéfice de « Parcoursup », aux règles de transparence prévues par le code des relations entre le public et l'administration est « sans incidence », écrit la CNIL, sur les règles très proches prévues par la loi Informatique et libertés. Par conséquent, le ministère devra fournir aux candidats, à leur demande, toutes les informations utiles sur l'algorithme d'affectation utilisé par l'administration centrale, et « les établissements d'enseignement supérieur qui recourraient à un traitement algorithmique pour examiner les candidatures qui leur sont soumises devront également fournir l'ensemble des éléments permettant de comprendre la logique qui sous-tend cet algorithme »22(*).

D'autre part, le Président de la République, dans son allocution du 28 mars 2018 au Collège de France sur l'intelligence artificielle, a clairement pris position pour la transparence dans l'usage des algorithmes, y compris pour l'accès à l'université. Il a d'ailleurs émis le souhait que des décisions ne soient jamais entièrement déléguées à un algorithme, ce qui va directement à l'encontre des dispositions prévues à cet article...

On ne citera qu'un extrait de ce long discours : « La clé est de mettre partout de la transparence publique sur les algorithmes, rendre les algorithmes publics, s'assurer qu'ils sont utilisés en transparence, traquer leurs biais, ne pas leur confier le monopole de la décision, s'engager à les enrichir ou les compléter par la décision humaine. [...] Cette transparence, elle suppose une interaction permanente entre l'intelligence artificielle et l'humain et les choix qui seront faits, elle suppose des débats permanents, des corrections, elle suppose qu'à partir du moment où on va mettre l'entrée à l'université, l'entrée dans une profession ou une formation derrière un algorithme, [on défère à] la nécessité de rendre plus démocratique cet algorithme et donc de s'assurer de sa loyauté, de s'assurer de sa transparence complète et qu'il puisse y avoir un débat sur ces règles sinon nous déléguons à l'algorithme le choix entre des priorités démocratiques23(*)»

Votre rapporteur ne peut qu'inviter le Gouvernement et l'Assemblée nationale à s'inspirer de ces excellents principes.

Votre commission a adopté l'article 14 ainsi modifié.

Article 14 bis A (art. L. 121-4-2 [nouveau] du code de l'éducation) - Transparence du traitement des données scolaires

L'article 14 bis A résulte de l'adoption par le Sénat, en première lecture en séance publique, d'un amendement de notre collègue Alain Marc (Les Indépendants - République et Territoires). Il inscrit, au sein d'un nouvel article L. 121-4-2 du code de l'éducation, l'obligation pour les établissements d'enseignement scolaire de mettre à la disposition du public, dans un format ouvert et aisément réutilisable, la liste des traitements automatisés de données à caractère personnel effectués sous leur responsabilité afin, notamment, que les parents d'élèves puissent savoir comment les données de leurs enfants sont traitées par les établissements d'enseignement public.

L'Assemblée nationale n'a apporté à cet article, dont elle partageait l'objectif, que des modifications rédactionnelles, reportant en outre son entrée en vigueur à la rentrée 2018-2019 (voir l'article 24).

Votre commission a adopté l'article 14 bis A sans modification.

Article 14 bis (art. 32 de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés) - Information des mineurs de moins de 15 ans

L'article 14 bis du projet de loi renforce l'obligation d'information à la charge des responsables de traitement en leur imposant, lorsque des données personnelles sont collectées auprès d'un mineur, que les éléments qui lui sont transmis le soient « dans un langage clair et facilement compréhensible ».

Au bénéfice de l'adoption d'un amendement COM-24 de son rapporteur, de coordination avec l'article 14 A relevant à 16 ans l'âge en dessous duquel la clarté de l'information est ainsi renforcée, votre commission a adopté l'article 14 bis ainsi modifié.


* 12 Aux termes de l'article 8, §1, du RGPD : « Lorsque l'enfant est âgé de moins de 16 ans, ce traitement n'est licite que si, et dans la mesure où, le consentement est donné ou autorisé par le titulaire de la responsabilité parentale à l'égard de l'enfant. »

* 13 À savoir la mention du fait que la décision a été prise sur un tel fondement, la mention de la finalité du traitement, ainsi que la mention de la communicabilité des règles et caractéristiques de mise en oeuvre de l'algorithme et des modalités de cette communication.

* 14 Votre rapporteur s'était ralliée, par prudence, à cette proposition. Néanmoins, force est de relever une contradiction dans les arguments du Gouvernement. M. Mounir Mahjoubi, secrétaire d'État, avait indiqué en séance publique que les algorithmes utilisés par les services d'enquête, y compris les services fiscaux, devaient rester de simples outils d'aide à la décision. Pourtant, la rédaction de l'article 14 ouvre toute latitude à ces services pour automatiser entièrement leurs décisions ! Le cas des services fiscaux est explicitement mentionné dans l'étude d'impact du projet de loi, où il est même indiqué que le Gouvernement attend de l'automatisation des enquêtes et contrôles un impact positif sur les finances publiques...

* 15 Pour mémoire, les règles de transparence ainsi écartées consistent, d'une part, à apposer les mentions susmentionnées sur le texte des décisions prises sur le fondement de traitements algorithmiques et à communiquer à l'intéressé, à sa demande, les règles et principales caractéristiques de mise en oeuvre de ces traitements (article L. 311-3-1 du code des relations entre le public et l'administration), d'autre part, à publier en ligne les règles définissant ces traitements, lorsque les administrations concernées emploient plus de cinquante agents (article L. 311-1-3 du même code).

* 16 I de l'article L. 612-3 du code de l'éducation.

* 17 Conformément à une jurisprudence ancienne et toujours confirmée, les décisions des jurys d'examen et de concours n'ont pas à être motivées, car le juge administratif leur reconnaît un pouvoir souverain d'appréciation des mérites des candidats (CE, 11 août 1869, Dampierre, Lebon p. 791). Néanmoins, contrairement à un examen ou à un concours (sauf concours sur titres), les équipes pédagogiques ne sont pas appelées à évaluer les prestations des candidats lors d'une ou plusieurs épreuves : elles se prononcent, pour l'essentiel, d'après les notes obtenues au cours de la scolarité et au baccalauréat. En outre, contrairement à un jury, une équipe pédagogique n'est pas soustraite à toute autorité hiérarchique, et le classement qu'elle établit est susceptible d'être réformé par le ministère pour tenir compte des autres critères imposés par la loi (pourcentage minimal de boursiers, pourcentage maximal de candidats hors académie, etc.).

* 18 Voir l'article D. 612-36-2 du code de l'éducation.

* 19 En l'état du droit, tous les algorithmes utilisés par l'administration sont censés n'être que des outils d'aide à la décision, du moins en ce qu'aucune décision individuelle ne peut être exclusivement fondée sur un traitement algorithmique.

* 20 Certes, les dossiers comprendront, outre les notes des candidats au lycée et au baccalauréat, des éléments qui ne seront pas d'emblée quantifiés, comme un « projet de formation motivé », sorte de lettre de motivation à laquelle l'équipe pédagogique devra elle-même attribuer une note. Mais tous les témoignages concordent pour dire que les équipes n'auront pas les moyens de lire l'ensemble de ces « projets » et qu'elles devront donc leur attribuer une note par défaut. Sur le fonctionnement de « Parcoursup », on consultera avec profit le site de l'Observatoire de la sélection universitaire ( https://obs-selection.rogueesr.fr/).

* 21 L'article R. 311-3-1-2 du code des relations entre le public et l'administration dispose, en effet, que doivent être communiquées à l'intéressé, à sa demande, les informations suivantes : 1° le degré et le mode de contribution du traitement algorithmique à la prise de décision ; 2° les données traitées et leurs sources ; 3° les paramètres de traitement et, le cas échéant, leur pondération, appliqués à la situation de l'intéressé ; 4° les opérations effectuées par le traitement.

* 22 Délibération n° 2018-119 du 22 mars 2018 portant avis sur un projet d'arrêté autorisant la mise en oeuvre d'un traitement de données à caractère personnel dénommé Parcoursup. Par la suite, la direction de la conformité de la CNIL a fait savoir que chaque établissement devrait « expliquer comment est configuré [l']algorithme, quels sont ses paramètres, quelles sont ses pondérations, quel score a obtenu tel individu à un moment T du processus algorithmique » (dépêche AEF du 10 avril 2018, consultable à l'adresse suivante : http://www.aef.info/depeche/b46f9527-63c6-4c9b-bb13-8d27c10cdef8/121260/d4ad29beb08e616d3afbb2a7718372da/2018-04-10/98/Q).

* 23 Discours du Président de la République « AI for humanity », 28 mars 2018. La transcription de ce discours est consultable à l'adresse suivante : http://www.elysee.fr/declarations/article/transcription-du-discours-du-president-de-la-republique-emmanuel-macron-sur-l-intelligence-artificielle/.