Ci-dessous, copie de la réponse à ma question écrite adressée à Cédric O, secrétaire d’État auprès du ministre de l’économie et des finances et du ministre de l’action et des comptes publics, chargé du numérique, datée du 12 décembre 2019 et également accessible sur le site du Sénat.
Le Président de la République souhaite faire de la France un leader mondial de l’intelligence artificielle. La stratégie nationale pour la recherche en IA a été lancée en novembre 2018. Elle poursuit six objectifs : (i) déployer un programme national pour l’intelligence artificielle piloté par l’INRIA (Institut national de recherche en informatique et en automatique), (ii) lancer un programme d’attractivité et de soutien aux talents, (iii) dynamiser la recherche en intelligence artificielle à l’ANR (Agence nationale de la Recherche), (iv) renforcer les moyens de calcul dédié à l’IA, (v) renforcer la recherche partenariale, (vi) renforcer les coopérations bilatérales, européennes et internationales. Cette stratégie nationale enjoint l’État à développer les technologies de l’intelligence artificielle au sein de son administration. Sur recommandation du rapport Villani, un « Lab IA » a été créé et poursuit trois actions principales : la constitution d’une équipe cœur interministérielle, pilotée par la Direction Interministérielle du Numérique (DINUM) et s’appuyant sur des agents mis à disposition par des ministères, des prestataires et la Direction Interministérielle de la Transformation Publique (DITP) ; le développement d’outils, de connaissances et de pratiques mutualisés, répondant à des besoins communs entre ministères ; l’identification et l’accompagnement de projets, via le lancement d’appels à manifestation d’intérêt auprès des administrations. C’est ainsi que plusieurs projets ont été financés au sein des administrations. La DINUM a par exemple accompagné un projet lauréat du ministère de l’Agriculture souhaitant utiliser l’IA afin de mieux cibler les contrôles de restaurants à partir des commentaires d’utilisateurs. L’Agence Française pour la Biodiversité a également été lauréate pour son projet visant à mieux orienter les contrôles de la police de l’environnement grâce à l’IA. Enfin, le CHU de Toulouse a aussi été lauréat pour un projet visant à appuyer les médecins dans la préparation des réunions de concertations pluridisciplinaires et à utiliser l’IA pour aider au diagnostic et optimiser la préparation des réunions de concertations pluridisciplinaires (RCP) post-opératoires. L’outil permettra de transformer un compte-rendu médical en un résumé standardisé grâce à l’extraction des concepts médicaux précis issus des textes libres et la structuration des données complexes contenues dans les dossiers médicaux. La solution n’a pas vocation à formuler des décisions mais simplement à instaurer un cadre décisionnel. Si ces quelques exemples montrent que les algorithmes d’aide à la décision se développent au sein de l’État, ces algorithmes ne sont ni omniprésents, ni invisibles, et ne produisent pas des normes en dehors du champ législatif. Les algorithmes, comme tout outil d’aide à la décision au sein de l’État, retranscrivent en code informatique des règles édictées par les législateurs. Les algorithmes – tant publics que privés – ont fait l’objet d’un premier encadrement par la Loi Informatique et Libertés (loi IEL) de 1978. L’article 39 de la loi IEL disposait que toute personne physique avait le droit d’interroger le responsable d’un traitement de données à caractère personnel en vue d’obtenir « les informations permettant de connaître et de contester la logique qui sous-tend le traitement automatisé en cas de décision prise sur le fondement de celui-ci et produisant des effets juridiques à l’égard de l’intéressé ». Historiquement, les administrations étaient donc soumises aux mêmes exigences que les acteurs privés recourant à des algorithmes de traitement de données à caractère personnel. Avec l’expansion de l’usage des algorithmes par les administrations et la demande croissante de transparence et d’explicabilité, le renforcement du cadre juridique spécifique à l’utilisation d’algorithmes par les pouvoirs publics s’est imposé. Il convient ici de distinguer les obligations afférentes aux algorithmes publics et privés. Concernant les algorithmes produits par des entreprises privées, la loi n° 2016-1321 du 7 octobre 2016, dite loi pour une République numérique, dispose en effet au I de l’article 49 que tout opérateur de plateforme en ligne est tenu de délivrer au consommateur une information loyale, claire et transparente sur les modalités de référencement, de classement et de déréférencement des contenus, des biens ou des services auxquels il permet d’accéder. Cette obligation ne peut outrepasser le droit de l’entreprise à protéger le secret de ses technologies qui s’applique à ses propres développements d’algorithmes, au même titre que toute autre innovation soumise au droit de la propriété intellectuelle et dont un brevet a été déposé. Le principe de traitement loyal et transparent exige que la personne concernée soit informée de l’existence de l’opération de traitement et de ses finalités. Ainsi en vertu de la loi relative à la protection des données personnelles et du RGPD, le responsable du traitement doit fournir à la personne concernée toute autre information nécessaire pour garantir un traitement équitable et transparent, compte tenu des circonstances particulières et du contexte dans lesquels les données à caractère personnel sont traitées. En outre, la personne concernée doit être informée de l’existence d’un profilage et des conséquences de celui-ci. À ce stade, le Gouvernement n’envisage pas la création d’une nouvelle AAI chargée de réguler les algorithmes, mais souhaite une montée en compétence technique des services de l’État et des principaux régulateurs intervenant dans ces domaines (notamment la CNIL, l’Autorité de la Concurrence, l’ARCEP et le CSA). La CNIL, l’ARCEP ou encore l’Autorité de la Concurrence doivent publier prochainement une étude sur le sujet. Des administrations chargées du contrôle, comme la DGCCRF, ont d’ores-et-déjà déployé des compétences algorithmiques dans leur domaine. Le Gouvernement prévoit, en outre, de mettre en place un service technique commun, doté de ressources pointues (data scientists) qui seraient mises à disposition des services de l’État et des régulateurs concernés. Concernant les algorithmes utilisés par la puissance publique, plusieurs obligations concernant la communicabilité des traitements algorithmiques ont été introduites : la loi du 20 juin 2018 relative à la protection des données personnelles est venue préciser le cadre juridique relatif aux algorithmes publics. Sont autorisés les traitements entièrement automatisés respectant le droit à l’information des administrés sous trois conditions : ces traitements doivent être pleinement explicités, ils ne peuvent mobiliser de données « sensibles » au sens du RGPD, le responsable du traitement doit s’assurer de la maitrise du traitement algorithmique et de ses évolutions afin de pouvoir expliquer en détail et sous forme intelligible à la personne concernée la manière dont le traitement a été mis en œuvre. Ne peut être utilisé, comme fondement exclusif d’une décision administrative individuelle, un algorithme susceptible de réviser lui-même les règles qu’il applique, sans le contrôle et la validation du responsable du traitement (algorithme auto-apprenant). La loi du 7 octobre 2016 pour une République numérique vient encadrer de manière générale le droit à l’information des citoyens concernés par une décision prise sur fondement d’un traitement algorithmique : droit à l’information des citoyens et des personnes morales lorsqu’une administration fait usage d’un algorithme pour prendre une décision les concernant, qu’elle traite ou non de données personnelles ; la décision individuelle doit comporter une mention explicite indiquant la finalité du traitement, le droit d’obtenir la communication des règles définissant ce traitement et les principales caractéristiques de sa mise en œuvre et les modalités d’exercice du droit de communication. Droit à communication : général : le code source fait partie des documents communicables. Dès lors, sous réserves d’exceptions encadrées par la loi ou le règlement, tout citoyen peut solliciter la communication du code source ; spécifique : obligation pour l’administration de communiquer, à la personne qui en fait la demande et qui fait l’objet d’une décision individuelle prise sur le fondement d’un traitement algorithmique, certaines informations : degré et mode de contribution du traitement à la prise de décision ; les données traitées et leurs sources ; les paramètres du traitement et les éventuelles pondérations ; les opérations effectuées par le traitement ; transparence/Open Data : Les administrations (de plus de 50 équivalents temps pleins) doivent publier en ligne les règles définissant les principaux traitements utilisés dans l’accomplissement de leurs missions lorsqu’ils fondent des décisions individuelles. La DINUM accompagne les administrations dans la mise en œuvre de ces nouvelles obligations, notamment à travers la publication d’un guide et d’un ensemble d’outils disponible à cette adresse : https://etalab.github.io/algorithmes-publics/guide.html. Concernant la dimension éthique de ces algorithmes, le Président de la République s’est engagé à créer groupe international d’expert sur l’intelligence artificielle, sur le modèle du GIEC.
Rappel de la question posée : cliquez ici.