Ce mardi 21 mars 2017, le rapport final de l’initiative France IA a été remis. La démarche France IA a été lancée le 20 janvier 2017 par le secrétaire d’Etat chargé de l’Industrie, du Numérique et de l’Innovation et par le secrétaire d’Etat chargé de l’Enseignement supérieur et de la Recherche. L’objectif principal est l’élaboration d’une stratégie nationale destinée à confirmer la place de la France au premier plan de l’intelligence artificielle (IA). « La France doit être un choix évident pour tout passionné d’intelligence artificielle, qu’il soit chercheur, investisseur ou créateur d’entreprise ». Cette stratégie France IA s’appuie sur les recherches effectuées par les groupes de travail à partir des trois grands piliers suivants :
- Un constat lié au foisonnement actuel en matière d’innovation
- Un impact attendu en matière sociale et économique
- Une préparation au futur par la formation et la recherche
La protection des données au cœur du déploiement de l’IA
Les données constituent le « carburant » – complémentaire aux algorithmes – majeur de l’IA dans la mesure où le déploiement de l’IA dans les entreprises est directement dépendant de la disponibilité des données et d’infrastructures numériques permettant de les traiter. Il en résulte les deux problématiques suivantes sur l’accès aux données :
- La protection de certaines catégories de données, comme les données à caractère personnel.
- La confidentialité de nombreuses données techniques, qui constituent un actif stratégique pour les organismes qui les détiennent.
Le rapport final de l’initiative #France IA met en avant le fait que « la France doit saisir dès aujourd’hui les grands enjeux de demain ». Comme pour toute évolution sociétale, une évolution législative et réglementaire est nécessaire. Les trois objectifs suivants du rapport impliquent en particulier une évolution juridique :
- « La France doit disposer d’un environnement propice au développement des nouvelles technologies de l’intelligence artificielle»
- « La France doit réaffirmer sa souveraineté et définir un cadre de confiance pour l’utilisation de l’intelligence artificielle au bénéfice de ses citoyens, en tenant compte du cadre européen»
- « La France doit anticiper les évolutions engendrées par l’Intelligence artificielle sur la société»
1° La France doit disposer d’un environnement propice au développement des nouvelles technologies de l’intelligence artificielle
Le rapport souligne que la France doit être pionnière dans la définition d’un cadre novateur, protecteur des libertés et des utilisateurs en matière d’IA. Etant donné la place prépondérante des données dans le déploiement de l’IA, il existe deux grands enjeux les concernant : d’une part la disponibilité des données, aussi bien des données à caractère personnel que des données techniques, et, d’autre part, la protection des données. Ces enjeux nécessitent une réflexion sur :
- Les conditions de mise à disposition des données (nécessité d’annoter les données)
- Les conditions de stockage (par exemple au sein d’un nuage français ou européen)
- Les conditions de propriété des données
2° La France doit réaffirmer sa souveraineté et définir un cadre de confiance pour l’utilisation de l’intelligence artificielle au bénéfice de ses citoyens, en tenant compte du cadre européen
Le facteur clé de succès du développement des usages liés à l’IA est le partage d’information et de données. Ce partage pourrait entraîner de nombreux risques en matière de protection de la vie privée et d’atteinte à la dignité humaine tels que la disparition de la vie privée du fait de la collecte massive de données personnelles, la possibilité de « désanonymiser » certaines données, le profilage très poussé permis par l’apprentissage profond avec le risque de perte de contrôle au profit des machines. L’enjeu majeur du développement de l’IA est la protection des données. Pour prévenir ces risques, le rapport souligne que le traitement des données doit être fait en adéquation avec les lois et règlements en vigueur au niveau national et européen. Il est nécessaire de définir des restrictions en matière de circulation des données quand les objectifs essentiels de la politique publique le justifient.
Il existe d’ores et déjà des dispositions juridiques permettant la protection de ces données, dont deux ayant été introduites par la loi pour une République numérique. D’une part, la loi pour une République numérique établit un principe d’autodétermination informationnelle qui apporte une maitrise supplémentaire par chaque citoyen des données personnelles le concernant. D’autre part, cette même loi comporte une disposition relative à la transparence des algorithmes publics qui a des conséquences sur le climat de confiance relatif au traitement des données réalisées par les algorithmes d’IA. Toute personne destinataire d’une décision fondée sur un traitement algorithmique pourra demander à l’administration les règles définissant ce traitement et ses principales caractéristiques. Par ailleurs, la loi informatiques et libertés permet déjà une information des citoyens sur l’usage de leurs données. Enfin, le règlement européen relatif aux données personnelles, qui entrera en application en 2018, renforce les droits des citoyens en leur offrant une véritable protection de leurs données.
Il sera nécessaire d’aller plus loin sur le plan technique en définissant des solutions sécurisées et respectueuses de la vie privée par défaut (« privacy by design » et « security by design »), en renforçant la compréhension de ce que font réellement les systèmes reposant sur l’IA et en améliorant la transparence sur les traitements réalisés par les systèmes intelligents. L’objectif prépondérant en matière de renforcement de confiance est la définition et mise en place de schéma de certification ou validation du niveau de robustesse ou de fiabilité d’une « intelligence artificielle ».
3° La France doit anticiper les évolutions engendrées par l’Intelligence artificielle sur la société
Le développement de l’IA impose une réflexion relative aux prises de décisions automatiques ayant des conséquences juridiques, à leur transparence et à la responsabilité attachée à ces décisions, par exemple concernant une décision que peut être amené à appliquer un véhicule autonome entre deux situations potentiellement catastrophiques. De ce point de vue, de nombreuses dispositions législatives ou réglementaires (responsabilité du fait des choses, responsabilité des produits défectueux, dispositions de la loi du 5 juillet 1985 relative aux « victimes d’un accident de la circulation », etc) devraient être réévaluées en intégrant ces nouvelles problématiques. En ce sens, le Parlement européen a adopté une résolution le 16 février 2017 avec des recommandations concernant les règles civiles à adopter en matière de robotique.