Depuis les années 2014-2015, le secteur de l’intelligence artificielle est en plein essor. Beaucoup d’entreprises souhaitent rentabiliser les données qu’elles accumulent en explorant les possibilités apportées par le machine learning. Les opportunités de ces nouvelles technologies sont immenses et de nombreuses innovations voient le jour très régulièrement. Toutefois, l’utilisation de ces données n’est pas anodine, et si beaucoup d’entreprises les utilisent de manière très légitime, d’autres utilisations suscitent des questions et des inquiétudes.
C’est ce que nous proposons de détailler dans cet article. Pourquoi parle-t-on d’éthique dans l’utilisation des données ? Quelles utilisations ont suscité des polémiques au sein de l’opinion publique ? Quelles sont les solutions que nous pouvons mettre en place pour mieux contrôler l’utilisation des données ? Nous aborderons ces sujets un à un afin de comprendre ce qu’est l’éthique et tenterons d’apporter un maximum d’informations sur les solutions en place aujourd’hui autour de l’Intelligence Artificielle. Parmi les sujets, nous allons notamment aborder le Règlement Général de Protection des Données (RGPD), cependant cet article n’a pas vocation d’apporter un éclairage juridique mais seulement d’interroger l’éthique de certaines pratiques autour de la data.
L’éthique, ça vient d’où ?
L’éthique relève de la morale et désigne l’intention personnelle et l’interprétation des règles. Mais alors quelle est la différence entre l’éthique et la morale ? Le mot éthique vient du Grec ancien ethos qui signifie comportement, qui a d’ailleurs donné le mot éthologie, qui désigne l’étude des comportements. La morale quant à elle, vient du latin morus qui a notamment donné le mot moeurs et signifie également comportement… On interprète souvent la morale comme l’ensemble des règles à suivre, considérées comme bonnes. La morale trace donc le contour des interdits. L’éthique va relever de l’interprétation de ces règles. Bien entendu, ces définitions ne sont pas gravées dans le marbre et sont sujettes elle-même à interprétation.
Etant donné l’étymologie, l’éthique n’est pas un sujet nouveau. En effet, Socrate (470 à 399 av JC) est considéré comme un pionnier en la matière. Il amène ses interlocuteurs à s’interroger de manière rationnelle sur la solidité des thèses qu’ils avancent. Cette mise à l’épreuve a pour but de les orienter vers la seule chose importante aux yeux du philosophe : la recherche du bien et la pratique de la vertu [1].
Bien entendu, ce n’est pas le seul, on peut également citer Aristote, Kant, Nietzsche et beaucoup d’autres. Chacun d’eux tente d’expliquer sa vision de l’éthique. La lecture de chacun de ces auteurs souligne une chose primordiale, l’éthique est subjective et évolutive. Elle relève de la morale, est sujette à interprétation, dépend du contexte et du penseur qui l’exprime. L’éthique d’hier est donc différente de celle d’aujourd’hui qui sera elle-même différente de celle de demain. Enfin, une chose importante dans cette évolution : la remise en cause. Les erreurs faites par certains, ou tout simplement la remise en question de principes, permet d’affiner sa pensée, d’évoluer et de choisir en connaissance de cause l’idéologie qui nous semble la meilleure.
Ainsi, l’erreur est une étape nécessaire à l’apprentissage, que ce soit pour les réseaux de neurones ou l’Homme. Prenons l’exemple du procès des 23 médecins allemands, le 9 novembre 1946, devant le tribunal militaire américain de Nuremberg. Ces médecins sont accusés d’avoir pratiqué des expérimentations médicales sur les humains [2]. La prise de conscience de cette tragédie humaine permettra au code de Nuremberg de voir le jour, il s’agit du premier cadre éthique encadrant les pratiques de l’expérimentation menée sur l’homme [3]. Aujourd’hui les lois de bioéthique existent bel et bien et sont régulièrement mises à jour.
Dans la même idée, au cours des dernières années, l’humanité a été témoin d’utilisations abusives de l’intelligence artificielle. Bien loin de l’expérimentation humaine, ces utilisations n’en sont pas moins effrayantes tant par leur portée que par leurs conséquences qui pourraient faire glisser notre monde doucement mais sûrement vers un système Orwellien [4]. Voici quelques unes de ces utilisations qui ont suscitées des polémiques.
Big Brother or not Big Brother ?
1.Le crédit social Chinois
Tout d’abord, qu’est-ce que le crédit social chinois ? Le crédit social est un système permettant de noter les citoyens chinois en fonction de leurs actions ou décisions. Cette note pourra avoir une influence sur leur vie si le gouvernement ou les municipalités décident de la prendre en compte [5].
Les prémisses de ce projet apparaissent en 1999. Des entreprises américaines souhaitent avoir un outil pour évaluer les entreprises chinoises avec lesquelles elles veulent collaborer. Le premier ministre de l’époque M. Zhu Rongji, nomme alors le chercheur Lin Junyue ingénieur en chef du projet. Il doit alors créer un système pour documenter la solvabilité des citoyens et des entreprises chinoises. Le premier rapport sortira en 2000 et le terme “crédit social” verra le jour en 2002 (symétrie lexicale avec la sécurité sociale). En 2006, la Banque Populaire de Chine initie le principe de la côte de crédit (“credit score”). Cette note va alors de 300 à 850 points. Lin Junyue continue en parallèle de travailler sur le projet et souhaite étoffer la collecte d’informations notamment celles émanant du ministère de la sécurité de l’état et de celui des télécommunications. Ce projet sera validé en 2012 et sera mis en place dans des villes pilotes.
Aujourd’hui quarante-trois villes-pilotes testent le dispositif à des échelles très différentes. Chacune peut choisir librement ses critères, son système de notation, les punitions et les gratifications. Certaines villes comme Rongcheng, dans la province de Shandong, se focalisent sur l’élévation morale des habitants. Dans cette ville, le système de crédit social est en place depuis 2013 et l’évolution des attitudes est notable. Les habitants débutent avec un score de 1000 points et en fonction de leurs comportements vont gagner ou perdre des points, les faisant glisser entre différentes catégories, de A+ à D. Depuis qu’un détritus jeté entraîne une perte de trois points, les rues n’ont jamais été aussi propre. En cas d’infraction au code de la route, la sanction entraîne une amende, une perte de points sur le permis de conduire et une perte de points sur le crédit social. Des chartes de bonne conduite voient le jour, dont certaines condamnent notamment, les films/livres “jaunes” (érotiques), le fait d’être grossier avec son voisin ou encore le fait de se pavaner en voiture de luxe pendant les mariages. Enfin, c’est à la mairie que l’on vient récupérer sa note sous la forme d’un certificat officiel. A la fin de la journée, un programme spécial est diffusé “la vie du peuple 360”, qui expose les comportements inciviques saisis par les caméras de surveillance, ainsi que les visages et les noms de leurs auteurs.
Une autre ville, Hangzhou, conjugue elle deux systèmes de notations, l’un est public et peu développé. L’autre est privé et très prisé des autorités : le crédit Sésame d’Ant Financial, la branche financière d’Alibaba. Les utilisateurs de l’application Alipay se voient attribuer une note leur permettant d’accéder à un système de prêt rapide et d’autres privilèges. Ainsi, avec le consentement des utilisateurs, Sésame va collecter tout un panel de données via Alipay et ses plateformes partenaires : transactions, remboursements, niveau de diplôme, loisirs, etc. Certaines entreprises s’intéressent même aux résultats de ce système de notations, les bien notés se verront ainsi proposer des avantages, allant de l’absence de caution pour une location à un appui pour demande de visa pour Singapour ou le Canada. Enfin, une passerelle semble se mettre en place entre la municipalité et Alibaba. En effet, depuis 2004 les habitants bénéficient d’une carte de citoyen, il s’agit d’un badge magnétique multi-fonction regroupant de nombreux services (transport, sécurité sociale, paiement d’amendes, etc.). Or les détenteurs peuvent s’ils le souhaitent basculer sur une application où ils s’identifient avec leur crédit Sésame, lequel est détecté par reconnaissance faciale. Cette synchronisation entre les deux systèmes met en exergue la collaboration entre les municipalités et les entreprises.
Aujourd’hui le système de notation n’est pas unifié au sein de la Chine et la majorité des villes ne l’utilise pas. Cependant, la vidéosurveillance se développe à grand pas, notamment avec les programmes “filet du ciel”, qui consiste à couvrir l’entièreté des lieux publics urbains avec des caméras de surveillance, et “yeux perçants” qui permet aux paysans de relier leurs téléviseurs ou smartphones aux caméras du village. Enfin, dans un documentaire diffusé en 2017 sur la télévision nationale, le président Chinois déclarait “Le sentiment de sécurité est le meilleur cadeau qu’un pays puisse offrir à son peuple” en rappelant que 42% des caméras de surveillance dans le monde se trouvaient en Chine [5].
2.Cambridge Analytica
Cambridge Analytica, fondée en 2013 à Londres, était spécialisée dans le micro-marketing. Son objectif était de croiser les données, d’identifier et de prédire les réactions psychologiques des utilisateurs. Le slogan de l’entreprise était « Data drives all we do ».
En 2018, la société est mise en cause dans l’élection de Donald Trump à la présidence américaine. En effet, la société aurait récupéré, via une application tierce, le profil de 70 à 80 millions d’utilisateurs Facebook afin de réaliser du profilage. Dans les faits, la société avait mis en place un questionnaire auquel 270 000 personnes ont répondu, celles-ci ainsi que tous leurs ‘amis’ ont vu leurs données récupérées par l’entreprise (la finalité de cette collecte n’était pas clairement mentionnée). Il faut noter qu’il ne s’agissait pas des seules sources d’informations de la firme londonienne.
Ces données ont permis à l’entreprise de réaliser une segmentation des personnalités afin d’adapter le contenu présenté aux utilisateurs en fonction de leurs profils. Les critères utilisés pour les modèles prédictifs étaient nombreux. Parmi eux, on retrouve le modèle « OCEAN » développé en 1990 par Lewis Goldberg et dont l’acronyme renvoie vers les 5 caractéristiques suivantes [25] :
- L’Ouverture : caractérisant les traits créatifs, intellectuels, la curiosité et l’imagination débordante.
- La Conscienciosité : mettant en valeur un esprit travailleur, discipliné, organisé et efficace.
- L Extraversion : évaluant les caractères extravertis, confiants, bavards et joyeux.
- L’Agréabilité : estimant l’altruisme, l’indulgence, la tolérances et la gentillesse.
- Le Névrosisme : analysant une psychologie dépressive, vulnérable, anxieuse et complexée.
En plus de ces critères, la société Cambridge Analytica a également ajouté un critère de persuasion, définissant la sensibilité de la personne aux messages reçus. Ainsi, l’entreprise aurait identifié les personnes les plus “influençables” et orienté leur vote, dans le cas de l’élection de Donald Trump.
Les questions juridiques sont nombreuses. Pour les citoyens européens, même si à l’époque le RGPD n’était pas en vigueur, la législation encadrait toutefois certaines choses ; notamment que les données personnelles devaient être traitées de manière transparentes et licites et les finalités devaient être explicites. En collectant les données de facebook via l’application tierce, Cambridge analytica violait ces principes. Est-ce que le RGPD aurait pu empêcher le scandale de Cambridge Analytica ? Difficile à dire, cependant, le règlement a mis un point d’honneur à définir le consentement utilisateur : il doit être distinct, actif, précis, désigné et facile à retirer. En un mot, le consentement doit être éclairé, limitant ainsi le plus possible aux entreprises de se cacher derrière le ‘I agree’.
Pour conclure sur cette polémique, il est important de souligner que ce n’est pas le seul événement de cette taille dans lequel l’entreprise est impliquée. Cambridge Analytica serait impliquée dans le brexit, la politique au Kenya et celle de nombreux pays [6, 7, 8, 9, 10].
3.FaceApp
FaceApp est une application lancée en 2017 qui propose à ses utilisateurs de les vieillir de manière artificielle. Elle a connu un succès important en 2019 suite à un challenge auquel ont participé de nombreuses célébrités (#FaceAppChallenge). La polémique a rapidement émergé autour des conditions d’utilisations. En effet, l’application dont le siège est basé à Saint-Pétersbourg et dirigée par Yaroslav Goncharov serait en mesure de récupérer, modifier et utiliser l’ensemble des photos contenues dans les téléphones. De plus, son siège n’étant pas dans l’Union Européenne, est-elle soumise au RGPD ? Cette polémique a rapidement fait le tour des médias, sans que les gens ne sachent réellement à quoi s’en tenir. En réalité, l’application ne peut pas accéder à l’ensemble des images de la bibliothèque de votre téléphone. Cependant, elle peut conserver et réutiliser l’ensemble des données utilisateurs que vous générez via l’application [11] :
“You grant FaceApp a nonexclusive, royalty-free, worldwide, fully paid license to use, reproduce, modify, adapt, create derivative works from, distribute, perform and display your User Content during the term of this Agreement solely to provide you with the Services.”
Ou encore, l’application peut transférer les données qu’elle possède vers les Etats-Unis [11] :
“By accessing or using our Services, you acknowledge and, as applicable, consent to the processing, transfer and storage of information about you in and to the United States and other countries.”
Enfin, toute application dont les utilisateurs ciblés sont situés en Union Européenne est soumise au RGPD et FaceApp n’y échappe donc pas [12]. Toutefois, être soumis au RGPD et le respecter sont deux choses différentes. Certains considèrent que l’application ne respectent pas le règlement [26]. En effet, en transférant les données d’un pays à l’autre (non situé dans l’UE), les données seront alors soumises aux lois de l’état en question. Or le principe du RGPD est justement de garantir la protection des données des citoyens européens, quel que soit le pays où les données transitent.
Mais… Pourquoi maintenant ?
On remarque que l’ensemble de ces polémiques ont eu lieu au cours des 5 dernières années. Cela s’explique par différentes choses. D’une part, l’utilisation d’internet n’a cessé d’augmenter ces dernières années, à la fois dans les pays développés et dans ceux en voie de développement, favorisant l’accès aux informations. D’autre part, le développement rapide des objets connectés, qui a induit une génération de données exponentielle.
En effet, c’est en partie grâce à ces technologies que les informations utilisateurs sont recueillies ces dernières années. Tout en nous aidant à nous orienter dans une ville ou effectuer des paiements plus facilement, les applications utilisées recueillent nos préférences, nos convictions, nos habitudes, jusqu’à créer ce qu’on appelle l’empreinte/identité numérique [27].
Le monde dans lequel nous vivons se numérise de plus en plus afin de répondre toujours plus vite à nos besoins (avant même que nous ayons conscience de ceux-ci ?). Notre dépendance à ces nouvelles technologies est croissante et n’est pas près de s’arrêter. En effet, si on y regarde de plus près, la génération des données s’entretient par elle-même. Il s’agit d’un cercle vertueux ou vicieux, selon le point de vue que l’on adopte, et quatre acteurs interviennent dans cette génération, les utilisateurs, les développeurs, les entreprises et enfin l’État.
Prenons une entreprise A, qui émerge et crée un service pour les utilisateurs. Lors de l’utilisation de ce service, les consommateurs vont transmettre des données à l’entreprise (préférences, géo-localisations, etc). Ces nouvelles informations vont permettre à la société de développer et/ou améliorer ses services auprès des utilisateurs. Ces mises à jour ou nouvelles fonctionnalités (ex: Apple Pay) vont alors générer à nouveau des données, on observe alors un effet boule de neige : les données induisent indirectement la génération de nouvelles données.
Parallèlement, Il peut se créer une certaine forme de pression financière pour l’entreprise. Les services qu’elle propose vont dépendre des données utilisateurs. Sans ces données, la société peinera à créer de nouveaux services, Il est donc dans l’intérêt de la société de favoriser l’acquisition de nouvelles données utilisateurs. Du côté des consommateurs, une pression sociale peut émerger. Certaines applications majeures (Facebook, Whatsapp, Lydia, etc.) prennent une place essentielle dans le quotidien. Par conséquent, les échanges, prises de rendez-vous ou encore transferts bancaires sont majoritairement effectués via celles-ci. Les personnes qui ne possèderont pas ces applications pourront se sentir en décalage ou isolées par rapport aux autres. Cette pression sociale pousse elle aussi à la génération de données [28].
Enfin, un autre acteur est présent, il s’agit de l’État. Les gouvernements des pays essayent de se positionner sur ces technologies qui évoluent de manière exponentielle. Les États mettent en place des solutions pour préserver les utilisateurs et leur vie privée, tout en légiférant l’utilisation de ces données de la part des entreprises (RGPD).
À noter que dans cette conception, le développeur intervient de manière sous-jacente. C’est lui qui conçoit et entretient l’application. Son rôle, même s’il est moins direct sur la génération de donnée, n’en n’est pas moins essentiel. Il s’agira d’un maillon primordial dans une utilisation plus éthique de la donnée (nous développerons ce point dans le prochain chapitre).
Les 4 fantastiques
Les utilisateurs, les développeurs, les entreprises et l’État ont donc un rôle prépondérant dans l’utilisation, la réglementation et l’évolution de l’usage des données personnelles. Il est intéressant de se pencher sur ces rôles de manière détaillée afin de comprendre quels sont les enjeux pour chacun d’eux, ainsi que les outils dont ils disposent pour agir de manière éthique.
1.L’utilisateur
Les utilisateurs sont de plus en plus concernés par l’utilisation qui est faite de leurs données personnelles. En effet, la CNIL a réalisé un sondage en Novembre 2018, auprès de 1000 personnes, intitulé “Les français et la protection des données personnelles” [14]. Parmi les questions posées, certaines s’intéressent à la sensibilisation des consommateurs à l’utilisation de leurs données personnelles, les raisons de cette sensibilisation et leur connaissance des règlements en vigueur. Les résultats sont clairs, 66% des personnes interrogées se disent plus sensibles qu’auparavant, notamment dû aux risques de piratages/vols des données, aux sollicitations commerciales ou encore aux scandales présentés dans les médias.
Quelles sont alors les possibilités pour les usagers de se prémunir contre une utilisation abusive ?
Les informations partagées lors de nos recherches, nos utilisations et navigations en disent long sur notre personnalité et façonnent notre identité numérique. Il est alors possible de passer par des moteurs de recherche qui ne vont pas tracer nos recherches (ex : DuckDuckGo, Qwant) [15–16]. Notre activité sur les réseaux sociaux a également de l’importance, c’est pourquoi s’assurer de l’origine des informations que nous partageons, s’intéresser aux objectifs de l’auteur ou encore s’interroger sur la crédibilité des sources que nous citons est essentiel. Ces réflexes simples et faciles à mettre en oeuvre permettent de mieux contrôler notre empreinte numérique.
Depuis l’entrée en vigueur du RGPD en mai 2018, les entreprises doivent obtenir l’accord explicite des utilisateurs pour utiliser leurs données personnelles (article 4 et 7 du RGPD [20, 29]), c’est pourquoi s’intéresser aux conditions derrière le ‘I agree’ qui nous harcèle à chaque navigation sur un nouveau site a son importance. Lire les conditions, afin de décider ce que l’on souhaite partager, prend du temps et personne n’a la patience ou l’envie de le faire pour tous les sites que nous visitons quotidiennement. Le choix de tout refuser ou de naviguer en privé est une solution. Toutefois, il est également possible de se concentrer sur les clauses les plus abusives des conditions. Pour cela, certains sites (ex : proposent des add-ons pour les navigateurs afin de renseigner l’utilisateur sur les conditions qui semblent les plus démesurées ou excessives.
2.Le développeur
Le développeur travaille au sein de l’entreprise et leurs rôles sont synergiques. Même si l’entreprise dicte les projets sur lesquels le développeur travaille, celui-ci possède une forte influence sur ce qui est fait des données, notamment via son approche algorithmique. Afin d’être le plus éthique possible, le développeur doit aborder son projet de manière responsable, intègre et transparente. La communauté de Data For Good [17], a d’ailleurs mis en ligne un serment d’Hippocrate pour Data Scientist, listant les grands principes à respecter lors de l’analyse et interprétation des données [18]. Cette démarche qui n’est pas isolée, souligne l’importance du rôle du développeur dans l’exploitation des données. Parmi les principes, il y a notamment l’interprétabilité des modèles, qui peut s’avérer complexe en fonction de ceux utilisés. Cette notion a une importance qui peut se révéler décisive dans l’utilisation des modèles. Imaginons un instant que les modèles entrainés doivent orienter une décision judiciaire ou un accord de prêt, la compréhension de la prise de décision est primordiale. On ne peut, dans ce genre de cas, se reposer uniquement sur l’inférence, que la décision soit bonne ou mauvaise, sans comprendre ce qui a mené à ce choix.
On retrouve également la vigilance quant au biais des données. Par exemple, si vous devez établir un modèle de scoring de crédit et que vous utilisez les 50 dernières années pour entraîner le modèle, celui-ci sera biaisé au détriment des femmes. En effet, celles-ci réalisaient moins de demandes de crédit par le passé. Il faut donc s’assurer que les données que l’on utilise soient équilibrées afin que l’algorithme puisse généraliser correctement.
Pour aider le développeur dans son travail, de nouveaux outils voient le jour, dont What If de Google, Accenture’s new Fairness Tool, ou AI Fairness 360 et Watson Openscale d’IBM.
Ces solutions permettent, entre autres, de comparer les résultats d’inférences des modèles, l’importance des features, de modifier manuellement des features pour étudier le comportement du modèle ou encore de s’assurer de l’équilibre des données. Bien entendu, cela rajoute du temps à l’élaboration du modèle, mais la qualité n’en sera que meilleure
Enfin, le cadre législatif évolue de plus en plus autour de l’intelligence artificielle, c’est pourquoi le développeur se doit d’être au courant, au moins en partie, du cadre légal dans lequel il exerce. Afin de faciliter cette prise de conscience, le CNIL a mis en place un guide du RGPD pour les développeurs [19]. On y retrouve les grands principes du RGPD et les points les plus importants à connaître pour développer et déployer des applications qui exploitent les données personnelles.
3.L’entreprise
L’entreprise est un acteur qui possède une grande responsabilité. En effet, c’est elle qui va décider des projets à développer, des cas d’usages à étudier et qui va orienter les décisions autour des problématiques data. Il est donc primordial d’effectuer une réflexion en amont quant aux sujets à développer, des données relatives disponibles et de l’utilisation finale des modèles prédictifs. Cette considération est décisive pour la réussite du projet. Trop souvent, des sociétés souhaitent utiliser de l’Intelligence artificielle car c’est une tendance des dernières années et n’ont pas conscience de la complexité et du coût que ces projets peuvent engendrer. Bien entendu, le retour sur investissement peut être au rendez vous, mais il est également possible que les projets débutés restent au stade de preuve de concept et ne voient jamais le jour. Au cours de cette préparation des projets, les sociétés doivent s’impliquer impérativement dans le contenu des données qu’elles vont utiliser. Quelle est leur quantité, leur équilibre ? Sont-elles biaisées ? Cette étape peut être réalisée en amont et apporter à l’entreprise un argument marketing fort pour son projet. Démontrer que son projet d’IA a été conçu et adopté dans un cadre éthique de haute qualité peut s’avérer un avantage concurrentiel non négligeable.
L’adoption du RGPD au sein de l’union européenne a introduit un nouveau rôle au sein des entreprises : le Délégué à la Protection des Données (Data Protection Officer, DPO). Il est responsable de la mise en oeuvre du RGPD. Il doit s’assurer que la société dans laquelle il oeuvre respecte bien la législation en matière de données personnelles et assure au maximum leur sécurité. Sa désignation n’est pas obligatoire (hormis certains cas) mais est fortement conseillée. Il peut être interne ou externe à l’entreprise. Il est en quelque sorte le successeur du CIL (correspondant informatique et libertés). Sa formation continue en terme de droits et de pratiques en matière de protection des données est une des caractéristiques principales indiquées dans le RGPD. Enfin, il n’y a pas de profil type, il peut être issu du domaine technique, du domaine juridique ou autre. En cas d’audit, il va représenter la pierre angulaire entre l’organisme d’audit et l’entreprise, afin de fournir les informations relatives aux données utilisées et leur protection. Il est important de noter que le délégué n’est pas personnellement responsable en cas de non-conformité de son organisme avec le règlement.
4.L’Etat
L’État possède un rôle prépondérant dans la mise en place de principes éthiques dans l’utilisation des données et les problématiques data science. Il possède un pouvoir législatif important et peut par conséquent fortement influencer le développement d’applications sur son territoire. Au sein de l’Union Européenne, les états tentent de s’associer afin de mettre en place des mesures communes pour légiférer l’utilisation des données personnelles. La mesure dont tout le monde a entendu parler est bien sûr le Règlement Général de la Protection des Données [12]. Dans ce texte, long d’une centaine d’article, on peut trouver de nombreuses définitions juridiques, les obligations des entreprises quant à l’utilisation des données personnelles ou encore les droits des utilisateurs à propos de celles-ci. L’article 4, par exemple, tente de définir différentes notions, telles que les données à caractère personnel [20]:
“Toute information se rapportant à une personne physique identifiée ou identifiable (ci-après dénommée «personne concernée») ; est réputée être une «personne physique identifiable» une personne physique qui peut être identifiée, directement ou indirectement, notamment par référence à un identifiant, tel qu’un nom, un numéro d’identification, des données de localisation, un identifiant en ligne, ou à un ou plusieurs éléments spécifiques propres à son identité physique, physiologique, génétique, psychique, économique, culturelle ou sociale”
On peut y trouver notamment les définitions de profilage, données concernant la santé, données biométriques, pseudonymisation, etc.
En définissant juridiquement ces notions, l’UE permet de mieux cadrer ce qu’est une empreinte numérique ainsi que son utilisation par les entreprises. Le RGPD oblige ainsi les sociétés à obtenir un accord explicite, quant à l’utilisation des données personnelles, de la part des utilisateurs. De plus, les sociétés sont tenues d’indiquer la finalité de leur utilisation (ex: fidélisation client). L’objectif est de renforcer le consentement et la transparence, tout en accentuant les droits des utilisateurs. Ceux-ci peuvent maintenant demander l’accès aux données collectées. Enfin, un cadre juridique est également ajouté au transfert de ces données hors de l’UE, où elles restent soumises aux droits de l’UE non seulement pour leur transfert, mais aussi pour tout traitement et transfert ultérieur.
Tout ceci n’est qu’une partie du RGPD, qui est riche juridiquement et représente donc une clef de voûte quant à la juridiction de l’utilisation des données. Cependant, l’IT évolue très vite et si le RGPD veut conserver tout son potentiel, il doit évoluer en parallèle.
C’est pourquoi, en juin 2018 l’Union Européenne a désigné une commission regroupant 52 experts indépendants chargés de mettre en oeuvre les lignes directrices en matière d’éthique pour le développement et l’utilisation de l’intelligence artificielle [21–22]. Courant 2019, la Commission a remis les conclusions de son étude permettant de valoriser l’utilisation de l’IA au sein de l’Europe. Elle a présenté une approche en trois étapes :
1.Définir les exigences clés pour une IA digne de confiance
La commission a mis en avant sept éléments essentiels :
- Facteur humain et contrôle humain : les systèmes d’IA devraient être les vecteurs de sociétés équitables en se mettant au service de l’humain et des droits fondamentaux, sans restreindre ou dévoyer l’autonomie humaine.
- Robustesse et sécurité : une IA digne de confiance nécessite des algorithmes suffisamment sûrs, fiables et robustes pour gérer les erreurs ou les incohérences dans toutes les phases du cycle de vie des systèmes d’IA.
- Respect de la vie privée et gouvernance des données : il faut que les citoyens aient la maîtrise totale de leurs données personnelles et que les données les concernant ne soient pas utilisées contre eux à des fins préjudiciables ou discriminatoires.
- Transparence : la traçabilité des systèmes d’IA doit être assurée.
- Diversité, non-discrimination et équité : les systèmes d’IA devraient prendre en compte tout l’éventail des capacités, aptitudes et besoins humains, et leur accessibilité devrait être garantie.
- Bien-être sociétal et environnemental : les systèmes d’IA devraient être utilisés pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique.
- Responsabilisation : il convient de mettre en place des mécanismes pour garantir la responsabilité à l’égard des systèmes d’IA et de leurs résultats, et de les soumettre à une obligation de rendre des comptes.
2.Lancer une phase pilote à grande échelle pour recueillir les réactions et retours d’informations.
L’objectif est de rallier les industries, les administrations publiques et les organisations à un groupe d’Alliance européen (The European AI Alliance), qui sera informé en détails quant aux lignes directrices à adopter [23].
3.Élaborer un consensus international pour une IA centrée sur l’humain.
La commission souhaite porter son projet sur la scène internationale afin de renforcer ou d’établir une coopération internationale avec les pays qui partagent les mêmes idées à propos de l’intelligence Artificielle. L’objectif n’est pas de se limiter aux pays mais de coopérer également avec les grandes entreprises et associations.
Enfin, le parlement européen continue de voter des lois ayant pour but de réguler l’utilisation de l’intelligence artificielle et de protéger les consommateur. Par exemple, début 2020, le parlement a voté un projet de loi relatif aux procédés de prise de décision automatisée [24]. On constate qu’au fur et à mesure des réflexions sur l’IA, les prises de décision qui étaient au début très généralistes et sur les grand principes, se précise sur des aspects plus techniques.
Mais alors, est-ce que l’éthique peut ralentir l’innovation ?
Certaines questions non moins essentielles se posent. L’éthique peut/va-t-elle ralentir l’innovation en terme d’intelligence artificielle ? Comment rattraper l’avance prise par les GAFAM [30] avec une législation plus contraignante ?
Ces questions sont légitimes. La Chine développe ses technologies de reconnaissances faciale à très grande vitesse et les Etats-Unis détiennent au travers des entreprises, des quantités de données gigantesques. Toutefois, en regardant ce qu’a changé le RGPD, on se rend compte que les mesures ont prévu un certain nombre d’exceptions. Ainsi, les entités qui traitent des données à caractère personnel, à des fins de recherche, pourront éviter différentes restrictions, à condition qu’elles mettent en œuvre des garanties appropriées (y compris des mesures telles que la pseudonymisation [20]).
De plus, des certifications d’algorithmes et technologies commencent à voir le jour. Par exemple, la CEPEJ (Commission Européenne pour l’Efficacité de la Justice) travaille sur la mise en place d’un mécanisme de certification des produits d’IA utilisés dans les systèmes judiciaires [31]. Ainsi, on pourrait imaginer des labels pour des technologies d’Intelligence Artificielle assurant aux consommateurs l’utilisation éthique de leurs données personnelles. Ces certifications pourraient donc les inciter à s’orienter vers des applications en adéquation avec leurs principes.
L’Éthique et l’Intelligence artificielle sont donc au coeur des débats et les pays semblent avoir pris conscience de l’évolution rapide de ces technologies. Cependant, comme nous l’avons souligné, l’éthique est subjective et seule la collaboration et la bonne volonté de tous les acteurs (utilisateurs, développeurs, entreprises, états) permettra une application intègre et transparente de tous les nouveaux principes.
Sources :
-
- Les médecins maudits – Christian Bernadac
- 1984 – George Orwell
- Bon ou mauvais Chinois – Le Monde Diplomatique – Janvier 2017 –
- Cambridge Analytica: How did it turn clicks to votes? – The guardian – Mai 2018 –
- Cambridge Analytica : Comprendre le dossier en 5min –
- Quelle a été l’importance de Cambridge Analytica dans la campagne de Trump ? – Le Monde – Mars 2018 –
- h/
- GAFAM : Google, Amazon, Facebook, Apple, Microsoft