Risques liés à Intelligence Artificielle

Afin de démontrer les risques d'une utilisation incontrôlée de l'intelligence artificielle, le rapport décrit dix études de cas basées sur des cas réels déjà publiés dans le monde. Un cas représente un piéton tué par une voiture autonome Uber alors qu'il traversait une route dans un endroit sombre. Apparemment, le véhicule a reconnu qu'il faisait face à un obstacle et pouvait éviter de s'y écraser, mais parce que les ingénieurs ont réduit la sensibilité du logiciel aux barrages routiers, la voiture n'a pas identifié la femme comme un obstacle pour s'arrêter et la femme a été tuée

Dans un autre cas, l'outil de détection de visage d'Amazon s'est révélé plus erroné lorsqu'il était appliqué à des personnes à la peau foncée qu'à des personnes à la peau claire. Ces cas ont été présentés dans le rapport, ainsi que huit autres cas, qui portaient, entre autres, sur la discrimination à l'encontre des demandeurs d'emploi.

Manipuler la conscience de la population civile, comme lors d'une campagne électorale; Prévision du risque de maladie; Prédiction de l'agence des prisonniers et plus...

Les auteurs du rapport, dont la rédaction a été achevée il y a quelques mois et qui est maintenant publiée pour la première fois, ont analysé les cas et rédigé une courte liste détaillant les types de défis posés par les systèmes d'intelligence artificielle - y compris la tendance à "concevoir" des valeurs, la tendance à interagir de manière excessive avec les systèmes sociaux et le risque d'atteinte à la vie privée, suite au traitement de nombreuses informations provenant de différentes sources.

Par conséquent, afin de réduire la production de produits technologiques discriminatoires ou biaisés, le rapport recommande "d'étudier activement la population cible et d'identifier à l'avance les populations susceptibles d'être lésées ou sous-représentées par les développeurs de systèmes.

Le comité a également noté qu'il voyait une grande importance non seulement dans la consultation d'experts sociaux qui cherchent à intégrer les systèmes d'intelligence artificielle, mais aussi avec des personnes de la population cible elle-même, par le biais de "recherches à court terme" pour aider à créer un système plus juste.

Par exemple, lorsqu'il s'agit d'incorporer un système d'intelligence artificielle dans la sécurité sociale, il est conseillé de parler aux responsables de la sécurité sociale mais également aux universitaires et aux experts externes, tels que les travailleurs sociaux, les sociologues et les anthropologues, qui comprennent les secours, la pauvreté, les inégalités, etc. "L'idée n'est pas d'entendre ce qu'ils pensent de la mise en oeuvre du système, mais de mieux comprendre leurs besoins et les défis qu'un tel système peut engendrer.

Comment prévenir la discrimination et la dégradation des valeurs

Le comité a présenté une liste de valeurs que le rapport cherche à protéger: maintien de l'équité, de la transparence, de la sécurité, de la liberté de choix, de la responsabilité, de la sécurité de l'information et bien sûr des droits de l'homme, une section qui comprend la vie privée, l'intégrité du corps, les droits civils et politiques, À propos de l'autonomie personnelle, ou dans le rapport, "le maintien de la capacité d'une personne à prendre des décisions intelligentes" et "la prévention d'une influence injuste ou inconsciente d'un comportement individuel". La Commission a également explicitement abordé la valeur de la compétitivité et cité le marché libre à côté de ces valeurs.

En conséquence, un élément clé du rapport est un ensemble de règles élaborées par la Commission pour aider ou développer des organismes utilisant les technologies de .l'intelligence artificielle de manière à maintenir cette liste de valeurs. Le comité a intégré les valeurs et les études de cas mentionnées dans le modèle en huit étapes qui caractérise le développement des systèmes d'intelligence artificielle. La combinaison de ces données a créé une carte montrant la prévalence des phénomènes éthiques à différentes étapes du processus de développement de produits. La carte est destinée à servir d'outil aux développeurs dans la conception d'un projet d'intelligence artificielle afin qu'ils puissent prendre en compte la plupart de ses implications potentielles pour les valeurs fixées par le comité. Bien qu'il ne s'agisse pas d'une liste obligatoire, il est possible qu'entre les recommandations du rapport, la base de valeur et la future base d'application soient
semées. Selon le rapport, les "principes éthiques importants" comprennent "la recherche d'une égalité réelle, la prévention des biais (dans l'information, le processus, le produit), la prévention de la discrimination et la prévention des disparités sociales, économiques et éducatives croissantes". Ailleurs dans le rapport, il a noté que "la Commission recommande que tous les praticiens dans le domaine de l'intelligence artificielle soient responsables d'agir légalement et éthiquement" et que "ceux qui sont impliqués dans le domaine doivent rester à jour". Immédiatement après, une recommandation a été émise indiquant que "le non-respect de ces conditions peut être considéré comme une "négligence"
En outre, le rapport décrit les limites du futur traitement sur le terrain. Le comité a identifié quatre options pour réglementer le domaine: à travers la législation, le développement juridique, la réglementation professionnelle et l'autorégulation non juridique. Pour aider les parties concernées à adapter de manière optimale le type de réglementation au problème qu'elles tentent de réglementer, le rapport énumère les avantages et les inconvénients de chacune, ainsi que des recommandations sur le type de réglementation qu'il convient d'utiliser face à divers défis. Par exemple, le rapport fait valoir que la réglementation non juridique donne un avantage aux acteurs puissants et par conséquent, la Commission recommande d'utiliser cette mesure uniquement dans
ce qu'elle appelle des "zones à faible risque" ou alternativement dans des "zones à haut risque" - où le développement technologique est plus rapide que l'avenue juridique. Dans certains cas, la Commission a spécifiquement recommandé à un organisme particulier d'assumer la responsabilité. En ce qui concerne les informations personnelles, le rapport recommande que «la principale autorité de régulation soit «l'autorité de protection de la vie privée, L'État, perdra s'il n'y a pas d'organe pour résoudre le problème".
Afin de mettre en oeuvre les recommandations du rapport, le Comité d'éthique et de réglementation recommande "de mettre en place un mécanisme de coordination interne gouvernemental interne", qui coordonnera le traitement de l'affaire et coordonnera les actions des différents organes concernés. Comme cela a déjà été publié dans "Globes", dans le projet de rapport de l'Initiative générale sur l'intelligence artificielle - qui comprend les recommandations des 15 comités, dont l'un est le Comité sur l'intelligence artificielle -, il a été proposé de créer un organe qui fonctionnerait sous la tutelle du Cabinet du Premier ministre Cependant, le comité d'éthique, qui a également évoqué la nécessité de créer un tel organe "n'a pas discuté des caractéristiques de l'appareil", mais s'est contenté de satisfaire à une recommandation générale de créer une telle fonction S'adressant à «Globes», le président du comité, le professeur Nahon, a expliqué qu '«il doit y avoir une unité centrale qui s'occupe de cette question. Il n'y a aucun moyen de contenir cette question. S'il n'y a pas de siège social, cela signifie que celui qui donne le ton est l'industrie. Je ne suis pas contre l'industrie, mais il faut comprendre que cela signifie que l'intérêt du public n'a pas nécessairement la priorité comme son principal intérêt. L'industrie fait un travail important, mais il est impossible de promouvoir un domaine comme l'intelligence artificielle sans une coopération étroite entre l'industrie et les pouvoirs publics Nahon a souligné que cela ne signifie pas la création d'un grand organisme avec de nombreuses normes: "C'est un organisme limité. Il est absolument nécessaire, si ce n'est pas le cas,  la perte sera infiniment plus grande que l'argent qui lui est alloué.