Ethique et IA : quelques mots

By Fanny Asukulu , 07 October 2020
Fanny  
Asukulu
Legal advisor

"L'éthique dans l'intelligence artificielle", probablement l'un des sujets les plus recherchés sur Google dans le domaine de l'intelligence artificielle. Et en tapant ces mots clés sur le célèbre moteur de recherche, le mot "problème" apparaît 7 fois dans la première page des résultats de recherche. L'éthique est en effet souvent associée au champ sémantique de la "préoccupation". Pourquoi ? Pour illustrer cette question intéressante, permettez-moi de vous donner l'analogie suivante : l'éthique est au développement de l'IA ce que la durabilité est à un projet commercial - des défis considérés comme des problèmes plutôt que des opportunités. Si l'on considère le défi de la durabilité, beaucoup sont tombés dans le piège du greenwashing. Ils se sont contentés d'aborder l'idée de durabilité au lieu de considérer cette nouvelle perspective comme un véritable tremplin pour un changement paradigmatique de notre économie et de notre société.

Qu'en est-il de l'éthique de l'IA ? Est-ce plus qu'un nouveau sujet à la mode ?

PREMIÈRE CHOSE : QU'EST-CE QUE L'AI ? QU'EST-CE QUE L'ÉTHIQUE ?

Avant de plonger dans les considérations éthiques, il convient de s'entendre sur la définition de l'IA. Dans la conscience collective, le terme IA est fait de faits et de craintes entremêlés d'imaginaire, de science et de fiction créant ainsi une sorte de mythe qui ne ressemble que de loin à ce qu'est réellement l'IA. La difficulté à appréhender la notion d'IA constitue un obstacle à la compréhension des différentes formes que peut prendre l'IA dans la pratique, ce qui ne contribue pas à un climat de confiance. Dans le cadre de cet article de blog, nous limiterons le terme générique "IA" au machine learning.

Le deuxième point à aborder est la notion d'"éthique". Il n'existe pas de définition unique de l'éthique. Parmi de nombreuses définitions, nous retiendrons celle selon laquelle l'éthique est considérée comme étant : " Un ensemble de principes moraux qui régissent le comportement d'une personne ou la conduite d'une activité[1] ".

Si l'on met de côté ce qui doit être considéré comme moral ou non, la définition souligne bien l'idée que les principes moraux sont à la base des comportements et des décisions. En d'autres termes, le cœur de l'approche éthique est d'essayer d'aborder les questions morales qui peuvent être soulevées par l'émergence de l'IA.

POURQUOI DEVRIONS-NOUS NOUS PRÉOCCUPER DE L'ÉTHIQUE DANS L'IA ?

L'une des raisons pour lesquelles l'éthique est importante est qu'une réflexion active et intentionnelle à ce sujet contribue au développement d'une relation de confiance avec l'IA. Une autre raison est que l'interaction qu'une machine peut avoir avec les humains, bien qu'elle ne soit pas particulière à l'IA, a un impact sur de nombreuses questions différentes (sécurité, autonomie, risque, responsabilité, etc.), ce qui rend nécessaire une réflexion éthique claire. L'éthique est importante parce qu'une telle réflexion permet d'anticiper les problèmes éventuels susmentionnés.

Si nous sommes d'accord sur la nécessité de prendre en compte l'éthique, nous pouvons nous demander pourquoi elle est plus importante dans le domaine de l'IA que dans n'importe quel autre domaine des technologies de l'information ? C'est parce qu'un algorithme de Machine Learning peut être amené à prendre des décisions ou à faire des actions contraires à l'éthique de son créateur et indépendamment de sa volonté. Ce facteur "indépendance" induisant une forte probabilité de "dérives inconscientes" est vraiment spécifique à l'IA et fait de l'éthique un point crucial dans toute la mise en place d'un projet d'IA.

LES LIGNES DIRECTRICES ÉTHIQUES POUR UNE INTELLIGENCE ARTIFICIELLE DIGNE DE CONFIANCE : UN PREMIER PAS

Il y a un peu plus d'un an, la Commission européenne, avec l'aide d'un groupe d'experts (High-Level Expert Group on Artificial Intelligence), a mis en place des lignes directrices visant à permettre l'émergence d'une IA digne de confiance. Bien que la réflexion éthique sur la question de l'intelligence artificielle ne soit pas encore achevée et qu'il reste encore beaucoup de chemin à parcourir, le travail de défrichage de la Commission constitue un point de départ pour une réflexion sur l'éthique et l'IA. Elle a identifié trois composantes nécessaires à une IA digne de confiance : la légalité, l'éthique et la robustesse. L'approche de la Commission européenne est holistique et considère ces trois aspects comme un tout. Mais que faut-il considérer sous chacune de ces couches ? Pour les besoins de cet article, nous nous concentrerons uniquement sur l'éthique.

Les lignes directrices européennes proposent quatre principes éthiques à prendre en compte lors de la conception, de la mise en œuvre et du déploiement d'une application d'IA :

Principe du respect de l'autonomie humaine : Selon ce principe, les personnes qui interagissent avec l'IA doivent pouvoir garder le contrôle total de leur propre détermination. Par conséquent, les systèmes d'IA doivent être conçus selon ce principe pour soutenir, compléter et suppléer les capacités humaines.

Principe de prévention des dommages : La conception d'un système d'IA doit tenir compte du fait qu'il ne doit pas avoir d'effets négatifs sur les êtres humains, que ce soit physiquement ou moralement. Ce principe doit être d'autant plus pris en compte lorsqu'un système d'IA agit dans le cadre d'une relation asymétrique (employé-employeur, citoyen-État, juge-prévention, etc.).

Principe d'équité : Qu'il s'agisse de développer ou de déployer un système d'IA, celui-ci doit être équitable. Cela implique que le système doit être exempt de préjugés injustes (entraînant une discrimination ou une stigmatisation).

Principe d'explicabilité : La transparence doit être le mot clé dans la conceptualisation d'un produit/service d'IA. Cela implique une communication sur les capacités de l'IA mais aussi sur les objectifs poursuivis, les décisions prises, etc.

"ÉTHIQUE ET IA" DE LA THÉORIE À L'APPLICATION

L'une des grandes questions auxquelles le Groupe d'experts de haut niveau sur l'intelligence artificielle de la Commission européenne n'a pas répondu est de savoir comment passer du principe à l'action ? Je peux imaginer que certains d'entre vous se disent "pourquoi s'embêter avec toutes ces questions alors que les lignes directrices européennes semblent être claires comme de l'eau de roche ?" Mais le sont-elles ?

Ralph Waldo Emerson a dit un jour : "Une once d'action vaut une tonne de théorie". Les lignes directrices européennes sont nécessaires pour comprendre les enjeux et, à cet égard, elles font du bon travail ! Elles ont récemment lancé une plateforme[2] (qui n'est encore qu'un prototype) visant à aider les entreprises à traiter les questions d'éthique dans le contexte de l'IA. Néanmoins, tous ces efforts manquent d'ancrage dans la réalité. La complexité de la réalité nécessite plus que des connaissances théoriques, elle nécessite des actions concrètes (et pas seulement une longue liste d'actions rédigées dans un soi-disant "jargon de l'IA"). Des actions simples et concrètes pourraient suffire pour commencer. Mais quelle pourrait être la première pierre à poser ?

Je suggérerais, comme nous l'avons fait au B12, de commencer par "parler". Je dois admettre que parler d'éthique dans notre travail quotidien est contre-intuitif. Nous ne l'apprenons pas à l'école et nous ne sommes pas recrutés pour nos capacités éthiques. Mais nous avons tous des sujets que nous défendons, des valeurs que nous vivons et des choix que nous préférerions ne pas faire, c'est-à-dire que nous avons tous une éthique personnelle. Se réunir, en petits groupes, et discuter de l'IA que l'on défend, des valeurs que l'on souhaite vivre en tant que scientifique des données et des choix auxquels on souhaite être préparé en tant que professionnel de l'IA est la première pierre à poser pour passer de la théorie à l'action. Plusieurs outils peuvent vous aider à engager la conversation. Le MIT a travaillé sur des [AI Blindspot Cards] (https://aiblindspot.media.mit.edu/) visant à permettre des conversations "qui peuvent aider à découvrir des angles morts potentiels lors de la planification, de la construction et du déploiement de systèmes d'IA".

Chez B12, nous travaillons actuellement à l'élaboration d'un cadre de réflexion éthique. Ce cadre englobe différents sujets et questions qui devraient être abordés lors de l'élaboration d'un système d'IA. "Qu'est-ce qui doit être considéré comme des données représentatives ? " ; " Avez-vous informé l'utilisateur des biais possibles de votre algorithme ? " ; " La solution d'IA sera-t-elle explicable à l'utilisateur final ? " ; ... Ce ne sont là que quelques-unes des questions qu'il nous a semblé nécessaire de nous poser.

Autre étape tangible et pratique : la coopération. Parvenir à une IA éthique va de pair avec une collaboration multidisciplinaire. La clé d'une mise en œuvre efficace d'une réflexion éthique réside dans la compréhension que les solutions potentielles ne sont pas détenues par une seule partie du processus de développement de l'IA, mais plutôt par un groupe plus large de spécialistes qui sont responsables de penser collectivement l'IA à partir de leurs différents domaines d'expertise.

L'un des principaux obstacles à cette coopération est le "fossé linguistique" qui peut exister entre les disciplines. Pour relever le défi de la "traduction", il doit y avoir, tout au long de la construction d'une application d'IA, des échanges réguliers entre les différents acteurs. Bien que les data scientists soient au centre du processus, les développeurs, les concepteurs, les responsables des relations avec les clients, les juristes, etc. ont leurs mots à dire. Une autre façon de formuler cela est de faire de la place de manière proactive à la table de discussion. Là où vous installez habituellement un data scientist, deux développeurs et un chef de projet, pourquoi ne pas installer un autre acteur ? Par exemple, si votre système d'IA vise à améliorer l'efficacité d'une équipe de travail, pourquoi ne pas mettre en ligne votre responsable des ressources humaines ? Si votre système d'IA est conçu pour aider les gynécologues dans leur pratique quotidienne, avez-vous prêté attention à la présence d'au moins une femme dans l'équipe ?

Grâce à la coopération, l'expertise de chacun entre en jeu, tout comme l'individualité de chacun. Qu'est-ce que cela a à voir avec l'IA ? Nous avons tous probablement entendu le terme "garbage in, garbage out" qui concerne la qualité des données utilisées pour "nourrir" l'algorithme d'IA. Si la manière dont vous alimentez votre système d'IA compte, la façon dont vous le construisez compte aussi, tout comme qui le construit. La richesse et la diversité des individus qui participent à la conception, à la mise en œuvre, à la test et à l'utilisation des systèmes d'IA jouent un rôle important dans la coopération et, par conséquent, dans la réflexion éthique. Lorsque nous considérons la diversité en termes de genre, d'origines, de couleur, d'intérêts, etc., des problèmes tels que l'injustice, les biais, les préjudices et l'autonomie humaine ne sont plus des questions théoriques, mais deviennent des problèmes concrets.

C'est l'une des raisons pour lesquelles chez B12, nous insistons sur le fait d'avoir une équipe éclectique composée de diverses compétences. Ici, les Data Scientists et moi avons trouvé un moyen de nous comprendre en débattant de cas pratiques que nous rencontrons dans nos projets ou de questions tendances liées à la législation de notre secteur (Puis-je utiliser cette base de données ? Cette base de données est-elle suffisamment diversifiée ? Quels sont les biais auxquels nous devrions nous attendre en utilisant ces données ?). Chez B12, nous croyons fermement que chaque point de vue compte et que nous avons tous quelque chose à apprendre les uns des autres. C'est pourquoi nous accordons une grande valeur à la coopération et à l'intelligence collective (vous en saurez plus ici : https://www.b12-consulting.com/how-did-collective-intelligence-help-us-in-our-management-of-the-COVID-19-crisis.html).

De plus, nous croyons que la coopération sera le point de jonction entre l'IA et l'éthique, ce qui permettra d'aboutir à une IA éthique.

"ÉTHIQUE ET IA" UN PROBLÈME OU UNE OPPORTUNITÉ ?

Le Machine learning, ou les systèmes d'IA comme nous les appelons ici, ont le potentiel de dépasser l'objectif initial de leur créateur, pour le meilleur et pour le pire. C'est précisément pourquoi l'éthique en matière d'IA est importante. Mais le dire ne rend pas automatiquement la prise en compte de l'éthique facile en pratique, c'est pourquoi je voulais souligner quelques moyens pratiques de donner une dimension concrète à l'éthique dans le contexte de l'IA : discuter et coopérer sur les questions d'éthique en matière d'IA est aussi important que la technologie d'IA que vous êtes en train de développer, et devrait donc devenir une partie intégrante du processus d'un projet d'IA.

Le cœur même de cet article visait à montrer comment l'éthique nous offre une véritable opportunité de remettre en question notre perspective et de considérer l'éthique comme une occasion de passer de la théorie à la réalité et de construire un écosystème d'IA qui tienne compte de la diversité et de la complexité de notre société. L'éthique est-elle plus qu'un nouveau sujet tendance enrobé de sucre ? Oui ! L'éthique dans le domaine de l'IA est une nouvelle opportunité de construire des systèmes d'IA qui ont du sens aujourd'hui pour demain.

Chez B12, nous voulons saisir cette opportunité, et vous ?

  1. [1]

    Oxford Dictionary on Lexico, "Ethics" ↩︎

  2. [2]

    Plateforme ALTAI ↩︎


Would you like to work with us?
Anytime, anywhere, send your CV to jobs@b12-consulting.com