- Avec nos pensées, nous créons le monde -
Technologie & IA

4 questions essentielles pour développer un cadre éthique à l’Intelligence Artificielle

Réflexion sur l'Intelligence Artificielle

En février à Palo Alto, un décret a été signé pour lancer l’Initiative américaine sur l’intelligence artificielle (AI), qui vise en partie à promouvoir la confiance des citoyens américains dans l’IA. Puis, en avril, les législateurs américains ont présenté la loi sur la responsabilisation algorithmique, qui régirait les systèmes de prise de décision automatisés. De même, en avril, l’Union européenne a publié ses propres directives éthiques pour évaluer les applications d’intelligence artificielle équitablement.

Toutes ces initiatives soulignent le besoin de cadres éthiques pour l’IA, d’autant plus que de plus en plus d’entreprises des “Fortune 500” (500 plus grosses sociétés du monde) utilisent cette technologie pour changer leur façon de prendre des décisions et de servir leurs clients. Selon les conclusions de la dernière étude “AI 360” de Genpact, un quart des cadres supérieurs ont l’intention de ré-imaginer fondamentalement leurs activités via l’IA et 54% prévoient de l’utiliser pour transformer leurs processus.

De tels cadres garantiraient que l’IA conduise à des décisions saines, sans effets négatifs sur des groupes ou des individus. Comme le montre l’étude sur l’IA 360, une grande majorité (78%) des consommateurs attendent des entreprises qu’elles s’attaquent activement aux préjugés et à la discrimination potentielle de l’IA. Ainsi, en mettant en place ces cadres, les organisations peuvent développer un plus grand sentiment de confiance avec les consommateurs, qui savent que leurs données et leurs informations sont utilisées de manière correcte et équitable.

Voici donc 4 questions qu’il me semble être essentielles à se poser : 

1. Utilisons-nous l’IA pour les bonnes raisons?

Avant tout déploiement d’Intelligence Artificielle, nous devrions nous demander: «Utilisons-nous l’IA pour les bonnes raisons?». Après tout, l’IA, en tant qu’outil, n’est ni bon ni mauvais. Ce qui distingue les applications éthiques est l’utilisation prévue. Par exemple, l’IA peut accélérer la prise de décision pour aboutir à une meilleure expérience client et à de meilleurs résultats. C’est pourquoi de nombreux secteurs, jadis en proie à de longs processus décisionnels, tels que les banques, les prêts et les assurances, se sont tournés vers la technologie.

Par exemple lors d’un recrutement, un programme d’IA peut revoir les descriptions de poste afin d’éliminer les préjugés sexistes non intentionnels en supprimant les mots pouvant être interprétés comme plus masculins ou féminins et en les remplaçant par des termes plus neutres. En réalité, les départements des ressources humaines peuvent utiliser l’IA pour éviter les biais dans les processus de recrutement.

Nous devrions incorporer une évaluation éthique de l’utilisation prévue avant le déploiement. De plus, une surveillance continue des modèles est nécessaire pour s’assurer qu’il n’y a aucune déviation lors de l’application par rapport à tout ce qui est contraire à l’éthique.

Homme et Machine

2. Pouvons-nous expliquer la manière de raisonner ?

Le but de l’utilisation de l’IA, ainsi que les données utilisées pour développer les modèles et les algorithmes, devraient être totalement transparents pour les consommateurs concernés. “L’explicabilité” de la manière dont une machine aboutit à sa recommandation fait également partie de cette transparence, en particulier dans les industries très réglementées.

Bien que les applications d’intelligence artificielle aujourd’hui ne soient pas encore totalement explicables, certaines peuvent fournir des pistes, ce qui nous permet de retracer une décision jusqu’à un seul point de données. Par exemple, dans le secteur du crédit commercial, l’IA peut utiliser des milliers de bilans (même avec des normes comptables et dans des langues différentes) et comprendre tout le contenu pour calculer le score de risque nécessaire pour approuver ou refuser un prêt.

Plutôt que de simplement refuser un prêt, ce qui peut nuire à l’expérience client et susciter des problèmes de conformité, les agents de crédit peuvent utiliser des applications d’intelligence artificielle avec suivi intégré. Ils peuvent cliquer sur le document ou la note de bas de page qui a conduit au score et à la recommandation puis accéder au détail. Si un auditeur demande une documentation ou si le client demande une information, l’agent peut indiquer exactement où et comment le système a pris sa décision. Cette transparence et cette possibilité d’explication instillent la confiance entre toutes les parties.

3. Pouvons-nous reconnaître et atténuer les biais de l’IA?

Les deux sources principales de biais sont les données et les équipes. Avec les données, cela signifie souvent des ensembles de données sous-représentés et déséquilibrés. Par exemple, si un service des ressources humaines utilise des données sur le personnel provenant d’un groupe homogène et essaie d’utiliser cet ensemble de données pour le recrutement, l’algorithme sera biaisé en faveur de l’échantillon initial et ne recommandera que des personnes similaires pour des postes.Le biais des équipes survient lorsque nous avons seulement un petit groupe de personnes pour former les machines. Ainsi, les algorithmes finissent par refléter inconsciemment la pensée de quelques privilégiés.

Dans le cadre d’un cadre éthique pour l’intelligence artificielle, nous devrions encourager la diversité dans les données et les équipes afin de prévenir les biais. L’objectif est de disposer de bases de données complètes, capables de traiter tous les scénarios et utilisateurs possibles. Ainsi, nous pouvons minimiser les discriminations potentielles ou les faveurs envers certains groupes en raison de la race, du sexe, de la sexualité ou de l’idéologie. Si nous manquons de données complètes, des sources de données externes et des données synthétiques peuvent combler les lacunes.

De même, nous devrions nous efforcer de former des équipes variées composées de personnes ayant des compétences et des antécédents variés. Y compris des talents numériques et dans le domaine, ou mieux encore des «bilingues», c’est-à-dire des personnes capables de penser des deux côtés de l’équation. Une équipe diversifiée peut servir de comité d’éthique pour rechercher les utilisations contraire à l’éthique selon plusieurs perspectives et surveiller les résultats indésirables.

Questions sur l'Intelligence Artificielle

4. Quel est le niveau de sécurité des données et des applications?

Lorsque nous utilisons des données pour alimenter des algorithmes, les informations doivent être sécurisées. Sinon, nous risquons les altérations et les corruptions, ce qui peut fausser les résultats aux dépens des clients. Nous devons prendre des mesures actives pour protéger les données et les applications, ainsi que pour rechercher de nouvelles vulnérabilités.

La sécurité est liée au besoin de gouvernance en matière d’IA. L’étude “AI 360” (citée plus haut) montre que 95% des entreprises déclarent prendre des mesures pour lutter contre les préjugés, mais un tiers seulement disposent des cadres de gouvernance et de contrôle interne pour le faire. Pour que l’IA fournisse des avantages éthiques à tous, nous avons besoin de tels cadres pour surveiller les modèles.


Nous devons faire attention à ces différents aspects (parmi d’autres) – déviation de l’utilisation prévue, préjugés initiaux ou émergents et préjudice potentiel pour les personnes. Une solution potentielle pourrait être un «tableau de bord de visualisation», capable de superviser toute automatisation. Un tableau de bord peut fournir une vue unique de la performance de toutes les applications de l’intelligence artificielle, de tous les robots et de toute autre automatisation intelligente, et permettre de voir rapidement si tout est sûr et conforme à l’éthique.

Au fur et à mesure que de plus en plus de sociétés du classement “Fortune 500” s’intéressent à l’IA, les gouvernements, les organismes de réglementation et les consommateurs accordent une plus grande attention à leur utilisation éthique. Il devrait être possible de pouvoir expliquer clairement pourquoi et comment l’IA utilise les données pour prendre des décisions – de manière juste et sécurisée. 

De plus, nous devons pouvoir surveiller les activités des machines afin de prévenir les complications éthiques et les scénarios imprévus. En développant un cadre éthique pour l’intelligence artificielle, les sociétés impliquées peuvent protéger les clients (nous) et renforcer la confiance que nous accordons à leur entreprises et leur technologie. 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.