Qu'est-ce que l'éthique de l'IA ?
L'éthique de l'IA fait référence aux principes qui régissent le comportement de l'IA en termes de valeurs humaines. L'éthique de l'IA permet de s'assurer que l'IA est développée et utilisée de manière bénéfique pour la société. Elle englobe un large éventail de questions, notamment l'équité, la transparence, la responsabilité, la protection de la vie privée, la sécurité et les incidences potentielles sur la société.
default
{}
default
{}
primary
default
{}
secondary
Introduction à l'éthique de l'IA
L'éthique de l'IA est une force au service du bien qui contribue à atténuer les biais injustes, à éliminer les obstacles à l'accessibilité et à accroître la créativité, parmi de nombreux autres avantages. Alors que les entreprises utilisent de plus en plus l'IA pour prendre des décisions qui ont un impact sur la vie humaine, il est essentiel qu'elles prennent en compte les implications éthiques complexes, car une mauvaise utilisation de l'IA peut nuire aux individus et à la société, ainsi qu'au résultat net et à la réputation des entreprises.
Dans cet article, nous allons explorer les sujets suivants :
- Les principes, termes et définitions courants de l'éthique de l'IA
- La création de principes d'une IA éthique pour une entreprise
- Les entités responsables de l'éthique de l'IA
- La mise en œuvre de formations, d'une gouvernance et de processus techniques en matière d'éthique de l'IA
- Les cas d'utilisation et mises en œuvre de l'éthique de l'IA
- Les références de premier plan sur l'éthique de l'IA
Quelques exemples de principes de l'éthique de l'IA
Le bien-être des personnes est au centre de toute discussion sur l'éthique de l'IA. Si les systèmes d'IA peuvent être conçus pour donner la priorité à la moralité et à l'éthique, c'est à l'homme qu'il incombe en dernier ressort de garantir une conception et une utilisation éthiques, et d'intervenir si nécessaire.
Il n'existe pas d'ensemble de principes éthiques universellement reconnus en matière d'IA. De nombreuses entreprises et agences gouvernementales consultent des experts en éthique, en droit et en IA pour élaborer leurs propres principes directeurs. Ces principes portent généralement sur les points suivants :
- Bien-être humain et dignité humaine : les systèmes d'IA devront toujours privilégier et garantir le bien-être, la sécurité et la dignité des personnes, sans remplacer les êtres humains ni compromettre leur bien-être.
- Supervision humaine : l'IA a besoin d'une surveillance humaine à chaque étape du développement et de l'utilisation (parfois appelée « l'humain dans la boucle ») pour s'assurer que la responsabilité éthique ultime incombe à un être humain.
- Biais et discriminations : les processus de conception doivent accorder la priorité à l'équité, à l'égalité et à la représentation afin d'atténuer les biais et les discriminations.
- Transparence et explicabilité : la manière dont les modèles d'IA prennent des décisions spécifiques et produisent des résultats spécifiques doit être transparente et explicable dans un langage clair.
- Confidentialité et protection des données : les systèmes d'IA doivent répondre aux normes de confidentialité et de protection des données les plus strictes, et utiliser des méthodes de cybersécurité robustes pour éviter les violations de données et les accès non autorisés.
- Inclusivité et diversité : les technologies d'IA doivent refléter et respecter le vaste éventail d'identités et d'expériences humaines.
- Société et économie : l'IA doit contribuer au progrès sociétal et à la prospérité économique de tous, sans favoriser les inégalités ou les pratiques déloyales.
- Renforcement des compétences et de la culture digitales : les technologies d'IA doivent s'efforcer d'être accessibles et compréhensibles pour tous, quelles que soient les compétences de chacun sur le plan du digital.
- État de santé des entreprises : les technologies métier basées sur l'IA doivent accélérer les processus, booster l'efficacité et promouvoir la croissance.
Termes et définitions de l'éthique de l'IA
Parce qu'elles se situent à l'intersection de l'éthique et des hautes technologies, les conversations sur l'IA éthique font souvent appel à un vocabulaire issu de ces deux domaines. Il est important de comprendre ce vocabulaire pour pouvoir discuter de l'éthique de l'IA :
-
IA : capacité d'une machine à exécuter des fonctions cognitives que nous associons aux esprits humains, telles que la perception, le raisonnement, l'apprentissage et la résolution de problèmes. Il existe deux types principaux de systèmes d'IA, et certains systèmes sont une combinaison des deux :
- L'IA basée sur des règles, également appelée IA experte, se comporte selon un ensemble de règles entièrement définies créées par des experts humains. Par exemple, de nombreuses plateformes e-commerce utilisent une IA basée sur des règles pour fournir des recommandations de produits.
- L'IA basée sur l'apprentissage résout des problèmes et adapte ses fonctionnalités par elle-même, en fonction de son ensemble de données d'entraînement et de sa configuration initiale conçue par l'homme ; les outils d'IA générative sont des exemples d'IA basée sur l'apprentissage.
Éthique de l'IA : ensemble de valeurs, de principes et de techniques qui s'appuient sur des normes largement acceptées de bien et de mal pour guider la conduite morale dans le développement, le déploiement, l'utilisation et la vente des technologies d'IA.
Modèle d'IA : cadre mathématique créé par des personnes et entraîné sur des données qui permet aux systèmes d'IA d'effectuer certaines tâches en identifiant des schémas, en prenant des décisions et en prédisant les résultats. Les utilisations les plus courantes sont la reconnaissance d'images et la traduction, entre autres.
Système d'IA : structure complexe d'algorithmes et de modèles conçus pour imiter le raisonnement humain et exécuter des tâches de manière autonome.
Agentivité : capacité des individus à agir de manière indépendante et à faire des choix libres.
Biais : penchant ou préjugé pour ou contre une personne ou un groupe, en particulier d'une manière considérée comme injuste. Les biais dans les données d'entraînement, tels que la sous-représentation ou la surreprésentation de données reliées à un certain groupe, peuvent amener l'IA à agir de manière biaisée.
Explicabilité : capacité à répondre à la question « Qu'a fait la machine pour parvenir à ce résultat ? ». L'explicabilité fait référence au contexte technologique du système d'IA, comme ses mécanismes, ses règles et algorithmes, ainsi que ses données d'entraînement.
Équité : traitement ou comportement impartial et juste sans favoritisme injuste ou discrimination.
Humain dans la boucle : capacité des êtres humains à intervenir dans chaque cycle de décision d'un système d'IA.
Interprétabilité : possibilité pour les personnes de comprendre le contexte réel et l'impact des résultats d'un système d'IA, par exemple lorsque l'IA est utilisée pour aider à prendre une décision concernant l'approbation ou le rejet d'une demande de prêt.
Grand modèle de langage (LLM) : type de Machine Learning souvent utilisé dans les tâches de reconnaissance et de génération de texte.
Machine Learning : sous-ensemble de l'IA qui permet aux systèmes d'apprendre automatiquement, de s'améliorer à partir de l'expérience et de s'adapter aux nouvelles données sans être explicitement programmés pour le faire.
Normativité : contexte clé de l'éthique pratique qui s'intéresse à ce que les personnes et les institutions « doivent » ou « devraient » faire dans des situations particulières.
Transparence : associée à l'explicabilité, la transparence est la capacité à justifier comment et pourquoi un système d'IA est développé, mis en œuvre et utilisé, et à rendre ces informations visibles et compréhensibles pour les personnes.
Comment mettre en œuvre des principes pour l'éthique de l'IA
Pour les entreprises, l'utilisation éthique de l'IA ne se limite pas à l'adoption de principes éthiques. Ces principes doivent être intégrés dans tous les processus techniques et opérationnels de l'IA. Si l'intégration de l'éthique peut sembler complexe pour les entreprises qui adoptent rapidement l'IA, des cas réels de dégâts causés par des problèmes de conception et d'utilisation de modèles d'IA montrent qu'il peut être risqué et coûteux de négliger l'éthique.
Les entités responsables de l'éthique de l'IA
Pour faire court, toutes les personnes impliquées dans l'IA, dont les entreprises, les gouvernements, les consommateurs et les citoyens.
Les différents rôles de chacun dans l'éthique de l'IA
- Les développeurs et les chercheurs jouent un rôle crucial dans la création de systèmes d'IA qui privilégient l'intervention et la supervision humaines, s'attaquent aux biais et aux discriminations, et sont transparents et explicables.
- Les décideurs et organismes de réglementation établissent des lois et réglementations pour régir l'utilisation éthique de l'IA et protéger les droits des personnes.
- Les dirigeants d'entreprise et sectoriels s'assurent que leurs organisations adoptent les principes de l'IA éthique afin d'utiliser l'IA de manière à contribuer positivement à la société.
- Les entreprises de la société civile plaident pour l'utilisation éthique de l'IA, jouent un rôle dans la supervision et fournissent un soutien aux communautés concernées.
- Les institutions universitaires contribuent à l'éducation, à la recherche et à l'élaboration de lignes directrices éthiques.
- Les utilisateurs finaux et les utilisateurs concernés, comme les consommateurs et les citoyens, ont tout intérêt à s'assurer que les systèmes d'IA sont explicables, interprétables, équitables, transparents et bénéfiques pour la société.
Le rôle des chefs d'entreprise dans l'éthique de l'IA
De nombreuses entreprises établissent des comités dirigés par leurs cadres supérieurs pour élaborer leurs politiques de gouvernance de l'IA. Chez SAP, par exemple, nous avons mis en place un comité consultatif et un comité de pilotage de l'éthique de l'IA, composé d'experts en éthique et en technologie, afin d'intégrer nos principes d'IA éthique dans l'ensemble de nos produits et opérations. Voici les attributs clés de ces principes :
- Proportionnalité et innocuité
- Sûreté et sécurité
- Équité et non-discrimination
- Durabilité
- Droit au respect de la vie privée et protection des données
- Surveillance et décision humaines
- Transparence et explicabilité
- Responsabilité et redevabilité
- Sensibilisation et maîtrise technique
- Gouvernance et collaboration multipartites et adaptatives
Mise en place d'un comité de pilotage de l'éthique de l'IA
La mise en place d'un comité de pilotage est essentielle pour gérer l'approche d'une entreprise en matière d'éthique de l'IA et assurer la responsabilité et la supervision au plus haut niveau. Ce comité veille à ce que les considérations éthiques soient intégrées dans le développement et le déploiement de l'IA.
Bonnes pratiques pour la mise en place d'un comité de pilotage de l'éthique de l'IA
- Composition et expertise : inclure un mélange diversifié de parties prenantes possédant une expertise en matière d'IA, de droit et d'éthique. Les conseillers externes peuvent offrir des perspectives impartiales.
- Définition de l'intention et du périmètre : définir clairement la mission et les objectifs du comité, en mettant l'accent sur la conception, la mise en œuvre et l'exploitation éthiques de l'IA. Ce processus doit s'aligner sur les valeurs de l'entreprise, l'équité, la transparence et la confidentialité.
- Définition des rôles et responsabilités : décrire les rôles spécifiques des membres, tels que l'élaboration de politiques sur l'éthique de l'IA, la prestation de conseils sur les questions d'éthique dans les projets d'IA et la garantie du respect des réglementations
- Définition d'objectifs : définir des objectifs clairs et mesurables tels que la réalisation d'un audit éthique annuel des projets d'IA et l'offre d'une formation trimestrielle sur l'éthique de l'IA
- Création de procédures : établir des procédures opérationnelles, notamment des calendriers de réunions, des normes de documentation et des protocoles de communication pour assurer la transparence
- Formation et adaptation continues : rester au fait des nouveautés en matière de technologies d'IA, de normes éthiques et de réglementations grâce à des formations et des conférences régulières
Création d'une politique d'éthique de l'IA
L'élaboration d'une politique d'éthique de l'IA est essentielle pour guider les initiatives d'IA au sein d'une entreprise. De par son expertise diversifiée, le comité de pilotage joue un rôle essentiel dans ce processus, en veillant à ce que la politique respecte les lois, les normes et les principes éthiques plus larges.
Exemple d'approche pour la création d'une politique d'éthique de l'IA
-
Rédaction de la politique initiale : commencez par rédiger une politique qui reflète les valeurs fondamentales, les exigences légales et les bonnes pratiques de l'entreprise. Ce premier jet servira de base pour apporter des améliorations ultérieures.
-
Consultations et contributions : interagissez avec les parties prenantes internes et externes, y compris les développeurs d'IA, les dirigeants d'entreprise et les experts en éthique, pour que la politique soit exhaustive et représentative de multiples points de vue.
-
Intégration d'insights interdisciplinaires : tirez parti des divers horizons des membres du comité pour incorporer des insights issus de la technologie, de l'éthique, du droit et des affaires afin d'aborder les aspects complexes de l'éthique de l'IA.
-
Définition de cas d'utilisation à haut risque et interdits : par souci de clarté, le comité doit définir les utilisations de l'IA qui présentent des risques importants ou qui sont considérées comme contraires à l'éthique et, par conséquent, interdites. Le comité de pilotage de SAP, par exemple, classe ces utilisations comme suit :
- Utilisations à risque élevé : cette catégorie inclut les utilisations qui peuvent être dommageables de quelque manière que ce soit, notamment en matière d'application de la loi, de migration et de processus démocratiques, ainsi que les utilisations qui impliquent des données à caractère personnel, la prise de décision automatisée ou qui ont un impact sur le bien-être social. Ces utilisations doivent faire l'objet d'une évaluation approfondie par le comité avant le développement, le déploiement ou la vente.
- Utilisations interdites : les utilisations permettant l'espionnage humain, la discrimination, la désanonymisation des données conduisant à l'identification d'un individu ou d'un groupe, la manipulation de l'opinion publique ou la remise en cause des débats démocratiques sont interdites. SAP considère ces utilisations comme hautement contraires à l'éthique et interdit leur développement, leur déploiement et leur vente.
-
Examen et révisions : examinez et révisez en permanence la politique sur la base des commentaires, en veillant à ce qu'elle reste pertinente et adaptée au monde réel.
-
Finalisation et approbation : soumettez la politique finalisée à l'approbation définitive des décideurs, tels que le conseil d'administration, avec le soutien affirmé du comité.
-
Mise en œuvre et supervision continue : le comité doit surveiller la mise en œuvre de la politique et la mettre à jour périodiquement pour tenir compte des nouveaux développements technologiques et éthiques.
Établissement d'un processus d'examen de la conformité
Il est essentiel de développer des processus efficaces d'examen de la conformité pour garantir que les déploiements d'IA respectent les politiques et réglementations de l'entreprise en matière d'éthique de l'IA. Ces processus contribuent à établir une relation de confiance avec les utilisateurs et les organismes de réglementation et servent à atténuer les risques et à respecter les pratiques éthiques dans tous les projets d'IA.
Processus types d'examen de la conformité
- Élaboration d'un cadre d'examen standardisé : formuler un cadre complet qui définit les procédures d'évaluation des projets d'IA par rapport aux directives éthiques, aux normes légales et aux exigences opérationnelles.
- Classification des risques : classer les projets d'IA en fonction de leurs risques éthiques et réglementaires. Les projets à haut risque, tels que ceux qui traitent des données à caractère personnel sensibles ou qui ont un impact significatif sur la prise de décision, requièrent un degré élevé de contrôle.
- Audits et évaluations réguliers : effectuer des audits réguliers pour vérifier la conformité continue, impliquant à la fois des contrôles automatisés et des examens manuels par des équipes interdisciplinaires.
- Implication des parties prenantes : impliquer un groupe diversifié de parties prenantes dans le processus d'examen, notamment des experts en éthique, des experts juridiques, des scientifiques des données et des utilisateurs finaux, afin de repérer les risques potentiels et les problèmes d'éthique.
- Documentation et transparence : conserver des registres détaillés de toutes les activités de conformité, en veillant à ce qu'ils soient accessibles et clairs pour les audits internes et externes.
- Mécanismes de feedback et de remontée : mettre en œuvre des procédures claires pour le reporting et la résolution des problèmes d'éthique et de conformité.
Mise en œuvre technique des pratiques d'éthique de l'IA
L'intégration de considérations éthiques dans le développement de l'IA implique d'adapter les pratiques technologiques actuelles pour garantir que les systèmes sont créés et déployés de manière responsable. En plus d'établir des principes d'éthique de l'IA, les entreprises créent parfois des principes d'IA responsable, qui peuvent être plus axés sur leurs cas d'utilisation techniques et sectoriels spécifiques.
Exigences techniques clés pour les systèmes d'IA éthiques
Détection et atténuation des biais : utilisez divers ensembles de données et méthodes statistiques pour détecter et corriger les biais dans les modèles d'IA. Menez des audits réguliers pour surveiller les biais.
Transparence et explicabilité : développez des systèmes que les utilisateurs peuvent facilement comprendre et vérifier, à l'aide de méthodes telles que les scores d'importance des fonctionnalités, les arbres de décision et les explications indépendantes du modèle pour améliorer la transparence.
Confidentialité et sécurité des données : assurez-vous que les données des systèmes d'IA sont gérées en toute sécurité et respectent les lois sur la confidentialité. Les systèmes doivent utiliser le chiffrement, l'anonymisation et des protocoles sécurisés pour protéger l'intégrité des données.
Conception robuste et fiable : les systèmes d'IA doivent être durables et fiables dans diverses conditions, en intégrant des tests et une validation approfondis pour gérer efficacement les scénarios inattendus.
Suivi et mise à jour continus : assurez une surveillance continue pour évaluer les performances de l'IA et la conformité éthique, en mettant à jour les systèmes selon les besoins en fonction des nouvelles données ou de l'évolution des conditions.
Implication et feedback des parties prenantes : impliquez les parties prenantes, telles que les utilisateurs finaux, les experts en éthique et les experts métier, dans les processus de conception et de développement afin de recueillir des commentaires et de s'assurer que le système est conforme aux exigences éthiques et opérationnelles.
Formation de l'entreprise à l'éthique de l'IA
Une formation complète est essentielle pour s'assurer que les collaborateurs comprennent l'éthique de l'IA et puissent travailler de manière responsable avec les technologies d'IA. La formation permet également d'améliorer l'intégrité et l'efficacité des outils et solutions d'IA des entreprises.
Éléments clés d'un programme efficace de formation à l'IA
- Développement de programmes complets : optez pour un programme de formation qui aborde les notions de base de l'IA, les considérations éthiques, les problèmes de conformité et les applications pratiques, que vous adapterez aux différents rôles organisationnels, comme le personnel technique ou la direction.
- Modules de formation spécifiques au rôle : proposez des modules de formation personnalisés en fonction des besoins et des responsabilités propres aux différents services. Par exemple, les développeurs pourront se former aux pratiques de codage éthique, tandis que les équipes commerciales et marketing se formeront aux implications de l'IA dans les interactions avec les clients.
- Formation et mises à jour continues : l'IA évolue rapidement ; il est donc important de tenir les programmes de formation à jour en fonction des derniers développements et des bonnes pratiques les plus récentes.
- Expériences d'apprentissage interactives et pratiques : appuyez-vous sur des études de cas, des simulations et des ateliers pour illustrer les applications concrètes et les défis éthiques afin d'étayer les connaissances théoriques par une expérience pratique.
- Évaluation et certification : réalisez des évaluations pour mesurer la compréhension et la maîtrise par les collaborateurs de l'éthique de l'IA et envisagez de proposer une certification pour reconnaître et encourager l'amélioration continue.
- Mécanismes de feedback : mettez en place des canaux de feedback permettant aux collaborateurs de contribuer au perfectionnement continu des programmes de formation, en veillant à ce qu'ils répondent à l'évolution des besoins de l'entreprise.
Cas d'utilisation de l'éthique de l'IA pour les différents rôles de l'entreprise
Tous les membres d'une entreprise qui travaillent avec des applications optimisées par l'IA, ou avec des moteurs de réponse IA, doivent être prudents face au risque de biais de l'IA et doivent travailler de manière responsable. Voici quelques exemples de cas d'utilisation de l'éthique de l'IA pour différents rôles ou départements :
- Scientifiques des données ou ingénieurs en Machine Learning : pour ces rôles, il est recommandé d'incorporer des méthodes de détection et d'atténuation des biais, de garantir l'explicabilité des modèles et d'améliorer les modèles. Cela implique des techniques telles que les métriques d'équité et l'analyse contrefactuelle.
- Gestionnaires de produits et analystes métier : les responsabilités liées à l'éthique de l'IA peuvent aller de l'évaluation des risques éthiques à l'élaboration de stratégies de communication claires pour expliquer les systèmes d'IA aux utilisateurs et aux parties prenantes, en passant par la conception centrée sur l'utilisateur. Il s'agit de prendre en compte les impacts sociétaux potentiels, les besoins des utilisateurs et d'instaurer la confiance par la transparence.
- Service juridique et de conformité : les cas d'utilisation critiques sont la conformité aux réglementations pertinentes (par exemple, les lois sur la confidentialité des données), la gestion des risques juridiques et de réputation associés à l'IA et l'élaboration de stratégies pour atténuer les responsabilités résultant de biais algorithmiques ou de conséquences involontaires
- Professionnels RH : le service RH doit travailler avec des outils de recrutement optimisés par l'IA, exempts de préjugés et conformes aux lois anti-discrimination. Les tâches impliquent l'audit d'algorithmes, la mise en œuvre de systèmes avec humain dans la boucle et la formation aux pratiques de recrutement éthiques avec l'IA.
Références en matière d'éthique de l'IA
L'éthique de l'IA est complexe, façonnée par l'évolution des réglementations, des normes juridiques, des pratiques industrielles et des avancées technologiques. Les entreprises doivent se tenir au courant des changements de politiques susceptibles de les impacter et travailler avec les parties prenantes concernées pour déterminer les politiques qui s'appliquent à elles. La liste ci-dessous n'est pas exhaustive, mais elle donne une idée de l'éventail des ressources que les entreprises devraient consulter en fonction de leur secteur d'activité et de leur région.
Exemples de références et de ressources en matière d'éthique de l'IA
Rapport de l'ACET sur l'intelligence artificielle au service de la politique économique : cette étude du Centre africain pour la transformation économique évalue les considérations économiques et éthiques de l'IA dans le but de guider les politiques économiques, financières et industrielles inclusives et durables à travers l'Afrique.
AlgorithmWatch : organisation de défense des droits humains qui préconise et développe des outils pour la création et l'utilisation de systèmes algorithmiques qui protègent la démocratie, l'État de droit, la liberté, l'autonomie, la justice et l'égalité.
Guide de l'ASEAN sur la gouvernance et l'éthique de l'IA : guide pratique pour les États membres de l'Association des nations de l'Asie du Sud-Est aidant à concevoir, à développer et à déployer les technologies d'IA de manière éthique et productive.
AI Watch de la Commission européenne : le Centre commun de recherche de la Commission européenne fournit des conseils pour créer des systèmes d'IA dignes de confiance, notamment des rapports et des tableaux de bord spécifiques aux pays pour aider à surveiller le développement, l'adoption et l'impact de l'IA en Europe.
Rapport de la NTIA sur la responsabilité en matière d'IA : ce rapport de la National Telecommunications and Information Administration propose des mesures volontaires, réglementaires et autres pour garantir la légalité et la fiabilité des systèmes d'IA aux États-Unis.
Principes de l'OCDE sur l'IA : ce rassemblement de pays et de groupes de parties prenantes s'efforce d'élaborer une IA digne de confiance. En 2019, il a facilité l'adoption des principes de l'OCDE en matière d'IA, la première norme intergouvernementale sur l'IA. Ces principes ont également servi de base aux principes du G20 sur l'IA.
Recommandation de l'UNESCO relative à l'éthique de l'intelligence artificielle : ce cadre de recommandation de l'Agence des Nations Unies a été adopté par 193 États membres après un processus de consultation mondial de deux ans avec des experts et des parties prenantes.
Conclusion
En conclusion, le développement et le déploiement éthiques de l'IA nécessitent une approche à multiples facettes. Les entreprises doivent établir des principes éthiques clairs, les intégrer dans les processus de développement de l'IA et assurer une conformité continue par le biais de solides programmes de gouvernance et de formation. En donnant la priorité à des valeurs centrées sur l'humain telles que l'équité, la transparence et la responsabilité, les entreprises peuvent exploiter le pouvoir de l'IA de manière responsable, tout en stimulant l'innovation et en atténuant les risques potentiels, et en veillant à ce que ces technologies profitent à la société dans son ensemble.
Ressources SAP
Plus de cas d'utilisation et de conseils sur l'éthique de l'IA
Obtenez des conseils approfondis sur la mise en œuvre de pratiques éthiques en matière d'IA dans le Manuel d'éthique SAP AI.