20 KiB
Construire des solutions d'apprentissage automatique avec une IA responsable
Sketchnote par Tomomi Imura
Quiz pré-conférence
Introduction
Dans ce programme, vous commencerez à découvrir comment l'apprentissage automatique impacte notre vie quotidienne. Même maintenant, des systèmes et des modèles sont impliqués dans des tâches de prise de décision quotidiennes, telles que les diagnostics médicaux, les approbations de prêts ou la détection de fraudes. Il est donc important que ces modèles fonctionnent bien pour fournir des résultats fiables. Tout comme toute application logicielle, les systèmes d'IA peuvent ne pas répondre aux attentes ou avoir des résultats indésirables. C'est pourquoi il est essentiel de comprendre et d'expliquer le comportement d'un modèle d'IA.
Imaginez ce qui peut se passer lorsque les données que vous utilisez pour construire ces modèles manquent de certaines démographies, comme la race, le sexe, les opinions politiques, la religion, ou représentent de manière disproportionnée ces démographies. Que se passe-t-il lorsque la sortie du modèle est interprétée comme favorisant une certaine démographie ? Quelle est la conséquence pour l'application ? De plus, que se passe-t-il lorsque le modèle a un résultat négatif et nuit aux personnes ? Qui est responsable du comportement des systèmes d'IA ? Ce sont quelques-unes des questions que nous explorerons dans ce programme.
Dans cette leçon, vous allez :
- Prendre conscience de l'importance de l'équité dans l'apprentissage automatique et des préjudices liés à l'équité.
- Vous familiariser avec la pratique d'explorer des valeurs aberrantes et des scénarios inhabituels pour garantir la fiabilité et la sécurité.
- Comprendre la nécessité de responsabiliser tout le monde en concevant des systèmes inclusifs.
- Explorer à quel point il est vital de protéger la vie privée et la sécurité des données et des personnes.
- Voir l'importance d'adopter une approche en "boîte de verre" pour expliquer le comportement des modèles d'IA.
- Être conscient de l'importance de la responsabilité pour instaurer la confiance dans les systèmes d'IA.
Prérequis
Comme prérequis, veuillez suivre le parcours d'apprentissage "Principes de l'IA responsable" et regarder la vidéo ci-dessous sur le sujet :
En savoir plus sur l'IA responsable en suivant ce parcours d'apprentissage
🎥 Cliquez sur l'image ci-dessus pour une vidéo : L'approche de Microsoft en matière d'IA responsable
Équité
Les systèmes d'IA doivent traiter tout le monde de manière équitable et éviter d'affecter des groupes de personnes similaires de manières différentes. Par exemple, lorsque les systèmes d'IA fournissent des recommandations sur des traitements médicaux, des demandes de prêt ou des emplois, ils doivent faire les mêmes recommandations à tous ceux qui ont des symptômes, des circonstances financières ou des qualifications professionnelles similaires. Chacun de nous, en tant qu'humains, porte des biais hérités qui influencent nos décisions et actions. Ces biais peuvent être évidents dans les données que nous utilisons pour entraîner les systèmes d'IA. Une telle manipulation peut parfois se produire de manière involontaire. Il est souvent difficile de savoir consciemment quand vous introduisez un biais dans les données.
“L'inéquité” englobe les impacts négatifs, ou “préjudices”, pour un groupe de personnes, comme ceux définis en termes de race, de sexe, d'âge ou de statut de handicap. Les principaux préjudices liés à l'équité peuvent être classés comme suit :
- Allocation, si un sexe ou une ethnie, par exemple, est favorisé par rapport à un autre.
- Qualité de service. Si vous entraînez les données pour un scénario spécifique mais que la réalité est beaucoup plus complexe, cela entraîne un service de mauvaise qualité. Par exemple, un distributeur de savon liquide qui ne semble pas être capable de détecter les personnes à la peau foncée. Référence
- Dénigrement. Critiquer et étiqueter injustement quelque chose ou quelqu'un. Par exemple, une technologie de labellisation d'images a tristement étiqueté des images de personnes à la peau foncée comme des gorilles.
- Sur- ou sous-représentation. L'idée est qu'un certain groupe n'est pas vu dans une certaine profession, et tout service ou fonction qui continue à promouvoir cela contribue à nuire.
- Stéréotypage. Associer un groupe donné à des attributs préassignés. Par exemple, un système de traduction entre l'anglais et le turc peut avoir des inexactitudes en raison de mots ayant des associations stéréotypées avec le sexe.
traduction en turc
traduction en anglais
Lors de la conception et des tests des systèmes d'IA, nous devons nous assurer que l'IA est équitable et qu'elle n'est pas programmée pour prendre des décisions biaisées ou discriminatoires, ce qui est également interdit aux êtres humains. Garantir l'équité dans l'IA et l'apprentissage automatique reste un défi sociotechnique complexe.
Fiabilité et sécurité
Pour établir la confiance, les systèmes d'IA doivent être fiables, sûrs et cohérents dans des conditions normales et inattendues. Il est important de savoir comment les systèmes d'IA se comporteront dans une variété de situations, surtout lorsqu'ils sont confrontés à des cas particuliers. Lors de la création de solutions d'IA, il est nécessaire de se concentrer sur la manière de gérer une grande variété de circonstances que les solutions d'IA pourraient rencontrer. Par exemple, une voiture autonome doit placer la sécurité des personnes comme une priorité absolue. En conséquence, l'IA qui alimente la voiture doit prendre en compte tous les scénarios possibles que la voiture pourrait rencontrer, tels que la nuit, les tempêtes, les blizzards, les enfants traversant la rue, les animaux de compagnie, les travaux routiers, etc. La capacité d'un système d'IA à gérer une large gamme de conditions de manière fiable et sécurisée reflète le niveau d'anticipation que le data scientist ou le développeur d'IA a pris en compte lors de la conception ou des tests du système.
Inclusivité
Les systèmes d'IA doivent être conçus pour engager et responsabiliser tout le monde. Lors de la conception et de la mise en œuvre de systèmes d'IA, les data scientists et les développeurs d'IA identifient et abordent les barrières potentielles dans le système qui pourraient involontairement exclure des personnes. Par exemple, il y a 1 milliard de personnes handicapées dans le monde. Avec l'avancement de l'IA, elles peuvent accéder plus facilement à une large gamme d'informations et d'opportunités dans leur vie quotidienne. En s'attaquant aux barrières, cela crée des opportunités d'innover et de développer des produits d'IA offrant de meilleures expériences qui bénéficient à tous.
Sécurité et vie privée
Les systèmes d'IA doivent être sûrs et respecter la vie privée des personnes. Les gens ont moins confiance dans les systèmes qui mettent en danger leur vie privée, leurs informations ou leur vie. Lors de l'entraînement de modèles d'apprentissage automatique, nous nous appuyons sur des données pour produire les meilleurs résultats. Dans ce faisant, l'origine des données et leur intégrité doivent être prises en compte. Par exemple, les données ont-elles été soumises par l'utilisateur ou sont-elles disponibles publiquement ? Ensuite, lors du traitement des données, il est crucial de développer des systèmes d'IA capables de protéger les informations confidentielles et de résister aux attaques. À mesure que l'IA devient plus répandue, la protection de la vie privée et la sécurisation des informations personnelles et professionnelles importantes deviennent de plus en plus critiques et complexes. Les problèmes de confidentialité et de sécurité des données nécessitent une attention particulièrement étroite pour l'IA, car l'accès aux données est essentiel pour que les systèmes d'IA puissent faire des prédictions et des décisions précises et éclairées concernant les personnes.
- En tant qu'industrie, nous avons fait des avancées significatives en matière de confidentialité et de sécurité, alimentées en grande partie par des réglementations comme le RGPD (Règlement général sur la protection des données).
- Pourtant, avec les systèmes d'IA, nous devons reconnaître la tension entre le besoin de plus de données personnelles pour rendre les systèmes plus personnels et efficaces – et la vie privée.
- Tout comme avec la naissance des ordinateurs connectés à Internet, nous assistons également à une forte augmentation des problèmes de sécurité liés à l'IA.
- En même temps, nous avons vu l'IA utilisée pour améliorer la sécurité. Par exemple, la plupart des scanners antivirus modernes sont aujourd'hui alimentés par des heuristiques d'IA.
- Nous devons veiller à ce que nos processus de science des données s'harmonisent avec les dernières pratiques en matière de confidentialité et de sécurité.
Transparence
Les systèmes d'IA doivent être compréhensibles. Une partie cruciale de la transparence consiste à expliquer le comportement des systèmes d'IA et de leurs composants. Améliorer la compréhension des systèmes d'IA nécessite que les parties prenantes comprennent comment et pourquoi ils fonctionnent afin qu'elles puissent identifier les problèmes de performance potentiels, les préoccupations en matière de sécurité et de confidentialité, les biais, les pratiques d'exclusion ou les résultats inattendus. Nous croyons également que ceux qui utilisent des systèmes d'IA doivent être honnêtes et transparents sur quand, pourquoi et comment ils choisissent de les déployer, ainsi que sur les limites des systèmes qu'ils utilisent. Par exemple, si une banque utilise un système d'IA pour soutenir ses décisions de prêt à la consommation, il est important d'examiner les résultats et de comprendre quelles données influencent les recommandations du système. Les gouvernements commencent à réglementer l'IA dans divers secteurs, donc les data scientists et les organisations doivent expliquer si un système d'IA respecte les exigences réglementaires, surtout lorsqu'il y a un résultat indésirable.
- En raison de la complexité des systèmes d'IA, il est difficile de comprendre comment ils fonctionnent et d'interpréter les résultats.
- Ce manque de compréhension affecte la manière dont ces systèmes sont gérés, opérationnalisés et documentés.
- Ce manque de compréhension affecte plus important encore les décisions prises en utilisant les résultats produits par ces systèmes.
Responsabilité
Les personnes qui conçoivent et déploient des systèmes d'IA doivent être responsables du fonctionnement de leurs systèmes. Le besoin de responsabilité est particulièrement crucial avec des technologies d'utilisation sensible comme la reconnaissance faciale. Récemment, il y a eu une demande croissante pour la technologie de reconnaissance faciale, en particulier de la part des organisations d'application de la loi qui voient le potentiel de la technologie dans des utilisations comme la recherche d'enfants disparus. Cependant, ces technologies pourraient potentiellement être utilisées par un gouvernement pour mettre en danger les libertés fondamentales de ses citoyens en permettant, par exemple, une surveillance continue de personnes spécifiques. Par conséquent, les data scientists et les organisations doivent être responsables de l'impact de leur système d'IA sur les individus ou la société.
🎥 Cliquez sur l'image ci-dessus pour une vidéo : Avertissements de surveillance de masse par la reconnaissance faciale
En fin de compte, l'une des plus grandes questions pour notre génération, en tant que première génération qui intègre l'IA dans la société, est comment s'assurer que les ordinateurs restent responsables envers les personnes et comment s'assurer que les personnes qui conçoivent des ordinateurs restent responsables envers tout le monde.
Évaluation d'impact
Avant d'entraîner un modèle d'apprentissage automatique, il est important de réaliser une évaluation d'impact pour comprendre le but du système d'IA ; quelle est son utilisation prévue ; où il sera déployé ; et qui interagira avec le système. Ces éléments sont utiles pour les examinateurs ou les testeurs évaluant le système afin de savoir quels facteurs prendre en compte lors de l'identification des risques potentiels et des conséquences attendues.
Les domaines suivants sont des axes d'attention lors de la réalisation d'une évaluation d'impact :
- Impact négatif sur les individus. Être conscient de toute restriction ou exigence, d'une utilisation non prise en charge ou de toute limitation connue entravant les performances du système est vital pour s'assurer que le système n'est pas utilisé d'une manière qui pourrait nuire aux individus.
- Exigences en matière de données. Comprendre comment et où le système utilisera des données permet aux examinateurs d'explorer les exigences en matière de données dont vous devez tenir compte (par exemple, les réglementations sur les données RGPD ou HIPPA). De plus, examinez si la source ou la quantité de données est suffisante pour l'entraînement.
- Résumé de l'impact. Rassembler une liste de préjudices potentiels qui pourraient découler de l'utilisation du système. Tout au long du cycle de vie de l'apprentissage automatique, vérifiez si les problèmes identifiés sont atténués ou traités.
- Objectifs applicables pour chacun des six principes fondamentaux. Évaluer si les objectifs de chacun des principes sont atteints et s'il existe des lacunes.
Débogage avec l'IA responsable
Tout comme le débogage d'une application logicielle, le débogage d'un système d'IA est un processus nécessaire d'identification et de résolution des problèmes dans le système. De nombreux facteurs peuvent affecter un modèle qui ne fonctionne pas comme prévu ou de manière responsable. La plupart des métriques de performance des modèles traditionnels sont des agrégats quantitatifs de la performance d'un modèle, qui ne suffisent pas à analyser comment un modèle viole les principes de l'IA responsable. De plus, un modèle d'apprentissage automatique est une boîte noire qui rend difficile la compréhension des éléments qui influencent son résultat ou de fournir une explication lorsqu'il commet une erreur. Plus tard dans ce cours, nous apprendrons comment utiliser le tableau de bord de l'IA responsable pour aider à déboguer les systèmes d'IA. Le tableau de bord fournit un outil holistique pour les data scientists et les développeurs d'IA afin de réaliser :
- Analyse des erreurs. Identifier la distribution des erreurs du modèle qui peuvent affecter l'équité ou la fiabilité du système.
- Aperçu du modèle. Découvrir où se trouvent les disparités dans la performance du modèle à travers les cohortes de données.
- Analyse des données. Comprendre la distribution des données et identifier tout biais potentiel dans les données qui pourrait entraîner des problèmes d'équité, d'inclusivité et de fiabilité.
- Interprétabilité du modèle. Comprendre ce qui affecte ou influence les prédictions du modèle. Cela aide à expliquer le comportement du modèle, ce qui est important pour la transparence et la responsabilité.
🚀 Défi
Pour éviter que des préjudices ne soient introduits dès le départ, nous devrions :
- avoir une diversité de parcours et de perspectives parmi les personnes travaillant sur les systèmes
- investir dans des ensembles de données qui reflètent la diversité de notre société
- développer de meilleures méthodes tout au long du cycle de vie de l'apprentissage automatique pour détecter et corriger l'IA responsable lorsqu'elle se produit
Pensez à des scénarios réels où le manque de confiance dans un modèle est évident lors de la construction et de l'utilisation du modèle. Quoi d'autre devrions-nous considérer ?
Quiz post-conférence
Revue & Auto-apprentissage
Dans cette leçon, vous avez appris quelques bases des concepts d'équité et d'inéquité dans l'apprentissage automatique.
Regardez cet atelier pour approfondir les sujets :
- À la recherche d'une IA responsable : Mettre les principes en pratique par Besmira Nushi, Mehrnoosh Sameki et Amit Sharma
🎥 Cliquez sur l'image ci-dessus pour une vidéo : Boîte à outils RAI : un cadre open-source pour construire une IA responsable par Besmira Nushi, Mehrnoosh Sameki et Amit Sharma
Aussi, lisez :
-
Centre de ressources RAI de Microsoft : Ressources d'IA responsable – Microsoft AI
-
Groupe de recherche FATE de Microsoft : FATE : Équité, Responsabilité, Transparence et Éthique dans l'IA - Microsoft Research
Boîte à outils RAI :
Lisez à propos des outils d'Azure Machine Learning pour garantir l'équité :
Devoir
[Explorez la boîte à outils R
Avertissement :
Ce document a été traduit à l'aide de services de traduction automatique basés sur l'IA. Bien que nous nous efforçons d'assurer l'exactitude, veuillez noter que les traductions automatiques peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue natale doit être considéré comme la source autoritaire. Pour des informations critiques, une traduction humaine professionnelle est recommandée. Nous ne sommes pas responsables des malentendus ou des interprétations erronées résultant de l'utilisation de cette traduction.