Qu'est-ce que le biais de l'IA ? [+ Données]
Publié: 2023-06-06Notre rapport d'enquête sur l'état de l'IA a observé que l'un des principaux problèmes rencontrés par les spécialistes du marketing lorsqu'ils travaillent avec l'IA générative est sa façon d'être biaisé.
Et les entrepreneurs, les spécialistes des ventes brutes et les hommes et femmes des entreprises de consommation déclarent hésiter à utiliser les applications d'IA simplement parce qu'elles peuvent souvent créer des détails biaisés.
Il est évident que les professionnels craignent que l'IA ne soit biaisée, mais qu'est-ce qui peut la rendre biaisée à l'origine ? Dans cet article, nous examinerons les possibilités de préjudice dans l'application de l'IA, des illustrations de l'IA biaisée dans la vraie vie quotidienne et la manière dont la société peut atténuer les dommages potentiels.
Qu'est-ce que le biais de l'IA ?
Le biais de l'IA est la notion selon laquelle l'équipement qui étudie les algorithmes peut être biaisé lors de l'exécution de leurs tâches programmées, comme l'examen de faits ou le développement de matériel). L'IA est généralement biaisée dans les méthodes qui maintiennent des croyances néfastes, comme les stéréotypes de race et de genre.
Selon le rapport sur l'indice d'intelligence artificielle 2023, l'IA est biaisée lorsqu'elle produit des résultats qui renforcent et perpétuent les stéréotypes qui nuisent à des équipes particulières. L'IA est raisonnable lorsqu'elle a tendance à faire des prédictions ou des résultats qui ne discriminent ou ne favorisent aucun groupe unique.
En plus d'être biaisée par les préjugés et les croyances stéréotypées, l'IA peut également être biaisée pour les raisons suivantes :
- Collecte d'échantillons, où les connaissances qu'il utilise ne sont pas représentatives de la population totale, de sorte que ses prédictions et ses conseils ne peuvent pas être généralisés ou utilisés pour des équipes laissées de côté
- La mesure, là où le processus de collecte de données est biaisé, oblige l'IA à tirer des conclusions biaisées.
Comment les préjugés de l'IA reflètent-ils les préjugés de la société ?
L'IA est biaisée principalement parce que la société est biaisée.
Étant donné que la société moderne est biaisée, une grande partie des informations sur lesquelles l'IA est qualifiée contient les préjugés et les préjugés de la société, elle apprend donc ces préjugés et fournit des résultats qui les respectent. À titre d'illustration, un générateur graphique chargé de construire une image d'un PDG pourrait éventuellement créer des images d'hommes blancs en raison du biais historique du chômage dans les connaissances qu'il a réalisées.
Au fur et à mesure que l'IA devient de plus en plus courante, beaucoup redoutent qu'elle ait la possibilité d'étendre les préjugés déjà présents dans la société qui nuisent à de nombreuses équipes distinctes d'hommes et de femmes.
Illustrations de biais IA
L'AI, Algorithmic, and Automation Incidents Controversies Repository (AIAAIC) indique que le nombre d'incidents et de controverses liés à l'IA nouvellement signalés était de 26 cas supérieur en 2021 à celui de 2012.
Fourniture d'image
Allons au-delà de quelques illustrations du biais de l'IA.
Les frais d'acceptation de prêt immobilier sont un exemple fantastique de préjugés en matière d'IA . Les algorithmes se sont avérés 40 à 80% plus susceptibles de refuser les débiteurs de l'ombre, car les données historiques sur les prêts montrent de manière disproportionnée que les minorités se voient refuser des prêts et d'autres alternatives monétaires. Les informations historiques apprennent à l'IA à être biaisée avec à peu près toutes les applications potentielles qu'elle obtient.
Il existe également une possibilité de biais des dimensions de l'échantillon dans les domaines médicaux professionnels. Supposons qu'un professionnel de la santé utilise l'IA pour évaluer les faits des clients, découvrir des modèles et définir des suggestions de soins. Si ce professionnel de la santé voit principalement des clients blancs, les conseils ne sont pas basés sur un échantillon de la population de consultants et peuvent ne pas satisfaire les besoins particuliers en matière de santé de chacun.
Certaines entreprises ont des algorithmes qui aboutissent à une prise de décision finale biaisée sur la durée de vie réelle ou ont construit le potentiel pour cela de manière beaucoup plus évidente.
1. Algorithme de recrutement d'Amazon
Amazon a développé un algorithme de recrutement basé sur dix années d'expérience professionnelle. Les connaissances reflétaient une main-d'œuvre à prédominance masculine, de sorte que l'algorithme s'est rendu compte qu'il était biaisé contre les programmes et pénalisait les CV des filles ou tout CV employant le mot "femme(s)".
2. Recadrage des images Twitter
Un tweet viral en 2020 a montré que l'algorithme de Twitter favorisait les visages blancs par rapport aux types noirs lors du recadrage des images. Un consommateur blanc partageait fréquemment des photos montrant son contrat avec et celui d'un collègue noir et d'autres visages noirs dans la même image, et elle était continuellement recadrée pour présenter son expérience dans des aperçus graphiques.
Twitter a reconnu le biais de l'algorithme et a expliqué : "Bien que nos analyses à ce jour n'aient pas démontré de préjugés raciaux ou sexistes, nous comprenons que la façon dont nous recadrons mécaniquement les photos signifie qu'il y a un risque de dommage. Nous aurions dû faire un bien meilleur travail d'anticipation de cette probabilité lorsque nous avons développé et mis en place ce produit ou service pour la première fois.
3. Reconnaissance faciale raciste du robot
Il y a peu de temps, des chercheurs ont mené une étude demandant à des robots de scanner les visages des personnes et de les classer dans des conteneurs uniques en fonction de leurs caractéristiques, 3 conteneurs devenant des médecins, des criminels et des femmes au foyer.
Le robot était biaisé dans sa méthode et déterminait le plus souvent les filles comme femmes au foyer, les messieurs noirs comme des criminels, les hommes adultes latinos comme concierges et les filles de toutes les ethnies étaient moins susceptibles d'être choisies comme médecins.
4. Logiciel informatique de vérification d'Intel et de Classroom Technology
L'application de cours d'Intel et de Classroom Technology a un attribut qui filtre les visages des étudiants pour détecter les émotions tout en les découvrant. Beaucoup ont déclaré que différentes normes culturelles d'expression des émotions étaient une probabilité supérieure que les sentiments des élèves soient actuellement mal étiquetés.
Si les instructeurs utilisent ces étiquettes pour discuter avec les apprenants de leur étape de travail et de leur familiarité, les étudiants peuvent être pénalisés pour des sentiments qu'ils n'affichent pas vraiment.
Que peut-on accomplir pour prendre en charge le biais de l'IA ?
L'éthique de l'IA est un sujet brûlant. Cela est compréhensible car le biais de l'IA a été démontré dans son existence réelle de différentes manières.
En plus d'être biaisée, l'IA peut diffuser des informations erronées nuisibles, comme les deepfakes, et les outils d'IA générative peuvent même générer des informations et des faits factuellement incorrects.
Que peut-on faire pour mieux comprendre l'IA et réduire le biais probable ?
- Surveillance humaine : Aujourd'hui, les gens peuvent regarder les résultats, évaluer les données et apporter des corrections en cas de biais. Par exemple, les spécialistes du marketing peuvent accorder une attention particulière aux résultats de l'IA générative avant de travailler avec eux dans des éléments publicitaires pour s'assurer qu'ils sont équitables.
- Évaluer le potentiel de partialité : certaines conditions d'utilisation de l'IA ont un meilleur potentiel pour devenir préjudiciables et destructeurs pour certaines communautés. Dans ce cas, les gens peuvent acquérir le temps d'évaluer la probabilité de leurs effets biaisés sur la fabrication de l'IA, comme les établissements bancaires utilisant des informations historiquement préjudiciables.
- Investir dans l'éthique de l'IA : L'un des moyens les plus importants pour réduire le biais de l'IA est qu'il y ait un investissement financier continu dans la recherche sur l'IA et l'éthique de l'IA, afin que les gens puissent concevoir des tactiques concrètes pour le réduire.
- Diversification de l'IA : Posséder des points de vue divers sur l'IA aide à créer des pratiques impartiales à mesure que les individus apportent leurs propres expériences vécues. Un domaine nombreux et consultatif offre beaucoup plus de chances aux gens de réaliser le potentiel de partialité et d'offrir avec lui avant que des dommages ne soient induits.
- Reconnaître les préjugés humains : toutes les personnes sont susceptibles d'être biaisées, qu'elles proviennent ou non d'une variance dans l'expérience vécue ou d'un biais de confirmation au cours de l'enquête. Les personnes utilisant l'IA peuvent reconnaître leurs préjugés pour s'assurer que leur IA n'est pas biaisée, comme les scientifiques qui gagnent certaines dimensions de leur échantillon sont des consultants.
- Être clair : La transparence est normalement cruciale, en particulier avec les nouveaux systèmes. Aujourd'hui, les gens peuvent développer la croyance et la compréhension de l'IA en la faisant reconnaître lorsqu'ils utilisent l'IA, comme ajouter une note sous un rapport d'information généré par l'IA.
Il est vraiment très faisable d'utiliser l'IA de manière responsable.
L'IA et la fascination pour l'IA ne font qu'augmenter, donc la meilleure façon de rester à la tête du danger potentiel est de rester informé sur la façon dont il peut perpétuer des biais dangereux et acquérir du mouvement pour s'assurer que votre utilisation de l'IA n'incorpore pas de carburant supplémentaire pour la cheminée.
Envie d'en savoir plus sur l'intelligence artificielle ? Testez ce chemin de découverte .