¿Qué es el sesgo de la IA? [+ Datos]

Publicado: 2023-06-06


Nuestro Informe de encuesta sobre el estado de la IA observó que uno de los principales problemas que experimentan los especialistas en marketing cuando trabajan con IA generativa es su forma de ser sesgado.

ai sesgo

Y los empresarios, los especialistas en ventas y los hombres y mujeres de las empresas de consumo informan que dudan en usar aplicaciones de IA porque a menudo pueden crear detalles sesgados.

Es evidente que los empresarios temen que la IA se sesgue, pero ¿qué puede hacer que se sesgue en el primer lugar? En esta publicación, examinaremos la posibilidad de daño al aplicar la IA, ejemplos de cómo la IA está sesgada en la vida cotidiana real y cómo la sociedad puede mitigar el daño potencial.

Informe gratuito: El estado de la inteligencia artificial en 2023

¿Qué es el sesgo de la IA?

El sesgo de IA es la noción de que los equipos que estudian algoritmos pueden estar sesgados cuando realizan sus tareas programadas, como examinar hechos o desarrollar material). La IA generalmente está sesgada en métodos que defienden creencias dañinas, como los estereotipos de raza y género.

De acuerdo con el Informe del Índice de Inteligencia Artificial 2023, la IA está sesgada cuando genera resultados que impulsan y perpetúan estereotipos que perjudican a equipos particulares. La IA es razonable cuando tiende a hacer predicciones o resultados que realmente no discriminan ni favorecen a ningún grupo en particular.

Además de estar sesgada por los prejuicios y las creencias estereotipadas, la IA también puede estar sesgada por las siguientes razones:

  • Recopilación de muestras, donde el conocimiento que utiliza no es representativo de las poblaciones totales, por lo que sus predicciones y consejos no pueden generalizarse ni usarse para equipos excluidos.
  • Medición, exactamente donde el proceso de recopilación de conocimientos está sesgado, principal IA para sacar conclusiones sesgadas.

¿Cómo refleja el sesgo de la IA el sesgo de la sociedad?

La IA está sesgada principalmente porque la sociedad está sesgada.

Dado que la sociedad moderna está sesgada, gran parte de la información en la que se califica la IA contiene los sesgos y prejuicios de la sociedad, por lo que aprende estos sesgos y proporciona resultados que los defienden. Por ejemplo, un generador gráfico al que se le pidió que creara una imagen de un director ejecutivo podría crear imágenes de hombres blancos debido al sesgo histórico en el desempleo en los datos a partir de los cuales se basó.

A medida que la IA se vuelve más común, un temor entre muchos es que tiene la posibilidad de escalar los sesgos ya existentes en la sociedad que son dañinos para muchos equipos distintos de hombres y mujeres.

Ilustraciones de sesgo de IA

El Repositorio de controversias sobre incidentes de IA, algorítmicos y de automatización (AIAAIC) dice que la cantidad de incidentes y controversias de IA reclamados recientemente fue 26 veces mayor en 2021 que en 2012.

gráfico que muestra un aumento en los incidentes de sesgo de IA

suministro de imagen

Vayamos más allá de algunos ejemplos de sesgo de IA.

Los cargos por aceptación de préstamos hipotecarios son un fantástico ejemplo de prejuicio en la IA . Se ha descubierto que los algoritmos tienen entre un 40 y un 80 % más de probabilidades de denegar a los deudores de sombra porque la información crediticia histórica muestra de manera desproporcionada que a las minorías se les niegan préstamos y otras opciones monetarias. La información histórica le enseña a la IA a estar sesgada con casi todas las aplicaciones potenciales que recibe.

También existe la posibilidad de sesgo de las dimensiones de la muestra en los campos médicos profesionales. Digamos que un profesional de la salud usa IA para evaluar los datos del cliente, descubrir patrones y definir sugerencias de atención. Si ese médico atiende principalmente a clientes blancos, los consejos no se basan en una muestra de población consultora y es posible que no satisfagan las necesidades médicas específicas de todos.

Algunas empresas tienen algoritmos que resultan en la toma de decisiones finales sesgadas de por vida o han hecho que la perspectiva sea mucho más evidente.

1. Algoritmo de reclutamiento de Amazon

Amazon desarrolló un algoritmo de reclutamiento basado en diez años de experiencia laboral. Los datos reflejaban una fuerza de trabajo dominada por hombres, por lo que el algoritmo se dio cuenta de que estaba sesgado en contra de los programas y penalizó los currículums de las niñas o cualquier currículum que empleara la palabra "mujer(es)".

2. Recorte de imágenes de Twitter

Un tweet viral en 2020 mostró que el algoritmo de Twitter favorecía las caras blancas sobre las negras al recortar imágenes. Un consumidor blanco a menudo compartía fotografías que mostraban su rostro y el de un colega negro y otros rostros negros en la misma imagen, y se recortaba continuamente para mostrar su experiencia en vistas previas gráficas.

Twitter reconoció el sesgo del algoritmo y explicó: “Si bien nuestros análisis hasta el día de hoy no han demostrado un sesgo racial o de género, entendemos que la forma en que recortamos automáticamente las imágenes significa que existe la posibilidad de daño. Deberíamos haber hecho un mejor trabajo de anticipar esta probabilidad cuando estábamos desarrollando e implementando este producto o servicio por primera vez”.

3. Reconocimiento facial racista del robot

Hace poco tiempo, los investigadores realizaron un estudio pidiendo a los robots que escaneen los rostros de las personas y los clasifiquen en contenedores únicos según sus características, con 3 contenedores que se convierten en médicos, delincuentes y amas de casa.

El robot estaba sesgado en su método y, en la mayoría de los casos, determinaba a las mujeres como amas de casa, los hombres negros como delincuentes, los hombres latinos como conserjes y las mujeres de todas las etnias tenían menos probabilidades de ser elegidas como médicos.

4. Intel y Classroom Technology's Checking Computer software

La aplicación del curso de Intel y Classroom Technology tiene una función que examina los rostros de los estudiantes para detectar emociones mientras aprende. Muchos han declarado diferentes normas culturales de expresar emociones como una mayor probabilidad de que los sentimientos de los estudiantes sean mal etiquetados.

Si los instructores usan estas etiquetas para conversar con los alumnos sobre su etapa de trabajo y con la que están familiarizados, los estudiantes pueden ser penalizados por sentimientos que realmente no están mostrando.

¿Qué se puede lograr para solucionar el sesgo de la IA?

La ética de la IA es un tema candente. Esto es comprensible porque el sesgo de AI se ha demostrado en la realidad de muchas maneras diferentes.

Más allá de ser sesgada, la IA puede revelar información errónea dañina, como deepfakes, y las herramientas generativas de IA pueden incluso generar información y hechos objetivamente incorrectos.

¿Qué se puede hacer para comprender mejor la IA y reducir el posible sesgo?

  • Supervisión humana: la gente de hoy puede ver resultados, evaluar datos y hacer correcciones cuando se exhiben sesgos. Por ejemplo, los especialistas en marketing pueden prestar especial atención a los resultados generativos de IA antes de trabajar con ellos en elementos publicitarios para asegurarse de que sean justos.
  • Evaluar la posibilidad de sesgo: algunas condiciones de uso de la IA tienen una mejor posibilidad de generar prejuicios y ser destructivos para ciertas comunidades. En este caso, las personas pueden tener tiempo para evaluar la probabilidad de que su IA produzca efectos sesgados, como los bancos que utilizan información históricamente sesgada.
  • Invertir en la ética de la IA: una de las técnicas más críticas para reducir el sesgo de la IA es que haya una inversión financiera constante en la investigación y la ética de la IA, para que las personas puedan idear tácticas concretas para reducirlo.
  • Diversificación de la IA: Tener diversos puntos de vista sobre las ayudas de la IA crea prácticas imparciales a medida que las personas aportan sus propias experiencias vividas. Un área numerosa y consultora ofrece muchas más oportunidades para que las personas se den cuenta del potencial de sesgo y lo aprovechen antes de que se produzca un daño.
  • Reconocer el sesgo humano: todas las personas tienen la posibilidad de sesgo, ya sea por una variación en la experiencia vivida o por un sesgo de confirmación durante la investigación. Las personas que usan IA pueden reconocer sus sesgos para asegurarse de que su IA no esté sesgada, como los científicos que se aseguran de que los tamaños de sus muestras sean consultores.
  • Ser claro: la transparencia suele ser crucial, especialmente con los nuevos sistemas. Las personas de hoy pueden desarrollar confianza y comprensión con la IA simplemente haciéndola reconocer cuando usan la IA, como agregar una nota debajo de un informe de datos generado por la IA.

Realmente es muy factible usar la IA de manera responsable.

La IA y el interés en la IA solo están aumentando, por lo que la mejor manera de mantenerse al frente de los posibles daños es conocer cómo puede perpetuar los sesgos inseguros y tomar medidas para asegurarse de que su uso de la IA no incorpore combustible adicional para la chimenea.

¿Quieres descubrir mucho más sobre la inteligencia artificial? Pruebe este camino de aprendizaje .

Nueva llamada a la acción