O que é viés de IA? [+ Dados]

Publicados: 2023-06-06


Nosso relatório de pesquisa sobre o estado da IA ​​observou que um dos principais problemas que os profissionais de marketing enfrentam ao trabalhar com IA generativa é sua maneira de ser tendencioso.

viés ai

E empresários, especialistas em vendas brutas e homens e mulheres de empresas de consumo relatam hesitar em usar aplicativos de IA simplesmente porque muitas vezes podem criar detalhes tendenciosos.

É evidente que os profissionais de negócios temem que a IA seja tendenciosa, mas o que pode torná-la tendenciosa no local inicial? Nesta postagem, examinaremos a possibilidade de danos ao aplicar a IA, exemplos de IA sendo tendenciosa na vida real e como a sociedade pode mitigar possíveis danos.

Relatório Gratuito: O Estado da Inteligência Artificial em 2023

O que é viés de IA?

O viés da IA ​​é a noção de que o equipamento que estuda algoritmos pode ser tendencioso ao realizar suas funções programadas, como examinar fatos ou desenvolver material). A IA geralmente é tendenciosa em métodos que defendem crenças prejudiciais, como raça e estereótipos de gênero.

De acordo com o Relatório de Índice de Inteligência Artificial 2023, a IA é tendenciosa quando produz resultados que impulsionam e perpetuam estereótipos que prejudicam equipes específicas. A IA é razoável quando tende a fazer previsões ou resultados que realmente não discriminam ou favorecem nenhum grupo específico.

Além de ser tendencioso em preconceitos e crenças estereotipadas, a IA também pode ser tendenciosa pelo motivo de:

  • Coleta de amostras, onde o conhecimento que utiliza não é representativo de populações totais, portanto suas previsões e dicas não podem ser generalizadas ou usadas para equipes deixadas de lado
  • A medição, exatamente onde o processo de coleta de conhecimento é tendencioso, leva a IA a tirar conclusões tendenciosas.

Como o viés da IA ​​reflete o viés da sociedade?

A IA é tendenciosa principalmente porque a sociedade é tendenciosa.

Uma vez que a sociedade moderna é tendenciosa, muitas das informações em que a IA é qualificada contêm preconceitos e preconceitos da sociedade, então ela aprende esses preconceitos e fornece resultados que os sustentam. Por exemplo, um gerador gráfico solicitado a criar a imagem de um CEO poderia criar imagens de homens brancos por causa do viés histórico do desemprego no conhecimento a partir dele.

À medida que a IA se torna mais comum, um temor entre muitos é que ela possa escalar os preconceitos já existentes na sociedade que são prejudiciais a muitos grupos diferentes de homens e mulheres.

Ilustrações de viés de IA

O Repositório de Controvérsias de Incidentes de IA, Algorítmica e Automação (AIAAIC) diz que o número de incidentes e controvérsias de IA recém-reclamados foi 26 vezes melhor em 2021 do que em 2012.

gráfico exibindo um aumento nos incidentes de viés de IA

Fornecimento de imagem

Vamos além de alguns exemplos de viés de IA.

As taxas de aceitação de empréstimos imobiliários são um exemplo fantástico de preconceito em IA . Algoritmos foram encontrados para ser 40-80% mais propensos a negar os devedores de sombra porque a informação histórica de empréstimo mostra desproporcionalmente minorias sendo negados empréstimos e outras alternativas monetárias. As informações históricas ensinam a IA a ser tendenciosa com praticamente todos os aplicativos em potencial que obtém.

Também há oportunidade para viés de dimensões de amostra em áreas médicas profissionais. Digamos que um profissional de saúde use IA para avaliar os fatos do cliente, descobrir padrões e definir sugestões de cuidados. Se esse médico atende principalmente clientes brancos, as dicas não são baseadas em uma amostra da população de consultores e podem não atender às necessidades específicas de saúde de todos.

Algumas empresas têm algoritmos que resultam na tomada de decisão final tendenciosa ao longo da vida real ou criaram o potencial para isso muito mais óbvio.

1. Algoritmo de recrutamento da Amazon

A Amazon desenvolveu um algoritmo de recrutamento baseado em dez anos de experiência profissional. O conhecimento refletia uma força de trabalho dominada por homens, então o algoritmo percebeu ser tendencioso contra programas e currículos penalizados de meninas ou qualquer currículo que empregasse a palavra “mulher(es)”.

2. Corte de imagem do Twitter

Um tweet viral em 2020 mostrou que o algoritmo do Twitter favorecia rostos brancos em vez de negros ao cortar fotos. Um consumidor branco frequentemente compartilhava fotos com seu rosto e o de um colega negro e outros rostos negros na mesma imagem, e era continuamente cortada para mostrar sua experiência em visualizações gráficas.

O Twitter reconheceu o viés do algoritmo e explicou: “Embora nossas análises atuais não tenham demonstrado preconceito racial ou de gênero, entendemos que a maneira como cortamos as fotos mecanicamente significa que há uma probabilidade de danos. Deveríamos ter feito um trabalho muito melhor de antecipar essa probabilidade quando estávamos desenvolvendo e instalando este produto ou serviço pela primeira vez.

3. Reconhecimento facial racista do robô

Pesquisadores recentemente fizeram um estudo pedindo aos robôs para digitalizar os rostos das pessoas e categorizá-los em contêineres exclusivos com base em suas características, com três contêineres sendo médicos, criminosos e donas de casa.

A robótica era tendenciosa em seu método e, na maioria das vezes, mulheres determinadas como donas de casa, cavalheiros negros como criminosos, homens latinos como zeladores e garotas de todas as etnias tinham muito menos probabilidade de serem escolhidas como médicas.

4. Software de verificação da Intel e Classroom Technology

O aplicativo Intel and Classroom Technology's Course tem um recurso que analisa os rostos dos alunos para detectar emoções durante a leitura. Muitos declararam diferentes normas culturais de expressar emoções como uma maior probabilidade de os sentimentos dos alunos serem mal rotulados.

Se os instrutores usarem esses rótulos para conversar com os alunos sobre seu estágio de trabalho e familiaridade, os alunos podem ser penalizados por sentimentos que não estão realmente demonstrando.

O que pode ser feito para cuidar do viés da IA?

A ética da IA ​​é um assunto polêmico. Isso é compreensível porque o viés da IA ​​foi demonstrado na existência real de muitas maneiras diferentes.

Além de ser tendenciosa, a IA pode revelar desinformação prejudicial, como deepfakes, e ferramentas generativas de IA podem até gerar informações e fatos factualmente incorretos.

O que pode ser feito para entender melhor a IA e reduzir o viés provável?

  • Supervisão humana: as pessoas hoje podem observar resultados, avaliar dados e fazer correções quando o viés é exibido. Por exemplo, os profissionais de marketing podem prestar atenção especial às saídas generativas de IA antes de trabalhar com elas em elementos publicitários para garantir que sejam justas.
  • Avalie a perspectiva de viés: algumas condições de uso da IA ​​têm uma perspectiva melhor de se tornarem preconceituosas e destrutivas para certas comunidades. Nesse caso, as pessoas podem ter tempo para avaliar a probabilidade de seus efeitos tendenciosos de fabricação de IA, como bancos usando dados historicamente preconceituosos.
  • Investir na ética da IA: uma das técnicas mais importantes para diminuir o viés da IA ​​é que haja investimento financeiro contínuo na investigação da IA ​​e na ética da IA, para que as pessoas possam criar táticas concretas para reduzi-la.
  • Diversificando a IA: Ter diversas visões em IA ajuda a construir práticas imparciais, pois as pessoas trazem suas próprias experiências vividas. Uma área numerosa e consultiva oferece muito mais chances para as pessoas perceberem o potencial de viés e lidar com ele antes que o dano seja induzido.
  • Reconhecer o viés humano: todas as pessoas têm o potencial de viés, seja ou não de uma variação na experiência vivida ou viés de confirmação durante a investigação. Indivíduos que usam IA podem reconhecer seus preconceitos para ter certeza de que sua IA não é tendenciosa, como cientistas que garantem que suas dimensões de amostra são consultores.
  • Ficando claro: a transparência é normalmente crucial, especialmente com novos sistemas. As pessoas podem desenvolver confiança e compreensão com a IA simplesmente tornando-a conhecida quando usam a IA, como adicionar uma nota abaixo de um relatório de informações gerado pela IA.

É muito possível usar a IA com responsabilidade.

A IA e a fascinação pela IA só estão aumentando, então a melhor maneira de ficar na liderança do possível dano é saber como ela pode perpetuar vieses inseguros e ganhar força para garantir que o uso da IA ​​não adicione combustível adicional para a lareira.

Quer descobrir muito mais sobre inteligência artificial? Teste este caminho de descoberta .

Nova frase de chamariz