Cos'è il pregiudizio dell'IA? [+ Dati]

Pubblicato: 2023-06-06


Il nostro rapporto sull'indagine sullo stato dell'IA ha osservato che uno dei problemi principali che i professionisti del marketing incontrano quando lavorano con l'IA generativa è il suo modo di essere prevenuto.

pregiudizio ai

E imprenditori, specialisti delle vendite lorde e uomini e donne di aziende di consumo riferiscono di esitare a utilizzare le applicazioni di intelligenza artificiale semplicemente perché spesso possono creare dettagli distorti.

È evidente che i professionisti aziendali temono che l'IA diventi prevenuta, ma cosa può renderla prevenuta nella posizione iniziale? In questo post, esamineremo la possibilità di danni nell'applicazione dell'IA, esempi di AI che sono prevenuti nella vera vita di tutti i giorni e come la società può mitigare i potenziali danni.

Rapporto gratuito: lo stato dell'intelligenza artificiale nel 2023

Cos'è il pregiudizio dell'IA?

Il pregiudizio dell'IA è l'idea che le apparecchiature che studiano gli algoritmi possono essere distorte quando svolgono i loro compiti programmati, come l'esame di fatti o lo sviluppo di materiale). L'intelligenza artificiale è solitamente prevenuta nei metodi che sostengono credenze dannose, come gli stereotipi di razza e genere.

Secondo l'Artificial Intelligence Index Report 2023, l'IA è prevenuta quando produce risultati che aumentano e perpetuano gli stereotipi che danneggiano determinati team. L'intelligenza artificiale è ragionevole quando tende a fare previsioni o risultati che in realtà non discriminano o favoriscono alcun gruppo unico.

Oltre a essere prevenuta nei pregiudizi e nelle convinzioni stereotipate, l'intelligenza artificiale può anche essere prevenuta per il motivo che:

  • Raccolta di campioni, in cui la conoscenza che utilizza non è rappresentativa delle popolazioni totali, quindi le sue previsioni e suggerimenti non possono essere generalizzati o utilizzati per i team esclusi
  • La misurazione, esattamente dove il processo di raccolta della conoscenza è distorto, porta l'IA a trarre conclusioni distorte.

In che modo il pregiudizio dell'IA riflette il pregiudizio della società?

L'intelligenza artificiale è di parte principalmente perché la società è di parte.

Poiché la società moderna è prevenuta, molte delle informazioni su cui l'IA è qualificata contengono pregiudizi e pregiudizi della società, quindi apprende questi pregiudizi e fornisce risultati che li sostengono. Ad esempio, un generatore grafico a cui è stato chiesto di creare un'immagine di un amministratore delegato potrebbe creare immagini di maschi bianchi a causa del pregiudizio storico della disoccupazione nella conoscenza da cui è stato realizzato.

Poiché l'intelligenza artificiale risulta essere più comune, un timore tra molti è che sia in grado di ridimensionare i pregiudizi già presenti nella società che sono dannosi per molti gruppi distinti di uomini e donne.

Illustrazioni di pregiudizio AI

L'AI, Algorithmic, and Automation Incidents Controversies Repository (AIAAIC) afferma che il numero di nuovi incidenti e controversie relativi all'IA è stato di 26 volte migliore nel 2021 rispetto al 2012.

grafico che mostra un aumento degli incidenti di polarizzazione dell'IA

Fornitura di immagini

Andiamo oltre alcuni esempi di bias AI.

Le spese di accettazione del mutuo per la casa sono un fantastico esempio di pregiudizio nell'IA . È stato riscontrato che gli algoritmi sono 40-80% molto più probabile che neghino i debitori dell'ombra perché le informazioni storiche sui prestiti dimostrano in modo sproporzionato che le minoranze vengono negate prestiti e altre alternative monetarie. Le informazioni storiche insegnano all'IA a essere prevenuta con quasi tutte le potenziali applicazioni che ottiene.

C'è anche la possibilità di distorsione delle dimensioni del campione nei campi medici professionali. Supponiamo che un operatore sanitario utilizzi l'intelligenza artificiale per valutare i fatti del cliente, scoprire schemi e definire suggerimenti di assistenza. Se quel professionista medico vede principalmente clienti bianchi, i suggerimenti non si basano su un campione di popolazione di consulenti e potrebbero non soddisfare le esigenze di salute distintive di tutti.

Alcune aziende hanno algoritmi che si traducono nella creazione di decisioni finali distorte nel corso della vita reale o ne hanno costruito la prospettiva molto più ovvia.

1. Algoritmo di reclutamento di Amazon

Amazon ha sviluppato un algoritmo di reclutamento qualificato su dieci anni di esperienza lavorativa. La conoscenza rifletteva una forza lavoro dominata dagli uomini, quindi l'algoritmo si è reso conto di essere prevenuto nei confronti dei programmi e dei curriculum penalizzati delle ragazze o di qualsiasi curriculum che utilizza la parola "donne (e)".

2. Ritaglio di immagini di Twitter

Un tweet virale nel 2020 ha mostrato che l'algoritmo di Twitter ha favorito i volti bianchi rispetto ai tipi neri durante il ritaglio delle immagini. Un consumatore bianco condivideva spesso fotografie con il suo affare e quello di un collega nero e altri volti neri nella stessa identica immagine, e veniva continuamente ritagliato per presentare la sua esperienza in anteprime grafiche.

Twitter ha riconosciuto il pregiudizio dell'algoritmo e ha spiegato: “Sebbene le nostre analisi odierne non abbiano dimostrato pregiudizi razziali o di genere, comprendiamo che il modo in cui ritagliamo meccanicamente le immagini significa che c'è una probabilità di danno. Avremmo dovuto fare un lavoro molto migliore per anticipare questa probabilità quando abbiamo sviluppato e installato per la prima volta questo prodotto o servizio.

3. Riconoscimento facciale razzista del robot

I ricercatori hanno recentemente condotto uno studio chiedendo ai robot di scansionare i volti delle persone e classificarli in contenitori unici in base alle loro caratteristiche, con 3 contenitori che diventano medici, criminali e casalinghe.

Il robot era di parte nel suo metodo e molto spesso determinate donne come casalinghe, uomini neri come criminali, uomini adulti latini come custodi e ragazze di tutte le etnie finivano per essere molto meno propense a essere scelte come medici.

4. Software per il controllo del computer Intel e Classroom Technology

L'applicazione per i corsi di Intel e Classroom Technology ha una caratteristica che controlla i volti degli studenti per rilevare le emozioni durante l'apprendimento. Molti hanno affermato che diverse norme culturali per esprimere le emozioni sono una maggiore probabilità che i sentimenti degli studenti vengano etichettati erroneamente.

Se gli istruttori usano queste etichette per chattare con gli studenti sulla loro fase di lavoro e con cui hanno familiarità, gli studenti possono essere penalizzati per i sentimenti che non stanno realmente mostrando.

Cosa si può fare per prendersi cura del pregiudizio dell'IA?

L'etica dell'IA è un argomento caldo. Ciò è comprensibile dal momento che il pregiudizio dell'IA è stato mostrato nella realtà in molti modi diversi.

Oltre a essere prevenuta, l'intelligenza artificiale può diffondere disinformazione dannosa, come i deepfake, e gli strumenti di intelligenza artificiale generativa possono persino generare informazioni e fatti effettivamente errati.

Cosa si può fare per ottenere una maggiore comprensione dell'intelligenza artificiale e ridurre il probabile pregiudizio?

  • Supervisione umana: le persone oggi possono guardare i risultati, valutare i dati e apportare correzioni quando si manifestano pregiudizi. Ad esempio, i professionisti del marketing possono prestare particolare attenzione ai risultati dell'IA generativa prima di lavorare con loro negli elementi pubblicitari per assicurarsi che siano corretti.
  • Valutare la prospettiva di parzialità: alcune condizioni d'uso per l'IA hanno una migliore prospettiva di diventare pregiudizievoli e distruttive per determinate comunità. In questa circostanza, le persone possono acquisire il tempo per valutare la probabilità dei loro effetti distorti sulla produzione di intelligenza artificiale, come gli istituti bancari che utilizzano dettagli storicamente pregiudizievoli.
  • Investire nell'etica dell'IA: una delle tecniche più critiche per ridurre il pregiudizio dell'IA è che ci siano investimenti finanziari continui nell'indagine sull'IA e nell'etica dell'IA, in modo che le persone oggi possano escogitare tattiche concrete per ridurlo.
  • Diversificare l'intelligenza artificiale: avere punti di vista diversi nell'IA aiuta a costruire pratiche imparziali mentre le persone portano i propri incontri vissuti. Un'area numerosa e di consulenza offre molte più possibilità alle persone oggi di realizzare il potenziale di pregiudizio e offrire con esso prima che venga indotto un danno.
  • Riconoscere il pregiudizio umano: tutte le persone hanno la possibilità di un pregiudizio, sia che si tratti di una variazione dell'esperienza vissuta o di un pregiudizio di conferma durante l'indagine. Gli individui che utilizzano l'intelligenza artificiale possono riconoscere i propri pregiudizi per essere certi che la loro intelligenza artificiale non sia distorta, come gli scienziati che si assicurano che le loro dimensioni del campione siano consulenti.
  • Chiarezza: la trasparenza è normalmente cruciale, in particolare con i nuovi sistemi. Le persone oggi possono sviluppare fiducia e comprensione con l'IA semplicemente facendola riconoscere quando usano l'IA, come aggiungere una nota sotto un report informativo generato dall'IA.

È davvero molto fattibile usare l'IA in modo responsabile.

L'intelligenza artificiale e il fascino per l'IA stanno solo aumentando, quindi il modo migliore per rimanere al passo con i possibili danni è rimanere informati su come può perpetuare pregiudizi pericolosi e acquisire movimento per assicurarsi che l'uso dell'IA non incorpori ulteriore carburante per il caminetto.

Vuoi scoprire molto di più sull'intelligenza artificiale? Prova questo percorso di scoperta .

Nuovo invito all'azione