Ce este părtinirea AI? [+ Date]

Publicat: 2023-06-06


Raportul nostru de sondaj privind starea inteligenței artificiale a observat că una dintre problemele principale pe care le întâmpină marketerii atunci când lucrează cu IA generativă este mijlocul său de a fi părtinitor.

ai părtinire

Și antreprenorii, specialiștii în vânzări brute și bărbații și femeile din companiile de consum raportează că ezită să folosească aplicații AI pur și simplu pentru că pot crea adesea detalii părtinitoare.

Este evident că profesioniștii din mediul de afaceri se tem că AI nu devine părtinitor, dar ce îl poate face părtinitor în locația inițială? În această prezentare, vom examina oportunitatea de a face rău în aplicarea AI, ilustrări ale AI părtinitoare în viața de zi cu zi adevărată și modul în care societatea poate atenua daunele potențiale.

Raport gratuit: starea inteligenței artificiale în 2023

Ce este părtinirea AI?

Prejudecățile AI este noțiunea că echipamentele care studiază algoritmii pot fi părtinitoare atunci când își îndeplinesc sarcinile programate, cum ar fi examinarea faptelor sau dezvoltarea materialului). AI este de obicei părtinitoare în metodele care susțin credințe dăunătoare, cum ar fi stereotipurile de rasă și de gen.

În conformitate cu Raportul Indexului Inteligenței Artificiale 2023, IA este părtinitoare atunci când realizează rezultate care stimulează și perpetuează stereotipurile care rănesc anumite echipe. AI este rezonabilă atunci când tinde să facă predicții sau rezultate care într-adevăr nu discriminează sau favorizează niciun grup unic.

Pe lângă faptul că devine părtinitoare în ceea ce privește prejudecățile și credințele stereotipe, IA poate fi părtinitoare și din cauza:

  • Colectarea de mostre, unde cunoștințele pe care le utilizează nu sunt reprezentative pentru populația totală, astfel încât previziunile și sfaturile sale nu pot fi generalizate sau utilizate pentru echipe
  • Măsurarea, exact acolo unde procesul de colectare a cunoștințelor este părtinitoare, IA principală pentru a face concluzii părtinitoare.

Cum reflectă părtinirea AI părtinirea societății?

AI este părtinitoare în principal pentru că societatea este părtinitoare.

Întrucât societatea modernă este părtinitoare, multe dintre informațiile pe care AI este calificată conține părtiniri și prejudecăți ale societății, așa că învață aceste părtiniri și oferă rezultate care le susțin. Pentru ilustrare, un generator de grafică căruia i s-a cerut să construiască o imagine a unui CEO ar putea realiza imagini cu bărbați albi din cauza părtinirii istorice a șomajului în cunoștințele din care a realizat.

Pe măsură ce AI devine mai obișnuită, o groază printre multe dintre ele este că are posibilitatea de a extinde părtinirile deja existente în societate, care sunt dăunătoare multor echipe distincte de bărbați și femei.

Ilustrații AI Bias

AI, Algorithmic, and Automation Incidents Controversies Repository (AIAAIC) spune că numărul de incidente și controverse AI recent revendicate a fost cu 26 de cazuri mai mare în 2021 decât în ​​2012.

grafic care afișează o creștere a incidentelor de părtinire ai

Furnizare de imagini

Să trecem peste câteva ilustrații ale părtinirii AI.

Taxele de acceptare a împrumuturilor pentru locuințe sunt un exemplu fantastic de prejudecăți în IA . S-a constatat că algoritmii sunt cu 40-80% mult mai probabil să refuze debitorii de umbră, deoarece informațiile istorice privind împrumuturile demonstrează în mod disproporționat că minoritățile devin refuzate împrumuturi și alte alternative monetare. Informațiile istorice învață AI să fie părtinitoare cu aproape fiecare aplicație potențială pe care o primește.

Există, de asemenea, oportunități de părtinire a dimensiunilor eșantionului în domeniile medicale profesionale. Să presupunem că un practician din domeniul sănătății folosește inteligența artificială pentru a evalua faptele clienților, pentru a descoperi tipare și pentru a defini sugestii de îngrijire. Dacă acest profesionist medical vede în mare parte clienți albi, sfaturile nu se bazează pe un eșantion de populație consultantă și ar putea să nu satisfacă cerințele distinctive legate de sănătate ale tuturor.

Unele firme au algoritmi care au ca rezultat crearea unei decizii finale părtinitoare pe durata reală de viață sau au construit perspectiva mult mai evidentă.

1. Algoritmul de recrutare al Amazon

Amazon a dezvoltat un algoritm de recrutare calificat pe zece mai mulți ani de informații de fundal. Cunoștințele au reflectat o forță de muncă dominată de bărbați, așa că algoritmul a realizat că este părtinitor împotriva programelor și a penaliza CV-urile de la fete sau orice CV-uri care utilizează cuvântul „femei”.

2. Decuparea imaginilor Twitter

Un tweet viral din 2020 a arătat că algoritmul Twitter a favorizat fețele albe în detrimentul celor negre atunci când decupează imagini. Un consumator alb a împărtășit frecvent fotografii care prezintă afacerea sa cu și pe cea a unui coleg de culoare și a altor fețe negre în exact aceeași imagine, iar aceasta a fost decupată în mod continuu pentru a-și prezenta experiența în previzualizări grafice.

Twitter a recunoscut părtinirea algoritmului și a explicat: „Deși analizele noastre de astăzi nu au demonstrat părtinire rasială sau de gen, înțelegem că modul în care decupăm mecanic fotografiile înseamnă că există o probabilitate de daune. Ar fi trebuit să terminăm o ocupație mult mai bună de a anticipa această probabilitate atunci când am dezvoltat și configurat acest produs sau serviciu.”

3. Recunoașterea facială rasistă a robotului

Cercetătorii au făcut cu puțin timp în urmă un studiu în care le-a cerut roboților să scaneze fețele oamenilor și să le clasifice în containere unice în funcție de caracteristicile lor, trei containere devenind medici, criminali și menajere.

Robotul a fost părtinitor în metoda sa și, cel mai adesea, a determinat fetele ca gospodine, domnii negri ca criminali, bărbații adulți latino ca purtători și fetele de toate etniile au ajuns mult mai puțin probabil să fie alese ca doctori în medicină.

4. Software-ul de verificare Intel și Classroom Technology

Aplicația de curs Intel and Classroom Technology are un atribut care ecranează fețele elevilor pentru a detecta emoțiile, deși află. Numeroși au declarat norme culturale diferite de exprimare a emoțiilor ca o probabilitate superioară ca sentimentele elevilor să fie etichetate greșit în prezent.

Dacă instructorii folosesc aceste etichete pentru a discuta cu cursanții despre stadiul lor de lucru și cu care sunt familiarizați, elevii pot fi penalizați pentru sentimentele pe care nu le manifestă cu adevărat.

Ce se poate realiza pentru a avea grijă de părtinirea AI?

Etica IA este un subiect fierbinte. Acest lucru este de înțeles pentru că părtinirea AI a fost demonstrată în existență reală în multe mijloace diverse.

Dincolo de a fi părtinitoare, AI poate dezvălui informații greșite dăunătoare, cum ar fi deepfakes, iar instrumentele AI generative pot chiar genera informații și fapte incorecte.

Ce poate fi finalizat pentru a obține o înțelegere mai bună a AI și a reduce părtinirea probabilă?

  • Supravegherea umană: oamenii din ziua de azi pot urmări rezultatele, pot evalua datele și pot face corecții atunci când se manifestă părtinire. De exemplu, agenții de marketing pot acorda o atenție deosebită rezultatelor AI generative înainte de a lucra cu ei în elementele publicitare pentru a se asigura că sunt corecte.
  • Evaluați perspectivele de părtinire: unele condiții de utilizare pentru IA au o perspectivă mai bună de a deveni prejudiciate și distructive pentru anumite comunități. În această circumstanță, persoanele pot câștiga timp pentru a evalua probabilitatea efectelor părtinitoare ale producției de inteligență artificială, cum ar fi unitățile bancare care folosesc detalii istorice prejudiciate.
  • Investiția în etica AI: una dintre cele mai esențiale tehnici pentru a reduce părtinirea AI este să existe investiții financiare continue în investigarea AI și etica AI, astfel încât oamenii de astăzi să poată concepe tactici concrete pentru a o reduce.
  • Diversificarea inteligenței artificiale: deținerea de opinii diverse în ajutoarele de inteligență artificială construiește practici imparțiale pe măsură ce indivizii își aduc propriile întâlniri trăite. O zonă numeroasă și de consultanți oferă mult mai multe șanse oamenilor de azi să realizeze potențialul de părtinire și să ofere împreună cu acesta înainte de a provoca rău.
  • Recunoașteți părtinirea umană: Toți oamenii au perspective de părtinire, indiferent dacă sunt sau nu de la o variație a experienței trăite sau a părtinirii de confirmare în timpul investigației. Persoanele care folosesc AI își pot recunoaște părtinirile pentru a fi siguri că IA nu este părtinitoare, cum ar fi oamenii de știință care câștigă siguranța că dimensiunile eșantionului lor sunt consultanți.
  • Deveniți clar: în mod normal, transparența este esențială, în special în cazul sistemelor noi. Oamenii de astăzi își pot dezvolta credința și înțelegerea cu inteligența artificială, practic generând o recunoaștere atunci când folosesc inteligența artificială, cum ar fi adăugarea unei note sub un raport de informații generat de inteligență artificială.

Este foarte posibil să utilizați AI în mod responsabil.

Inteligența artificială și fascinația pentru inteligența artificială sunt în creștere, așa că cel mai bun mod de a rămâne în fruntea posibilității de vătămare este să păstrați cunoștințele despre cum poate perpetua părtiniri nesigure și să obțineți mișcare pentru a vă asigura că utilizarea AI nu include combustibil suplimentar pentru semineul.

Vrei să descoperi mai multe despre inteligența artificială? Testați această cale de descoperire .

Îndemn nou