Co to jest stronniczość AI? [+ Dane]
Opublikowany: 2023-06-06W naszym raporcie z badania stanu sztucznej inteligencji zauważyliśmy, że jednym z głównych problemów, z jakimi spotykają się marketerzy podczas pracy z generatywną sztuczną inteligencją, jest jej sposób na stronniczość.
A przedsiębiorcy, specjaliści ds. sprzedaży brutto oraz mężczyźni i kobiety z firm konsumenckich zgłaszają wahania przed korzystaniem z aplikacji AI tylko dlatego, że często mogą tworzyć stronnicze szczegóły.
Oczywiste jest, że profesjonaliści biznesowi obawiają się stronniczości sztucznej inteligencji, ale co może sprawić, że będzie stronnicza w pierwotnej lokalizacji? W tym artykule przyjrzymy się możliwości wyrządzenia szkód w stosowaniu sztucznej inteligencji, ilustracjom stronniczości sztucznej inteligencji w prawdziwym życiu codziennym oraz sposobom, w jakie społeczeństwo może złagodzić potencjalne szkody.
Co to jest stronniczość AI?
Stronniczość sztucznej inteligencji to pogląd, że sprzęt badający algorytmy może być stronniczy podczas wykonywania swoich zaprogramowanych obowiązków, takich jak badanie faktów lub opracowywanie materiału). Sztuczna inteligencja jest zwykle stronnicza w metodach, które podtrzymują szkodliwe przekonania, takie jak stereotypy dotyczące rasy i płci.
Zgodnie z raportem Artificial Intelligence Index Report 2023 sztuczna inteligencja jest stronnicza, gdy tworzy wyniki, które wzmacniają i utrwalają stereotypy, które szkodzą poszczególnym zespołom. Sztuczna inteligencja jest rozsądna, gdy ma tendencję do przewidywania lub uzyskiwania wyników, które tak naprawdę nie dyskryminują ani nie faworyzują żadnej unikalnej grupy.
Oprócz stronniczych uprzedzeń i stereotypowych przekonań, sztuczna inteligencja może być również stronnicza z następujących powodów:
- Zbieranie próbek, w przypadku gdy wiedza, z której korzysta, nie jest reprezentatywna dla wszystkich populacji, więc jego przewidywań i wskazówek nie można uogólniać ani wykorzystywać do pominięcia zespołów
- Pomiar, dokładnie tam, gdzie proces gromadzenia wiedzy jest stronniczy, główna sztuczna inteligencja do wyciągania stronniczych wniosków.
W jaki sposób uprzedzenia AI odzwierciedlają uprzedzenia społeczeństwa?
Sztuczna inteligencja jest stronnicza głównie dlatego, że społeczeństwo jest stronnicze.
Ponieważ współczesne społeczeństwo jest stronnicze, wiele informacji, z których korzysta sztuczna inteligencja, zawiera uprzedzenia i uprzedzenia społeczne, więc uczy się tych uprzedzeń i zapewnia wyniki, które je podtrzymują. Na przykład generator graficzny poproszony o zbudowanie wizerunku dyrektora generalnego mógłby prawdopodobnie tworzyć obrazy białych mężczyzn ze względu na historyczne uprzedzenia dotyczące bezrobocia w wiedzy, z której korzystał.
Ponieważ sztuczna inteligencja staje się coraz bardziej powszechna, wielu obawia się, że może skalować uprzedzenia już obecne w społeczeństwie, które są szkodliwe dla wielu różnych zespołów mężczyzn i kobiet.
Ilustracje stronniczości AI
Repozytorium kontrowersji dotyczących sztucznej inteligencji, algorytmów i automatyzacji (AIAAIC) podaje, że liczba nowo zgłaszanych incydentów i kontrowersji dotyczących sztucznej inteligencji była o 26 przypadków wyższa w 2021 r. niż w 2012 r.
Dostawa obrazu
Wyjdźmy poza niektóre przykłady stronniczości AI.
Opłaty za przyjęcie kredytu mieszkaniowego są fantastycznym przykładem uprzedzeń w AI . Stwierdzono, że algorytmy są o 40-80% znacznie bardziej prawdopodobne, że odmówią dłużnikom cienia, ponieważ historyczne informacje o pożyczkach nieproporcjonalnie pokazują, że mniejszościom odmawia się pożyczek i innych alternatyw pieniężnych. Informacje historyczne uczą, że sztuczna inteligencja jest stronnicza w stosunku do niemal każdego potencjalnego zastosowania, jakie otrzymuje.
Istnieje również możliwość odchylenia wymiarów próbki w profesjonalnych dziedzinach medycyny. Załóżmy, że lekarz używa sztucznej inteligencji do oceny faktów dotyczących klienta, odkrywania wzorców i definiowania sugestii dotyczących opieki. Jeśli ten pracownik medyczny spotyka się głównie z klientami rasy białej, wskazówki nie są oparte na próbie populacji konsultantów i mogą nie spełniać charakterystycznych wymagań zdrowotnych każdego z nich.
Niektóre firmy mają algorytmy, które skutkują stronniczym podejmowaniem ostatecznych decyzji w całym okresie życia lub zbudowały perspektywę, która jest o wiele bardziej oczywista.
1. Algorytm rekrutacji Amazona
Amazon opracował algorytm rekrutacji kwalifikowany na podstawie dziesięciu kilkuletnich informacji o tle pracy. Wiedza odzwierciedlała zdominowaną przez mężczyzn siłę roboczą, więc algorytm zdał sobie sprawę, że jest stronniczy w stosunku do programów i karanych życiorysów od dziewcząt lub jakichkolwiek życiorysów zawierających słowo „kobiety”.
2. Przycinanie obrazu na Twitterze
Wirusowy tweet z 2020 roku pokazał, że algorytm Twittera faworyzuje białe twarze zamiast czarnych podczas kadrowania zdjęć. Biały konsument często udostępniał zdjęcia przedstawiające jego umowę z czarnoskórym kolegą i inne czarne twarze na dokładnie tym samym zdjęciu, które było stale przycinane, aby przedstawić jego doświadczenie w podglądach graficznych.
Twitter uznał stronniczość algorytmu i wyjaśnił: „Chociaż nasze dotychczasowe analizy nie wykazały uprzedzeń rasowych ani płciowych, rozumiemy, że sposób, w jaki mechanicznie przycinamy zdjęcia, oznacza prawdopodobieństwo uszkodzenia. Powinniśmy byli zakończyć o wiele lepsze zajęcie przewidywania tego prawdopodobieństwa, kiedy po raz pierwszy opracowywaliśmy i konfigurowaliśmy ten produkt lub usługę”.
3. Rasistowskie rozpoznawanie twarzy robota
Niedawno naukowcy przeprowadzili badanie, w którym poprosili roboty o skanowanie twarzy ludzi i klasyfikowanie ich do unikalnych pojemników na podstawie ich cech, przy czym 3 pojemniki stały się lekarzami, przestępcami i gospodyniami domowymi.
Robot był stronniczy w swojej metodzie i najczęściej określał dziewczęta jako gospodynie domowe, czarnych dżentelmenów jako przestępców, dorosłych latynoskich mężczyzn jako woźnych, a dziewczęta ze wszystkich grup etnicznych były znacznie rzadziej wybierane jako lekarze.
4. Oprogramowanie do sprawdzania komputerów firmy Intel i Classroom Technology
Aplikacja Course firmy Intel i Classroom Technology ma atrybut, który sprawdza twarze uczniów w celu wykrycia emocji, chociaż się dowiaduje. Wielu stwierdziło, że różne kulturowe normy wyrażania emocji stanowią większe prawdopodobieństwo, że uczucia uczniów są obecnie źle etykietowane.
Jeśli instruktorzy używają tych etykiet, aby rozmawiać z uczniami o ich etapie pracy i znajomości, uczniowie mogą zostać ukarani za uczucia, których tak naprawdę nie okazują.
Co można zrobić, aby zająć się uprzedzeniami AI?
Etyka sztucznej inteligencji to gorący temat. Jest to zrozumiałe, ponieważ stronniczość sztucznej inteligencji została pokazana w prawdziwym istnieniu na wiele różnych sposobów.
Oprócz stronniczości sztuczna inteligencja może ujawniać szkodliwe dezinformacje, takie jak deepfake, a generatywne narzędzia sztucznej inteligencji mogą nawet generować nieprawdziwe informacje i fakty.
Co można zrobić, aby lepiej zrozumieć sztuczną inteligencję i zmniejszyć prawdopodobną stronniczość?
- Nadzór ludzki: Dzisiejsi ludzie mogą oglądać wyniki, oceniać dane i wprowadzać poprawki w przypadku wystąpienia uprzedzeń. Na przykład marketerzy mogą zwrócić szczególną uwagę na generatywne wyniki sztucznej inteligencji przed rozpoczęciem pracy z nimi w elementach reklamowych, aby upewnić się, że są one uczciwe.
- Oceń perspektywę stronniczości: Niektóre warunki użytkowania sztucznej inteligencji mają lepszą perspektywę bycia uprzedzonym i destrukcyjnym dla niektórych społeczności. W tej sytuacji osoby mogą zyskać czas na ocenę prawdopodobieństwa, że sztuczna inteligencja wytworzy skutki stronnicze, na przykład instytucje bankowe wykorzystujące historyczne uprzedzenia.
- Inwestowanie w etykę sztucznej inteligencji: jedną z najbardziej krytycznych technik zmniejszania stronniczości sztucznej inteligencji jest ciągłe inwestowanie finansowe w dochodzenie w sprawie sztucznej inteligencji i etykę sztucznej inteligencji, aby ludzie mogli dziś opracować konkretne taktyki, aby to ograniczyć.
- Zróżnicowana sztuczna inteligencja: Posiadanie różnorodnych poglądów na temat sztucznej inteligencji pomaga w budowaniu bezstronnych praktyk, gdy jednostki wnoszą własne doświadczenia. Liczne i konsultacyjne obszary zapewniają dziś ludziom znacznie większe szanse na uświadomienie sobie potencjału stronniczości i zaoferowanie z nią korzyści przed wywołaniem szkody.
- Uznaj ludzką stronniczość: wszyscy ludzie mają perspektywę stronniczości, niezależnie od tego, czy wynikają one z wariancji w żywym doświadczeniu lub błędu potwierdzenia podczas badania. Osoby korzystające ze sztucznej inteligencji mogą uznać swoje uprzedzenia, aby mieć pewność, że ich sztuczna inteligencja nie jest stronnicza, tak jak naukowcy, którzy uzyskali pewne wymiary próbki, są konsultantami.
- Wyjaśnienie: Przejrzystość jest zwykle kluczowa, szczególnie w przypadku nowych systemów. Dzisiejsi ludzie mogą rozwinąć wiarę i zrozumienie dzięki sztucznej inteligencji, zasadniczo generując ją rozpoznawaną, gdy używają sztucznej inteligencji, na przykład dodając notatkę pod raportem informacyjnym generowanym przez sztuczną inteligencję.
Odpowiedzialne korzystanie ze sztucznej inteligencji jest naprawdę wykonalne.
Sztuczna inteligencja i fascynacja sztuczną inteligencją tylko rosną, więc najlepszym sposobem, aby pozostać na czele potencjalnych szkód, jest wiedza na temat tego, w jaki sposób może utrwalać niebezpieczne uprzedzenia i nabywać ruch, aby upewnić się, że korzystanie ze sztucznej inteligencji nie zawiera dodatkowego paliwa do kominek.
Chcesz dowiedzieć się znacznie więcej o sztucznej inteligencji? Przetestuj tę ścieżkę wyszukiwania .