Was ist KI-Bias? [+ Daten]

Veröffentlicht: 2023-06-06


In unserem Umfragebericht zum Stand der KI haben wir festgestellt, dass eines der größten Probleme, mit denen Vermarkter bei der Arbeit mit generativer KI konfrontiert sind, die Möglichkeit ist, voreingenommen zu sein.

KI-Voreingenommenheit

Und Unternehmer, Vertriebsspezialisten und Konsumgüterunternehmen zögern, KI-Anwendungen zu nutzen, weil sie oft voreingenommene Informationen liefern können.

Es ist offensichtlich, dass Geschäftsleute befürchten, dass KI voreingenommen werden könnte, aber was kann dazu führen, dass KI überhaupt voreingenommen wird? In diesem Beitrag untersuchen wir das Schadenspotenzial beim Einsatz von KI, Beispiele dafür, wie KI im Alltag voreingenommen ist, und wie die Gesellschaft potenzielle Schäden abmildern kann.

Kostenloser Bericht: Der Stand der künstlichen Intelligenz im Jahr 2023

Was ist KI-Bias?

Unter KI-Voreingenommenheit versteht man die Vorstellung, dass Algorithmen zur Geräteforschung bei der Ausführung ihrer programmierten Aufgaben (wie der Untersuchung von Fakten oder der Entwicklung von Material) voreingenommen sein können. KI ist in der Regel voreingenommen bei Methoden, die schädliche Überzeugungen wie Rassen- und Geschlechterstereotypen aufrechterhalten.

Laut dem Artificial Intelligence Index Report 2023 ist KI voreingenommen, wenn sie Ergebnisse liefert, die Stereotypen verstärken und aufrechterhalten, die bestimmten Teams schaden. KI ist sinnvoll, wenn sie dazu neigt, Vorhersagen zu treffen oder Ergebnisse zu erzielen, die keine einzelne Gruppe wirklich diskriminieren oder begünstigen.

KI kann nicht nur aufgrund von Vorurteilen und stereotypen Überzeugungen voreingenommen sein, sondern auch aus folgenden Gründen voreingenommen sein:

  • Stichprobensammlung, bei der das verwendete Wissen nicht repräsentativ für die Gesamtpopulation ist, sodass die Vorhersagen und Tipps nicht verallgemeinert oder auf ausgeschlossene Teams angewendet werden können
  • Messung, genau dort, wo der Wissenserfassungsprozess voreingenommen ist, Haupt-KI, um voreingenommene Schlussfolgerungen zu ziehen.

Wie spiegelt die KI-Voreingenommenheit die Voreingenommenheit der Gesellschaft wider?

KI ist voreingenommen, vor allem weil die Gesellschaft voreingenommen ist.

Da die moderne Gesellschaft voreingenommen ist, enthalten viele der Informationen, auf die sich die KI spezialisiert hat, Vorurteile und Vorurteile der Gesellschaft, sodass sie diese Vorurteile lernt und Ergebnisse liefert, die sie aufrechterhalten. Zum Beispiel könnte ein Grafikgenerator, der das Bild eines CEO erstellen soll, aufgrund der historischen Tendenz zur Arbeitslosigkeit in den Daten, aus denen er gelernt hat, möglicherweise Bilder von weißen Männern erstellen.

Da KI immer häufiger zum Einsatz kommt, befürchten viele, dass sie die in der Gesellschaft bereits bestehenden Vorurteile, die für viele verschiedene Gruppen von Menschen schädlich sind, ausnutzen kann.

KI-Bias-Illustrationen

Das AI, Algorithmic, and Automation Incidents Controversies Repository (AIAAIC) gibt an, dass die Zahl der neu gemeldeten KI-Vorfälle und Kontroversen im Jahr 2021 um 26 Mal höher war als im Jahr 2012.

Grafik, die einen Anstieg der Vorfälle mit KI-Voreingenommenheit zeigt

Bildversorgung

Lassen Sie uns über einige Beispiele der KI-Voreingenommenheit hinausgehen.

Die Gebühren für die Annahme von Immobiliendarlehen sind ein gutes Beispiel für Vorurteile in der KI . Es wurde festgestellt, dass Algorithmen mit einer um 40–80 % höheren Wahrscheinlichkeit dazu führen, dass Kreditnehmer keine Kredite erhalten, da historische Daten zur Kreditvergabe überproportional zeigen, dass Minderheiten Kredite und andere finanzielle Alternativen verweigert werden. Die historischen Informationen lehren die KI, bei nahezu jeder potenziellen Anwendung, die sie erhält, voreingenommen zu sein.

Es besteht auch die Möglichkeit einer Verzerrung der Stichprobendimensionen in professionellen medizinischen Bereichen. Angenommen, ein Arzt nutzt KI, um Fakten über Klienten zu bewerten, Muster aufzudecken und Pflegevorschläge zu definieren. Wenn dieser Arzt hauptsächlich weiße Klienten behandelt, basieren die Tipps nicht auf einer Stichprobe aus der Beraterpopulation und erfüllen möglicherweise nicht die individuellen Gesundheitsbedürfnisse aller.

Einige Unternehmen verfügen über Algorithmen, die zu einer voreingenommenen endgültigen Entscheidungsfindung führen, oder sie haben die Aussicht darauf weitaus offensichtlicher geschaffen.

1. Der Rekrutierungsalgorithmus von Amazon

Amazon hat einen Rekrutierungsalgorithmus entwickelt, der auf zehnjähriger Berufserfahrung basiert. Die Daten spiegelten eine von Männern dominierte Belegschaft wider, sodass der Algorithmus erkannte, dass er voreingenommen gegenüber Programmen war und Lebensläufe von Frauen oder Lebensläufen, in denen das Wort „Frauen“ vorkam, bestrafte.

2. Zuschneiden von Twitter-Bildern

Ein viraler Tweet aus dem Jahr 2020 zeigte, dass der Twitter-Algorithmus beim Zuschneiden von Bildern weiße Gesichter gegenüber schwarzen Gesichtern bevorzugt. Ein weißer Verbraucher teilte häufig Fotos von seinem Geschäft und denen eines schwarzen Kollegen und anderer schwarzer Gesichter im selben Bild, und das Bild wurde ständig zugeschnitten, um sein Erlebnis in grafischen Vorschauen darzustellen.

Twitter räumte die Voreingenommenheit des Algorithmus ein und erklärte: „Obwohl unsere bisherigen Analysen keine rassistischen oder geschlechtsspezifischen Vorurteile gezeigt haben, verstehen wir, dass die Art und Weise, wie wir Bilder automatisch zuschneiden, ein Risiko für Schäden darstellt.“ Wir hätten diese Möglichkeit viel besser vorhersehen müssen, als wir dieses Produkt oder diese Dienstleistung zum ersten Mal entwickelten und installierten.“

3. Rassistische Gesichtserkennung des Roboters

Vor Kurzem führten Forscher eine Studie durch, in der sie Roboter aufforderten, die Gesichter von Menschen zu scannen und sie anhand ihrer Eigenschaften in verschiedene Kategorien einzuteilen, wobei drei Kategorien Ärzte, Kriminelle und Hausfrauen darstellten.

Der Roboter war in seiner Vorgehensweise voreingenommen und identifizierte Frauen meist als Hausfrauen, schwarze Männer als Kriminelle, lateinamerikanische Männer als Hausmeister und Frauen aller Ethnien wurden seltener als Ärzte ausgewählt.

4. Software zur Überprüfung von Computern von Intel und Classroom Technology

Die Kursanwendung von Intel and Classroom Technology verfügt über eine Funktion, die die Gesichter der Schüler überprüft, um beim Lernen Emotionen zu erkennen. Viele haben angegeben, dass unterschiedliche kulturelle Normen für den Ausdruck von Emotionen eine höhere Wahrscheinlichkeit dafür darstellen, dass die Gefühle von Schülern falsch bezeichnet werden.

Wenn Lehrer diese Etiketten verwenden, um mit Lernenden über ihren Arbeitsstand und ihre Vertrautheit zu sprechen, können die Schüler für Gefühle bestraft werden, die sie nicht wirklich zeigen.

Was kann getan werden, um KI-Voreingenommenheit zu beseitigen?

KI-Ethik ist ein heißes Thema. Dies ist verständlich, da sich die Voreingenommenheit der KI auf vielfältige Weise gezeigt hat.

Über die Voreingenommenheit hinaus kann KI schädliche Fehlinformationen wie Deepfakes verbreiten, und generative KI-Tools können sogar sachlich falsche Informationen und Fakten generieren.

Was kann getan werden, um die KI besser zu verstehen und die mögliche Verzerrung zu verringern?

  • Menschliche Aufsicht: Menschen können heute Ergebnisse beobachten, Daten auswerten und Korrekturen vornehmen, wenn Voreingenommenheit erkennbar ist. Beispielsweise können Vermarkter vor der Zusammenarbeit mit ihnen bei Werbeelementen besonderes Augenmerk auf generative KI-Ergebnisse legen, um sicherzustellen, dass diese fair sind.
  • Bewerten Sie die Aussicht auf Voreingenommenheit: Einige Nutzungsbedingungen für KI haben eine bessere Wahrscheinlichkeit, voreingenommen und destruktiv gegenüber bestimmten Gemeinschaften zu werden. In diesem Fall können sich Einzelpersonen die Zeit nehmen, die Wahrscheinlichkeit zu bewerten, dass ihre KI voreingenommene Ergebnisse erzeugt, wie beispielsweise Bankinstitute, die historisch voreingenommene Informationen nutzen.
  • Investitionen in die KI-Ethik: Eine der wichtigsten Möglichkeiten zur Verringerung der KI-Voreingenommenheit besteht darin, kontinuierlich in die KI-Forschung und die KI-Ethik zu investieren, damit die Menschen konkrete Taktiken zu deren Reduzierung entwickeln können.
  • Diversifizierung der KI: Der Besitz unterschiedlicher Ansichten über KI hilft beim Aufbau unabhängiger Praktiken, da Einzelpersonen ihre ganz eigenen gelebten Erfahrungen einbringen. Ein vielfältiger und beratender Bereich bietet den Menschen weitaus mehr Chancen, das Potenzial für Voreingenommenheit zu erkennen und sich damit zu befassen, bevor Schaden entsteht.
  • Erkennen Sie menschliche Voreingenommenheit an: Alle Menschen haben das Risiko einer Voreingenommenheit, sei es aufgrund einer Abweichung in der gelebten Erfahrung oder einer Bestätigungsverzerrung während der Untersuchung. Personen, die KI verwenden, können ihre Vorurteile anerkennen, um sicherzustellen, dass ihre KI nicht voreingenommen ist, so wie Wissenschaftler sicherstellen, dass ihre Stichprobengröße beratend ist.
  • Um es klarzustellen: Gerade bei neuen Systemen ist Transparenz in der Regel entscheidend. Heutzutage können Menschen Vertrauen und Verständnis für KI entwickeln, indem sie dies einfach erkennen lassen, wenn sie KI verwenden, etwa durch das Hinzufügen einer Notiz unter einem KI-generierten Informationsbericht.

Es ist durchaus möglich, verantwortungsvoll mit KI umzugehen.

KI und die Faszination für KI nehmen immer weiter zu. Der beste Weg, um weiterhin auf dem Laufenden zu bleiben, was zu Schäden führen kann, besteht darin, sich darüber im Klaren zu sein, wie sie unsichere Vorurteile aufrechterhalten und Maßnahmen ergreifen kann, um sicherzustellen, dass der Einsatz von KI keinen zusätzlichen Treibstoff in sich birgt der Kamin.

Möchten Sie noch viel mehr über künstliche Intelligenz erfahren? Testen Sie diesen Lernpfad .

Neuer Call-to-Action