AIバイアスとは何ですか? [+データ]

公開: 2023-06-06


AI の現状に関する調査レポートでは、マーケターが生成型 AI を扱う際に経験する主な問題の 1 つは、AI の手段が偏っていることであると述べています。

AIバイアス

また、起業家、総売上高スペシャリスト、消費者企業の男女は、偏った詳細が作成されることが多いという理由だけで、AI アプリケーションの使用をためらっていると報告しています。

ビジネスの専門家が AI にバイアスがかかることを懸念しているのは明らかですが、最初の段階で AI にバイアスがかかる原因は何でしょうか? この展示では、AI の適用による害の可能性、実際の日常生活に偏った AI の例、および社会が予想される損害をどのように軽減できるかを検討します。

無料レポート: 2023 年の人工知能の現状

AIバイアスとは何ですか?

AI バイアスとは、アルゴリズムを研究する機器が、事実の調査や資料の開発など、プログラムされた任務を実行する際にバイアスがかかる可能性があるという概念です。 AI は通常、人種や性別の固定観念など、有害な信念を支持する手法に偏っています。

人工知能インデックス レポート 2023 によると、AI が特定のチームに害を及ぼす固定観念を助長し永続させるような出力を行う場合には、偏りが生じます。 AI が実際に固有のグループを差別したり有利にしたりしない予測や出力を行う傾向がある場合、AI は合理的です。

AI は、偏見や固定観念によって偏ることに加えて、次のような理由でも偏ることがあります。

  • サンプル収集。利用する知識が母集団全体を代表していないため、その予測やヒントを一般化したり、取り残されたチームに使用したりすることはできません。
  • 測定、まさに知識収集プロセスが偏っている場合、主な AI は偏った結論を出します。

AIのバイアスは社会のバイアスをどのように反映しているのでしょうか?

AI が偏っているのは、主に社会が偏っているからです。

現代社会は偏っているため、AI が認定する情報の多くには社会の偏見や偏見が含まれているため、AI はこれらの偏見を学習し、それらを支持する結果を提供します。 たとえば、CEO の画像を作成するように依頼されたグラフィック ジェネレーターは、知識に基づいて得られた失業に関する歴史的な偏りのため、白人男性の画像を作成する可能性があります。

AI の普及がさらに一般的になるにつれ、多くの人が懸念しているのは、社会にすでに存在する、男女のさまざまなチームにとって有害な偏見が、AI によって拡大される可能性があるということです。

AI バイアスのイラスト

AI、アルゴリズム、および自動化インシデントに関する論争リポジトリ (AIAAIC) によると、新たに主張された AI インシデントおよび論争の数は、2021 年には 2012 年よりも 26 件増加しました。

AI バイアス インシデントの増加を示すグラフ

映像供給

AI バイアスについていくつかの例を挙げて説明しましょう。

住宅ローンの承諾手数料は、 AI における偏見の素晴らしい例です。 過去の融資情報が少数派が融資やその他の金銭的代替手段を拒否されていることが不釣り合いに示されているため、アルゴリズムは日陰の債務者を拒否する可能性が 40 ~ 80% はるかに高いことが判明しています。 歴史的な情報は、AI が取得するほぼすべての潜在的なアプリケーションに対して偏りがあることを教えてくれます。

専門的な医療分野ではサンプル寸法に偏りがある可能性もあります。 たとえば、医療従事者が AI を使用してクライアントの事実を評価し、パターンを明らかにし、ケアの提案を定義するとします。 その医療専門家が主に白人の顧客を診察している場合、そのヒントはコンサルタントの集団サンプルに基づいていないため、全員の特有の健康関連のニーズを満たしていない可能性があります。

一部の企業は、実際の生涯に偏った最終意思決定をもたらすアルゴリズムを備えているか、あるいはその見通しをはるかに明白に構築している。

1. Amazonの採用アルゴリズム

Amazon は、10 数年間の職歴情報に基づいて適格な採用アルゴリズムを開発しました。 この知識は男性優位の労働力を反映しているため、アルゴリズムはプログラムに対して偏りがあることに気づき、女子の履歴書や「女性」という単語を使用する履歴書にペナルティを課しました。

2.Twitter画像のトリミング

2020年に話題になったツイートでは、Twitterのアルゴリズムが写真をトリミングする際に黒人よりも白人の顔を優先していることが示された。 白人の消費者は、自分と黒人の同僚や他の黒人の顔との取引を映した写真をまったく同じ画像で頻繁に共有し、グラフィックプレビューで彼の経験を示すためにそれが継続的にトリミングされていました。

Twitterはアルゴリズムの偏りを認め、「これまでの分析では人種や性別の偏りは証明されていないが、機械的に写真をトリミングする方法は損害の可能性があることを示していると理解している」と説明した。 この製品やサービスを最初に開発して設定したときに、この可能性を予測するという作業をもっとうまくやっておくべきでした。」

3. ロボットの人種差別的な顔認識

少し前に研究者らは、ロボットに人々の顔をスキャンして、その特徴に基づいて固有のコンテナに分類するよう依頼し、そのうち 3 つのコンテナが医師、犯罪者、主婦になるという研究を行いました。

このロボットの手法には偏りがあり、少女は主婦、黒人紳士は犯罪者、ラテン系の成人男性は清掃員と判断されることが多く、あらゆる民族の女性が医師として選ばれる可能性ははるかに低かった。

4. Intel および Classroom Technology の Checking Computer ソフトウェア

Intel と Classroom Technology の Course アプリケーションには、学生の顔をスクリーニングして感情を検出する属性があります。 多くの人が、感情表現に関するさまざまな文化的規範が、現在生徒の感情に誤ったラベルが付けられている可能性が高いと述べています。

講師がこれらのラベルを使用して学習者と自分の仕事の段階や慣れ親しんだことについてチャットすると、実際には表現していない感情について生徒がペナルティを受ける可能性があります。

AI の偏見に対処するには何ができるでしょうか?

AI の倫理は注目のテーマです。 これは、AI のバイアスがさまざまな方法で実際に存在することが示されているため、理解できます。

AI は偏見を抱くだけでなく、ディープフェイクなどの有害な誤った情報を展開する可能性があり、生成 AI ツールは事実と異なる情報や事実を生成することさえあります。

AI をより深く把握し、可能性のあるバイアスを下げるために何を完了できるでしょうか?

  • 人間による監視:今日の人々は、出力を観察し、データを評価し、バイアスが現れた場合に修正を加えることができます。 たとえば、マーケティング担当者は、広告要素で AI を使用する前に、AI の生成出力に特に注意を払い、それらが公正であることを保証できます。
  • 偏見の可能性を評価する: AI の使用条件によっては、特定のコミュニティに対して偏見や破壊的になる可能性がより高いものがあります。 この状況では、人々は、歴史的に偏見のある詳細を利用する銀行設立のように、AI 製造の偏った影響の可能性を評価する時間を得ることができます。
  • AI の倫理への投資: AI の偏見を軽減するための最も重要な手法の 1 つは、AI の調査と AI の倫理への継続的な財政投資であり、今日の人々が偏見を軽減するための具体的な戦術を考案できるようにすることです。
  • AI の多様化: AI に関して多様な見解を持つことは、個人が自分自身の生きた出会いをもたらす際に、公平な実践を構築するのに役立ちます。 多くのコンサルタント分野は、今日の人々に偏見の可能性を認識し、危害が誘発される前にそれを申し出るはるかに多くの機会を提供します。
  • 人間のバイアスを認識する:生きた経験の違いや調査中の確証バイアスによるものであるかどうかに関係なく、すべての人がバイアスを受ける可能性があります。 AI を使用する個人は、科学者がサンプルの次元がコンサルタントであると確信するのと同じように、自分の偏見を認めて、自分の AI にバイアスがかかっていないことを確信できます。
  • 明確にする:通常、特に新しいシステムでは透明性が非常に重要です。 今日の人々は、AI が生成した情報レポートの下にメモを追加するなど、基本的に AI を使用するときに認識されるように生成することで、AI に対する信念と理解を育むことができます。

AI を責任を持って使用することは、非常に実現可能です。

AI と AI への関心は高まるばかりです。そのため、危害の可能性を常にリードし続けるための最善の方法は、AI がどのようにして安全でないバイアスを永続させ、動きを獲得し、AI の使用によって新たな燃料が組み込まれないかを常に知っておくことです。暖炉。

人工知能についてさらに詳しく知りたいですか? この発見方法をテストしてください

新しい行動喚起