什么是人工智能偏见? [+数据]
已发表: 2023-06-06我们的人工智能现状调查报告指出,营销人员在使用生成式人工智能时遇到的主要问题之一是其存在偏见。
企业家、销售专家和消费品公司的员工表示,他们对使用人工智能应用程序犹豫不决,原因很简单,因为它们经常会产生有偏见的细节。
显然,商业专业人士担心人工智能会产生偏见,但什么会使其在最初的位置产生偏见呢? 在这篇文章中,我们将研究应用人工智能造成伤害的机会、人工智能在真实日常生活中存在偏见的例证,以及社会如何减轻潜在的损害。
什么是人工智能偏见?
人工智能偏见是指研究算法的设备在执行其编程职责(例如检查事实或开发材料)时可能会出现偏见。 人工智能通常在坚持有害信念的方法上存在偏见,例如种族和性别刻板印象。
根据《2023 年人工智能指数报告》,当人工智能的输出助长和延续伤害特定团队的刻板印象时,它就会产生偏见。 当人工智能倾向于做出真正不歧视或不偏向任何独特群体的预测或输出时,它就是合理的。
除了偏见和刻板信念之外,人工智能还可能因以下原因而产生偏见:
- 样本收集,它使用的知识并不代表总人口,因此它的预测和提示不能概括或用于被排除的团队
- 测量,正是知识收集过程有偏差的地方,导致人工智能做出有偏差的结论。
人工智能偏见如何反映社会偏见?
人工智能有偏见主要是因为社会有偏见。
由于现代社会存在偏见,人工智能所接受的许多信息都包含社会的偏见和成见,因此它会学习这些偏见并提供支持这些偏见的结果。 举例来说,要求构建首席执行官图像的图形生成器可能会生成白人男性的图像,因为它所获得的知识中存在历史性的失业偏见。
随着人工智能变得越来越普遍,许多人担心的是,它可能会扩大社会上已经存在的偏见,这些偏见对许多不同的男性和女性群体有害。
AI偏见插图
人工智能、算法和自动化事件争议库 (AIAAIC) 表示,2021 年新声称的人工智能事件和争议数量比 2012 年增加了 26 倍。
图片供应
让我们看一些人工智能偏见的例子。
房屋贷款受理费是人工智能偏见的一个很好的例子。 研究发现,算法拒绝影子债务人的可能性要高出 40-80%,因为历史贷款信息不成比例地表明少数人被拒绝贷款和其他货币替代方案。 历史数据告诉我们,人工智能对它获得的几乎每一个潜在应用都会有偏见。
在专业医学领域也存在样本尺寸偏差的可能性。 假设一名健康从业者使用人工智能来评估客户事实、发现模式并定义护理建议。 如果该医疗专业人员主要接待白人客户,那么这些建议就不是基于顾问大众样本,可能无法满足每个人独特的健康相关需求。
一些公司的算法会导致最终决策产生现实偏差,或者已经建立了更加明显的前景。
1.亚马逊的招聘算法
亚马逊开发了一种基于十年工作背景信息的招聘算法。 这些知识反映了男性占主导地位的劳动力,因此该算法意识到对项目有偏见,并对女孩的简历或任何使用“女性”一词的简历进行惩罚。
2. Twitter 图像裁剪
2020 年的一条病毒式推文显示,Twitter 的算法在裁剪图片时更青睐白人面孔,而不是黑人面孔。 一名白人消费者经常在同一张图片中分享他的交易、黑人同事的交易以及其他黑人面孔的照片,并且不断裁剪以在图形预览中展示他的经历。
Twitter 承认该算法存在偏见,并解释道:“虽然我们今天的分析并未显示出种族或性别偏见,但我们知道,我们机械裁剪图片的方式意味着可能会造成损坏。 当我们第一次开发和建立该产品或服务时,我们应该更好地预测这种可能性。”
3.机器人的种族主义面部识别
研究人员不久前做了一项研究,要求机器人扫描人的脸部,并根据人的特征将其分类到不同的容器中,其中3个容器分别是医生、罪犯和家庭主妇。
机器人的方法存在偏见,通常将女孩确定为家庭主妇,将黑人绅士确定为罪犯,将拉丁裔成年男性确定为看门人,而所有种族的女孩最终被选为医生的可能性要小得多。
4. Intel 和 Classroom Technology 的 Checking Computer 软件
英特尔和 Classroom Technology 的 Course 应用程序有一个功能,可以通过扫描学生的面部来检测情绪。 许多人表示,表达情感的不同文化规范目前学生的情感更有可能被错误标记。
如果教师使用这些标签与学习者谈论他们的工作阶段和熟悉程度,学生可能会因为他们没有真正表现出的感受而受到惩罚。
可以采取哪些措施来解决人工智能偏见?
人工智能伦理是一个热门话题。 这是可以理解的,因为人工智能的偏见已经以多种方式真实存在。
除了产生偏见之外,人工智能还可以传播有害的错误信息,例如深度伪造,而生成式人工智能工具甚至可以生成实际上不正确的信息和事实。
怎样才能更好地掌握人工智能并降低可能的偏差?
- 人类监督:今天,人们可以观察输出、评估数据,并在出现偏差时进行纠正。 例如,营销人员可以在与广告元素合作之前特别关注生成式人工智能输出,以确保它们是公平的。
- 评估偏见的可能性:人工智能的某些使用条件更有可能对某些社区产生偏见和破坏。 在这种情况下,人们可以有时间评估其人工智能制造偏差影响的可能性,例如银行机构利用历史上有偏见的数据。
- 投资人工智能道德:减少人工智能偏见的最关键技术之一是对人工智能研究和人工智能道德进行持续的财务投资,以便今天的人们可以制定具体的策略来减少偏见。
- 人工智能多样化:在人工智能方面拥有不同的观点有助于在个人带来自己的生活经历时建立公正的实践。 众多的咨询领域为当今的人们提供了更多的机会来认识到偏见的可能性,并在造成伤害之前提出解决方案。
- 承认人为偏见:所有人都有可能出现偏见,无论是来自生活经验的差异还是调查过程中的确认偏见。 使用人工智能的个人可以承认自己的偏见,以确保他们的人工智能没有偏见,就像获得某些样本维度的科学家担任顾问一样。
- 明确一点:透明度通常至关重要,尤其是对于新系统。 如今,人们可以通过在使用人工智能时生成可识别的人工智能来培养对人工智能的信念和理解,例如在人工智能生成的信息报告下添加注释。
负责任地使用人工智能确实是非常可行的。
人工智能和对人工智能的兴趣只增不减,因此,保持对可能造成的危害的领先地位的最佳方法是了解它如何使不安全的偏见长期存在,并采取行动,以确保您对人工智能的使用不会带来额外的影响。壁炉。
想要发现更多有关人工智能的信息吗? 测试一下这条寻找路径。