Что такое предвзятость ИИ? [+ Данные]

Опубликовано: 2023-06-06


В нашем отчете об исследовании состояния ИИ отмечается, что одна из основных проблем, с которой сталкиваются маркетологи при работе с генеративным ИИ, — это его предвзятость.

предвзятость ИИ

А предприниматели, специалисты по оптовым продажам, мужчины и женщины из потребительских компаний сообщают, что не решаются использовать приложения ИИ просто потому, что они часто могут создавать предвзятые детали.

Очевидно, что бизнес-профессионалы опасаются предвзятости ИИ, но что может сделать его предвзятым изначально? В этом выпуске мы рассмотрим возможность причинения вреда при применении ИИ, иллюстрации предвзятости ИИ в реальной повседневной жизни и то, как общество может смягчить предполагаемый ущерб.

Бесплатный отчет: состояние искусственного интеллекта в 2023 году

Что такое предвзятость ИИ?

Предвзятость ИИ — это представление о том, что оборудование, изучающее алгоритмы, может быть предвзятым при выполнении своих запрограммированных обязанностей, таких как изучение фактов или разработка материала). ИИ обычно предвзято относится к методам, поддерживающим вредные убеждения, такие как расовые и гендерные стереотипы.

Согласно отчету об индексе искусственного интеллекта за 2023 год, ИИ предвзят, когда он делает выводы, которые усиливают и увековечивают стереотипы, наносящие ущерб конкретным командам. ИИ разумен, когда он склонен делать прогнозы или результаты, которые на самом деле не дискриминируют и не отдают предпочтение какой-либо уникальной группе.

Помимо предубеждений и стереотипных убеждений, ИИ также может быть предвзятым по следующим причинам:

  • Сбор образцов, где используемые знания не являются репрезентативными для всего населения, поэтому его прогнозы и советы нельзя обобщать или использовать для не учитываемых команд.
  • Измерение, именно там, где процесс сбора знаний предвзят, основной ИИ делает предвзятые выводы.

Как предвзятость ИИ отражает предвзятость общества?

ИИ предвзят в основном потому, что общество предвзято.

Поскольку современное общество предвзято, большая часть информации, которую ИИ использует, содержит предубеждения и предубеждения общества, поэтому он изучает эти предубеждения и дает результаты, которые их поддерживают. Например, графический генератор, которого попросили создать образ генерального директора, мог бы создать изображения белых мужчин из-за исторической предвзятости в отношении безработицы в знаниях, на основе которых он создавался.

Поскольку ИИ становится все более распространенным явлением, многие опасаются, что он может масштабировать предубеждения, уже существующие в обществе, которые вредны для многих разных групп мужчин и женщин.

Иллюстрации предвзятости ИИ

Репозиторий споров об инцидентах с ИИ, алгоритмами и автоматизацией (AIAAIC) сообщает, что количество новых заявленных инцидентов и разногласий с ИИ в 2021 году было на 26 раз больше, чем в 2012 году.

график, показывающий рост случаев предвзятости ИИ

Поставка изображения

Давайте перейдем к некоторым иллюстрациям предвзятости ИИ.

Плата за получение ипотечного кредита является фантастическим примером предрассудков в ИИ . Было обнаружено, что алгоритмы на 40-80% чаще отказывают должникам в тени, потому что историческая информация о кредитах непропорционально демонстрирует, что меньшинствам отказывают в кредитах и ​​других финансовых альтернативах. Историческая информация учит ИИ предвзято относиться практически к каждому потенциальному применению, которое он получает.

Существует также возможность смещения размеров выборки в профессиональных медицинских областях. Скажем, практикующий врач использует ИИ для оценки фактов о клиенте, выявления закономерностей и определения рекомендаций по уходу. Если этот медицинский работник в основном посещает белых клиентов, советы не основаны на выборке консультантов и могут не удовлетворять особые потребности каждого, связанные со здоровьем.

У некоторых фирм есть алгоритмы, которые приводят к принятию окончательных решений, предвзятых к реальной жизни, или делают перспективы для этого гораздо более очевидными.

1. Алгоритм подбора персонала Amazon

Amazon разработала алгоритм найма, основанный на информации о десятилетнем опыте работы. Знания отражали преобладание мужчин в рабочей силе, поэтому алгоритм понял, что он предвзято относится к программам и наказывает резюме от девушек или любые резюме, в которых используется слово «женщины».

2. Обрезка изображения в Твиттере

Вирусный твит в 2020 году показал, что алгоритм Twitter отдает предпочтение белым лицам, а не черным, при кадрировании изображений. Белый потребитель часто делился фотографиями со своей сделкой, а также с чернокожим коллегой и другими чернокожими лицами на одном и том же изображении, и оно постоянно обрезалось, чтобы представить его опыт в графических превью.

Твиттер признал предвзятость алгоритма и объяснил: «Хотя наши сегодняшние анализы не продемонстрировали расовую или гендерную предвзятость, мы понимаем, что то, как мы механически обрезаем фотографии, означает, что есть вероятность повреждения. Мы должны были гораздо лучше предвидеть эту вероятность, когда мы сначала разрабатывали и настраивали этот продукт или услугу».

3. Расистское распознавание лица робота

Недавно исследователи провели исследование, в котором роботам предлагалось сканировать лица людей и классифицировать их по уникальным контейнерам в зависимости от их характеристик, причем 3 контейнера становились врачами, преступниками и домохозяйками.

Роботы были предвзяты в своем методе и чаще всего определяли девочек как домохозяек, чернокожих джентльменов как преступников, взрослых латиноамериканцев как уборщиков, а девушки всех национальностей с гораздо меньшей вероятностью выбирали врачами.

4. Программное обеспечение для проверки компьютеров Intel и Classroom Technology

Приложение Course от Intel и Classroom Technology имеет атрибут, который сканирует лица учащихся, чтобы обнаруживать эмоции, хотя и обнаруживает их. Многие заявляют о различных культурных нормах выражения эмоций как о большей вероятности того, что чувства учащихся в настоящее время неправильно обозначаются.

Если преподаватели используют эти ярлыки, чтобы поговорить с учащимися об их этапе работы и ознакомлении с ними, учащиеся могут быть наказаны за чувства, которые они на самом деле не демонстрируют.

Что можно сделать, чтобы позаботиться о предвзятости ИИ?

Этика ИИ — горячая тема. Это понятно по той причине, что предвзятость ИИ была показана в реальном существовании множеством различных способов.

Помимо предвзятости, ИИ может распространять вредоносную дезинформацию, такую ​​как дипфейки, а генеративные инструменты ИИ могут даже генерировать фактически неверную информацию и факты.

Что можно сделать, чтобы лучше понять ИИ и снизить вероятное смещение?

  • Человеческий надзор: сегодня люди могут наблюдать за результатами, оценивать данные и вносить поправки в случае проявления предвзятости. Например, маркетологи могут уделять особое внимание генеративным выводам ИИ, прежде чем работать с ними в рекламных элементах, чтобы убедиться, что они справедливы.
  • Оцените вероятность предвзятости: некоторые условия использования ИИ имеют больше шансов стать предвзятыми и разрушительными для определенных сообществ. В этом случае люди могут получить время, чтобы оценить вероятность того, что их ИИ производит предвзятые эффекты, например, банковские учреждения, использующие исторически предвзятые данные.
  • Инвестиции в этику ИИ: один из наиболее важных методов уменьшения предвзятости ИИ — это постоянные финансовые инвестиции в исследования ИИ и этику ИИ, чтобы сегодня люди могли разработать конкретные тактики для его уменьшения.
  • Разнообразие ИИ: обладание разнообразными взглядами на ИИ помогает создавать беспристрастные практики, поскольку люди приносят свои собственные живые встречи. Многочисленная и профессиональная область дает людям сегодня больше шансов осознать потенциал предвзятости и предложить ее до того, как будет причинен вред.
  • Признайте человеческую предвзятость: у всех людей есть вероятность предвзятости, будь то из-за различий в жизненном опыте или предвзятости подтверждения во время расследования. Люди, использующие ИИ, могут признать свои предубеждения, чтобы убедиться, что их ИИ не предвзят, как ученые, зарабатывающие уверенность в том, что размер их выборки является консультантом.
  • Получение ясности: прозрачность обычно имеет решающее значение, особенно с новыми системами. Сегодня люди могут развивать веру и понимание с помощью ИИ, в основном генерируя его, распознаваемый при использовании ИИ, например, добавляя примечание под информационным отчетом, созданным ИИ.

Ответственно использовать ИИ действительно очень легко.

ИИ и интерес к ИИ только растут, поэтому лучший способ оставаться в лидерах потенциального вреда — это оставаться в курсе того, как он может увековечить небезопасные предубеждения и добиться движения, чтобы убедиться, что ваше использование ИИ не включает дополнительное топливо для камин.

Хотите узнать больше об искусственном интеллекте? Проверьте этот путь обнаружения .

Новый призыв к действию