• хайп
  • нейросети
  • безопасность
  • статьи
  • 22 июл. 24

Как искусственный интеллект стал расистом

Эксперты предупреждают, что в системы искусственного интеллекта проникают расистские стереотипы. Подобная тенденция может привести к увеличению расового дисбаланса.

  • 450
  • 0
  • 0

Эксперты предупреждают, что в системы искусственного интеллекта проникают расистские стереотипы. Масштабы распространения ИИ стремительно растут, и подобная тенденция может привести к увеличению расового дисбаланса по вине того самого инструмента, который, как многие считают, помогает цивилизации развиваться.

Недавно на BuzzFeed была опубликована статья (впоследствии удаленная), автор которой проиллюстрировал текст изображениями кукол Барби, созданных посредством инструмента генерации изображений AI Midjourney. Все Барби были разных «национальностей». Все бы хорошо, но есть один нюанс: немецкая Барби была одета в форму СС, южносуданская Барби держала в руках пистолет, а ливанская – позировала перед разрушенным зданием.

Немецкая Барби
Немецкая Барби

Казалось бы, это отдельно взятый случай, на основе которого нельзя делать выводы, но он заставляет задуматься о далеко идущих последствиях, поскольку технология ИИ имеет самые разные сценарии использования в реальном мире. И это далеко не первый эпизод, когда ИИ демонстрирует расистские тенденции:

  • В 2009 году программное обеспечение Nikon для распознавания лиц спрашивало у «азиатов», моргают ли они.
  • По сведениям ProPublica, в 2016 году инструмент искусственного интеллекта, который американские суды используют для оценки вероятности рецидива у преступников, дал ложные оценку, в два раза завысив такую вероятность для чернокожих (54%), по сравнению с «белыми» (23%).
  • Совсем недавно Google Vision Cloud ошибочно идентифицировал портативный термометр в руках чернокожих людей как «пистолет», тогда как светлокожие люди были обозначены как владельцы «электронного устройства».

Подобные тенденции ИИ обратили на себя внимание британского Офиса уполномоченного в сфере персональных данных и информации. Он занялся изучением этого вопроса. По словам пресс-секретаря Офиса, борьба с дискриминацией, вызванной искусственным интеллектом, является одним из ключевых приоритетов ведомства, и это обстоятельство отмечено в его трехлетнем стратегическом плане.

Недавнее исследование компании Progress, занимающейся инфраструктурным программным обеспечением, показало, что 78% лиц, принимающих решения в сфере бизнеса и IT, считают, что в будущем, с ростом масштабов использования ИИ, предвзятость искусственного интеллекта станет реальной проблемой, но лишь 13% руководителей пытаются решить эту проблему.

В сентябре 2023 года исследователи из Вашингтонского университета, Университета Карнеги-Меллон и Сианьского университета путей сообщения обнаружили, что инструменты генеративного искусственного интеллекта имеют политические предубеждения, характер которых различается в зависимости от того, где был собран массив данных конкретного инструмента и какую информацию инструмент обрабатывал.

Как ИИ заражается вирусом расизма?

В процессе своего развития ИИ обучается на различных наборах данных. Набор данных строит модель ИИ, обучая ее действовать определенным образом. Это означает, что любые предрассудки, присутствующие в наборе данных, проникают в конечный продукт и усиливаются им.

Например, сервис транскрибации на основе искусственного интеллекта Rev прошел обучение на миллионах часов голосовых данных. Если исходный набор данных исключает определенные голоса, акценты или этнические группы, то сервису будет гораздо сложнее переводить аудио в текст для этих людей.

В случае Rev последствия не самые тяжкие, поскольку ограниченный набор данных просто означает неспособность переводить в текст голоса с определенным акцентом, но дальнейшее проникновение расово предубежденного ИИ в нашу повседневную жизнь может привести к гораздо более значительным последствиям. Например, ИИ уже широко используется в сфере производственных трудовых ресурсов, а также подбора и найма персонала, напрямую влияя на экономическое положение миллионов людей.

К 2026 году все новые автомобили, продаваемые в ЕС, будут оснащены системой мониторинга, определяющей состояние сонливости или рассеянности водителя. Если эта система ИИ будет стабильно работать только со светлокожими людьми, цена ошибки системы может оказаться высокой.

По словам Ричарда Бремера, главы компании Devant, которая занимается развитием синтетических наборов данных, неспособность системы мониторинга в салоне автомобиля установить, клонит ли водителя в сон, или отвлекается ли он от управления, может иметь критические последствия.

Компания Devant создает синтетические базы данных «цифровых людей» для приложений ИИ, работающих на основе камер. Такие данные призваны избавлять от предрассудков, которые часто встречаются в наборах данных реального мира.

Бремер поясняет: «Если фокусироваться исключительно на реальных данных, то приходиться собирать легко доступные данные. А эти данные не всегда актуальны для того или иного сценария реального мира. Производительность ИИ ограничена доступными данными, в этом заключается проблема».

Devant предоставляет клиентам массивные и разнообразные наборы компьютерных данных. Создание каждого изображения занимает всего несколько секунд с помощью средств автоматизации с использованием 3D-контента из собственной огромной библиотеки контента Devant.

Однако, несмотря на репрезентативность набора данных, в конечном продукте все еще может присутствовать расовая предубежденность. Поэтому следующий шаг – это тестирование продукта на предвзятость. Шингай Мандженгва, руководитель отдела обучения искусственному интеллекту в компании по генеративному ИИ ChainML, говорит, что каждый ИИ-продукт нужно оценивать индивидуально. По его словам, даже если набор данных сбалансирован, он все равно может быть не свободен от предвзятости. Поэтому Мандженгва и многие его коллеги считают, что тесты на предвзятость должны быть частью процесса машинного обучения.

Расово пестрая команда
Расово пестрая команда

Расово пестрая команда

В процессе тестирования продукта искусственного интеллекта важную роль играет этническое разнообразие команды. Мандженгва поясняет: предвзятости можно избежать благодаря тому, что член команды иного происхождения, чем остальные его коллеги, видит проблему, которая ускользает от внимание этнически однородной группы людей.

Примером служит случай, когда Париназ Собхани, руководитель инвест-фирмы Georgian, обнаружил, что TurnItIn – популярный у многих университетов инструмент выявления плагиата – предвзято относится к носителям английского языка.

Проблему обнаружили лишь благодаря тому, что в команде был человек, не владеющий английским. В результате, был создан более качественный и инклюзивный продукт. Это показательный пример того, как расовое разнообразие персонала может повысить эффективность тестирования и предотвратить возникновение расовых предрассудков в ИИ.

По данным techUK, всего 8,5% высших руководителей британских технологических компаний принадлежат к этническим меньшинствам. Тем не менее, ситуация в индустрии искусственного интеллекта улучшается: отчет за 2021 год показывает, что в США более половины (54,4%) студентов-аспирантов в области искусственного интеллекта относились к этническим меньшинствам. При этом лишь небольшое количество студентов (2,4%) идентифицировало себя как чернокожих или афроамериканцев.

Black in AI («Чернокожие в сфере ИИ») и аналогичные организации работают над тем, чтобы повысить этот показатель. С этой целью они проводят семинары и устраивают мероприятия. Эти энтузиасты считают, что расовое разнообразие в индустрии ИИ желательно не только с этической точки зрения. Это важный шаг к тому, чтобы системы ИИ приносили благо всем, независимо от расы.

К сожалению, даже при условии репрезентативного набора данных, тщательного тестирования и этнического разнообразия в рабочем коллективе расовая предвзятость может проникать в модели ИИ.

Разработчики способны лишь подвергать свои продукты интенсивным стресс-теста, и некоторые ошибки неизбежно ускользают от их внимания. Поэтому часть вины лежит и на пользователях. Вместо того, чтобы с помощью расистских результатов собирать дополнительные лайки в Сети, пользователи могут сообщать о них командам разработчиков. Это позволит уменьшить воспроизведение таких результатов в больших языковых моделях (LLM) в будущем.

Здесь уместна следующая аналогия: можно регулировать поведение пешеходов (пользователей ИИ), но будет более эффективно регулировать владельцев автомобилей, поскольку именно транспортные средства (разработчики ИИ) являются источниками настоящей угрозы. Борьба с расовой предвзятостью в ИИ включает множество аспектов и требует участия разных людей, от пользователей до производителей LLM.

  • 450
  • 0
  • 0

0

0 комментариев