Что такое предвзятость ИИ и как его избежать?

Возможности искусственного интеллекта расширяются в геометрической прогрессии, и теперь ИИ используется в различных отраслях, от рекламы до медицинских исследований. Использование ИИ в более чувствительных областях, таких как программное обеспечение для распознавания лиц, алгоритмы приема на работу и предоставление медицинских услуг, вызвало споры о предвзятости и справедливости.

Предвзятость – хорошо изученный аспект психологии человека. Исследования регулярно выявляют наши подсознательные предпочтения и предрассудки, и теперь мы видим, что ИИ отражает некоторые из этих предубеждений в своих алгоритмах.

Итак, как искусственный интеллект становится предвзятым? И какое это имеет значение?

Как ИИ становится предвзятым?

Для простоты в этой статье мы будем называть алгоритмы машинного обучения и глубокого обучения алгоритмами или системами ИИ.

Исследователи и разработчики могут внести предвзятость в системы ИИ двумя способами.

Во-первых, когнитивные предубеждения исследователей могут случайно быть встроены в алгоритмы машинного обучения. Когнитивные искажения – это бессознательное человеческое восприятие, которое может влиять на то, как люди принимают решения. Это становится серьезной проблемой, когда предубеждения относятся к людям или группам людей и могут навредить этим людям.

Эти предубеждения могут быть внесены напрямую, но случайно, либо исследователи могут обучить ИИ на наборах данных, которые сами были затронуты предвзятостью. Например, ИИ для распознавания лиц можно обучить с использованием набора данных, который включает только лица со светлой кожей. В этом случае ИИ будет лучше работать со светлокожими лицами, чем со смуглыми. Эта форма предвзятости ИИ известна как негативное наследие.

Во-вторых, предубеждения могут возникнуть, когда ИИ обучается на неполных наборах данных. Например, если ИИ обучен на наборе данных, который включает только специалистов по информатике, он не будет представлять всю популяцию. Это приводит к алгоритмам, которые не дают точных прогнозов.

Примеры смещения искусственного интеллекта в реальном мире

В последнее время появилось множество хорошо известных примеров предвзятости ИИ, которые иллюстрируют опасность того, что эти предубеждения могут закрасться.

Приоритезация здравоохранения в США

В 2019 году был разработан алгоритм машинного обучения, чтобы помочь больницам и страховым компаниям определить, какие пациенты получат наибольшую пользу от определенных программ здравоохранения. Основываясь на базе данных, содержащей около 200 миллионов человек, алгоритм предпочитал белых пациентов черным пациентам.

Было установлено, что это произошло из-за ошибочного предположения в алгоритме относительно различных затрат на здравоохранение между чернокожими и белыми людьми, и в конечном итоге смещение было уменьшено на 80%.

КОМПАС

Профилирование исправительных правонарушителей для альтернативных санкций, или COMPAS, представляло собой алгоритм искусственного интеллекта, предназначенный для прогнозирования того, будут ли конкретные люди совершать повторные преступления. Алгоритм давал вдвое больше ложных срабатываний для чернокожих преступников по сравнению с белыми преступниками. В этом случае и набор данных, и модель были ошибочными, что привело к серьезной систематической ошибке.

Амазонка

В 2015 году было обнаружено, что алгоритм найма, который Amazon использует для определения пригодности кандидатов, в значительной степени отдает предпочтение мужчинам над женщинами. Это произошло потому, что набор данных почти исключительно содержал мужчин и их резюме, поскольку большинство сотрудников Amazon – мужчины.

Как остановить предвзятость ИИ

ИИ уже революционизирует методы нашей работы во всех отраслях . Наличие предвзятых систем, контролирующих чувствительные процессы принятия решений, менее чем желательно. В лучшем случае это снижает качество исследований на основе ИИ. В худшем случае он наносит серьезный ущерб группам меньшинств.

Существуют примеры алгоритмов искусственного интеллекта, которые уже используются для помощи в принятии решений людьми, уменьшая влияние когнитивных искажений человека. Из-за того, как обучаются алгоритмы машинного обучения, они могут быть более точными и менее предвзятыми, чем люди в той же должности, что приводит к более справедливому принятию решений.

Но, как мы показали, верно и обратное. Риски, связанные с тем, что человеческие предубеждения могут быть использованы и усилены ИИ, могут перевесить некоторые из возможных преимуществ.

В конце концов, искусственный интеллект хорош ровно настолько, насколько хорош данные, на которых он обучается . Разработка беспристрастных алгоритмов требует обширного и тщательного предварительного анализа наборов данных, гарантирующего отсутствие в данных неявных смещений. Это сложнее, чем кажется, потому что многие из наших предубеждений бессознательны и их часто трудно идентифицировать.

Проблемы предотвращения предвзятости ИИ

При разработке систем искусственного интеллекта каждый шаг необходимо оценивать с точки зрения возможности включения предвзятости в алгоритм. Одним из основных факторов предотвращения предвзятости является обеспечение того, чтобы в алгоритм «встраивалась» справедливость, а не предвзятость.

Определение справедливости

Справедливость – это понятие, которое относительно сложно определить. Фактически, это дебаты, по которым так и не удалось достичь консенсуса. Чтобы еще больше усложнить задачу, при разработке систем искусственного интеллекта концепция справедливости должна быть определена математически.

Например, с точки зрения алгоритма найма Amazon, будет ли справедливость выглядеть как идеальное разделение 50/50 мужчин и женщин? Или другая пропорция?

Определение функции

Первый шаг в разработке ИИ – точно определить, чего он собирается достичь. Если использовать пример КОМПАС, алгоритм мог бы предсказать вероятность повторного совершения преступников. Затем необходимо определить чистые входные данные, чтобы алгоритм работал. Это может потребовать определения важных переменных, таких как количество предыдущих преступлений или тип совершенных преступлений.

Правильное определение этих переменных – сложный, но важный шаг в обеспечении справедливости алгоритма.

Создание набора данных

Как мы уже говорили, основной причиной систематической ошибки ИИ являются неполные, нерепрезентативные или предвзятые данные. Как и в случае с искусственным интеллектом для распознавания лиц, входные данные необходимо тщательно проверять на предмет предвзятости, уместности и полноты перед процессом машинного обучения.

Выбор атрибутов

В алгоритмах могут учитываться определенные атрибуты или нет. Атрибуты могут включать пол, расу или образование – в основном все, что может иметь значение для задачи алгоритма. В зависимости от того, какие атрибуты выбраны, точность прогнозирования и предвзятость алгоритма могут сильно пострадать. Проблема в том, что очень сложно измерить предвзятость алгоритма.

Предвзятость ИИ не надолго

Смещение AI возникает, когда алгоритмы делают предвзятые или неточные прогнозы из-за смещенных входных данных. Это происходит, когда предвзятые или неполные данные отражаются или усиливаются во время разработки и обучения алгоритма.

Хорошая новость заключается в том, что с увеличением финансирования исследований ИИ мы, вероятно, увидим новые методы уменьшения и даже устранения предвзятости ИИ.