Расследование раскрывает темную сторону ChatGPT и индустрии чат-ботов с искусственным интеллектом
Расследование Time выявило более темную сторону индустрии чат-ботов с искусственным интеллектом, подчеркнув, как по крайней мере один стартап использовал сомнительные методы для улучшения своей технологии.
Опубликованный в среду отчет Time посвящен OpenAI, поддерживаемому Microsoft, и его чат-боту ChatGPT , технологии, которая в последнее время привлекла большое внимание благодаря своей замечательной способности создавать очень естественный разговорный текст.
Расследование Time показало, что для обучения технологии искусственного интеллекта OpenAI воспользовалась услугами команды из Кении, которая изучала тексты, содержащие тревожные темы, такие как сексуальное насилие над детьми, зоофилия, убийства, самоубийства, пытки, членовредительство и инцест. А за усилия по маркировке отвратительного контента многие в команде получали менее 2 долларов в час.
Работа, начатая в ноябре 2021 года, была необходима, поскольку предшественник ChatGPT, GPT-3, хотя и был впечатляющим, имел тенденцию извергать оскорбительный контент, поскольку его набор обучающих данных был собран путем извлечения сотен миллиардов слов со всех уголков сети. .
Команда из Кении, управляемая фирмой Sama из Сан-Франциско, будет маркировать оскорбительный контент, чтобы помочь обучить чат-бота OpenAI, тем самым улучшив его набор данных и уменьшив вероятность любого нежелательного результата.
Time сообщил, что все четверо опрошенных сотрудников Sama описали свою работу как психологическую травму. Сама предлагал сеансы консультирования, но сотрудники сказали, что они были неэффективными и проводились редко из-за требований работы, хотя представитель Сама сообщил Time, что терапевты доступны в любое время.
Один из рабочих сказал Time, что чтение шокирующих материалов иногда казалось «пыткой», добавив, что к концу недели они чувствовали себя «встревоженными».
В феврале 2022 года ситуация для Sama приняла еще более мрачный оборот, когда OpenAI запустила отдельный проект, не связанный с ChatGPT, который требовал от кенийской команды сбора изображений сексуального и насильственного характера. OpenAI сообщила Time, что эта работа необходима для того, чтобы сделать инструменты искусственного интеллекта более безопасными.
В течение нескольких недель после запуска этого проекта, основанного на изображениях, тревожный характер задач побудил Sama расторгнуть все свои контракты с OpenAI, хотя Time предполагает, что это также могло быть вызвано последствиями PR из отчета по аналогичному вопросу, который он опубликовано о Facebook примерно в то же время.
Open AI сообщил Time, что произошло «недопонимание» о характере изображений, которые он попросил Саму собрать, настаивая на том, что он не запрашивал самые экстремальные изображения и не просматривал ни одного из отправленных.
Но расторжение контрактов повлияло на средства к существованию рабочих: часть команды в Кении потеряла работу, а другие были переведены на менее оплачиваемые проекты.
Расследование Time предлагает неудобный, но важный взгляд на то, какая работа ведется с чат-ботами на базе искусственного интеллекта, которые в последнее время так взволновали технологическую индустрию.
Несмотря на преобразующую и потенциально выгодную технологию, она явно обходится человеческим жертвам и поднимает множество этических вопросов о том, как компании разрабатывают свои новые технологии, и, в более широком смысле, о том, как более богатые страны продолжают отдавать менее желательные задачи более бедным странам. для меньших финансовых затрат.
В ближайшие месяцы и годы стартапы, стоящие за этой технологией, станут объектом более пристального внимания, поэтому им стоит пересмотреть и улучшить свои методы при первой же возможности.
Digital Trends обратились к OpenAI за комментариями к отчету Time, и мы обновим эту статью, когда получим ответ.