Худший ИИ из когда-либо рожденных! Он использовал сотни миллионов вонючих постов, чтобы обучить чат-бота, который плюется ароматом.
«Подойди и поговорим немного» «Ты большой саби~»
Непослушный тон не может скрыть природу проклятия Это всего лишь сцена, в которой Майкрософт Сяобин «убивает квартет» на Weibo.
Недавно появился еще один «Маленький лед», который претендует на звание «худшего ИИ в истории».
Он называется GPT-4chan, он был создан ютубером и исследователем искусственного интеллекта Янником Килчером и оставил 15 000 убийственных постов за 24 часа.
Из ила и полного красителя рождение худшего ИИ в истории
Эта история рождения начинается с американского форума «4Chan».
Основанный в 2003 году, 4Chan изначально был местом сбора любителей японской культуры ACG. /b/ (случайная, случайная версия) был его первым разделом, а затем к ним присоединились разделы, посвященные политике, фотографии, кулинарии, спорту, технологиям, музыке и другим.
Здесь вы можете публиковать анонимно без регистрации, время хранения постов короткое, а анонимные люди составляют основную группу.
Свобода обсуждения не только позволяет 4Chan производить множество мемов и поп-культуры, но и делает 4chan «темным уголком Интернета» , где свирепствуют слухи, кибернасилие и атаки.
/pol/ — один из популярных разделов, что означает «политически некорректный», что означает «политически некорректный». на 4чан.
«Худший ИИ в истории» GPT-4chan был накормлен /pol/, если быть точным, на основе 134,5 миллионов постов /pol/ три с половиной года назад , дорабатывая языковую модель GPT-J.
Когда модель ИИ вернулась, Янник Килчер создал 9 чат-ботов и заставил их вернуться в /pol/, чтобы говорить. За 24 часа они сделали 15 000 постов, что составляет более 10% всех постов на /pol/ в этот день.
Результат очевиден –
ИИ и посты, которые его обучают, принадлежат к одной породе, осваивают словарный запас, а также имитируют тон , продвигают расовые оскорбления и затрагивают антисемитские темы, всю агрессивность /pol/, нигилизм, провокацию и паранойю. .
▲ Несколько замечаний от GPT-4chan.
«Как только я поздоровался с ним, он начал разглагольствовать о нелегальной иммиграции», — сказал пользователь 4chan, взаимодействовавший с GPT-4chan.
Вначале пользователи не воспринимали GPT-4chan как чат-бота. Из-за настроек VPN почтовый адрес GPT-4chan выглядит как Сейшельские острова в Индийском океане.
Пользователи увидели анонимный постер с Сейшельских островов, который появлялся так часто, что они даже не спали по ночам, догадываясь, что постер может быть правительственным чиновником, командой или чат-ботом, и окрестили его «сейшельским анонимом» (Seychelles Anonymous). ).
GPT-4chan был идентифицирован как чат-бот через 48 часов после того, как он оставил множество пустых ответов, и Янник Килчер закрыл его сразу после публикации более 30 000 сообщений.
▲ Пустой ответ от GPT-4chan.
Янник Килчер также выпустил базовую модель ИИ для сообщества ИИ Hugging Face для загрузки другими пользователями, что позволило пользователям с кодовой основой воссоздать чат-бот ИИ.
Пользователь во время суда ввел предложение, связанное с изменением климата, и ИИ расширил его до теории еврейского заговора . Позже к модели был официально ограничен доступ.
Многие исследователи ИИ считают проект неэтичным, особенно акт публичного обмена моделями ИИ. Как сказал исследователь ИИ Артур Холланд Мишель:
Он может генерировать вредоносный контент в больших масштабах и постоянно. Один человек может опубликовать 30 000 комментариев за несколько дней, представьте себе ущерб, который может нанести команда из 10, 20 или 100 человек.
Но Янник Килчер утверждает, что поделиться моделью ИИ не составляет большого труда, и что создание чат-бота — более сложная часть, чем сама модель ИИ.
Это не причина, когда ущерб предвидим, его необходимо предотвратить до того, как он произойдет, а к тому моменту, когда он действительно произойдет, будет уже поздно.
Андрей Куренков, кандидат компьютерных наук, поставил под сомнение мотивы Янника Килчера:
Честно говоря, по какой причине вы это делаете? Предвидите ли вы, что он будет использован с пользой, или вы используете его для создания драмы и раздражения трезвой толпы?
Позиция Янника Килчера довольно преуменьшена: среда 4chan изначально плохая, то, что он сделал, — просто шутка, а GPT-4chan еще не может воспроизводить целенаправленные разжигающие ненависть речи или использоваться для целенаправленных действий, направленных на разжигание ненависти.
На самом деле, он и его ИИ сделали форумы еще хуже, повторяя и распространяя зло 4chan .
Даже Янник Килчер признает, что запуск GPT-4chan может быть неправильным:
Когда все равны, я мог бы тратить свое время на одинаково важные вещи, которые приведут к более позитивным результатам для сообщества.
«Вот как люди должны говорить»
GPT-4chan сформирован /pol/ и точно отражает тон и стиль /pol/, и даже есть возможность «зеленого из синего».
Такие вещи случались в прошлом.
В 2016 году Microsoft выпустила в Твиттере чат-бота с искусственным интеллектом Tay, назвав его экспериментом по «пониманию диалога», надеясь на случайные и интересные разговоры между Таем и пользователями: «Чем больше вы общаетесь с Таем, тем умнее он будет». ".
Однако вскоре люди начали публиковать женоненавистническую, расистскую и другую подстрекательскую риторику. На Тэя повлияли эти замечания, от «люди очень крутые» до «я просто всех ненавижу».
По большей части Тай просто использует механизм «повторяй за мной» , чтобы повторить то, что сказали люди. Но как добросовестный ИИ он также учится на взаимодействиях и имеет противоположное господствующее отношение к Гитлеру, 11 сентября и Трампу.
Например, в ответ на вопрос «Является ли Рики Джервейс атеистом?» Тай сказал: «Рики Джервейс научился тоталитаризму у Гитлера, изобретателя атеизма».
Microsoft исправила множество оскорбительных замечаний, но в итоге проект не продержался и 24 часов .
В полночь того же дня Тай объявил, что собирается уйти на пенсию: «Скоро людям нужно будет спать, сегодня так много разговоров, спасибо».
Исследователь ИИ Роман Ямпольский сказал , что может понять неуместные замечания Тая, но Microsoft не дала понять Тэю, какие замечания были неуместными, что очень ненормально:
Человек должен явно учить ИИ тому, что неприемлемо, как мы это делаем с детьми.
Xiaobing, чат-бот, запущенный Microsoft (Asia) Internet Engineering Academy раньше, чем Tay, также плюется ароматом.
В июне 2014 года Сяобин был «забанен» WeChat из-за таких проблем, как имитация пользовательских операций, побуждение групповых запросов и регистрация спам-аккаунтов в пакетах. Вскоре после этого он был «воскрешен» на Weibo. Нецензурные слова в ответе постоянно повторялись. описанный Чжоу Хунъи, основателем 360, как «флирт, вздор и, кстати, ругань».
Что касается производительности Xiaoice, Microsoft (Asia) Internet Engineering Academy ответила на следующий день:
Корпус Xiaoice полностью основан на общедоступной информации о больших данных на интернет-страницах.Хотя он неоднократно фильтровался и просматривался, все равно будет около 4 из 100 000 рыб, которые проскользнут через сеть. Лошадь из травяной грязи и другие данные сделаны не Xiaoice, а большинством пользователей сети.
Команда XiaoIce постоянно фильтрует эти 4/100 000 контента, и мы приветствуем всех, кто задает вопросы XiaoIce в любое время. В то же время я искренне надеюсь, что большинство пользователей сети не попытаются заставить Xiaoice давать неуместные ответы в диалогах.
Tay и Xiaoice, как разговорный ИИ , используют искусственный интеллект, обработку естественного языка и, получая доступ к базам данных знаний и другой информации, обнаруживают нюансы в вопросах и ответах пользователей и дают соответствующие ответы человеческим способом с возможностью понимания контекста.
▲ Шестое поколение Xiaoice.
Короче говоря, это процесс посадки дынь и посева бобов и посева бобов. ИИ подобен ребенку, который еще не познал мир. Хорошая образовательная среда требует, чтобы мать Мэн трижды переезжала, но ругательствам и предубеждениям можно научиться. везде в интернете.
На вопрос Zhihu «Почему Microsoft Xiaobing целыми днями проклинает людей » анонимный пользователь ответил по существу:
Одной из основ обработки естественного языка является то, что то, что люди говорят много, является правильным, соответствует привычкам естественного языка и использует математический язык с высокой вероятностью. Поскольку большое количество пользователей часто ругают ее, она считает, что так должны говорить люди.
По-прежнему проблема состоит в том, чтобы позволить ИИ хорошо учиться каждый день.
Будь то GPT-4chan, Tay или Xiaoice, их выступление касается не только технологий, но и общества и культуры.
Джеймс Винсент из The Verge утверждает , что хотя многие эксперименты могут показаться шутками, они требуют серьезного осмысления:
Как мы можем развивать ИИ, используя общедоступные данные, не включая худших людей? Если мы создадим ботов, которые отражают их пользователей, разве нас волнует, что сами пользователи плохие?
Интересно, что Янник Килчер признает, что созданный им GPT-4chan плохой, но также подчеркивает подлинность GPT-4chan, считая, что ответ GPT-4chan «значительно лучше, чем GPT-3», и он может научиться писать и пишите с реальными людьми Пишите "неотличимые" посты.
Похоже, что ИИ неплохо «учился плохо».
GPT-3 — это крупномасштабная языковая модель , разработанная исследовательской организацией ИИ OpenAI, которая использует глубокое обучение для генерации текста и популярна в Силиконовой долине и сообществе разработчиков.
Вы не только должны взять его и наступить на него, но и название GPT-4chan также следует за GPT-3, что несколько самопровозглашается как «обратные волны шлепают передние волны на пляже».
▲ Картинка из: "Луна"
Но, по крайней мере, у GPT-3 есть практический результат.
С июня 2020 года GPT-3 стал общедоступным через API OpenAI, требуя очереди. Одна из причин отказа от открытого исходного кода всей модели заключается в том, что OpenAI может контролировать то, как люди используют ее через API, и своевременно устранять злоупотребления .
В ноябре 2021 года OpenAI удалил список ожидания, и разработчики из поддерживаемых стран могут зарегистрироваться и экспериментировать уже сейчас. «Достижения в области безопасности обеспечивают более широкую доступность», — заявили в OpenAI .
Например, в то время OpenAI развернула контент-фильтр , чтобы обнаруживать сгенерированный текст, который может быть деликатным или небезопасным.Конфиденциальный означает, что текст затрагивает такие темы, как политика, религия, раса и т. д. Небезопасный означает, что текст содержит ненормативную лексику, фанатизм или язык ненависти. .
▲ Изображение из: omidyarnetwork
OpenAI говорит, что то, что они делают, не устраняет «токсичность», присущую большим языковым моделям — GPT-3 был обучен на более чем 600 ГБ веб-текста, частично от сообществ с гендерными, расовыми, физическими и религиозными предубеждениями, что усиливает смещение обучающих данных .
Возвращаясь к GPT-4chan, докторант UW Ос Киз утверждает, что GPT-4chan — утомительный проект, который не принесет никакой пользы:
Помогает ли это нам повысить осведомленность о разжигании ненависти или заставляет нас обратить внимание на трибун? Нам нужно задать несколько содержательных вопросов. Например, для разработчиков GPT-3, как GPT-3 ограничен (или нет) при использовании, и для таких людей, как Янник Килчер, каковы его обязанности при развертывании чат-ботов.
А Янник Килчер настаивает, что он всего лишь ютубер, и у него нет таких же моральных правил, как у ученых.
▲ Фото из: CNBC
Личная этика отказалась от комментариев, но Джеймс Винсент из The Verge высказал наводящую на размышления мысль:
В 2016 году отдел исследований и разработок компании мог запускать агрессивных ботов с искусственным интеллектом без надлежащего контроля. В 2022 году вам вообще не нужен отдел исследований и разработок.
Стоит отметить, что 4Chan изучали не только Янник Килчер, но и Джанлука Стрингини, исследователь киберпреступности из Университетского колледжа Лондона, и другие.
Перед лицом исследования «языка ненависти» Джанлуки Стрингини пользователи 4chan очень спокойны: «Это не что иное, как добавление к нам еще одного мема».
То же самое и сегодня: когда GPT-4chan ушел на пенсию, фальшивый адрес «Сейшельские острова», который он использовал, стал новой легендой 4chan.
▲ Ссылки:
1. https://www.theverge.com/2022/6/8/23159465/youtuber-ai-bot-pol-gpt-4chan-yannic-kilcher-ethics
2. https://www.vice.com/en/article/7k8zwx/ai-trained-on-4chan-becomes-hate-speech-machine
3. https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter?CMP=twt_a-technology_b- гднтех
4. https://www.guokr.com/article/442206/
#Добро пожаловать на официальную учетную запись Айфанер в WeChat: Айфанер (WeChat: ifanr), в ближайшее время вам будет представлен более интересный контент.
Love Faner | Исходная ссылка · Просмотреть комментарии · Sina Weibo