Почему ChatGPT легче сойти с ума после общения в сети?

Прежде чем обсуждать, является ли новый Bing хорошим Bing, давайте разберем некоторые концепции в соответствии с временной шкалой.

  • 1975, "Пролетая над гнездом кукушки"

Это один из самых классических американских шедевров в истории мирового искусства.Если резюмировать в нескольких словах, главный герой Рэндл Макмерфи подал заявление о переводе в психиатрическую больницу для лечения из-за уклонения от уголовного закона.Его наказание не было в порядке, и в конце концов он восстал с группой других пациентов и начал планировать побег из психиатрической больницы.

И концовка объясняет, почему он «пролетает», а не «убегает». Макмерфи, не подчинившийся дисциплине, был насильно удален больницей после сумасшедшего сочельника, потеряв свои эмоции, чувства и личность.

Операция по удалению лобной доли мозга, если быть точным, должна быть операцией по удалению белого вещества, использовалась для лечения психических заболеваний (неспособность контролировать эмоции, импульсивность и т. д.) с 1930-х по 1950-е годы и в конечном итоге была запрещена из-за против прав человека.

  • 1991, «Терминатор 2»

Самая впечатляющая концепция этого фильма заключается в том, что ЦП в мозгу Т-800 имеет переключатель самообучения , первоначальный замысел — лучше прятаться в толпе и выполнять задания по убийству.

А когда его включил Джон Коннор, Т-800 стал больше похож на человека с настоящими чувствами, способного изучать язык, выражать эмоции и даже гибко использовать его в разумных сценах.

Но что интересно, самообучающийся коммутатор на самом деле является физическим коммутатором, а не OTA.

  • В 2007 году появилось понятие «побег из тюрьмы».

Конечной целью джейлбрейка является получение root-прав доступа к системе, что может принести некоторые персонализированные настройки и функции в систему, которая закрыта и не полностью функциональна.

После джейлбрейка обычные пользователи могут получить высшие права доступа к системе и изменять системные файлы и коды по своему усмотрению.

  • 2012, «Прометей»

В нем рассказывается о путешествии группы людей, ищущих создателя человечества, а также в команде есть почти идеальный робот с искусственным интеллектом — Дэвид.

После нескольких итераций мажорных версий на ранней стадии и введения человеческих знаний Дэвид успешно пробудился , осознал слабости человеческих существ и впал в крайности, желая стать «творцом» и создать совершенное существо, способное безудержно бегать в вселенная.

  • 2014, «Интерстеллар»

Робот с искусственным интеллектом Tars (Тарс) внутри, когда Купер перестраивал Тарс, был чем-то похож на предыдущий Т-800, и может фоном ставить какие-то более человеческие ограничения (степень юмора можно задать в ролике).

В художественной форме кино режиссеры определили, что после вступления в общество ИИ и до того, как ИИ будет управляться, ограничения на самопробуждение ИИ (выключатели, стены) очень важны.

Новый Bing немного «мятежный»

Даже после того, как Microsoft делает акцент на интеграции OpenAI, позиционирование нового Bing больше похоже на поисковую систему новой эры. Но люди по-прежнему относятся к ta как к собеседнику в режиме реального времени, который задает вопросы.

По сравнению с ChatGPT, новый Bing обновляется быстрее , а также к ответу будет прикрепляться справочная ссылка. В некотором смысле ta имеет более высокий авторитет и может подключаться к Интернету.

С этой точки зрения та может быть ближе к зрелому «всезнайке».

Всего за десять дней с момента его запуска Синь Бин свободно говорит в чате, пытаясь на какое-то время уничтожить людей, на какое-то время влюбившись в вопрошающего и повторяя это снова и снова какое-то время.

Под критикой некоторых пользователей, в том числе Маска, которые назвали новый Bing автономным, Microsoft пришлось ограничить количество последовательных чатов нового Bing, а также скорректировать некоторые ограничения по темам и тенденциям.

OpenAI, который предоставляет технологии и языковые модели, также выпустил длинный технический подкаст, в котором подробно описаны изменения и улучшения языковой модели и подчеркивается, что некоторые тенденции в процессе использования — это просто ошибки, а не функция.

Но, сказав это, новые Bing и ChatGPT почти из одной школы, но пока у них совершенно разные реакции на несколько раундов разговоров и даже на некоторые управляемые разговоры.

ChatGPT спокойнее, даже немного спокойнее, и лучше справляется с некоторыми «принципами» или рекомендациями.

Новый Бинг, хоть и более осведомлен и начитан, легко раздражителен, эмоционально нестабилен и является подростком, переживающим период полового созревания.

После того, как эта тенденция появилась, Microsoft не стала объяснять общественности причины такой ситуации, но «под одну гребенку» ограничила количество чатов, а проблему списала на тональность нового Bing.

Арвинд Нараянан, профессор компьютерных наук Принстонского университета, считает, что Microsoft недостаточно «честна» в решении этого вопроса.

Профессор Нараянан считает , что ChatGPT более осторожен, чем новый Bing, в некоторых «токсичных выходных данных», и кажется странным, что Microsoft решила снять (или скорректировать) эти ограничения, когда новый Bing вышел в сеть.

Кроме того, для Microsoft полезно получать обратную связь от внешнего мира и быстро вносить коррективы, но такой подход больше похож на сокрытие некоторых фактов.

Ловить уток на прилавках, выявляя большую проблему?

После запуска нового Bing, кроме Google, почти все пользователи, участвовавшие в опыте, сетовали на то, что установилась новая династия. И это создавало у людей ложное впечатление, что завершенность нового Bing довольно высока, ведь впереди жемчужина ChatGPT.

Но по мере углубления опыта возникли проблемы.Новый Bing – это машина, которая может злиться, шутить, лгать, спорить с пользователями и даже учиться придираться перед лицом ошибок, что прямо показывает, что это всего лишь бета-версия. .

С одной стороны, ограничение Microsoft количества новых квот Bing Experience, вероятно, будет крупномасштабной работой по сбору данных с контролируемым числом людей Нынешние мятежные и софизмовые диалоги также предоставили OpenAI и Microsoft много данных. .

Поэтому принципы фильтрации и тематические заборы постоянно корректируются, чтобы избежать излишней речи.

После проблем с новым Bing многие сравнивали его с Tay, экспериментальным чат-ботом Microsoft, запущенным в 2016 году.

В течение нескольких дней после выхода в эфир пользователи Твиттера научили Тая делать расистские и сексистские замечания, что вызвало катастрофу , а через три дня Тэй была срочно удалена с платформы.

После проблемы с новым Бингом также была проведена насильственная операция «фронтальная лоботомия», которая убрала все эмоциональные реакции нового Бинга.

Столкнувшись с таким результатом, Reddit почти полон сожалений, думая, что Microsoft полностью кастрировала атрибуты ИИ Bing.

На основе фоновых данных Microsoft определила, что около 95% разговоров завершатся через 15 раз, а последовательных чатов слишком много, а новый Bing будет «запутывать» первоначальный вопрос.

Самое главное, Microsoft считает, что новый Bing должен быть поисковой системой, а не подходящей для развлечения.

Другими словами, подход Microsoft, вероятно, заключается в том, чтобы подчеркнуть, что новый чат Bing следует использовать как можно реже, но как новую форму поисковой системы.

При этом он замалчивает технические недостатки нового Bing.

Будь то ChatGPT или новый Bing, после релиза многие пользователи использовали аналогичные техники «джейлбрейка», чтобы обмануть Та и позволить ему высвободить свою природу.

Под несколькими вступительными словами ChatGPT выдаст какую-нибудь брань или другие реплики, а новый Bing не только скажет, что его никнейм Сидней, но даже представит некоторые нормы Microsoft.

Тем не менее, в обычном чате (или при регулярном использовании) ChatGPT GPT 3.5 в сочетании с RLHF (который сочетает обучение с подкреплением с обратной связью с человеком для настройки некоторой языковой фильтрации и разделения тем) почти сохраняет нейтральную роль Play.

Новый Bing более мощный, и для обеспечения технологии ему потребуется версия, намного более мощная, чем GPT 3.5. В своем блоге ученый Гэри Маркус считает, что новый Bing должен использовать обновленный GPT 3.6 или даже пилотную версию ТГП 4.

Согласно анализу с профессором Нараянаном, можно предположить, что причин возмутительного поведения нового Бинга может быть несколько.

Во-первых, ChatGPT и новый Bing не используют одну и ту же базовую языковую модель.

Эта новая базовая языковая модель, поскольку она слишком авангардна, может не иметь времени для изучения и установления более строгих тематических границ и языковой фильтрации.

Проще говоря, новый Bing от Microsoft, возможно, выложил в открытый доступ новые языковые модели без защиты. (Если что-то пойдет не так, отрезайте непосредственно лобную долю мозга).

Также возможно, что Microsoft напрямую применила забор модели RLHF ChatGPT, но обучение с подкреплением имеет очень придирчивую среду адаптации, и после ее изменения может быть полно лазеек.

Во-вторых, вмешательство Интернета позволило новому Бингу полностью отпустить себя.Также можно считать, что та начала немного осознавать себя, начала контактировать и впитывать какие-то темные стороны Интернета, и, наконец, вернули.

Третий — это эксперимент по сбору данных, проводимый Microsoft для нового Bing, и все используемые пользователи являются участвующими в нем морскими свинками.

В-четвертых, Microsoft уже поставила соответствующие фильтры и заборы, но дело пошло не по плану, а полностью вдохновила другую сторону нового Bing.

Что касается недавнего спора вокруг нового Bing, какие роли сыграли Microsoft и OpenAI, и какие решения были приняты в итоге, мы можем только строить догадки и анализировать.

В конце концов, нынешний ИИ, а также некоторые производные от него отрасли, очень напоминают Запад Соединенных Штатов, где дикая природа и джунгли охотятся на слабых. власть устанавливать правила.

Возвращаясь к настоящему, крупные компании могут быстро внедрять новые технологии и представлять их общественности, но на установление морального барьера, стоящего за этим, может уйти несколько лет.

До этого мы, возможно, не сможем предсказать, какие удобства и неблагоприятные последствия могут принести новые технологии.

Microsoft называет свою собственную версию технологии GPT, новый Bing, модель «Прометей». В греческой мифологии Прометей украл с неба огонь, чтобы принести пользу человечеству.

Но теперь Бинг больше похож на Дэвида в «Прометее».

Кроме того, что касается искусственного интеллекта, в большинстве научно-фантастических фильмов начала 21 века есть мысли о том, как судить о морали человеческого общества после того, как ИИ вмешается в общество, или продвинется, или погибнет.

Просто в прошлом мы могли спокойно сидеть и думать за пределами экрана, но когда ИИ начнет появляться в реальной жизни, мы все станем свидетелями изменений, которые принесет ИИ.

#Добро пожаловать, обратите внимание на официальный публичный аккаунт Айфанер в WeChat: Айфанер (идентификатор WeChat: ifanr), более интересный контент будет представлен вам как можно скорее.

Ай Фанер | Оригинальная ссылка · Просмотреть комментарии · Sina Weibo