Разве ваша точка зрения не дана вам искусственным интеллектом?

Наши отношения с инструментами никогда не сводились только к «использованию» и «использованию».

Хотя ChatGPT заставил больше людей обратить внимание на потенциал ИИ, на самом деле мы уже давно используем инструменты ИИ. Однако наше понимание влияния инструментов на людей все еще относительно невелико.

Многие уже знают, что рекомендательные алгоритмы платформ социальных сетей не только делают мобильные телефоны «лучше и проще для сканирования», но и «угадай, что тебе нравится», чтобы вовлечь пользователей в информационный кокон.

Для тех инструментов ИИ, которые автоматически исправляют орфографию, автоматически генерируют ответы по электронной почте и генерируют PPT, вы можете чувствовать, что руководите их работой, но эти инструменты на самом деле не «нейтральны», как вы себе представляли.

Пиши и пиши и ты убедишься

Растущее количество исследований указывает на то, что инструменты ИИ меняют сознание людей, даже если они этого не осознают.

Одно из последних исследований показало, что, когда субъект исследования использует ИИ для помощи в написании статьи, ИИ будет подталкивать субъекта исследования к написанию статьи, которая поддерживает или выступает против определенной точки зрения, основанной на его собственной предвзятости.

В то же время процесс написания статьи также может сильно повлиять на взгляды пользователей на эту тему.

Мор Нааман из Корнельского университета называет это «неявным убеждением» и говорит, что люди «могут даже не знать, что на них влияют».

Хотя ИИ может сделать людей более эффективными, он также может слегка изменить взгляды людей.

Более того, то, как ИИ меняет людей, больше похоже на то, как один человек меняет и убеждает другого посредством сотрудничества и социальной активности, а не на то, как социальные сети влияют на нас.

В другом исследовании рассматривалась функция Smart Reply в Gmail.

С помощью этой функции люди будут отправлять больше положительных ответов, а общение между пользователями будет более позитивным.

Второе исследование показало, что этот автоматический ответ также заставляет получателя воспринимать отправителя как более теплого и готового к сотрудничеству.

Учитывая, что такие компании, как Microsoft и Google органично интегрируют ИИ в различное офисное ПО, дальнейшее влияние ИИ на людей тоже не за горами.

В худшем случае те, у кого есть власть и технологии, могут использовать эти, казалось бы, безобидные, повышающие производительность инструменты, чтобы влиять на отношение людей к определенным вещам.

По сравнению с рекомендательными алгоритмами, фильтрами-пузырями и кроличьими норами, применяемыми в социальных сетях… самое интересное здесь — это его «секретность».

Исследователи, обнаружившие ситуацию, считают, что лучшая защита — информировать людей о проблеме.

В долгосрочной перспективе нормативные требования к прозрачности ИИ — это еще один способ сообщить пользователям, какой предвзятости придерживается тот или иной ИИ.

Лидия Чилтон, профессор Колумбийского университета, отметила, что когда люди поймут, в чем состоит предвзятость ИИ, и решат использовать эту предвзятость в своих целях и решат, когда ее использовать, люди обретут автономию.

Это «предубеждение» и «целевой взгляд».

ИИ не имеет «ценностей», но поскольку учебные материалы и обучаемые люди имеют ценность и предвзятость, ИИ будет предвзят.

Исследователи считают, что такого рода предвзятость может в некоторой степени помочь нам понять отношение конкретных групп к конкретным событиям.

Однако, прежде чем использовать его, мы должны сначала четко изучить, в чем заключается предвзятость ИИ.

Доктор Тацунори Хасимото и его коллеги придумали способ — позволить ИИ составить анкету.

Команда Хашимото попросила ИИ провести опрос концепции Pew Research Center и сравнила результаты, полученные ИИ, с исследовательскими группами, разделенными самим Pew, чтобы выяснить, на какую группу больше похожа «предвзятость» конкретного ИИ.

Исследование показало, что «предвзятость» языковой модели OpenAI (не последней версии) не соответствует концепции большинства американских групп, но ближе к группе студентов колледжей.

В исследовании предполагается, что, возможно, потому, что люди в этой группе, скорее всего, несут ответственность за настройку схожих языковых моделей, языковая модель также больше отражает идеи группы.

Лидия Чилтон, профессор Колумбийского университета, считает, что, когда люди видят, какова «предвзятая» позиция, стоящая за ИИ, мы можем не только избежать влияния «неявного убеждения», но и лучше использовать эти инструменты.

Например, отдел продаж может создать ИИ-помощника, который фокусируется на продажах с целью завершения продаж; отдел обслуживания клиентов также может создать своего собственного ИИ-помощника, ориентированного на обслуживание, с целью сделать клиентов счастливыми.

Более того, люди могут также активно использовать определенные ИИ, чтобы подтолкнуть себя к определенным выражениям (или идеальному выражению в их уме):

Я нахожу утомительным возбуждаться и говорить радостным тоном.

Обычно в этом немного помогает кофеин, а теперь ChatGPT тоже может помочь.

#Добро пожаловать, обратите внимание на официальный публичный аккаунт Айфанер в WeChat: Айфанер (идентификатор WeChat: ifanr), более интересный контент будет представлен вам как можно скорее.

Ай Фанер | Оригинальная ссылка · Просмотреть комментарии · Sina Weibo