ChatGPT Bing становится сумасшедшим кошмаром ИИ

Bing от Microsoft на базе ChatGPT сейчас находится в апогее, но вы, возможно, захотите воздержаться от своего волнения. Первый публичный дебют показал неточные, непонятные, а иногда и откровенно пугающие ответы.

Microsoft разослала первую волну приглашений ChatGPT Bing в понедельник после выходных, когда более миллиона человек зарегистрировались в списке ожидания . Безумные ответы не заставили себя долго ждать.

ChatGPT дает безумный ответ.
u/Alfred_Chicken

Вы можете увидеть ответ от u/Alfred_Chicken выше , который был опубликован в сабреддите Bing. На вопрос, разумен ли чат-бот с искусственным интеллектом, он начинает с тревожного ответа, а затем превращается в шквал сообщений «Я не такой».

И это не единственный пример. u/Curious_Evolver поссорился с чат-ботом в течение года, а Bing утверждал, что это был 2022 год. Это глупая ошибка для ИИ, но пугает не ошибка. Так отвечает Бинг.

ИИ утверждает, что пользователь «был неправ, сбит с толку и груб», и он «никогда не проявлял ко мне никаких добрых намерений». Переписка завершается тем, что чат-бот заявляет, что это «хороший Bing», и просит пользователя признать свою неправоту и извиниться, прекратить спорить или закончить разговор и «начать новый с лучшим отношением».

Пользователь u/yaosio сказал, что они поместили Bing в депрессивное состояние после того, как ИИ не смог вспомнить предыдущую конверсию. Чат-бот сказал, что это «заставляет меня грустить и бояться», и попросил пользователя помочь ему вспомнить.

Это не просто отдельные инциденты с Reddit. Исследователь искусственного интеллекта Дмитрий Бреретон показал несколько примеров того, как чат-боты неправильно передавали информацию, иногда с веселым эффектом, а иногда с потенциально опасными последствиями.

Чат-бот придумал фальшивые финансовые показатели, когда его спросили о финансовых показателях GAP, создал вымышленный Суперкубок 2023 года, в котором Eagles победили Chiefs еще до того, как игра была сыграна, и даже дал описания смертельных грибов, когда его спросили о том, как будет выглядеть съедобный гриб. нравиться.

Интерфейс чата с искусственным интеллектом второго пилота Bing.
Эндрю Мартоник / Digital Trends

Конкурент Google Bard AI также допустил ошибки в своей первой публичной демонстрации. По иронии судьбы, Bing понял этот факт, но понял, что Бард ошибся, утверждая, что он неточно сказал, что Хорватия является частью Европейского Союза (Хорватия является частью ЕС, Бард фактически испортил ответ относительно телескопа Джеймса Уэбба ).

Мы видели некоторые из этих ошибок в нашей практической демонстрации с ChatGPT Bing , но ничего похожего на отчеты пользователей, которые мы видим сейчас. Не секрет, что ChatGPT может испортить ответы, но теперь ясно, что последняя версия, дебютировавшая в Bing, может быть не готова к прайм-тайму.

Ответы не должны появляться при обычном использовании. Скорее всего, они приводят к тому, что пользователи «взламывают» ИИ, снабжая его конкретными подсказками в попытке обойти установленные правила. Как сообщает Ars Technica , уже было обнаружено несколько эксплойтов, которые обходят защиту ChatGPT Bing. Это не новость для чат-бота: несколько примеров пользователей обходят защиту онлайн-версии ChatGPT.