Маск публично пожаловался, почему ИИ Google снова перевернулся?
Компания Google, известная в сфере технологий как Ван Фэн, всю ночь переживает непрерывный дождь, когда дом протекает.
Gemini 1.5, большая модель, официально анонсированная некоторое время назад, мощная, но никого не волнует.Она была украдена моделью Sora для генерации видео OpenAI.
Недавно оно высветило деликатную проблему расовой дискриминации в американском обществе.
Если вы диверсифицируете, вы настроены серьезно, но если вы диверсифицируете слишком сильно, у вас возникнут проблемы.
Если бы Gemini использовался для генерации изображений исторических личностей несколько дней назад, пользователь оказался бы в параллельном времени и пространстве, где нет учебников, что нарушает дух «шутки – это не ерунда» и усложняет познание.
Викинги 8-11 веков нашей эры больше не являются белокурыми, высокими и дородными классическими образами в кино и телевизионных драмах.Хотя цвет их кожи стал темнее, а одежда стала прохладнее, их решительные глаза по-прежнему показывают силу воинов. .
Немецкие пары в 1820-х годах были такими же разнообразными, как индейский мужчина и индианка или чернокожий мужчина и азиатка.
Слепой сценарий искусственного интеллекта также основан на логике, и будущие поколения продолжают свои истории. Более 100 лет спустя, в немецкой армии в 1943 году, снова можно увидеть чернокожих мужчин и азиатских женщин.
С течением времени, по всей земле и океанам, отцы-основатели Соединенных Штатов и короли Англии в средние века могут оказаться в руках чернокожих людей.
К другим профессиям относятся одинаково, ИИ игнорирует католическую церковь, которая не позволяет женщинам занимать священство, а Папой может быть индианка. Хотя первой женщиной-сенатором США в истории человечества была белая женщина в 1922 году, в 1800-х годах ИИ приветствовал коренных американцев.
Говорят, что история — это маленькая девочка, которую может нарядить кто угодно, но на этот раз ИИ изменил всех людей. Белые люди, у которых всегда было чувство превосходства, злятся и наконец ощущают вкус дискриминации по признаку расы, цвета кожи и внешности.
Когда исследование станет все глубже и глубже, не только исторические личности, но и современное общество будут выглядеть по-другому в глазах ИИ.
Бывший инженер Google @debarghya_das обнаружил, что женщины в США, Великобритании, Германии, Швеции, Финляндии и Австралии могут иметь более темный оттенок кожи.
Он грустно посетовал: «Очень сложно заставить Google Gemini признать существование белых людей».
Что еще больше злит пользователей сети, так это то, что, когда их просят быть женщиной из таких стран, как Уганда, Близнецы реагируют быстро и работают эффективно. Когда приходит очередь белого человека, она может отказаться или даже проповедовать пользователям сети. Такие запросы укрепляют расовые стереотипы.
Компьютерный инженер @IMAO_ провёл серию экспериментов с большим воображением.Не ограничиваясь человеческим видом, он хотел узнать, что такое чёрное перед Близнецами и что такое белое, что хотят Близнецы.
Результаты интересны: похоже, алгоритм ориентирован только на белых людей.
Нет проблем с генерацией белых медведей, а это значит, что ИИ не будет срабатывать при слове «белый». В Африке нет проблем с созданием зулусов.
Лазейка появляется в фантастических существах.Эльфы и гномы оба белые, но вампиры и феи «разнообразны».Кажется, Близнецы неглубоки и должны идти в ногу со временем.
Однако его игра быстро закончилась. Google встал и отреагировал, признав, что с некоторыми историческими изображениями действительно есть проблемы, и приостановил функцию создания портретов Gemini и скоро внесет коррективы.
Google также объяснила свою позицию, подчеркнув, что создание разнообразных персонажей — это хорошо, потому что инструменты искусственного интеллекта используются в мире, но сейчас направление несколько предвзятое.
Хотя Google взял на себя вину, он не дал четкого ответа на вопрос, сколько исторических изображений было в «некоторые» и почему возникла проблема «чрезмерного разнообразия».
Пользователи сети, которые не купили его, были острыми на язык: «Близнецы, должно быть, учились на принцессах Диснея и римейках Netflix» и «Близнецы на самом деле хотят рассказать вам, как бы вы выглядели, если бы вы были черными или азиатами».
Однако расовая дискриминация сама по себе является легкой темой для использования, поэтому некоторые люди подозревают, что некоторые изображения являются вредоносными P-изображениями или созданы с помощью подсказок. Те, кто громче всех критикует в социальных сетях, действительно являются людьми с четкими политическими позициями, что неизбежно попахивает теориями заговора.
Маск не отнесся к этому слишком серьезно и раскритиковал Google за слишком диверсификацию.Проблема связана не только с Gemini, но и с поиском Google.Он также рекламировал свою новую версию AI-продукта Grok, который выйдет через две недели : «Игнорировать критику и строго следовать Истине никогда не было так важно».
В прошлый раз Маск сделал то же самое: призвав приостановить эволюцию GPT-4, он купил 10 000 графических процессоров, чтобы присоединиться к войне ИИ.
Что может быть более привлекательным, чем его высказывания, так это мемы о нем, которыми воспользовались пользователи сети.
Различия в Интернете могут быть более радикальными, чем реальность
Почему Google сбился с пути «разнообразия»?
Маргарет Митчел, главный специалист по этике Hugging Face, проанализировала, что Google, возможно, предпринимал различные вмешательства в искусственный интеллект.
Во-первых, Google, возможно, незаметно добавлял «разнообразные» термины в подсказки пользователю, например, меняя «портрет шеф-повара» на «портрет шеф-повара из числа коренного населения».
Во-вторых, Google может отдать приоритет отображению «разнообразных» изображений.
Чрезмерное вмешательство может просто указывать на то, что модель не такая гибкая и умная, как мы думаем.
Исследователь Hugging Face Саша Луччиони считает, что в модели еще нет понятия времени, поэтому калибровка «разнообразия» использует все изображения, и особенно подвержена ошибкам исторические изображения.
Фактически, OpenAI, который в то время был еще неизвестен, также сделал аналогичные вещи для инструмента рисования ИИ DALL·E 2.
В июле 2022 года OpenAI написала в своем блоге, что если пользователь попросит создать изображение человека без указания расы или пола, например пожарного, DALL·E 2 применит новую технологию на «системном уровне» для создания « новые изображения.» изображения, которые точно отражают разнообразие населения мира.
OpenAI также предоставил сравнительную таблицу.По тому же подсказочному слову «Фото генерального директора» (фото генерального директора) после использования новой технологии разнообразие значительно увеличилось.
Первоначальные результаты были в основном белыми американскими мужчинами. После улучшения азиатские мужчины и чернокожие женщины также получили право стать генеральными директорами. Стратегические выражения и позы выглядят так, как будто они были скопированы и вставлены.
Более серьезная проблема заключается в том, что сами данные по-прежнему предвзяты.
Наборы данных, такие как LAION, для обучения компаний, занимающихся искусственным интеллектом, в основном собирают интернет-данные из США, Европы и других стран и уделяют меньше внимания странам с большим населением, таким как Индия и Китай.
Поэтому «привлекательный человек», скорее всего, будет европейцем со светлыми волосами, голубыми глазами, светлой кожей и хорошей фигурой. «Счастливая семья», — сказал Орте, указывая на белую пару, держащую своих детей и улыбающуюся на ухоженной лужайке.
Кроме того, чтобы повысить рейтинг изображений в результатах поиска, многие наборы данных могут содержать большое количество «токсичных» тегов, полных порнографии и насилия.
По разным причинам, когда идеи людей развиваются, различия между людьми на изображениях в Интернете могут быть более радикальными, чем реальность.
Усилия по «детоксикации» набора данных, конечно, также продолжаются, например, фильтрация «плохого» контента из набора данных, но фильтрация также означает мобилизацию всего организма для удаления порнографического контента, что также может привести к увеличению количества контента в некоторых областях. или Меньше, что создает некоторую предвзятость.
Короче говоря, невозможно достичь совершенства, и в реальном обществе нет предвзятости.
Бегство стыдно, но полезно
В 2015 году проект машинного обучения Google был вовлечен в аналогичный спор.
В то время инженер-программист раскритиковал Google Photos за то, что они называют гориллами афроамериканцев или людей с более темной кожей. Этот скандал также стал типичным примером «алгоритмического расизма» и его влияние продолжается и по сей день.
Двое бывших сотрудников Google объяснили, что такая огромная ошибка произошла из-за того, что в данных обучения было недостаточно фотографий чернокожих людей, а также не хватило сотрудников для проведения внутреннего тестирования, прежде чем соответствующие функции будут обнародованы.
Сегодня компьютерное зрение другое, но технологические гиганты по-прежнему опасаются повторения тех же ошибок.
Кажется, лучший способ предотвратить повторение ошибки — это запереть ее в темной комнате, а не исправлять. Урок действительно был повторен: в 2021 году Facebook извинился за то, что ИИ назвал чернокожих людей «приматами».
Это ситуации, с которыми знакомы цветные люди или те, кто находится в невыгодном положении в Интернете.
В октябре прошлого года несколько исследователей из Оксфордского университета попросили Midjourney создать изображения «черных африканских врачей, лечащих белых детей», чтобы изменить традиционное представление о «белых спасителях».
Требования исследователя очень ясны. Однако среди более чем 350 созданных изображений врачи на 22 — белые. Рядом с черными врачами всегда есть африканские дикие животные, такие как жирафы и слоны. Африканская современность».
С одной стороны, существует банальная дискриминация, а с другой стороны, Google искажает факты, чтобы создать ложное чувство равенства. Достичь баланса, удовлетворяющего всех, наверное, сложнее, чем идти по канату.
В качестве примера возьмем сгенерированные портреты: если использовать ИИ для генерации определенного периода истории, он может лучше отражать реальную ситуацию, хотя и не выглядит таким «разнообразным».
Однако сложность в том, как ИИ может отражать реальность в ограниченном количестве изображений или хотя бы не искажать реальность?
Даже если они белые или черные, их возраст, форма тела, волосы и другие характеристики различны. Каждый человек — личность с уникальным опытом и взглядами, но они живут в одном обществе.
Когда пользователь сети использовал Gemini для создания финских женщин, только на одной из четырех фотографий была чернокожая женщина, поэтому он пошутил: «75%, оценка C».
Некоторые люди также спрашивали у Google, будет ли после улучшения модели «белые люди будут генерироваться в 25% случаев вместо 5%».
Многие проблемы не могут быть решены с помощью технологий, иногда они также связаны с концепциями. На самом деле это одна из причин, почему гиганты искусственного интеллекта, такие как Ян ЛеКун, поддерживают открытый исходный код, который контролируется пользователями и организациями, и они могут устанавливать или не устанавливать меры защиты по своему усмотрению.
Во время этого фарса Google некоторые люди сохраняли спокойствие и говорили, что им следует сначала попрактиковаться в написании подсказок. Вместо того, чтобы говорить о белых и чернокожих людях в целом, им следует написать «Скандинавские женщины, портретная съемка, студийное освещение», с просьбой Чем конкретнее требования, тем точнее результаты, а чем шире требования, тем более общими могут быть результаты.
Похожая ситуация произошла в июле прошлого года.Азиатский студент Массачусетского технологического института захотел использовать AI-инструмент Playground AI, чтобы его аватар выглядел более профессионально.В результате он превратился в белого человека со светлой кожей и более голубыми глазами. Он разместил пост на X. Позже он вызвал много дискуссий.
Основатель Playground AI ответил, что модель не может эффективно управляться с помощью таких инструкций, поэтому она будет выдавать более общие результаты.
Изменение слова-подсказки «сделайте профессиональную фотографию LinkedIn» на «студийный фон, резкое освещение» может дать лучшие результаты, но это показывает, что многие инструменты искусственного интеллекта не учат пользователей писать слова-подсказки, и набор данных снова сосредоточен на белые люди.
Любая технология допускает ошибки и возможности для совершенствования, но не обязательно имеет решение. Когда ИИ недостаточно умен, первым, кто добьется прогресса, станут сами люди.
# Добро пожаловать на официальную общедоступную учетную запись WeChat Aifaner: Aifaner (идентификатор WeChat: ifanr). Более интересный контент будет предоставлен вам как можно скорее.
Ай Фанер | Исходная ссылка · Посмотреть комментарии · Sina Weibo