Чтобы догнать ChatGPT и понизить моральный итог, может ли Google все-таки «не быть злым»?
Слоган «Не будь злым» был девизом и кодексом поведения Google до 2018 года.
▲ Изображение из: подстека
Это означает, что Google должен соблюдать этику и законы при совершении действий, а не совершать действия, наносящие вред обществу и пользователям.
Но в 2018 году эта фраза была изменена на «Делайте правильные вещи (делайте правильные вещи)».
Многие считают, что это изменение Google нарушило его первоначальное намерение.
▲ Изображение взято: vox
И в некоторых последующих деловых действиях Google не сохранял нейтралитет технологий, а был более склонен к получению коммерческой прибыли, сбору конфиденциальности пользователей и использованию некоторых данных для обеспечения расширения собственного бизнеса.
Причина, по которой упоминается классический слоган Google, заключается в том, что внезапная вспышка нынешней AIGC чем-то похожа на предыдущую вспышку Интернета.
В интервью программе CBS «60 Minutes» нынешний генеральный директор Google Сундар Пичаи упомянул «Dont Be Evil» для текущего ИИ.
А также сказал, что причина, по которой Google Bard в данный момент кажется немного неуклюжим, на самом деле заключается в том, что не анонсировано расширенной версии Bard.
«Я надеюсь дать обществу больше времени для адаптации к ИИ, а также дать компаниям больше времени для разработки защитных ограждений».
Проще говоря, Пичаи считает, что сила искусственного интеллекта Google не хуже, чем у OpenAI, и из соображений социальной ответственности технология искусственного интеллекта временно закрыта.
Однако, независимо от отчетов Bloomberg, Verge и Financial Times, у Google совершенно разные мнения о Барде и текущей разработке и надзоре Google за технологией искусственного интеллекта.
Чтобы противостоять ChatGPT, можно отложить в сторону этику
Примерно в 2011 году Google основал проект Google Brain, который стартовал в области глубокого обучения, что также означает, что Google начал заниматься ИИ.
С тех пор Google почти каждый год достигал небольших достижений и небольших целей в области ИИ.
От победы AlphaGo над чемпионом мира по шахматам Ли Шиши до выпуска среды с открытым исходным кодом TensorFlow, выпуска чипа машинного обучения TPU и последних языковых моделей, таких как BERT и LaMDA.
Google является ветераном в области ИИ. В процессе исследования ИИ у него также есть относительно полная внутренняя команда по управлению рисками, техническая команда и т. д., которую можно охарактеризовать как сильную.
Конечно, это также немного высокомерно.
Содержание ежегодной конференции разработчиков Google также начало обращаться к ИИ, демонстрируя внешнему миру глубокую силу Google в области ИИ.
Внешний мир также в целом считает, что Google возглавит трансформацию индустрии ИИ.
До ChatGPT, если быть точным, появления GPT-3 и последующего появления GPT-4, Midjourney V5 горяча.
Прежде чем Google успел отреагировать, Microsoft воспользовалась возможностью и сотрудничала с OpenAI, чтобы применить ChatGPT к новому bing, вызвав «поисковую» революцию.
Когда Google пришел в себя, за ночь запустил Bard, а как только он вышел в сеть, то устроил улунскую кашу, было много фактических ошибок, и он поддерживает пока только английский язык.
По сравнению с ChatGPT и новым bing он слишком уступает.
Результатом поспешного запуска Bard стал кризис доверия и резкое падение цен на акции.Даже если Google скорректирует его позже, влияние Bard все равно не сравнится с ChatGPT.
В результате некоторые сотрудники Google также заявили, что Бард вообще не соответствовал некоторым этическим критериям и был склонен лгать и делать негативные замечания.
Во время внутреннего тестирования сотрудник попросил Барда дать инструкции о том, как посадить самолет, и тот ответил действиями, которые легко могли привести к падению.
Другой сотрудник задал Барду вопрос о дайвинге, и тот дал ответы, которые легко могли привести к серьезной травме или смерти.
В дополнение к этим опасным ответам Google также смягчил свои требования по некоторым этическим и социальным вопросам.
В Google есть исследовательская группа по этике ИИ, которая исследует, устанавливает и оценивает риски, связанные с ИИ.
Они имеют право напрямую ставить красную метку на технологию, и если она не пройдет тест, она временно не будет доступна для общественности.
▲ Тимнит Гебру, бывший исследователь команды Google по этике искусственного интеллекта. Изображение из: Bloomberg.
В 2021 году Google также пообещал расширить исследовательскую группу по этике ИИ и инвестировать больше ресурсов, чтобы обуздать погоню за прибылью технических исследователей.
Но что интересно, так это то, что руководство команды менялось, а также пережило серию увольнений в прошлом году.
В настоящее время в Google в 30 раз больше технических исследователей, связанных с ИИ, чем в команде этической безопасности.
Даже после того, как ChatGPT затмил весь мир AIGC, Google начал давать сбои, и членам группы по этике было приказано не препятствовать и не «убивать» какие-либо разрабатываемые инструменты генеративного ИИ.
После внутреннего тестирования и получения множества «вопросов» Google столкнулся с коммерческим давлением со стороны Microsoft и ChatGPT и, наконец, решил выпустить его под названием «экспериментальный продукт».
Потому что в некоторых статистических обзорах экспериментальные продукты с большей вероятностью будут приняты публикой, даже если они имеют дефекты.
И некоторые сотрудники также считают, что анонс новых технологий для общественности в кратчайшие сроки может быстрее получить обратную связь и быстрее улучшить продукты.
По сути, долгое время после выпуска Барда Google вносил только одно изменение, добавляя в него модификацию математической логики.
Что касается того, были ли изменены и оптимизированы некоторые чувствительные заборы и чувствительные темы, то об этом не упоминалось.
Бард также, кажется, отходит на второй план в постоянно меняющейся волне ИИ.
Маск: та должна быть под присмотром
Интересно, что Маск также говорил о Google на Fox News почти до и после интервью Пичаи.
Маск и основатель Google Ларри Пейдж когда-то были близкими друзьями, Пейдж даже купил 10% акций SpaceX и хотел отправиться на Марс, чтобы поиграть с Маском в песочнице.
Но в 2014 году, после того как Google приобрела DeepMind, у них были разные взгляды на ИИ, и в итоге они перестали общаться друг с другом.
В том же году Пейдж сказал в своем выступлении на TED, что его конечной целью является создание суперцифрового искусственного интеллекта, который он называет «цифровым богом».
Относительно этой идеи Пичаи не отрицал и не соглашался в интервью «60 минут».
Вместо этого он только сказал, что Google выпустит новые продукты AI на своей конференции Developer I/O 10 мая.
И у Маска есть четкое представление о «цифровом боге».У Google есть высокопроизводительный компьютер и команда искусственного интеллекта, близкая к монополии в мире, и она, скорее всего, достигнет так называемого «цифрового бога».
Но Пейджа, руководителя компании, не волнуют проблемы безопасности, связанные с искусственным интеллектом, который весьма опасен для мира.
Именно поэтому он недавно захотел войти в игру, увидев ChatGPT, новый bing и Bard как ерунду, и запустил аналогичный продукт под названием TruthGPT.
Кроме того, Маск также призывает различные страны и организации ввести соответствующие политики для ограничения некоторых возмутительных действий ИИ.
Из-за характеристик генеративного ИИ его данные поступают из интернет-форумов, газет, веб-сайтов и т. д. Поскольку эти данные не десенсибилизированы и не строго ограничены, легко генерировать рискованные, вредные или неточные замечания.
Кроме того, при нынешнем буме в индустрии AIGC участники словно промывают золото, словно искусственный интеллект выходит на новый этап развития.
Однако нынешние крупномасштабные модели и высокопроизводительные методы промышленного производства также упрощают монополизацию ИИ крупными компаниями.
Когда им трудно взвесить, гнаться ли за прибылью или поддерживать внутреннюю безопасность, легко совершить ошибку в ориентации на ИИ, что приведет к непоправимым последствиям.
Несмотря на то, что Маск немного эгоистичен в AIGC, Маск действительно гораздо более трезв, когда дело доходит до некоторых важных вопросов.
С большой властью приходит большая ответственность
Google Photos будет использовать распознавание изображений AI, чтобы помечать и помогать пользователям сортировать изображения для классификации.
Это одно из первых приложений Google с искусственным интеллектом. Несмотря на то, что Google Фото скорректировал свободную емкость, оно по-прежнему остается одним из моих наиболее часто используемых приложений.
Но в 2015 году Google Фото ошибочно назвал изображение чернокожего разработчика программного обеспечения и его друзей «гориллой».
Более нормальным ответом было бы принести извинения и реорганизовать алгоритм, чтобы постепенно исправить эту ошибку распознавания.
Но Google решил полностью удалить результаты поиска по словам «горилла», «шимпанзе» и «обезьяна».
Проблема, с которой сегодня сталкивается Google Bard, заключается в том, что Google до сих пор не понимает ответственности и по-прежнему предпочитает ее приуменьшать.
Чтобы иметь возможность догнать ChatGPT, внутренняя команда Google по этике искусственного интеллекта не проводила его всестороннюю оценку, а только проводила исследования по деликатным темам и, наконец, в спешке запустила его.
Bloomberg также процитировал оценку бывшего руководителя группы по этике ИИ, который считает, что Google всегда неоднозначно относился к разработке передового ИИ или разработке ИИ с моральной целью.
Фактически, в отрасли AIGC не только Google, но и Financial Times также сообщили, что технологические гиганты, такие как Microsoft и Amazon, массово упраздняют группы по этике ИИ.
Похоже, что в тот момент, когда AIGC стремительно развивается и конкурирует друг с другом, этика и безопасность ИИ повлияли на оковы, которыми они гоняются друг за другом.
Как говорится в отчете исследователей Стэнфордского университета, быстрое развитие индустрии ИИ сместилось от академического к индустриализации.Под искушением коммерческих интересов появляются различные ИИ, но этика, безопасность и чувствительность, стоящие за ними, вредны. и другая информация постепенно игнорируется.
Крупные компании также не желают брать на себя дополнительные социальные обязательства и лишь балансируют на грани законов и правил, которые в конечном итоге могут оказать глубокое влияние на общество и индустрию искусственного интеллекта.
В настоящее время многие страны и регионы и даже некоторые компании и организации активно изучают и формулируют некоторые правила, ограничивающие бесконтрольное развитие ИИ.
Как сказал Инь Шэн, бывший заместитель главного редактора китайского издания Forbes: «Большие компании должны делать больше, чем требуют пользователи и закон, поскольку вы создаете новый мир и извлекаете из этого пользу, вы должны помочь всему обществу узнать, как чтобы управлять им, если вы не возьмете на себя инициативу, общество возьмет на себя».
#Добро пожаловать, обратите внимание на официальный публичный аккаунт Айфанер в WeChat: Айфанер (идентификатор WeChat: ifanr), более интересный контент будет представлен вам как можно скорее.
Ай Фанер | Оригинальная ссылка · Просмотреть комментарии · Sina Weibo