Техлидеры призывают приостановить разработку GPT-4.5, GPT-5 из-за «масштабных рисков»

Генеративный ИИ развивался с невероятной скоростью в последние месяцы с запуском различных инструментов и ботов, таких как ChatGPT от OpenAI , Google Bard и других. Тем не менее, это быстрое развитие вызывает серьезную обеспокоенность у опытных ветеранов в области ИИ — настолько, что более 1000 из них подписали открытое письмо, призывающее разработчиков ИИ ударить по тормозам.

Письмо было опубликовано на веб-сайте Future of Life Institute , организации, заявленной миссией которой является «направление преобразующих технологий на благо жизни и предотвращение экстремальных крупномасштабных рисков». Среди подписантов есть несколько видных ученых и лидеров в области технологий, в том числе соучредитель Apple Стив Возняк, генеральный директор Twitter Илон Маск и политик Эндрю Ян.

В статье содержится призыв ко всем компаниям, работающим над моделями ИИ, более мощными, чем недавно выпущенный GPT-4 , немедленно прекратить работу как минимум на шесть месяцев. Этот мораторий должен быть «общедоступным и поддающимся проверке» и даст время для «совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами».

В письме говорится, что это необходимо, потому что «системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества». Эти риски включают распространение пропаганды, уничтожение рабочих мест, возможную замену и устаревание человеческой жизни, а также «потерю контроля над нашей цивилизацией». Авторы добавляют, что решение о том, стоит ли продвигаться вперед в этом будущем, не должно быть оставлено на усмотрение «неизбранных технологических лидеров».

ИИ «для явного блага всех»

ChatGPT против Google на смартфонах.

Письмо пришло сразу после того, как были сделаны заявления о том, что GPT-5, следующая версия технологии, поддерживающей ChatGPT, может достичь искусственного общего интеллекта . Если это правильно, это означает, что он сможет понять и изучить все, что может понять человек. Это может сделать его невероятно мощным в направлениях, которые еще не полностью изучены.

Более того, в письме утверждается, что ответственного планирования и управления, связанных с разработкой систем ИИ, не происходит, «хотя в последние месяцы лаборатории ИИ оказались втянутыми в неконтролируемую гонку по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не могут понять, предсказать или надежно контролировать».

Вместо этого в письме утверждается, что должны быть созданы новые системы управления, которые будут регулировать развитие ИИ, помогать людям различать контент, созданный ИИ, и контент, созданный людьми, возлагать на лаборатории ИИ, такие как OpenAI, ответственность за любой вред, который они причиняют, и позволять обществу справляться с подрывом ИИ. особенно к демократии) и многое другое.

Авторы заканчивают на позитивной ноте, утверждая, что «человечество может наслаждаться процветающим будущим с ИИ… в котором мы пожинаем плоды, разрабатываем эти системы на благо всех и даем обществу возможность адаптироваться». По их словам, пауза в системах искусственного интеллекта, более мощных, чем GPT-4, позволит этому произойти.

Окажет ли письмо ожидаемый эффект? Трудно сказать. У OpenAI явно есть стимулы для продолжения работы над продвинутыми моделями, как финансовые, так и репутационные. Но с таким количеством потенциальных рисков — и с очень небольшим пониманием их — авторы письма явно считают, что эти стимулы слишком опасны, чтобы их использовать.