OpenAI обвиняют в несогласии с предложенным законопроектом о безопасности ИИ
Бывшие сотрудники OpenAI Уильям Сондерс и Дэниел Кокотайло написали письмо губернатору Калифорнии Гэвину Ньюсому, в котором утверждают, что противодействие компании законопроекту штата, который налагает строгие правила и протоколы безопасности на будущую разработку ИИ, разочаровывает, но не удивляет.
«Мы присоединились к OpenAI, потому что хотели обеспечить безопасность невероятно мощных систем искусственного интеллекта, которые разрабатывает компания», — написали Сондерс и Кокотайло. «Но мы ушли из OpenAI, потому что потеряли веру в то, что она будет безопасно, честно и ответственно разрабатывать свои системы искусственного интеллекта».
Они утверждают, что дальнейшее развитие без достаточных ограждений «создает предсказуемые риски катастрофического вреда для общества», будь то «беспрецедентные кибератаки или помощь в создании биологического оружия».
Дуэт также поспешил указать на лицемерие генерального директора OpenAI Сэма Альтмана в вопросе регулирования. Они указывают на его недавние показания в Конгрессе , призывающие к регулированию индустрии искусственного интеллекта, но отмечают, что «когда на столе стоит фактическое регулирование, он выступает против него».
Согласно опросу, проведенному в 2023 году корпорацией MITRE и Harris Poll, только 39% респондентов считают, что сегодняшняя технология искусственного интеллекта «безопасна и надежна».
Рассматриваемый законопроект, SB-1047, « Закон о безопасных и надежных инновациях для пограничных искусственных моделей», «среди прочего потребует, чтобы разработчик, прежде чем приступить к первоначальному обучению охваченной модели… соблюдал различные требования, включая реализацию возможностей незамедлительно провести полное отключение… и внедрить письменный отдельный протокол безопасности». За последние годы OpenAI пострадала от многочисленных утечек данных и системных вторжений .
Сообщается, что OpenAI категорически не согласен с «неправильной характеристикой» исследователями нашей позиции по SB 1047, как сообщил Business Insider его представитель. Вместо этого компания утверждает, что «набор политик в области искусственного интеллекта, основанный на федеральном уровне, а не лоскутное одеяло законов штатов, будет способствовать инновациям и позволит США возглавить разработку глобальных стандартов», — заявил директор по стратегии OpenAI Джейсон Квон в письме к Сенатор штата Калифорния Скотт Винер в феврале.
Сондерс и Кокотайло возражают, что стремление OpenAI ввести федеральные правила не является добросовестным. «Мы не можем ждать, пока Конгресс примет меры — они прямо заявили, что не желают принимать значимое регулирование ИИ», — написали пара. «Если они когда-нибудь это сделают, это может предвосхитить законодательство штата Калифорния».
Законопроект нашел поддержку и у неожиданного источника: генерального директора xAI Илона Маска. «Это трудный вызов, и он расстроит некоторых людей, но, учитывая все обстоятельства, я думаю, Калифорнии, вероятно, следует принять закон о безопасности SB 1047 для искусственного интеллекта», — написал он на X в понедельник. «Более 20 лет я выступаю за регулирование ИИ, точно так же, как мы регулируем любой продукт/технологию, представляющую потенциальный риск». Маск, который недавно объявил о строительстве «самого мощного кластера обучения искусственному интеллекту в мире» в Мемфисе, штат Теннесси, ранее угрожал перенести штаб-квартиры своих компаний X (ранее Twitter) и SpaceX в Техас, чтобы избежать отраслевого регулирования в Калифорнии.
Обновление: этот пост был обновлен и теперь включает комментарии Илона Маска.