Эксперт предупреждает, что OpenAI демонстрирует «очень опасный менталитет» в отношении безопасности
Эксперт по искусственному интеллекту обвинил OpenAI в переписывании своей истории и чрезмерном игнорировании вопросов безопасности.
Бывший исследователь политики OpenAI Майлз Брандейдж раскритиковал недавний документ компании по безопасности и согласованию, опубликованный на этой неделе. В документе описывается, что OpenAI стремится к созданию общего искусственного интеллекта (AGI) многими маленькими шагами, а не делает «один гигантский скачок», заявляя, что процесс итеративного развертывания позволит выявить проблемы безопасности и изучить потенциал неправильного использования ИИ на каждом этапе.
Среди многочисленных критических замечаний в адрес технологии искусственного интеллекта, такой как ChatGPT, эксперты обеспокоены тем, что чат-боты будут предоставлять неточную информацию о здоровье и безопасности (например, печально известная проблема с функцией поиска искусственного интеллекта Google, которая инструктировала людей есть камни) и что они могут быть использованы для политических манипуляций, дезинформации и мошенничества . OpenAI, в частности, подверглась критике из-за отсутствия прозрачности в разработке своих моделей искусственного интеллекта, которые могут содержать конфиденциальные личные данные.
Выпуск документа OpenAI на этой неделе, похоже, является ответом на эти опасения, и документ подразумевает, что разработка предыдущей модели GPT-2 была «прерывистой» и что изначально она не была выпущена из-за «опасений по поводу вредоносных приложений», но теперь вместо этого компания будет двигаться к принципу итеративной разработки. Но Брандейдж утверждает, что документ меняет повествование и не является точным описанием истории развития ИИ в OpenAI.
«Выпуск OpenAI GPT-2, в котором я принимал участие, был на 100% последовательным + предвосхитил текущую философию OpenAI по итеративному развертыванию», — написал Брандейдж на X. «Модель выпускалась постепенно, на каждом этапе извлекались уроки. Многие эксперты по безопасности в то время поблагодарили нас за это предостережение».
Брандейдж также раскритиковал очевидный подход компании к рискам, основанный на этом документе, написав: «Такое ощущение, что в этом разделе возлагается бремя доказывания, когда опасения носят паникерский характер + вам нужны неопровержимые доказательства неизбежных опасностей, чтобы принять меры – в противном случае просто продолжайте поставки. Это очень опасный менталитет для продвинутых систем искусственного интеллекта».
Это происходит в то время, когда OpenAI находится под все более пристальным вниманием из-за обвинений в том, что компания отдает предпочтение «блестящим продуктам» над безопасностью .