Google снова ставит вопрос об использовании искусственного интеллекта в военных целях
4 февраля Google обновила свои «Принципы искусственного интеллекта» — документ, в котором подробно описывается, как компания будет использовать искусственный интеллект в своих продуктах и услугах. Старая версия была разделена на два раздела: «Цели применения ИИ» и «Приложения ИИ, которые мы не будем реализовывать», и в ней прямо обещалось не разрабатывать ИИ-оружие или инструменты наблюдения.
Обновление было впервые замечено The Washington Post , и наиболее ярким отличием является полное исчезновение любого раздела «Приложения искусственного интеллекта, которые мы не будем использовать». Фактически, язык документа теперь фокусируется исключительно на том, «что Google будет делать», без каких-либо обещаний о том, «чего Google не будет делать».
Почему это важно? Что ж, если вы говорите, что не будете гоняться за оружием ИИ, то вы не сможете гоняться за оружием ИИ. Это довольно резко и сухо. Однако, если вы говорите, что будете использовать «строгий дизайн, тестирование, мониторинг и меры безопасности для смягчения непреднамеренных или вредных последствий и предотвращения несправедливой предвзятости», тогда вы можете делать все, что захотите, и просто утверждать, что вы использовали строгие меры безопасности.
Точно так же, когда Google заявляет, что будет осуществлять «надлежащий человеческий надзор», мы не можем понять, что это значит. Google — это тот, кто точно решает, какой именно человеческий надзор является подходящим. Это проблема, поскольку это означает, что компания на самом деле не дает никаких обещаний и не предоставляет нам достоверной информации. Он просто открывает вещи, чтобы иметь возможность более свободно передвигаться, но при этом пытается создать впечатление социальной ответственности.
Участие Google в проекте Maven Министерства обороны США в 2017 и 2018 годах привело к созданию оригинального документа о принципах искусственного интеллекта. Тысячи ее сотрудников протестовали против военного проекта, а в ответ Google не стала продлевать соглашение и пообещала прекратить разработку оружия с искусственным интеллектом.
Однако перенесемся на несколько лет вперед: большинство конкурентов Google участвуют в подобных проектах: Meta, OpenAI и Amazon допускают определенное военное использование своих технологий искусственного интеллекта. Благодаря повышенной гибкости обновленных принципов искусственного интеллекта Google фактически может вернуться в игру и заработать немного военных денег. Будет интересно посмотреть, скажут ли сотрудники Google что-нибудь по этому поводу в ближайшем будущем.