Защитите общественность от рисков, связанных с искусственным интеллектом, Белый дом обращается к техническим гигантам

На встрече видных технических лидеров в Белом доме в четверг вице-президент Камала Харрис напомнила участникам, что они несут «этическую, моральную и юридическую ответственность за обеспечение безопасности и защиты» новой волны инструментов генеративного ИИ, которые привлекла огромное внимание в последние месяцы.

Встреча является частью более широких усилий по привлечению сторонников, компаний, исследователей, организаций по защите гражданских прав, некоммерческих организаций, сообществ, международных партнеров и других лиц по важным вопросам ИИ, заявил Белый дом.

Харрис и другие официальные лица заявили руководителям Google, Microsoft, Anthropic и OpenAI — компании, стоящей за чат-ботом ChatGPT , — что технологические гиганты должны соблюдать существующие законы, чтобы защитить американский народ от неправомерного использования новой волны продуктов искусственного интеллекта. Ожидается, что новые правила для генеративного ИИ вступят в силу в ближайшее время, но уровень, до которого они ограничивают технологию, будет в некоторой степени зависеть от того, как компании будут внедрять свои технологии ИИ в будущем.

Также в четверг Белый дом поделился документом , в котором излагаются новые меры, направленные на продвижение ответственных инноваций в области искусственного интеллекта. Действие включает 140 миллионов долларов на финансирование семи новых национальных научно-исследовательских институтов искусственного интеллекта, в результате чего общее количество таких институтов в США достигло 25.

Продвинутые чат-боты, такие как ChatGPT и Google Bard, реагируют на текстовые подсказки и способны отвечать очень по-человечески. Они уже могут очень впечатляюще выполнять широкий спектр задач, таких как написание презентаций и рассказов, обобщение информации и даже написание компьютерного кода.

Но из-за того, что технологические фирмы стремятся поставить свою технологию чат-ботов на передний план, интегрируя ее в существующие онлайн-инструменты, есть опасения по поводу долгосрочных последствий этой технологии для общества в целом, например , как она повлияет на рабочее место или приведет к появлению новых типов . преступной деятельности . Есть даже опасения по поводу того, что технология, если ей позволят беспрепятственно развиваться, может представлять угрозу для самого человечества.

Глава OpenAI Сэм Альтман сказал в марте, что он «немного напуган» потенциальными эффектами ИИ, в то время как в недавнем письме, опубликованном экспертами по ИИ и другими представителями технологической отрасли, содержится призыв к шестимесячной паузе в разработке генеративного ИИ, чтобы позволить время для создания общих протоколов безопасности.

И только на этой неделе Джеффри Хинтон, человек, которого многие считают «крестным отцом ИИ» за его новаторскую работу в этой области, оставил свой пост в Google , чтобы он мог более свободно говорить о своих опасениях по поводу технологии. 75-летний инженер сказал, что, поскольку технические фирмы выпускают свои инструменты искусственного интеллекта для общественного пользования, не полностью осознавая их потенциал, «трудно понять, как вы можете предотвратить их использование злоумышленниками в плохих целях».

Что еще более тревожно, в недавнем интервью CBS, в котором его спросили о вероятности того, что ИИ «уничтожит человечество», Хинтон ответил: «Это не исключено».

Но следует также отметить, что большинство тех, кто высказывает опасения, также считают, что при ответственном подходе технология может принести большую пользу многим слоям общества, включая, например, здравоохранение, что приведет к лучшим результатам для пациентов.