Исследователи искусственного интеллекта предупреждают об угрозе «вымирания человечества» без дальнейшего надзора

Более дюжины нынешних и бывших сотрудников OpenAI , Google Deep Mind и Anthropic опубликовали во вторник открытое письмо, в котором призвали обратить внимание на «серьезные риски», связанные с продолжением быстрого развития технологии без наличия эффективной системы надзора.

Группа исследователей утверждает, что технология может быть использована не по назначению для усугубления существующего неравенства, манипулирования информацией и распространения дезинформации и даже «потери контроля над автономными системами искусственного интеллекта, что потенциально может привести к вымиранию человечества».

Подписавшиеся стороны полагают, что эти риски могут быть «адекватно смягчены» совместными усилиями научного сообщества, законодателей и общественности, но обеспокоены тем, что «компании, занимающиеся искусственным интеллектом, имеют сильные финансовые стимулы, чтобы избежать эффективного надзора», и на них нельзя рассчитывать, что они будут беспристрастно управлять ими. развитие технологии.

С момента выпуска ChatGPT в ноябре 2022 года технология генеративного искусственного интеллекта взяла штурмом мир вычислений, а гипермасштаберы, такие как Google Cloud, Amazon AWS, Oracle и Microsoft Azure, возглавили индустрию с оборотом в триллион долларов к 2032 году . Недавнее исследование McKinsey показало, что по состоянию на март 2024 года почти 75% опрошенных организаций внедрили ИИ хотя бы в одном качестве. Между тем, в своем ежегодном исследовании Work Index компания Microsoft обнаружила, что 75% офисных работников уже используют ИИ на работе.

Однако, как рассказал The Washington Post Дэниел Кокотайло, бывший сотрудник OpenAI, «они и другие поддались подходу «двигайся быстро и ломай вещи», а это противоположно тому, что необходимо для такой мощной и такой плохой технологии». понял." Например, стартапы в области искусственного интеллекта, включая OpenAI и Stable Diffusion, неоднократно нарушали законы США об авторском праве, в то время как общедоступные чат-боты регулярно подстрекают к повторению разжигания ненависти и теорий заговора, а также к распространению дезинформации .

Возражающие сотрудники AI утверждают, что эти компании обладают «существенной закрытой информацией» о возможностях и ограничениях своих продуктов, включая потенциальный риск причинения вреда моделями и то, насколько эффективны их защитные ограждения. Они отмечают, что лишь некоторая часть этой информации доступна правительственным учреждениям из-за «слабых обязательств по обмену, и ни одна из них не доступна широкой общественности».

«Пока не будет эффективного государственного надзора за этими корпорациями, нынешние и бывшие сотрудники являются одними из немногих людей, которые могут привлечь их к ответственности перед общественностью», — заявила группа, утверждая, что широкое использование в отрасли соглашений о конфиденциальности и слабая реализация существующие меры защиты информаторов затрудняют решение этих проблем.

Группа призвала компании, занимающиеся искусственным интеллектом, прекратить заключать и обеспечивать соблюдение соглашений о неущемлении достоинства, создать анонимный процесс, позволяющий сотрудникам решать свои проблемы перед советом директоров компании и государственными регулирующими органами, а также не принимать ответных мер против публичных информаторов, если эти внутренние процессы окажутся недостаточными. .