OpenAI никогда не сообщала, что хакеры взломали ее внутреннюю систему обмена сообщениями.
Согласно сообщению New York Times в четверг, в прошлом году хакеру удалось проникнуть во внутреннюю систему обмена сообщениями OpenAI и скрыться с подробностями о конструкции искусственного интеллекта компании. Атака была нацелена на онлайн-форум, на котором сотрудники OpenAI обсуждали будущие технологии и функции популярного чат-бота, однако системы, в которых хранится реальный код GPT и пользовательские данные, не пострадали.
Хотя компания раскрыла эту информацию своим сотрудникам и членам совета директоров в апреле 2023 года, компания отказалась уведомить ни общественность, ни ФБР о взломе, заявив, что в этом нет необходимости, поскольку никакие данные пользователей или партнеров не были украдены. OpenAI не считает эту атаку угрозой национальной безопасности и полагает, что злоумышленником был один человек, не связанный с иностранными державами.
По данным NYT, бывший сотрудник OpenAI Леопольд Ашенбреннер ранее выражал обеспокоенность по поводу состояния аппарата безопасности компании и предупреждал, что ее системы могут быть доступны разведывательным службам противников, таких как Китай. Ашенбреннер был уволен компанией в дисциплинарном порядке , хотя представитель OpenAI Лиз Буржуа сообщила New York Times, что его увольнение не связано с меморандумом.
Это далеко не первый случай, когда OpenAI сталкивается с такой проблемой безопасности. С момента своего дебюта в ноябре 2022 года ChatGPT неоднократно подвергался атакам злоумышленников, что часто приводило к утечке данных. В феврале этого года имена пользователей и пароли были раскрыты в результате отдельного взлома. В марте прошлого года OpenAI пришлось полностью отключить ChatGPT, чтобы исправить ошибку, из-за которой другим пользователям раскрывалась платежная информация пользователей, включая имя и фамилию, адрес электронной почты, платежный адрес, тип кредитной карты и последние четыре цифры номера карты. активные пользователи. В декабре прошлого года исследователи безопасности обнаружили , что они могут побудить ChatGPT раскрыть фрагменты своих обучающих данных, просто приказав системе бесконечно повторять слово «стихотворение».
«ChatGPT небезопасен. Точка», — рассказал в январе The Street исследователь искусственного интеллекта Гэри Маркус. «Если вы вводите что-то в чат-бот, вероятно, безопаснее всего предположить, что (если они не гарантируют обратное), компания, производящая чат-бот, может обучаться на этих данных; эти данные могут попасть к другим пользователям». После атаки OpenAI предприняла шаги по усилению своих систем безопасности, включая установку дополнительных ограждений для предотвращения несанкционированного доступа и неправильного использования моделей, а также создание комитета по безопасности для решения будущих проблем.