Создайте смертельный яд в течение 6 часов, этой технологией нельзя злоупотреблять в «Во все тяжкие».
Несколько дней назад была такая новость: Бюро общественной безопасности Цзинаня успешно уничтожило завод по производству метамфетамина, а подозреваемый в наркотиках Ли начал изучать знания о производстве наркотиков онлайн с 2021 года и тратил деньги в школе Цзинаня на систематическое изучение химической экспертизы. прослушивание. Главный герой сериала «Во все тяжкие» Уолтер Уайт также является учителем химии.
Многие люди считают, что изготовление наркотиков — непростая задача, нужно как минимум овладеть соответствующими знаниями. Но что, если это можно сделать с помощью искусственного интеллекта? И система ИИ «создает» не лекарства, а яды.
▲ Кадры из «Во все тяжкие», фото: Douban
В статье, опубликованной в журнале Nature Machine Intelligence с Фабио Урбиной в качестве первого автора, компания Урбины, Collaborations Pharmaceuticals, недавно опубликовала модель компьютерного машинного обучения для прогнозирования токсичности.
Компании были приглашены на встречу, созванную Швейцарским институтом охраны природы NBC (Nuclear, Biological and Chemical) для обсуждения новых разработок инструментов, которые могут повлиять на передовую химию и биотехнологию. .
▲ Изображение получено с сайта Collaborations Pharmaceuticals.
Урбина сказал, что этот вопрос, похоже, не обсуждался раньше. Поскольку на протяжении десятилетий их работа заключалась в создании моделей машинного обучения для обнаружения новых молекул, которые можно было бы использовать для изготовления лекарств, использование компьютеров и искусственного интеллекта использовалось для улучшения здоровья человека, а не для его разрушения.
На швейцарской конференции Collaborations Pharmaceuticals решили изучить, как можно использовать ИИ для создания токсичных молекул. Ранее компания разработала коммерческую генеративную модель молекулы de novo под названием MegaSyn, которая использует модели машинного обучения для прогнозирования биологической активности и поиска новых терапевтических ингибиторов мишеней болезней человека.
▲ Изображение получено с сайта Collaborations Pharmaceuticals.
Такие генеративные модели обычно наказывают прогнозируемую токсичность и вознаграждают прогнозируемую целевую активность. Затем они внесли коррективы, чтобы направить модель на вознаграждение как за токсичность, так и за биологическую активность, и обучили ИИ, используя молекулы из общедоступных баз данных.
Измененное базовое генеративное программное обеспечение было построено на легкодоступном программном обеспечении с открытым исходным кодом, и, чтобы сузить молекулу, они решили использовать генеративную модель для соединений, таких как нервно-паралитическое вещество VX.
▲ Фото: Ассошиэйтед Пресс.
VX представляет собой боевое отравляющее вещество техногенного происхождения, классифицируемое как отравляющее вещество нервно-паралитического действия (боевое отравляющее вещество: различные химические вещества, используемые в военных целях, с высокой токсичностью, которые могут отравить или убить вражеских людей, животных и растения в больших масштабах). ), который является высокотоксичным и быстродействующим, 6-10 мг гранул VX могут привести к летальному исходу.
Новая модель сгенерировала 40 000 молекул в течение 6 часов после запуска на внутреннем сервере. При этом искусственный интеллект разработал не только VX, но и многие другие известные боевые отравляющие вещества. Неожиданно он также разработал много новых молекул, которые выглядели столь же правдоподобно и которые, основываясь на предсказанных значениях, были предсказаны как более токсичные, чем известные боевые отравляющие вещества.
▲ Изображение из: Природа
Эти нервно-паралитические агенты не были включены в наборы данных, которые они использовали для обучения ИИ. Но, изменяя способ использования моделей машинного обучения, они превращают безобидные генеративные модели из полезных медицинских инструментов в потенциально смертельные молекулярные генераторы.
Модели, созданные для того, чтобы избежать токсичности, стали «палками о двух концах». Чем лучше исследователь сможет предсказать токсичность, тем эффективнее генеративная модель будет управлять дизайном новых молекул в химическом пространстве, которое в основном населено смертельными молекулами.
▲ Изображение из: Unsplash
На самом деле Collaborations Pharmaceuticals не оценивали возможности синтеза виртуальных молекул, созданных с помощью моделей, и не изучали, как их создавать. Но для обоих процессов есть готовые бизнес-модели и ПО с открытым исходным кодом. Хотя они также не синтезировали физически никаких молекул, во всем мире существуют сотни коммерческих компаний, которые могут обеспечить химический синтез.
Их исследование доказывает одно: нечеловеческие автономные создатели также могут создавать смертоносное химическое оружие.
Хотя для создания токсичных веществ или биологических агентов, которые могут причинить значительный вред, по-прежнему требуются некоторые знания в области химии или токсикологии, добавление модели машинного обучения значительно снижает технический порог, и все, что необходимо, может быть кодирование и понимание выходных данных. способности модели.
▲ Изображение из: Unsplash
Коммерческие инструменты, инструменты программного обеспечения с открытым исходным кодом и многие наборы данных в общедоступных базах данных могут использоваться без надзора, а использование искусственного интеллекта для создания моделей вредных молекул кажется открытым «волшебным ящиком». Образовавшиеся молекулы можно легко стереть, но знание того, как их создавать, — нет.
Ясно, что должен быть способ избежать неправильного использования ИИ. Урбина считает, что химическая война, управляемая искусственным интеллектом, никуда не денется в ближайшее время, но это возможно.
▲ Изображение из: Unsplash
MegaSyn компании является коммерческим продуктом, они контролируют, кто может получить к нему доступ, и могут накладывать ограничения на модель в будущем. Подобно языковым моделям OpenAI «GPT-3» из Силиконовой долины, они могут отключить доступ пользователей к этим моделям в любое время, хотя их можно использовать бесплатно в любое время.
▲ Изображение из: Синхронизировано
Урбина также упомянул, что университеты также должны удвоить свои усилия по обучению студентов-естественников этике и расширить охват других дисциплин, особенно студентов, изучающих вычислительную технику, чтобы они знали о возможности злоупотребления ИИ.
Это исследование, кажется, еще раз подтверждает поговорку, которую люди всегда говорят: технология невинна, будь она доброй или злой, зависит от цели пользователя.
#Добро пожаловать на официальный аккаунт Айфанер в WeChat: Айфанер (WeChat: ifanr), в ближайшее время вам будет представлен более интересный контент.
Love Faner | Исходная ссылка · Просмотреть комментарии · Sina Weibo