Эта революционная технология памяти может сделать ИИ в 1000 раз более эффективным

Мы все знаем, что у ИИ есть проблемы с питанием. В целом, глобальное использование ИИ уже привлекло столько же энергии, сколько вся страна Кипр в 2021 году.

Но исследователи-инженеры из Университета городов-побратимов Миннесоты разработали и продемонстрировали новую конструкцию компьютерной памяти , которая может значительно сократить количество энергии, потребляемой системами искусственного интеллекта, и помочь решить эту проблему. Их исследование было недавно опубликовано в журнале Nature Unconventional Computing.

Большинство современных вычислительных систем построено на так называемой архитектуре фон Неймана, в которой подсистемы логики и памяти разделены. Во время нормальной работы данные передаются туда и обратно между модулями памяти и процессорами. Это основная основа работы современных компьютеров.

Однако, поскольку скорость обработки быстро опережает технологию ввода-вывода , такая передача данных становится узким местом как с точки зрения скорости обработки (также известной как проблема стенки памяти ), так и с точки зрения энергопотребления. Как отметили исследователи, простое перетасовка данных туда и обратно потребляет в 200 раз больше энергии, чем сами вычисления.

Разработчики попытались обойти эту проблему, физически сближая логику и память с помощью вычислений «около памяти» и «в памяти». Системы, расположенные рядом с памятью, укладывают логику и память друг на друга в трехмерном массиве, они представляют собой многоуровневые системы в стиле PB&J, в то время как системы с оперативной памятью распределяют кластеры логики по всей памяти на одном кристалле, что больше похоже на арахисовое масло и банановый сэндвич.

Решение исследовательской группы «Города-побратимы» представляет собой новую, полностью цифровую конструкцию в оперативной памяти, получившую название «вычислительная память с произвольным доступом» (CRAM), в которой «логика изначально выполняется ячейками памяти; данные для логических операций никогда не должны покидать память», — утверждают исследователи. Команда достигла этого, интегрировав реконфигурируемую вычислительную подложку спинтроники непосредственно в ячейку памяти. Исследователи обнаружили, что этот шаг может снизить энергопотребление операций ИИ «порядка в 1000 раз по сравнению с современным решением».

И это 1000-кратное улучшение может быть просто базовым уровнем. Исследовательская группа протестировала CRAM на задаче классификатора рукописных цифр MNIST и обнаружила, что она «в 2500× и 1700× меньше энергии и времени соответственно по сравнению с системой обработки с использованием близкой памяти на технологическом узле 16 нм».

Развивающаяся индустрия искусственного интеллекта уже сталкивается со значительными проблемами с ресурсами. Все более быстрые, все более мощные и производительные графические процессоры , лежащие в основе программного обеспечения искусственного интеллекта, чрезвычайно энергоемки. Например, новейший топовый процессор NVIDIA Blackwell B200 потребляет до 1200 Вт и выделяет столько тепла, что требует жидкостного охлаждения — еще одной ресурсоемкой операции.

Гипермасштаберы, такие как Google, Amazon и Microsoft, изо всех сил пытаются создать физическую инфраструктуру, необходимую для обеспечения грядущей революции искусственного интеллекта (т. е. центров обработки данных размером в гигаватт , некоторые из которых имеют собственные атомные электростанции ), создавая более энергоэффективные вычислительные ресурсы и ресурсы памяти. будет становиться все более важным для долгосрочной жизнеспособности технологии искусственного интеллекта.