Следующие графические процессоры Nvidia будут частично разработаны с помощью ИИ
Во время конференции GTC 2022 Nvidia рассказала об использовании искусственного интеллекта и машинного обучения, чтобы сделать будущие видеокарты лучше, чем когда-либо.
Поскольку компания отдает приоритет искусственному интеллекту и машинному обучению (ML), некоторые из этих достижений уже будут реализованы в будущих графических процессорах Ada Lovelace следующего поколения.
О больших планах Nvidia в отношении искусственного интеллекта и машинного обучения в видеокартах следующего поколения поделился Билл Далли , главный научный сотрудник компании и старший вице-президент по исследованиям. Он рассказал о командах исследователей и разработчиков Nvidia, о том, как они используют искусственный интеллект и машинное обучение (ML), и что это означает для графических процессоров следующего поколения.
Короче говоря, использование этих технологий может принести пользу видеокартам Nvidia. Далли обсудил четыре основных раздела проектирования графических процессоров, а также то, как использование ИИ и машинного обучения может значительно повысить производительность графического процессора.
Целью является повышение как скорости, так и эффективности, и в примере Далли рассказывается о том, как использование ИИ и машинного обучения может сократить стандартную задачу проектирования графического процессора с трех часов до трех секунд.
Утверждается, что это возможно за счет оптимизации до четырех процессов, которые обычно занимают много времени и отличаются высокой степенью детализации.
Это относится к отслеживанию и картированию падений напряжения питания, предупреждению ошибок посредством прогнозирования паразитных сигналов, стандартной автоматизации миграции ячеек и решению различных проблем маршрутизации. Использование искусственного интеллекта и машинного обучения может помочь оптимизировать все эти процессы, что приведет к значительному увеличению конечного продукта.
Отображение потенциальных падений напряжения помогает Nvidia отслеживать потоки энергии графических карт следующего поколения. По словам Далли, переход от использования стандартных инструментов к специализированным инструментам искусственного интеллекта может значительно ускорить эту задачу, поскольку новая технология может выполнять такие задачи за считанные секунды.
Далли сказал, что использование ИИ и машинного обучения для картирования падения напряжения может повысить точность на целых 94%, а также значительно увеличить скорость выполнения этих задач.
Поток данных в новых чипах является важным фактором, влияющим на производительность новой видеокарты. Поэтому Nvidia использует графовые нейронные сети (GNN) для выявления возможных проблем в потоке данных и быстрого их устранения.
Паразитическое прогнозирование с помощью ИИ — еще одна область, в которой Nvidia видит улучшения, отмечая повышение точности, при этом частота ошибок моделирования падает ниже 10 процентов.
Nvidia также удалось автоматизировать процесс переноса стандартных ячеек чипа, сократив время простоя и ускорив всю задачу. При этом 92% библиотеки ячеек было перенесено с помощью инструмента без ошибок.
В будущем компания планирует сосредоточиться на искусственном интеллекте и машинном обучении, выделив пять своих лабораторий для исследования и разработки новых решений в этих сегментах. Далли намекнул, что мы можем увидеть первые результаты этих новых разработок в новых 7-нм и 5-нм конструкциях Nvidia, которые включают в себя грядущие графические процессоры Ada Lovelace. Об этом впервые сообщил Wccftech .
Ни для кого не секрет, что видеокарты следующего поколения, часто называемые RTX 4000 , будут очень мощными ( с соответствующими требованиями к мощности ). Использование искусственного интеллекта и машинного обучения для дальнейшего развития этих графических процессоров означает, что вскоре у нас может появиться настоящая электростанция.