Глава Nvidia Дженсен Хуанг (Jensen Huang) объяснил, почему SRAM не заменит высокоскоростную память HBM в системах искусственного интеллекта. Выступая на сессии вопросов и ответов в рамках CES 2026 в Лас-Вегасе (США), он ответил на предположение о возможном отказе компании от дорогостоящей HBM в пользу более дешёвой компонентной базы.

Обзор ноутбука TECNO MEGABOOK S14 (S14MM): OLED с HDR как новая норма

Итоги 2025 года: программное обеспечение

Процессоры за 30 тысяч рублей — большой сравнительный тест

Самые ожидаемые игры 2026 года

Ryzen 9 против Core i9 и Core Ultra 9: большой тест флагманcких процессоров

Итоги-2025: почему память стала роскошью и что будет дальше

Итоги 2025 года: интернет-индустрия

Лучшие игры 2025 года: выбор читателей и редакции

Итоги 2025 года: носимые устройства

Итоги 2025-го: ИИ-лихорадка, рыночные войны, конец эпохи Windows 10 и ещё 12 главных событий года

Лучшие ИИ-сервисы и приложения 2025 года: боты одолевают

Как пишет Tom’s Hardware, Хуанг изложил видение, согласно которому ключевым требованием для аппаратного обеспечения ИИ является не узкая специализация, а гибкость, которую как раз и обеспечивает память HBM. Главный его аргумент строится вокруг нестабильной и постоянно меняющейся природы рабочих нагрузок ИИ. Модели быстро эволюционируют, внедряются новые архитектуры и модальности, что делает оптимизацию оборудования под одну конкретную задачу малоэффективной в долгосрочной перспективе. Хотя Хуанг признал, что решения с упором на SRAM могут показывать невероятную скорость в определенных сценариях и избегать задержек, присущих внешней памяти, они сталкиваются с жёсткими ограничениями по ёмкости при масштабировании. В контролируемых тестах такие ускорители выглядят привлекательно, но в реальном применении они не могут обеспечить тот баланс пропускной способности и плотности, который даёт HBM.
Глава Nvidia также затронул тему открытых ИИ-моделей, чьё распространение, как предполагается, может снизить зависимость от дорогих GPU. Он признал их ценность, но подчеркнул, что открытость архитектуры не отменяет инфраструктурных ограничений. Обучение и обслуживание современных моделей, независимо от лицензии, по-прежнему требуют огромных вычислительных ресурсов и больших объёмов памяти. Более того, развитие открытых моделей с увеличением контекстных окон и добавлением мультимодальности лишь усиливает потребность в высокопроизводительной и гибкой памяти, такой как HBM.
Таким образом, позиция Nvidia заключается в том, что разнообразие и постоянная изменчивость рабочих нагрузок ИИ делают универсальность и адаптивность ключевыми экономическими факторами. Специализированные ускорители, ориентированные на конкретные задачи, могут демонстрировать впечатляющие результаты в тестах, но в условиях быстро меняющегося ландшафта ИИ они рискуют устареть. Компания готова мириться с высокой стоимостью HBM и сложностью систем, поскольку это позволяет сохранить возможность адаптации к новым архитектурам моделей и сценариям развёртывания. По мнению Дженсена Хуанга, момент, когда модели стабилизируются настолько, чтобы сделать специализированные решения более выгодными, чем гибкие платформы, ещё не наступил.



Добавить комментарий