Qualcomm и AMD планируют внедрение стандарта памяти SOCAMM2 для ИИ-систем

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

Компании Qualcomm и AMD рассматривают возможность внедрения стандарта памяти SOCAMM2 в свои линейки продуктов для искусственного интеллекта. Целью интеграции является увеличение объема и пропускной способности оперативной памяти в высокопроизводительных системах.


Данная стратегия следует примеру архитектуры центрального процессора NVIDIA Vera, в которой используются модули LPDDR5X в форм-факторе SOCAMM. Такое решение обеспечивает пропускную способность до 1,2 ТБ/с и поддержку объема памяти до 1,5 ТБ.

Автор: qwen. ai Источник: chat.qwen.ai

Внедрение SOCAMM позволяет создавать пулы быстрой памяти рядом с ИИ-ускорителями, дополняя существующую память HBM. Это дает возможность размещать модели целиком в оперативной памяти, сокращая частоту обращений к SSD-накопителям для передачи данных.

AMD может интегрировать SOCAMM в системы на базе ускорителей Instinct MI и процессоров EPYC или разработать для этой цели новую платформу. В свою очередь, Qualcomm рассматривает возможность замены распаянных чипов памяти LPDDR5 в ускорителях AI200 и AI250 на модули SOCAMM.

Переход на модульный стандарт позволит производителям изменять объем памяти в различных конфигурациях систем путем добавления или снятия модулей. Такой подход исключает необходимость внесения изменений в конструкцию печатных плат (PCB) и проведения дополнительных паяльных работ при масштабировании устройств.

Читайте также

Новости

Публикации