Почему в современных GPU так мало видеопамяти: кто украл гигабайты?
Каждый раз, когда Nvidia или AMD анонсируют новое поколение видеокарт, мир замирает в ожидании. Нам обещают технологическую революцию, двукратный прирост производительности, трассировку лучей, которая неотличима от реальности, и, конечно же, новый уровень гейминга. Мы, геймеры и энтузиасты, слушаем, затаив дыхание, и уже мысленно подсчитываем, сколько придётся отложить на апгрейд.
И вот, презентация заканчивается, первые обзоры выходят, а мы оказываемся здесь — в 2025 году, глядя на новенькую «народную» RTX 5060, и видим… 8 Гбайт видеопамяти. Столько же, сколько было у её условной «бабушки» пятилетней давности.
Стоп, погодите-ка. Я ошибся. У легендарной RTX 3060 было 12 Гбайт. То есть в «народном» сегменте мы не то что не продвинулись, а сделали шаг назад.
Хотите те самые 12 Гбайт? Будьте добры, посмотрите на предтоповую RTX 5070, которая стоит, скажем так, несколько иных денег. А если вам нужно больше, скажем, 16 Гбайт, чтобы чувствовать себя комфортно в ближайшие пару лет? Готовьте кошелёк для 5070 Ti, цена которой уже потихоньку заставляет задуматься о продаже почки.
Как так вышло, что за пять лет технологического прогресса объём VRAM в самых массовых видеокартах не только не вырос, но и порой уменьшился? Куда делся прогресс и, самое главное, кому выгодна такая стагнация? Предлагаю разобраться.
Когда гигабайты лились рекой
Поверьте, так было далеко не всегда. Были времена, когда производители не скупились на видеопамять, а каждое новое поколение действительно ощущалось как шаг вперёд, в том числе и по этому важнейшему параметру. Давайте на минутку вернёмся в тот самый «золотой век», который мы, кажется, безвозвратно потеряли. Вспомните легендарную RTX 3060 — последнюю видеокарту среднего класса, рождённую до того, как всё изменилось. В своём топовом исполнении она предлагала 6 Гбайт видеопамяти — невиданный объём для среднего класса в те годы. Она стала настоящим бестселлером и на долгие годы определила стандарт для комфортного гейминга в Full HD.
А если отмотать плёнку ещё дальше, мы увидим GTX 1060, которая в своё время совершила маленькую революцию, предложив невиданные для среднего сегмента 6 Гбайт. И GTX 760, впервые предложившую 4 гигабайта. Et cetera, et cetera. NVIDIA словно следовала негласному правилу: каждое второе поколение удваивать объём памяти в своих самых массовых продуктах. Мы привыкли к этому, мы ждали этого. Все были уверены, что RTX 4060, или, в крайнем случае, RTX 5060 (следуя теории увеличения VRAM каждое второе поколение) получит как минимум 12, а то и все 16 Гбайт.
А потом что-то сломалось. С выходом 40-й, а за ней и 50-й серии этот аттракцион невиданной щедрости внезапно свернули. Теперь 8 Гбайт — ваш безальтернативный удел в среднем классе. Меньше (sic!), чем было в карте пятилетней давности. Хотите больше? Будьте добры, платите за следующую ступень в иерархии продуктов. Пять лет прогресса, новые архитектуры, тончайшие техпроцессы — а объём памяти в том же ценовом сегменте либо откатился назад, либо застыл в мёртвой точке, если говорить о «предтопах». Прогресс остановился.
И это не может не вызывать резонного вопроса: почему?
«Коричневый стандарт» восьми гигабайт
Давайте говорить прямо: 8 Гбайт видеопамяти сегодня — настоящая боль. Для современных игр в «народном» разрешении 1440p такого объёма хватает впритык, без малейшего запаса на будущее. Выкручиваете текстуры на максимум в свежем блокбастере, и вот уже счётчик использования VRAM радостно пересекает черту. А ведь впереди нас ждут ещё более технологичные проекты на Unreal Engine 5 и других движках нового поколения, которые будут ещё более прожорливыми. Покупая сегодня карту с 8 Гбайт, вы, по сути, подписываетесь на компромиссы уже завтра.
Если же говорить о локальных нейросетях, то тут всё становится совсем грустно. Бум генеративного ИИ сделал наши видеокарты мощнейшими инструментами для творчества, но видеопамять превращает эту возможность в издевательство. Ибо здесь объём VRAM стал царём и богом.
8 Гбайт — ваш абсолютный потолок для комфортной работы с популярной моделью SDXL и её деривативами вроде Pony Diffusion. И то, лишь после долгих «шаманских плясок» с оптимизацией, параметрами запуска и специальными библиотеками, которые снижают потребление памяти ценой скорости. О генерации изображений в высоком разрешении, «веере» из нескольких картинок за раз или обучении собственных моделей можно практически забыть.
И ведь нейросетевой мир развивается ещё быстрее игрового. Уже появились новые, куда более требовательные и качественные архитектуры вроде Flux от Black Forest Labs. Они требуют для своей работы 10, 12, а лучше 16 Гбайт видеопамяти. С восемью гигабайтами вы просто не сможете их запустить. Вообще. Никак. Точнее, сможете, но только в высокой квантовке, неизбежно дающей артефакты генерации и «мыльноватую» текстуру изображения. И так новенькая видеокарта среднего класса оказывается бесполезной для целого пласта современных технологий.
Даже 12 Гбайт, которые сегодня позиционируются как некий премиум, дают лишь небольшую передышку. В играх вы сможете выкрутить текстуры на максимум и не переживать. Но для серьёзной работы с ИИ — билет в один конец. Пройдёт полгода, выйдет новая прорывная модель, условный Flux 2.0 или Stable Diffusion 4, которая будет требовать для генерации одного изображения 14 Гбайт VRAM, и новенькая, недешевая карта снова превратится в тыкву.
Нейросетевой фильтр
Так почему же производители так упорно держатся за эти 8 Гбайт? Неужели чипы памяти так дороги? Нет. Стоимость дополнительных 4 или 8 Гбайт GDDR6 на фоне общей цены видеокарты — копейки. Истина куда прозаичнее и циничнее. Этот «стеклянный потолок» объёма памяти — не техническое ограничение и не случайность. Это холодный, выверенный и абсолютно сознательный бизнес-расчёт. И начался он ровно в тот момент, когда по миру прокатилась волна популярности Stable Diffusion.
Руководители в Nvidia и AMD, глядя на то, как их игровые видеокарты массово скупаются не только геймерами, но и художниками, исследователями и просто энтузиастами ИИ, осознали простую вещь. Их продукт внезапно стал чем-то большим, чем просто устройство для развлечений. Он стал мощнейшим рабочим инструментом, открывающим доступ к новой технологической революции. А раз так — с тех, кто использует его для работы или серьёзного хобби, можно и нужно брать (или, точнее, драть) больше денег. Священная миссия по «созданию акционерной стоимости» не терпит отлагательств.
Как отделить «простых геймеров», которые не готовы много платить, от «энтузиастов ИИ» и профессионалов, которым новый инструмент нужен для дела? Очень просто. Нужно найти самое узкое место, самый критичный ресурс для новой задачи, и сделать его дефицитным. Благо, технология уже обкатана на майнерах, из-за которых потребительскому сегменту искуственно «подрезали» задержки памяти.
Для нейросетей таким ресурсом стала видеопамять. Ограничивая объём VRAM в массовых моделях, производители создали идеальный фильтр. Хочешь просто играть? Тебе с горем пополам хватит 8 Гбайт. Хочешь генерировать картинки, обучать модели и работать с ИИ? Добро пожаловать в премиальный сегмент. Плати.
Объём VRAM превратился в идеальный фильтр, пропуск в мир больших нейросетей, цена которого постоянно растёт. Не можешь сгенерировать картинку в высоком разрешении или запустить новую языковую модель? Что ж, видимо, ты недостаточно мотивирован. Покупай карту подороже.
Геймер стерпит, а энтузиаст ИИ — заплатит
Давайте разберёмся, как этот фильтр работает на практике. Когда в игре заканчивается видеопамять, происходит не самое приятное, но не фатальное событие. Драйвер видеокарты начинает судорожно перекидывать данные (текстуры, модели) из сверхбыстрой VRAM в куда более медленную системную оперативную память через шину PCI-Express. Пользователь видит это как просадку на пару-тройку кадров в секунду, подлагивания и нестабильный график фреймтайма.
Честно говоря, благодаря «великолепной» оптимизации игр на движке Unreal Engine 5, которая уже стала нормой, многие геймеры могут даже не заметить разницы — у них и так всё дёргается:-)
Совсем другая картина у человека, работающего с нейросетью. Если в процессе генерации или обучения у него заканчивается видеопамять, он получает один из двух исходов, и оба неприятны.
- Первый — программа просто вылетает с сакраментальной ошибкой «CUDA out of memory». Вся работа насмарку, начинай сначала. Удачи в играх с флагами оптимизации, загрузке модели с квантовкой пониже, выстановке большего объёма VRAM под веса модели за счет резерва и прочие шаманские пляски.
- Второй, если архитектура нейросети достаточно современна, чтобы использовать оперативную память как замену видеопамяти, — производительность падает не на 10-20%, а в десятки, а то и в сотни раз. Генерация одной картинки вместо 10 секунд может занять несколько минут. Работать так… Можно, конечно, но очень уж дискомфортно.
Именно такая разница в последствиях и заставляет энтузиастов и профессионалов не просто доплачивать, а перепрыгивать через несколько ценовых категорий. Они не могут себе позволить компромисс. Поэтому они идут и покупают модели уровня xx70 Ti, xx80 или даже флагманскую xx90, обогащая «кожаную куртку».
Если тебе нужен инструмент для работы или серьёзного хобби, которое приносит доход или удовольствие, у тебя просто нет выбора. Ты пойдёшь и заплатишь столько, сколько попросят. Именно на такой сценарий и рассчитана вся современная продуктовая линейка.
И да, если кто-то скажет, что у AMD лучше — я отвечу, что да, с релизом 9060 XT на 16 Гбайт ситуация сдвинулась с мертвой точки… Или, точнее, сдвинется, если она появится в магазинах по MSRP, ане за цену 5070. Чего пока, увы, не наблюдается —дефицит-с.
Ноутбучный ультиматум
Если на рынке настольных ПК у нас хотя бы теоретически есть выбор, то в мире ноутбуков ситуация ещё драматичнее и ультимативнее. Здесь вы намертво привязаны к той конфигурации, которую предлагает производитель. Вы не можете через год купить и поставить видеокарту помощнее. Ваш выбор делается один раз и на несколько лет вперёд. И производители ноутбуков, в сговоре с производителями чипов, пользуются этим на полную катушку.
Хотите себе мобильную рабочую станцию, чтобы заниматься 3D-моделированием, видеомонтажом или генерацией изображений в дороге? Вам нужна видеокарта с объёмом памяти хотя бы 12, а лучше 16 Гбайт, чтобы был хотя бы минимальный запас. И что вы увидите в магазинах? Такие видеокарты устанавливаются исключительно во флагманские, топовые и безумно дорогие модели. Будьте добры, выложите 200, 300, а то и 400 тысяч рублей за ноутбук с условной RTX xx80 или xx90.
Производители прекрасно понимают: дизайнер, архитектор, пишущий редактор или ИИ-исследователь, которому нужна производительность в мобильном формате, — это «дойная корова». Он не может сказать: «Ой, дорого, куплю что-то попроще». Ему этот инструмент нужен для заработка. Его производительность напрямую зависит от мощности его железа. И он заплатит. Никуда не денется.
В итоге мы получаем абсолютно негибкий рынок, где за возможность работать с современными технологиями в портативном формате приходится платить тройную цену.
Заключение. Выбор без выбора
Итак, к чему мы пришли? Искусственный дефицит видеопамяти в среднем и даже предтоповом сегментах — вовсе не техническая необходимость и уж точно не случайность. За красивыми графиками производительности и рассказами о новых архитектурах скрывается холодный и циничный бизнес-расчёт. Производители GPU нашли идеальный способ сегментировать рынок и заставить платить больше именно ту аудиторию, которая готова и вынуждена платить. Нейросетевая лихорадка стала для них золотой жилой, и они выжимают из неё максимум.
В итоге мы, обычные пользователи, оказываемся перед очень странным выбором, которого, по сути, и нет. У нас остаётся всего три пути.
- Первый — смириться. Купить карту с 8 или 12 Гбайт и постоянно натыкаться на невидимые стены, будь то настройки в новой игре или запуск свежей нейросетевой модели.
- Второй путь — принять правила игры. Признать существование «налога на нейросети» и заплатить его, купив дорогую видеокарту из топового сегмента с запасом памяти на будущее.
- Третий путь… А третьего пути в рамках официального рынка, по сути, и нет. Громко анонсированной «нейросетевой революции для всех» не случилось. Вместо неё мы получили ещё один способ стричь купоны с энтузиастов.
Хотя, конечно, я слукавил. Выбор есть всегда. Просто он лежит за пределами блестящих витрин магазинов. Есть и настоящий третий путь, путь партизанский.
Он ведёт на вторичный рынок, где можно отыскать старые, но щедрые на память видеокарты. А ещё есть умельцы из Китая, которые научились в подпольных мастерских напаивать на популярные карты дополнительные чипы памяти, обходя искусственные ограничения производителя за копеечную надбавку. Но этот путь, само собой, тернист и лишён всяких гарантий. И, само собой, если вам нужна мобильность, то вы, увы, в пролёте.
Выбор за вами. Но сам факт его существования в таком садистском виде — уже диагноз всей индустрии. Которая, к счастью, постепенно излечивается благодаря пришествию в этом поколении реальной конкуренции из «красного лагеря», решившего нарастить долю рынка ценой уступки пользователям, но до нормализации ещё очень далеко.
Источник: www.pexels.com/photo/geforce-rtx-graphics-card-20391486/





2 комментария
Добавить комментарий
зы
«Геймер стерпит, а энтузиаст ИИ — заплатит»
и кстати, я со своей 5090 ни разу не энтузиаст ИИ, а самый что ни наесть геймер-старый-пердун, играющий с 1990 года.
Если что я не против чтобы в младшие модели насыпАли больше памяти, только для чего тогда RTX хх90 (ранее GTX) покупать?
И если уж у автора речь зашла о RTX 3060 с 12 гигами, то можно и вспомнить что старшие модели в этой линейке не имели даже столько (3060 ti, 3070, 3080 и т.д.)
Ну а с общим посылом что нельзя делать ВК с меньшим количеством VRAM чем в предыдущих линейках конечно же согласен. Не меняю свою 3080 с 10 гигами только из-за малого объёма памяти в новых младших моделях, а на предтоп/топ денег жалко.)
Добавить комментарий