Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Пока его стоит рассматривать как универсальный микроскоп для забивания гвоздей (задач по освещению, которые надо решить разработчикам и дизайнерам конкретной игры), чтобы люди, делающие игру, не напрягали извилины о том, как лучше сделать свет. Пока еще мозги у людей не отсохли и запеченный свет еще дает адекватную картинку (какая-нибудь Red Dead Redemption 2 тому пример. Ну или Cyberpunk, если уж сравнивать RT OFF и RT ON), поэтому особой разницы с включенным RT не видно. Потом рукожопов расплодится и RT окончательно станет неотъемлемой частью игр. Остается дожидаться, пока железо не подтянется, чтобы спокойно это дело вывозить. С одной стороны да, всем проще. С другой стороны позорище игроделам, потому что получается как с той же оптимизацией игр, которые раздулись до 50-100 гигов. Или android приложения банков, которые весят по 200-500 мб.
TL;DR это не ray-tracing бесполезен, а игроделы деградируют дальше
Хм. Погуглил на тему объема VRAM в картах — в 2014-2016 8 гб уже становились нормой. Прямо что-то негусто у АМД с нвидией в этом плане нынче. 16-24 гб у топов. 8-12 гб у средних
В свете всяких DLSS пойдет… Просто карточка сама может потянуть игры в 1440p, но видеопамяти будет хватать только на 1080p. А если не потянет, то включаешь DLSS и вполне жить можно и в целом цена в 40к не такая страшная для среднячка х060
Ну, тут уже детали. И с планшета можно многое поделать, но это надо прокапывать цепочку инструментов, которую будешь использовать. Т.е. «ПО для рисования -> ПО для стриминга картинки». Казалось бы, пункта всего два, но на деле под каждый минумум по 5 подпунктов хотелок будет.
«Подключаемость» к девайсам это тоже отдельная тема. С ноутами проще, да. С мобилками не проще, т.к. почему-то, например, многие девайсы сейчас не могут выводить видео, если тот же телефон подключить к телеку по проводу. А ведь как удобно бы было мощи все эти утилизировать? Берешь док-станцию с монитором-клавой-мышью и прочим. Цепляешь ее к мобилке и готова «тонкая» замена компу. Смарты десятилетней давности в этом плане полезнее даже оказались, т.к. часто с HDMI шли
Справедливости ради скажу, что Win11 местами жрет как не в себя. Desktop window manager спокойно под 5 гигов ОЗУ может выжрать, хотя должен как минимум до 1 гб. Если точнее, то до 100 мб. В обсуждениях пишут, что утечка памяти из-за драйверов интел. А на деле хз. Но факт есть факт.
Понятное дело, что отвыкаешь за таким следить, когда у тебя 64-128 гигов ОЗУ стоит. Но все же в глаза бросается и выглядит оч странно. Издержки всяких там agile'ов с их «поправил код, выкатил в прод». А проблемы всплывают не сразу
Плюс-минус как все остальные. Даже с двумя модулями нет гарантии, что какой-нибудь XMP заведется. С 4 планками тем более можно не мечтать, хотя у людей заводятся. У меня DDR4 и профиль на 4000 мгц. 4 модуля по 32гб. В итоге на 4000 мгц дико нестабильно. Комп скорее не стартует, чем стартует. В итоге я выставил 3933 мгц :) и заработало стабильно.
А потом кто-то поставит 4600 кд :) и сабж уже не будет самым ярким. Прямо как мобильные процессоры в бенчах. +100 мгц накинут и ты уже не самый быстрый процессор, эхех
В бенчах разброс заметен, но в реальных сценариях типа «загрузить винду, погамать, посерфить инет» все SSD, от дорогих до дешевых, одинаково полезны. Дальше всякие видеоредакторы идут с жирными файлами, но это другая история.
Сначала брал wacom intuos беспроводной (обычный, не интерактивный дисплей). Потом уже HUION Kamvas 13 за 26к на потестить (на тот момент с али можно было 20'' взять по такой цене, но влом было ждать:) теперь они по 40к). В общем, да, 13-16'' прямо минимум-минимум — на пробу. Хотя на фото кажется, что вполне себе нормальный размер. А когда рисовать начинаешь, то не такой уж и большой. И с яркостью беда. Я в итоге его позиционирую как «подключить к ноутбуку и уйти в спальню рисовать». Думаю, что тут и DisplayPort по type C сойдет, а не только thunderbolt/usb4, т.к. в комплекте конвертер с HDMI+USB+USB -> type C.
Если бы брал совсем для души, то от 20''. Но там и цены под 60к и больше…
В этом и проблема, по-моему. Что типо-миддл на b650, что типо-топ на x570/670 — одна фигня какая-то непонятная на один-два NGFF m.2 и одну видеокарту. Согласен, что большинству за глаза. Но, черт, в чем тогда принципиальная разница? Нулевая в гибкости конфигурации, нулевая в плане задатка на будущее. Все сводится к тому, сколько поколений ЦП сможет материнка пережить :) я думаю, что и «мидлы» есть под разгон или просто такие, которые буст проца осилят, не урезая процу частоты.
Эхех, ох уж эти SoC. Сегодня у тебя самый быстрый телефон, а завтра выпустили на 100 мгц разогнанную версию, и у тебя уже не самый быстрый телефон. Кто-то субъективно разницу увидит? Вряд ли.
Железо оптимизациями обкатать не успевают — следом сразу уже новые чипы прут. Как раз вспоминал всякие шутки из начала 2010-х, где в два потока (кодирование + декодирование) чип мог шпилить fullhd в 20-30 мбит, но тогда просто не было таких мобил с такими камерами. А потом уже просто пора было выкатывать новое. Как по мне, так эта тема до сих пор актуальна. Мобилы могут больше, чем есть. Разработка не поспевает за железом, в итоге получается как с видеокартами, что это не видеокарты плохие, а ПО не оптимизировано. Вот и начинается в комментариях «фи, прошлогодний чипсет», хотя на деле его с головой
С учетом того, что добротный thunderbolt док на те же 3-4 монитора стоит 20-30к, а то и все 40к, то 600 баксов это прямо очень нормальная цена с учетом того, что туда входит видеокарта.
Тут больше стоит вопрос в том, насколько людям внешняя видеокарта нужна? Да еще от AMD. Ладно бы Nvidia была — с ней хоть поработать можно. А тупо в игры гонять на портативной консоли… оно и так от батареи 1,5-2 часа работает, т.е. постоянно под капельницей, а тут еще и eGPU торчит :) прямо портативность из всех щелей. Уж лучше игровой ноут тогда. То же место будет занимать почти
TL;DR это не ray-tracing бесполезен, а игроделы деградируют дальше
«Подключаемость» к девайсам это тоже отдельная тема. С ноутами проще, да. С мобилками не проще, т.к. почему-то, например, многие девайсы сейчас не могут выводить видео, если тот же телефон подключить к телеку по проводу. А ведь как удобно бы было мощи все эти утилизировать? Берешь док-станцию с монитором-клавой-мышью и прочим. Цепляешь ее к мобилке и готова «тонкая» замена компу. Смарты десятилетней давности в этом плане полезнее даже оказались, т.к. часто с HDMI шли
Понятное дело, что отвыкаешь за таким следить, когда у тебя 64-128 гигов ОЗУ стоит. Но все же в глаза бросается и выглядит оч странно. Издержки всяких там agile'ов с их «поправил код, выкатил в прод». А проблемы всплывают не сразу
Если бы брал совсем для души, то от 20''. Но там и цены под 60к и больше…
Железо оптимизациями обкатать не успевают — следом сразу уже новые чипы прут. Как раз вспоминал всякие шутки из начала 2010-х, где в два потока (кодирование + декодирование) чип мог шпилить fullhd в 20-30 мбит, но тогда просто не было таких мобил с такими камерами. А потом уже просто пора было выкатывать новое. Как по мне, так эта тема до сих пор актуальна. Мобилы могут больше, чем есть. Разработка не поспевает за железом, в итоге получается как с видеокартами, что это не видеокарты плохие, а ПО не оптимизировано. Вот и начинается в комментариях «фи, прошлогодний чипсет», хотя на деле его с головой
Тут больше стоит вопрос в том, насколько людям внешняя видеокарта нужна? Да еще от AMD. Ладно бы Nvidia была — с ней хоть поработать можно. А тупо в игры гонять на портативной консоли… оно и так от батареи 1,5-2 часа работает, т.е. постоянно под капельницей, а тут еще и eGPU торчит :) прямо портативность из всех щелей. Уж лучше игровой ноут тогда. То же место будет занимать почти