Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Думается, у вас звонилка все-таки топ, а вот ноут — видимо нет. Шестилетний геймерский ноут из топовых раскатает любую топ-мобилку)
avatar
Если б в гостиницах всегда были клавиатуры и мыши, было бы вполне неплохо погонять хотя бы в старые игры, передвигаясь налегке… А так, я уж лучше ноут возьму, не поленюсь. На нем и поиграть норм можно, и поработать, и в хобби)
avatar
Она и сейчас еле бегает на 4090 без длсс в 4К в ремастере, разумеется. Смешно написано, что ограничил 30фпс. Так можно написать и 300. И что за половина исходного разрешения) В итоге, видимо идет в 15 фпс в 320х240)
Прогресс идет, это хорошо. Но не бывает такого, чтобы одного поколения чипы выдавали сходную мощность, когда один с 4-х этажным охладом и сотнями ватт, а второй с пассивным охлаждением)
avatar
Все равно такая маркировка злит. Допустим мои знания о железе лишь выше среднего. Но рядом вообще народ не в теме, поэтому постоянно просят помочь. Ну спросил бы меня кто насчет стоит ли переплачивать за 3050/8. Я точно стал бы прикидывать, что такому чипу и 6 гигов хватит. Круто, можно сэкономить. И вляпался бы, если не проверил бы скурпулезно.
И получается, что мутный нэйминг этой карты, которая мне нафиг не интересна, карму мне вполне мог бы подпортить.
avatar
ИИ ИИ рознь. В телефонах простейшие улучшайзеры работают, а не генераторы. А то бы фото как из полароида бы ждали.
Да и вообще, глядя на этот энергожор, мобилы скорее будут обращатся к внешнему серверу за решением, нежели садить на глазах батарейку.
avatar
Ну, задавшись целью экономить электричество — я и не спорю, амд эффективнее. Но все равно же много жрет) У себя на 13900К проверял — если зажимать его по мощности, он конечно замедляется — но энергоэффективность растет. Так что никто не запрещает 40Вт ему выделить, но при этом он будет продолжать штробить в 32 потока, просто с низкой частотой. Будучи ужасно холодным)
Так что все упирается пока в розетку в наших краях) Тут интелу просто повезло)
avatar
Ну ссылки-то можно привести. Я вот щас в Ведьмаке наблюдаю под 16Гб загрузку памяти. Значит ли это, что ему 8Гб не хватит? Честно, не верю. Запускаю на 3080 10Гб — и уже 8-9Гб занято и нет никаких всплесков по шине… Ну а на 4090, предположу, просто оптимальнее используется память, раз ее много. Вот и занимает 16Гб…
В идеальном случае это нужно иметь две одинаковые 4080, но у одной 16Гб, а у второй больше.
avatar
Странно, чаще всего описание NPU похоже на то, что выполняют тензорные ядра, а они у 4090 в два раза больше операций выполняют. Путают, хотя тема-то у всех на первом месте)
avatar
Да уж, непонятно. Если это tensor TOPs, так это видимо любая с RT видеокарта потянет, потому что у 4090 их 1321. А вот что еще насчет памяти. Пока памяти хватает, у меня гпу в 20-30 раз обгоняет 13900К при генерации. Но этой памяти хватает на жалкие картинки низкого разрешения. Да еще и страшные)
avatar
Меня еще 3080 заставила в первый же вечер после установки убрать комп из под стола и перенести за стол сбоку). Теперь 13900K + 4090 и вопрос уже один — а хватит ли кондея летом. Кол-во кадров постоянно ограничиваю, где в них смысла нет, но Ведьмак некуда ограничивать, он и так 70фпс в среднем, с просадками) Те неплохо бы и разогнать. Тогда 500Вт) и плюс 10кадров. Те он жрет больше киберпанка).
А народ ржет, и все озабочены только отводом тепла. Ну, поздравляю, скоро это будет означать буквально отводить из квартиры.
avatar
Да любой более-менее мощный комп сгодится для обогрева) Ведьмак ремастер перепрохожу — проц 100Вт, гпу — 380Вт в среднем. На улице 14 градусов, но уже тянет кондей включить. Причем на паузе Ведьмак 420Вт потребляет) Так держать!
avatar
Конечно должно, но практика показывает, что бывает то с артифактами, то с лагами.
А с мультиком чисто качество не опускало так сильно битрейт, те алгоритм так или иначе считал, что этого мало. Тут интуиция уже помогает — знаешь, что прокатит.
Еще бывали курьезы — требовалось ставить запредельное качество, с соответствующим результатом, только для того, чтобы в определенном месте оно не проседало. Если в видео много спокойных кадров, я ставил 2-проходной average, и он справлялся. Впрочем, такого давно не было, возможно все обновлено и работает ок.
Поэтому я как и все пользую чаще всего именно качество, но были прецеденты.
avatar
Ограничений как бы нет, но во-первых, чисто во имя здравого смысла стремишься не допускать перерасхода. Яркий пример — сжатие мультиков. Недавно скачал торрент — качество 1080p, 20Mb/s. Я специально поставил 700Кb/s — практически без потерь, 1Мb/s — вообще не отличишь… И это понятно, там же статичная рисованая однотонными заливками сцена на которой с низким фреймрейтом двигаются пару-тройку фигур...
Во-вторых, высокий битрейт все же не у всех потянет железо.
Ну а насчет nvenc, я не понимаю, почему та же nvidia не выпустит собственную оболочку, со всеми настроечками.
В премьере я выгружаю в прорезе всегда с избыточным качеством, чтобы больше не тратить время на рендеринг. Потом уже думаю, чем енкодить. Но у меня это хобби.
Ок попробую, спасибо.
avatar
Я проверил чисто по h264 и handbrake: nvenc грузит GPU почти на 100%, но и проц на 50%. QSV — только GPU, причем обошел по скорости nvenc на slowest. 13900К немного грузит свой GPU, причем уже на medium качестве не отстает от аппаратных.
avatar
NVENC, который вполне годится на замену программного сжатия
А можно поподробнее? Я лишь его скорость отметил. Пользую handbrake, настройки куцые. Как, в целом и у QSV. Больше всего поражает упорное отсутствие 2-х проходов, когда заранее проанализированное видео позволит грамотно распределять битрейт. В итоге взял i9 для самых важных видосов — QSV и NVENC продолжают глотать самые мелкие детали, даже если делаешь битрейт просто зашкаливающим, в два раза больше исходного. Так еще и NVENC на 3080 не давал ставить высокий средний битрейт… А на 4090 я и не проверял.
avatar
В таких текстовых задачах может и мало, но вот ошибку сразу человек замечает. В генерации картинок и видео пока ошибки настолько ужасающие, что рановато говорить о победе над нами) Так еще и страшное все) К этому добавляется крайняя размытость всего генерируемого. При попытке заставить селать почетче, возрастает время генерации до неприличного, а результат, как правило, все так же невнятен.
В общем, думаю получится так — что чем более вылизанными будут генераторы, тем дороже они будут стоить и выжирать энергию будут не в себя. В итоге останутся супер AI с платным доступом, как сейчас суперкомпьютеры, и простые AI для народа — разной степени полезности — но человека такие урезанные версии не заменят, потому что окажется вдруг, что мы дешевле обходимся)
avatar
Ну это более-менее понятно. У меня уже как минимум одна камера 8К, гопро 5.3К, инста360 5.7К. Мне скоро придется переходить на 6К-8К, равно как и всем в теме. Так уже и мобилы какое-то там 8К выдают, ущербное, конечно — но все же. И неплохо понимать, что меня ждет также и в играх.
И опять-таки замечу. Может кто для поиграть и берет широкие мониторы, но че-то по делу сенсоры такие никто не делает, и не планирует.
avatar
Сложно согласиться, по статистике — форматы нишевые. Тогда как 16х9 не только распространеннее, но и более близок человеческому. И имея широчайший горизонтальный обзор с этим же приходит жесткий недостаток по вертикали. И недостаток разрешения по вертикали. Также, на широкоформатниках часто изгиб, а с изгибом сложнее с графикой работать. Теперь кино — самый жесткий недостаток — старые фильмы 4х3. Теперь видосы с экшн камер, камер и т п, которые сам снимаешь — тоже 16х9. Фото с фотоаппаратов — 3х2. Теперь кодинг — опять мимо, четко по вертикали расход основной. И документация — тоже не альбомная как правило.
Так что может в каких играх и есть смысл, но работать и заниматься фото/видео — спорно. Было бы это колоссально удобно, это бы давно везде в офисах стояло.
avatar
Вот прямо мертворожденный, да-да. Что за тяга к крайностям? Здесь 16Гб или 4? Во-первых, уже где графоний жирный в новых играх, так и 4090 не хватает в 4К по чипу без длсс. Во-вторых, уже за столько лет имеющие голову усвоили, что когда хилый чип память не поможет, а вот наоборот жить можно.
И что имеем? Вот хогвартс кушает память, все признают. Да, у меня на 4090 быстро доходит до 15Гб. У малого 3080 10Гб — и о чудо, так до 10 и не доходит… И по шине нет никаких загрузок… Как так? И уже другое дело, что 3080 немного не вывозит по чипу, нужно ставить длсс… Так тогда вообще 8Гб кушает.
Остаются нейронки, которым сколько не дай — мало. Ну так это не про игры.
avatar
В хогвартсе на моей версии спасает одно — там можно каким-то непостижимым образом выставить длсс, но без понижения разрешения рендеринга, после чего появляется возможность подкрутить резкость. Мыло немного отступает.