Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Да ради бога. У всех свои вкусы. Последний трипла, на который я потратил деньги, был РДР2 и плевался я от этой херни месяц, а бомбит от потраченных денег у меня до сих пор.
avatar
Предполагаю, что как и в случае со стриминговыми сервисами, на первых порах вложатся в хорошие игры, а потом будут выпускать максимально много с минимальными бюджетами) Ну, собственно, об интересах пользователей в большой индустрии думают в последнюю очередь. Тут речь скорей о новой схеме заработка денег.
avatar
Так в этом и смысл. Вместо того, что бы делать дорогие проекты, которые понравятся всем, они делают недорогие, которые понравятся небольшой группе людей. Но эту свою группу людей этот сериал найдёт и этим самым отобьёт своё производство. А запустив много таких сериалов, Нетфликс и соберает у себя вместо одной большой группы людей, очень много маленьких. Собственно, об этом то я и говорил. И поэтому это новый рынок, а не «убийца» старого рынка, который никуда не денется. Хочешь высокобюджетной унылой свистопляски, иди в кино/покупай трипла. Хочешь недорогой, но интересный сериал/игру, иди в подписочный сервис. Другое дело, что тут в какой то момент может быть та же ситуация, что и со стриминговыми сервисами, когда одни игры в одном сервисе, другие в другом и что бы во все поиграть надо все подписки оформлять.
avatar
Ну, недостатки системы есть продолжение её достоинств) Но наличие достоинств не отменяет недостатков.
avatar
По поводу GAN согласен, но и подвиды вариационных автоэнкодеров вполне себе используют для генерации. К примеру https://arxiv.org/abs/1903.07137. А про генераторы на основе случайных числе я и говорю, что они есть давно, но они именно что случайны. А те же автоэнкодеры (и GAN тоже) не генерируют что то случайное, они восстанавливают данные с погрешностью. То есть, сгенерированная, к примеру, карта будет выглядеть как усреднённая карта из тысяч реальных, на которых сеть обучалась. Но каждая новая сгенерированная карта всё равно будет отличаться в деталях.
avatar
«та же самая DRAM или флеш память.» Мой косяк. RTX IO работает только с DRAM ссд.
avatar
Так я и говорю, что скорость работы с памятью у ссд меньше скорости ОЗУ именно потому, что там разные интерфейсы доступа к данным. И в четвёртый раз — я не говорю, что ссд должен заменить озу или видеопамять. И прогон через цпу-озу как раз значителен и производитель как раз заявляет существенное ускорение работы с данными как из-за пропуска загрузки/выгрузки ОЗУ, так и из-за пропуска этапа с декодированием текстур через процессор.
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/rtx-io-gpu-accelerated-storage-technology/geforce-rtx-30-series-rtx-io-announcing-rtx-io.jpg
Дословно с их сайта «Specifically, NVIDIA RTX IO brings GPU-based lossless decompression, allowing reads through DirectStorage to remain compressed while being delivered to the GPU for decompression. This removes the load from the CPU, moving the data from storage to the GPU in its more efficient, compressed form, and improving I/O performance by a factor of 2.»
avatar
У ссд скорость работы не может быть меньше, чем у ОЗУ, поскольку это та же самая DRAM или флеш память. А меньше там именно скорость обмена данными, что есть скорость интерфейса ввода-вывода, о которой я и говорю. И в третий раз — я не говорю, что ссд должен заменить видеопамять. Видеопамять это кэш видеокарты. Кэш логично должен соответствовать размеру обрабатываемых данных. Но у нас сейчас текстуры в играх не весят по 8 гб. Но память наращивают, что бы загружать сразу всю игровую карту и не было видимых дозагрузок в процессе перемещения по карте. А дозагрузки случаются именно из-за задержки в выгрузке текстур из ПЗУ. Уменьшив эти задержки мы уменьшаем условный радиус, в котором надо подгружать модели в высоком разрешении. Это не значит, что вся игровая карта должна храниться на ПЗУ и видеокарта должна работать с ссд. Это значит, что видеокарта с 8Гб видеопамяти и быстрым доступом к ПЗУ может работать аналогично видеокарте с 16-24Гб видеопамяти и с обычным доступом к ПЗУ, через ЦПУ.
avatar
Я и не говорил, что RTX IO должен заменить видеопамять. Я говорил, что увеличение видеопамяти бессмысленно, поскольку бутылочное горлышко это интерфейс ввода-вывода. Сейчас память видеокарты увеличивают затем, что бы реже обращаться к ПЗУ, что и требует больше всего времени. Если уменьшить затраты на обмен данными с ПЗУ, видеокарте требуется меньше хранить данных в своей памяти и увеличение её объёма теряет смысл. А использовать вместо GDDR ссд, это всё равно что использовать ссд вместо кэш-памяти процессора. Но никто же не говорит «у моего процессора кэш-память в два раза больше, чем у твоего, поэтому мой процессор в два раза круче».
А про то, что монополия это зло, ну кгбе очевидно. Капитализм он такой, да. Но я говорил не про стандарты nvidia, а про открытые универсальные стандарты. Чем больше тензорные ядра будут использоваться в разных отраслях (а они будут), тем больше будет появляться альтернативных решений. Чем больше альтернативных решений, тем больше геморроя в настройке и масштабировании. Чем больше геморроя из-за разных интерфейсов, тем выше вероятность создания универсального стандарта. USB, Bluetooth, Wi-Fi это именно такие стандарты. Но до момента появления аналогичных стандартов для тензорных ядер, решения nvidia всё ещё будут самые лучшие. И логика «неси деньги конкуренту, чтоб не было монополии», не работает. Но я в экономику не хочу сейчас лезть, там не на один час всё это разбирать. Остановлюсь на том, что давиться соей, когда можешь и хочешь купить мяса, что бы производители мяса не стали монополистами, очень странная логика.
avatar
По поводу памяти — там как раз и презентовали RTX IO. Вставлять кучу памяти в саму видеокарту в целом неэффективно, если у нас итак есть ОЗУ и ссд. Гораздо логичнее ускорить обмен данными именно с ними, ибо канал обмена данными и есть бутылочное горлышко, а не объём памяти карт. Это поняли и проектировщики консолей, это поняли и NVidia. Для профессионалов конечно будут выходить карты с большой встроенной памятью, но там задачи совершенно другие. Опять же, 4к это конечно хорошо, но это всё ещё формат телевизоров, а не компьютерных мониторов. Подавляющее большинство бояр сидит на 2к и больше им тупо не нужно. По поводу энергоэффективности — внезапно правда? Оказывается, если вставляешь больше вычислительных блоков в те же размеры видеокарты, видеокарта начинает больше жрать энергии и больше выделять тепла. Кто бы мог подумать. И опять же, не рассмотрены софтверные возможности новых карт, которые по сути демонстрируют направление развития NVidia. Да, у AMD будут аналоги, иначе они на рынке не выживут. Но они всё равно опаздывают на пару лет. И до принятия единых стандартов в том же рейтрейсинге они неизбежно будут отставать. С другой стороны опять же верно, что и решения от NVidia не будут массово внедрятся во все игры подряд. Для разработчиков это лишняя работа, которую увидит лишь часть аудитории. И недостатки у поколения есть. Но это не описанные недостатки.
avatar
Ну, если бы я считал Одиссею хреновой игрой во всём, я бы там не провёл 270 часов) Я просто не согласен, что это стоящая рпг. Я в неё играл именно как в тупой симулятор зачистки аванпостов по стелсу. Именно эта часть геймплея в игре весьма недурна и развивается от части к части. И ровно по этой же причине я играю и в Far Cry, и в Ghost Recon (не на старте за фуллпрайс, но рублей 500-900 на распродаже геймплей этих игр стоит). И то, что мир красивый во всех этих играх я тоже соглашусь, дизайнеры Юбисофт всегда были одними из лучших в индустрии. Но вот рпг называется role playing game, потому что позволяет почувствовать себя в роли персонажа и отыгрывать его. И вот с этим в Одиссее и проблема. Не получается у меня (да и у многих, полагаю) погрузиться в мир древней греции только с помощью декораций. А сюжет и сценарий, как я уже говорил, там крайне слабый. В том же ведьмаке очень легко почувствовать себя в роли Геральта, ибо там не идеально, но работают все аспекты. Так то, для рпг открытый мир вообще не важен и не нужен. Рпг они про мир и персонажа в нём. Причём именно про сам мир, а не про историю в мире, как в случае с интерактивным кино или визуальной новеллой. В тех же Baldurs Gate, Planescape: Torment, Fallout 1 2 открытого мира не было, но ролевыми играми они были. Как песочница Одиссея работает, но как ролевая игра это провал. Поэтому в отрыве от сравнения с другими играми она неплохая. Но разработчики упоминали, что они хотели сделать проработку квестов на уровне ведьмака. И его уровня они хотели достичь именно в погружении. И вот это им не удалось и именно с этой позиции Одиссея ведьмаку проигрывает. Опять же, я не говорю, что ведьмак чистокровное рпг, это конечно не так. Я сравниваю именно рпг-элементы обоих игр.
avatar
Перечисленные аспекты это уже индивидуальные вкусы, тут я спорить не буду. Я так не считаю, но так у меня это и не объективная неприязнь, а просто все перечисленные сравниваемые аспекты мне как раз нравятся именно в ведьмаке и не нравятся именно в Скайриме и именно из-за перечисленных причин. Я просто был фанатом вселенной ведьмака ещё до выхода первой игры, поэтому во все части я играл не как в рпг в полуоткрытом мире, а как в приключение Геральта с элементами рпг. Система прокачки простая, но достаточная что бы ощутить выбор и заточиться под конкретный стиль боя. Коридорности я бы даже больше добавил, поскольку у меня постоянно возникало ощущение, что я вязну во второстепенных заданиях. Боёвка меня устроила полностью, ибо она была каноничной для ведьмаков. И у меня было бы наоборот больше вопросов и диссонанса, если бы добавили кучу нехарактерного оружия. Ну, лор подростковый и сортирным юмором, но за то и любим. А рпг-составляющая как раз хорошо вписывается, если конечно не считать скалирование по уровням. Ведьмаки хоть и долгожители, но они не супермены. Они зачастую не сильнее монстров, они просто быстрее и умнее и убивают скиллами, а не тупой силой. Скалирование мне конечно не понравилось, но всё же не критично. Я шёл по истории, поэтому с ситуациями, когда попадал на высокоуровневых мобов, не сталкивался почти никогда. Да и играл сразу на самой высокой сложности, поэтому за лёгкую сложность ничего не скажу, там может это и диссонирует как то. По технической части каких то косяков не заметил, если честно, но тут уже тоже субъективщина. Игра большая, так что не буду спорить, что косяки там есть. А вот тот же Скайрим я осилил только часов на 10, ибо он безумно скучный на мой взгляд. У меня просто не было ни единой причины или желания ковыряться в этой огромной мёртвой песочнице (иронично, что в той же Одиссее я провёл 270 часов). Но я и не буду говорить, что Скайрим плохой, он просто лично мне не зашёл и я не могу спорить о его недостатках, ибо даже не видел их. Опять же, я не буду спорить, что ДО ведьмака не было хороших игр в жанре экшн-рпг, сопоставимых с ним по уровню. Да и после были очень неплохие, тот же Tyranny. Лучше того же Diablo 2 на момент его выхода ничего не было и было бы глупо его сравнивать с ведьмаком или Скайримом. Я лишь о том, что ПОСЛЕ третьего ведьмака не вышло игр ЛУЧШЕ него. Возможно не совсем удачную формулировку выбрал в предыдущем комментарии, но имел ввиду именно это. И уж Одиссея ему точно проигрывает по сюжету и персонажам.
avatar
Ведьмак не был идеальной игрой. Просто лучше него до сих пор ничего не сделали в его жанре. Есть игры, где лучше сделаны какие то аспекты. И графику найти можно лучше, и боёвку, и ИИ, и сюжет. Но у ведьмака это всё вместе работало и ни один аспект не проседал. Все аспекты ведьмака были сделаны не идеально, но хорошо. И последние две части ассассина сами разработчики позиционировали, как смешение идей старых ассассинов и ведьмака, так что сравнение вполне уместно. Про гринд спорить не буду, я ведьмака полностью сам осилил только один раз из-за масштабов, но по поводу сюжета — он там хотя бы не тупой, а герои историй не выглядят клиническими дебилами. И отмазка «это про древнию Грецию, там люди были не такие образованные как сегодня» не прокатит. Люди там были не такие образованные как сегодня, но они не были тупыми. И герои в ассассине не по забавному тупые, их тупость вызывает испанский стыд.
avatar
Согласен в целом, но по поводу того, что в ориджинсе и одиссее лучше сюжет, это абсолютная хрень. Он и во всех предыдущих частях был далеко не сильной стороной, но в последних двух частях это просто адЪ и Израиль. И я сейчас не только про все те магические способности, которые никто не просто не объясняет, но даже не обращает внимание на то, что они у героя есть (а я специально проходил с ними и нет, на них никто не обращает внимания). Я про тупость большинства сюжетов в целом. Самый яркий пример, на котором меня порвало — цепочка миссий на первом острове в Одиссее. У нас куча долгов, решение — украсть уникальный дорогой обсидиановый глаз и продать. У меня сразу возник вопрос — как этот дол**ёб будет его продавать на маленьком острове, где все знают чей это глаз? Но ладно, подумал, что может у него есть какой то хитрый план вроде торговца с других островов. И там по сюжету действительно потом появляется богатый дядя из Афин. Но когда мы добываем глаз и приносим его этому дол**ёбу он говорит — глаз слишком уникальный и мы его не продадим. ДА НЕУЖЕЛИ Б***ТЬ. И вот я не говорю, что в предыдущих частях такой херни не было. Просто там миссии были довольно однообразные и придумать причину убить человека не так сложно. И эти причины не вызывают сильного диссонанса, ибо тебя просто ставят перед фактом и ты не знаешь всех деталей. А в ориджинсе и одиссее они как раз попытались в истории и их сценарная импотенция стала видна намного сильнее.
avatar
При всех плюсах верминтайда, я бы не сказал, что стрельба там является сильной стороной. Там больший акцент именно на ближний бой. Так что далеко не факт, что если разработчикам удалось сделать приятный ближний бой, им удастся сделать и приятную стрельбу. А если им не удастся сделать хороший шутерный геймплей, получится Дезвинг 2.0. Где антураж тоже был шикарен, но играть было абсолютно не интересно. Дарктайд я бы стал ждать с изрядной долей опасения.
avatar
Настрой правильный) Идеалистичный, но правильный)
avatar
В целом, конечно, интересно. Да и та же CUDA на линуксе работает без проблем, так что и всякие свистоперделки в будущем не должны будут провисать по производительности. С другой стороны, я конечно понимаю, что скрывается за фразой «только в прямых руках», но большинство простых пользователей ими не обладают и знакомства с тем же терминалом не переживут)
avatar
А проводились сравнения запуска современных игр на винде и из-под вайна? Сам я таким не интересовался, но что то мне подсказывает, что затраты на работу транслятора могут быть побольше, чем от кучи запущенных фоновых сервисов.
avatar
Для игр это да) Я то просто RTX купил, потому что она нейросети обучает на порядок быстрее, а мне это по работе надо)
avatar
Ну, я брал б/у GTX 670 от зотака за 11к в 2013 году и сменил только в этом и только из-за RTX) Все игры до последнего тянула на высоких настройках без лагов и надрыва) Сейчас графика игр растёт очень медленно, так что и видюхи обновлять особых причин нет. Опять же, RTX в плане архитектуры очень интересен, но на написание ПО, которое раскроет весь их потенциал, потребуется ещё пару лет. Так что и покупать их сейчас особо то не нужно. А технология в статье просто интересный прецедент) Я сходу не вспомню программной новинки от Nvidia, которая бы повышала производительность, а не понижала)