Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
1. Не миф, почитай тесты
2. Тоже не миф, тесты доступны на посмотреть. Лейковский сумикроны те же были долгое время (около 50 лет) единственными которые давали 200+ линий на мм. Сейчас конечно есть лучше, но даже по современным меркам показатель неплохой.
avatar
В наших деревнях можно заказать. 820$ за Zotac Trinity, 935$ за ASUS TUF, 1080$ за MSI Ventus (пересчитал местную валюту в USD). Правда на складах нет, обещают доставку в течении недели.
avatar
Потому что это сложная задача по тому, как по узкой шине гонять много данных между картами, так как некоторым стадиями рендеринга надо работать зная о состоянии других объектов, которые могут обсчитываться на другой карте. В общем это все та же причина, почему двухядерный цпу нельзя представить как одно жирное ядро. Ну то есть теоретически конечно можно, но на практике будет работать хуже чем без такого извращения.
avatar
Про потребление видеопамяти нужно всегда смотреть методику измерения. Потому что есть аллокация, ее просто проверить (обычно эти показатели и указывают в простых тестах), но при этом игра может запрашивать всегда, например, 90% доступной видеопамяти. Поэтому большой вопрос насколько реально нужно сейчас больше 10 ГБ видеопамяти (и ответ скорее всего — «нафиг не нужно»)
avatar
Так есть же там тесты в синтетике, включая местный rightmark (хотя кажется он ничего полезного уже не показывает достаточно давно). Значит у людей точно карта есть на руках.
avatar
Я точно не помню какую меру они выбирают, но каждый завод еще имеет свое определение по которому все это меряет… Поэтому все сложно :)
avatar
Я б спросил напрямую nvidia или microsoft, но откуда тем кто делает обзоры знать об этом? Но чем дальше, тем меньше шансов так-то.
avatar
В современном мире уже давно «Х нм» не привязаны к какой-то физической величине. У TSMC трактовка названия техпроцесса звучит как-то в духе «такой нужен был бы классический техпроцесс, чтобы получить простейшую ячейку памяти с такими размерами» или как-то в таком духе. По сути берется одно конкретное простейшее изделие и смотрится какой размер чипа получается на выходе и по нему высчитывается эквивалентный размер в нанометрах. И не имеет значение кто там где переименованный и почему.
avatar
Некоторые тесты сообщают, что температура других компонентов при установке новой видеокарты падает (немножко и на это обращали внимание в каком-то одном из существующих тестов, не помню к сожалению в каком из кучи).
avatar
Тут есть маленький момент — Windows 7 официально поддерживалась Microsoft'ом до 14 января 2020 года. Поэтому в прошлом году было странно не делать драйвера под вполне поддерживаемую производителем ОС, а в этом году — странно делать дрова под официально неподдерживаемую ОС.
Если честно, я вообще не уверен, что после EOL производители железа могут сертифицировать драйвера под нее. А без сертификации врядли будет что-то новое.
avatar
Причины комплексные:
1. Лейковские стекла традиционно в рамках схемы компенсируют искажения, даже сейчас, когда какие-то моменты можно поправить в пост-обработке (ХА те же)
2. У лейковских стекол довольно хорошая резкость, там даже стекла 60-х годов славятся ею
3. Типа ручная сборка и тестирование
4. Бренд люксовый.
Плюс компактные размеры это фишка — относительно легко сделать хороший здоровый объектив. У лейки же с большой оптикой проблема — она перекрывает дальномер, поэтому размер тоже влияет и ее надо делать как можно компактнее. Это тоже положительно на цене не сказывается.
avatar
Обычно такие условия очень ограничено работают в рамках стран где нет сервисных центров (проще считать что кроме положенной законом гарантии или доброй воли магазина ничего не полагается).
avatar
Вопрос в позиционировании. Для чего то middle-low вполне себе. А gddr6 может просто проще достать
avatar
Просто люди помнят i740…
avatar
Оперируя неполной информацией сложно делать адекватные и точные выводы. Потому что слухи это конечно хорошо, но мы не знаем же какая их часть правдива.
И с частотами не все так очевидно. В мире CPU был прекрасный пример — Pentium III который на 130нм достигал частот порядка 1.4 ГГц и 1.8 в разгоне и при этом был Pentium 4 (Northwood), который легко достигал частот выше 3 ГГц штатно, хотя был заметно более сложным чипом (даже по транзисторному бюджету разница в 1.5-2 раза). Да, там была полная переработка архитектуры, но опять же до анонса десктопных карт даже примено непонятно что поменялось в RDNA 2, а после — будет непонятно какие изменения были сделаны в картах для приставок.
Ну и банально — мы даже не знаем какой выход годных чипов для XBox Series X и использует ли Series S тот же чип или нет (так как если у них в основе один и тот же чип, то это бы скорее подтвердило что и у Microsoft с выходом годных не все в порядке, а если разный — то не дало бы никакой новой информации)
avatar
Для кого то телефон — рабочий инструмент, а телефоно-плашет позволит экономить вес/габариты и эффективнее работать.
avatar
50000 во всем мире и в продажах — да, очень нишево.
50000 в предзаказах в Южной Корее во время коронавирусного кризиса? Вполне хороший показатель для новой линейки. Посмотрим через пару месяцев на продажи.
avatar
Тут много неизвестных — например чтобы скомпенсировать брак (кстати он никогда не ноль) могли поднять количество заказов, например. Ну и то что сказали в соседних комментариях конечно же.
avatar
Обычно эти вопросы решаются на стадии проектирования и оценки какие-то получаются сначала на симуляторах (насколько это возможно для таких сложных чипов), а потом на тестовых партиях уточняются.
То есть новость скорее о том, что на практике выход годных оказался ниже чем все предыдущие тесты показывали.
Кстати частоты все же сильно зависят от архитектуры, поэтому не так важно GPU или нет. К тому же мы не знаем по какому критерию брак, а значит судить о первопричинах сложновато и точность оценок — как гадание на кофейной гуще.
avatar
В чем-то похожи на ARM и Qualcomm — потому что первые продают вторым именно что условные исходники ядер на verilog'е и нужную документацию, а те потом модифицируют.
Отношения ARM и Apple чуть иные, потому что у Apple сейчас полностью свои ядра, а от ARM лицензия на набор инструкций (Qualcomm раньше также делали).
Но в любом случаи кто чип производит, тот и несет издержки по выходу годных.