Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Разница меж тигром и айс, не такая и значительная. Там по моему было минорное обновление. Но вот адаптировать как раз нельзя, 14нм не позволяет, точнее транзисторный бюджет, ибо к примеру, растут размеры кешей, а как известно кеш и регистры как раз и занимают большую площадь кристалла, а бесконечно увеличивать размеры кристалла никто не будет, ни интел, ни амд. Ибо чем больше площадь, тем выше шанс брака и тем выше цена производства. А что бы увеличить тот же транзисторный бюджет, то нужно менять тех процесс.
А 10нм проблемный, из за чего и пришлось адаптировать под 14нм.
Хах. Понимаю.
А так не то, что б отчаялась, а занялась вопросом. Как видите в кои то веки отдали приоритет графике, покуда с cpu всё хорошо. В доказательство, можно условно привести пример: дизайном инфинити кеша занимался(ись) инженеры, что работали над cpu.
И что бы как то заполучить кусок рынка, амд что-то нужно противопоставлять. И тут в этой роли выступает, та же SAM подтягивая производительность до уровня нвидиа, местами, или объём памяти. Но АМД пожадничала и сделала SAM ток для zen3, а когда нвидиа заявила, что сделает тоже самое, амд сделали ответный ход. Ведь амд, видим не очень то и желает демпинговать, прибыль для акционеров, тоже нужна.
Ну как сказать, изменения похожи на те что были в ice lake(насколько я помню), а там было порядка 18%. И вот ваше ничего нового, плохо коррелирует с данными последних лет, когда рост исчислялся парой процентов, за счёт роста частот. И в данном случае, всё же есть проблема в лице техпроцесса, который и не позволяет, добиться большего прироста. А не то самое желание интел, просто заработать.
p.s. офк в проблемах интел, виноват интел.
В падении частот, при улучшении микроархитектуры, нет ничего странного, такое бывает порой при усложнении конвейера процессора. С другой стороны интел не может компенсировать это явление, за счёт того же 10нм тех процесса. Ибо он признан неудачным.
Но вот с другой стороны уменьшение кол-ва ядер смотрится немного странным, но предположу, что при смене микроархитектуры размер ядра вырос, из за чего на той же площади стало помещаться меньше ядер. А раздувать размеры кристалла интелу не выгодно.
На самом деле будет ключевым вопрос цены. А то есть подозрения что 11900К будут продавать по цене 10900К.
Я бы не стал, ведь они хотели использовать данную фичу в своих целях, дабы показать, что их продукт не хуже чем у нвидиа или даже лучше. А ведь и амд, могли реализовать данную фичу раньше, значит благородства тут нет.
Это всё равно, что благодарить нвидиа, за то, что лентяи из амд, наконец добавили рт блоки в свои карточки.
Согласитесь бред же. Тут в принципе то не важно кто именно это сделал. Просто амд находится в догоняющих, вот и используют все возможности, что им доступны. Окажись на их месте кто другой, результат был бы примерно тот же.
Это ведь далеко не та же ситуация как с фрисинком, где всё было уже заложено в спецификациях, но нвидиа сознательно реализовала свой g-sync через отдельную плату, которую и продавала.
Так давят очевидно почему, мировой гегемон в лице штатов меняется на китай. И это не в интересах США, вот и давят всем чем только можно. И тут кто выйдет победителем из данной борьбы, того и тапки.
Это вы зря так пишете, ибо тот же М1 может и 15W кушать. Так ещё и Х1 можно сильно кастомизировать. Так что крайне грубо противопоставлять 4 ядра Х1 с одним ядром М1.
Объясняю. Выбрали так ибо оптимальный вариант.
Х1 Не только более жрущее ядро, но и физически больше! Всё отдано в откуп производительности.
А ведь потребление это ещё и нагрев!
Из чего не имеет пока особого смысла в куче х1, дорого, горячё и потребляет кучу энергии.
Но вот Альфа ядра практиковались и до Х1, только путём завышенных частота на ядрах А7.Что как бы не очень эффективно.
А нужно альфа ядро, для однопоточной производительности. Спросите зачем она нужна? К примеру для работы со всей файловой системой которая преимущественно работает в 1 поток, к тому же, на Андройде и ios, нет того же файла подкачки. Но есть другой механизм, фоновые приложения сжимаются и выгружаются в ОЗУ, и в связи с тем, что у яблока более быстрый один поток, то и сжимали они реал тайм лучше из за чего требовали меньше озу.
К примеру те же игры, на пк/консолях по крайней мере, работают так, что всегда есть доминирующий альфа поток, который и требует производительности на одно ядро.
Так понятней?
Данные весьма условны. Ибо стоит вопрос какой техпроцесс применялся?
И очень смущает то, что всего одно ядро. Ибо очевидно, что линейно, практически ничего не масштабируется. А для тестирования вполне себе могли взять максимально хороший образец, у которого потребление минимально.
И тут прям куча места для профанаций, ибо очевидно, что проблем при масштабировании куча!
Начиная с того что очевидно качество! Ибо ядра в кремнии разного качества и соответственно имеют разные вольт-частотные характеристики. Заканчивая тем, что процессору нужна информация и тут уж надо вносить кучу поправок в микроархитектуру. Так что это вам не просто снизил потребление и пихнул 25 ядер, так оно не работает.
хах А какоё вам не всё равно? Почему вас или нас, вообще должно волновать, что в яблочной секте? Хотят страдать!? Значит есть зачем! Хотя учитывая их веру, страдать они не будут.
А разве есть разница эпл или нет? По моему со всеми производителями смартфонов примерно так же. Делают всё тоже самое, разве не так? И точно так же потом отказывают в гарантии. Только вот штрафуют в основном яблоко ибо денег куры не клюют.
Ты рофлишь? Лучше посчитай тепловой поток. По некоторым сторонним расчётам, GPU занимает почти половину (47,5%) всей площади кристалла APU. Напомню размер кристалла бокса всего на всего 360мм2. Что примерно 171мм2 для gpu.И соответственно тепловой поток с этой области будет весьма велик. Из за чего температура гпу будет сильно выше чем в среднем по чипу, не говоря уже о хот спот, т.е. о самой горячей точке. Но даже так почитайте те же 220Вт на 171мм2, это порядка 1,29Вт/мм2. Та же 3080 имеет показатель в 0,50(56)Вт/мм2, где число в скобочках пиковое значение. Не стал брать рдна2 ввиду наличия смарткеша, который тоже занимает площадь. А теплопроводность того же кремния весьма низка.
Добавляем проблему связанную с биннингом, т.к. консоль это продукт широкого потребления, то и в консоль идут почти все чипы, т.е. требования к отбору весьма низкие. Из чего лишние 50вт потребления могут дать, куда меньше, например только 100-150мгц.
Едем дальше из за возросшей частоты и производительности возникает следующая проблема, и это проблема с псп памяти. Т.к. в консольках всего то 560ГБ/сек, то при повышении частоты, вы упрётесь уже в псп. А увеличение битности шины требует внесение изменений в кристалл, или добавление смарт кеша и т.п. Что обойдётся очевидно дороже. Даже если просто взять более дорогую и быструю память, но даже так наверняка, сони или майки, могут себе позволить gddr6x память ибо дорого и мало.
Чел чёрным по белому написано, «из предназначенных для неё 150 тысяч кремниевых пластин в четвёртом квартале лишь 20 % будут содержать центральные процессоры Ryzen 5000 и графические процессоры Radeon RX 6000.»
Что собственно 30к пластин. Мобильные райзены 4000, рдна 1, зен 2. Всё это не идёт в расчёт, ибо всё чётким образом сказано.
А теперь подумай вот о чём, что до старта продаж у АМД было более 1 квартала. Из чего собственно можно предположить что за эти 2 квартала. Могли произвести порядка 4 миллионов гпу. И вы думаете они не смогли удовлетворить спрос? При том не абы как а дефицит достигает исчисляется более чем в десятикратной разнице. Новость читали? Видеокарт нет, от слова совсем, а тем кому досталось, это всего 125карточек. При спросе в чуть большем чем в 4000! Возникает вопрос, где эти миллионы гпу? А вам вообще не кажется странным полное отсутствие в магазинах? Тем более у крупных ритейлеров?
А 10нм проблемный, из за чего и пришлось адаптировать под 14нм.
А так не то, что б отчаялась, а занялась вопросом. Как видите в кои то веки отдали приоритет графике, покуда с cpu всё хорошо. В доказательство, можно условно привести пример: дизайном инфинити кеша занимался(ись) инженеры, что работали над cpu.
И что бы как то заполучить кусок рынка, амд что-то нужно противопоставлять. И тут в этой роли выступает, та же SAM подтягивая производительность до уровня нвидиа, местами, или объём памяти. Но АМД пожадничала и сделала SAM ток для zen3, а когда нвидиа заявила, что сделает тоже самое, амд сделали ответный ход. Ведь амд, видим не очень то и желает демпинговать, прибыль для акционеров, тоже нужна.
p.s. офк в проблемах интел, виноват интел.
Но вот с другой стороны уменьшение кол-ва ядер смотрится немного странным, но предположу, что при смене микроархитектуры размер ядра вырос, из за чего на той же площади стало помещаться меньше ядер. А раздувать размеры кристалла интелу не выгодно.
На самом деле будет ключевым вопрос цены. А то есть подозрения что 11900К будут продавать по цене 10900К.
Это всё равно, что благодарить нвидиа, за то, что лентяи из амд, наконец добавили рт блоки в свои карточки.
Согласитесь бред же. Тут в принципе то не важно кто именно это сделал. Просто амд находится в догоняющих, вот и используют все возможности, что им доступны. Окажись на их месте кто другой, результат был бы примерно тот же.
Это ведь далеко не та же ситуация как с фрисинком, где всё было уже заложено в спецификациях, но нвидиа сознательно реализовала свой g-sync через отдельную плату, которую и продавала.
Или решили нагадить себе в штаны?
Х1 Не только более жрущее ядро, но и физически больше! Всё отдано в откуп производительности.
А ведь потребление это ещё и нагрев!
Из чего не имеет пока особого смысла в куче х1, дорого, горячё и потребляет кучу энергии.
Но вот Альфа ядра практиковались и до Х1, только путём завышенных частота на ядрах А7.Что как бы не очень эффективно.
А нужно альфа ядро, для однопоточной производительности. Спросите зачем она нужна? К примеру для работы со всей файловой системой которая преимущественно работает в 1 поток, к тому же, на Андройде и ios, нет того же файла подкачки. Но есть другой механизм, фоновые приложения сжимаются и выгружаются в ОЗУ, и в связи с тем, что у яблока более быстрый один поток, то и сжимали они реал тайм лучше из за чего требовали меньше озу.
К примеру те же игры, на пк/консолях по крайней мере, работают так, что всегда есть доминирующий альфа поток, который и требует производительности на одно ядро.
Так понятней?
И очень смущает то, что всего одно ядро. Ибо очевидно, что линейно, практически ничего не масштабируется. А для тестирования вполне себе могли взять максимально хороший образец, у которого потребление минимально.
И тут прям куча места для профанаций, ибо очевидно, что проблем при масштабировании куча!
Начиная с того что очевидно качество! Ибо ядра в кремнии разного качества и соответственно имеют разные вольт-частотные характеристики. Заканчивая тем, что процессору нужна информация и тут уж надо вносить кучу поправок в микроархитектуру. Так что это вам не просто снизил потребление и пихнул 25 ядер, так оно не работает.
p.s. Хотя, наверное, с техническим сайтом, я уж погорячился.
Добавляем проблему связанную с биннингом, т.к. консоль это продукт широкого потребления, то и в консоль идут почти все чипы, т.е. требования к отбору весьма низкие. Из чего лишние 50вт потребления могут дать, куда меньше, например только 100-150мгц.
Едем дальше из за возросшей частоты и производительности возникает следующая проблема, и это проблема с псп памяти. Т.к. в консольках всего то 560ГБ/сек, то при повышении частоты, вы упрётесь уже в псп. А увеличение битности шины требует внесение изменений в кристалл, или добавление смарт кеша и т.п. Что обойдётся очевидно дороже. Даже если просто взять более дорогую и быструю память, но даже так наверняка, сони или майки, могут себе позволить gddr6x память ибо дорого и мало.
Что собственно 30к пластин. Мобильные райзены 4000, рдна 1, зен 2. Всё это не идёт в расчёт, ибо всё чётким образом сказано.
А теперь подумай вот о чём, что до старта продаж у АМД было более 1 квартала. Из чего собственно можно предположить что за эти 2 квартала. Могли произвести порядка 4 миллионов гпу. И вы думаете они не смогли удовлетворить спрос? При том не абы как а дефицит достигает исчисляется более чем в десятикратной разнице. Новость читали? Видеокарт нет, от слова совсем, а тем кому досталось, это всего 125карточек. При спросе в чуть большем чем в 4000! Возникает вопрос, где эти миллионы гпу? А вам вообще не кажется странным полное отсутствие в магазинах? Тем более у крупных ритейлеров?