Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
" У них попросту довольно резко появилось много денег и, как следствие, пропала мотивация работать активно."
Ну а вы что хотели? Вот так работает мир, когда мотивируешь работать людей за деньги. Так сам человек будет мало заинтересован в результате собственного труда. Творчеством сыт не будешь.
«Если кто-то работает неэффективно, компания попытается найти для этого человека новую команду и новое место внутри компании, вместо того, чтобы увольнять. В неспокойные времена Nvidia сокращает заработную плату руководителей, чтобы рядовые сотрудники не испытывали трудностей.»
Понятное дело, это ведь экономически целесообразно.
Проблема вообще в чём, сторожил увольнять сложно, т.к. это опытные и ценные спецы. Их ещё попробуй найди. Так ещё зачастую их опыт и перенимают новички.
А если увольнять молодняк, то откуда взяться опытным спецам? А молодняк работает не эффективно, относительно опытных спецов.
И сокращение бонусов манагеров так и вообще милое дело, т.к. не особо вредит производству, в отличии от работяг.
Возможный выход это замена кожаных мешков на нейрожестянку.
Да, относится к ПО. Так и разрабатывают микросхемы, их сперва описывают на специальных языках.
https://en.wikipedia.org/wiki/Hardware_description_language
Ну и так, понятное дело у нас литографическое оборудование работает не в ручном режиме, а работает по программе.
«Если амд разработала CCX на 16 ядер, „
Смотрим первое схематичное изображение. И видим 8 ядер на CCX. По этой инфе нет 16 ядерный CCX АМД не разработала.
Речь о больших ядрах конечно. Т.к. кол-во ядер на CCX определяется по сути общим же кешем. Zen Xc ядра как раз демонстрируют, что к тому же кешу ты можешь подцепить и в двое больше ядер.
И вот что бы сделать 16 ядерный CCX с Zen5 нам на кристалле нужно уместить 64МБ кеша! При том, тут нужно решить важную проблему, скорость доступа к этому самому кешу.
Т.е. проблемы примерно как с кольцевой шиной интела. Т.к. кеш L3 не монолитен, а разделён на части.
https://www.hardwareluxx.ru/images/cdn01/C497754B12FE4FE19542FB7D35AFB8F4/img/268F6CA01B3947279543A4A68AB0DBC7/CPU_Complex_268F6CA01B3947279543A4A68AB0DBC7.jpg
Вот по этому прицепить больше ядер к тому же объёму кеша можно (условно малых ядер).
Мы даже можем уместить этот объём кеша на кристалле, что позволяют делать тех. процессы.
Но что бы сделать 16 ядерный CCX придётся решить проблемы с задержками и доступом к кешу.
Если что главная задача кеша, это оперативный доступ к информации, т.е. сокрытие задержек от нашей ОЗУ.
" каких-то библиотек (не шарю что это)."
Библиотеки с нашими ячейками транзисторов. Вам дальше по тексту и поясняют:
«high-density and mid-range performance-density libraries»
Так к примеру для GPU, нам нужны транзисторы с более плотной компоновкой, а огромные мощности (с частотами) не очень то и нужны.
«А по моей ссылке на Dave2D оба ноута были на 75 ватт-час. Вот где собака зарыта.»
Вот так и нужно. Смотрите в чём прикол, сами тесты скорее всего на 100% верные иначе интел могут и в суде притянуть за клевету. Антимонопольщики к примеру.
Но у таких тестов, будут проблемы с методологией тестирования, где выборка может быть не релевантна. По этому нужно ж сперва смотреть, что говорит сама Интел или АМД, а после выискивая подобные нюансы нужно критиковать методологию тестирования.
«Вполне могут,»
Не вполне. Апех 720п ведьмак и кп2077(даже с фср не тянет), год оф вор (с фср) не тянет, елден ринг, я бы сказал тоже нет (т.к. ср фпс менее 30, с просадками меньше 20).
Не вполне, но окей что-то тянет, ваша правда, тут я не прав.
«Я ничего не подменял.» Именно подменили.
Хуже того вырвали из контекста «Как то вот хватает (ключевой фактор).» << это как то взяли и забыли.
«производительность от него вполне зависит.»
А теперь скажите на милость, как производительность встройки к примеру зависит от кеша проца? Никак. А ведь это тоже производительность нашего APU.
Так же можно найти ряд задач, где важные некоторые другие параметры, нежели размер кеша. Вот самый простой пример, это некоторый алгоритмы майнинга. Которые скалируются зачастую от ПСП и кол-ва потоков процессора. Есть вообще процессы аля САПР где важно иметь много ОЗУ, дабы в ней крутились расчёты.
Зато «Если плевать на производительность, то зачем вообще апгрейдиться ;)?»
отличное избиение соломенного чучела.
«Нет, вы попользовались картой»
Не в полной мере из за того, что брали с избытком. Или даже не пользовались особо. Т.е. вы уже в моменте покупки переплатили, за то чем не будете пользоваться. Я про избыток мощности. О чём изначально и условился.
" вы могли купить её б/у" или не могли. И всё равно переплатите.
«Потому что можно поставить выше разрешение или использовать DLDSR»
И на кой ляд оно мне надо?
«Цена за улучшение качества не так уж велика.»
Ну как не велика… она на оборот бесконечно велика. Ибо возьмём к примеру нойту, нафиг мне это ваше разрешение повыше?
Вы извините 1 не понимаете о чём говорите. 2 С какого-то ляда определяете что мне надо.
«это не отличить от общей погрешности измерений.»
Вывод потребление браузера не копейки. Т.к. выше величины погрешности.
«соответствия словам Интел не видно.»
Так вы в своих же материалах, практически не где вообще не соответствовали словам интел.
«не нужно мне за неё предъявлять.»
Так как это не нужно, если нужно. Вы мне сейчас сказали что вот там 2Вт, мол в простое. При том, что нам не показано даже что это в простое, это вообще какое-то минимальное значение зафиксированное ПО, в не пойми каких условиях. Т.е. мы уже практически не можем это соотнести со словами интела. А уж делая из этого какую-то экстраполяцию… << что не верно, но тут да есть часть вины интел, о чём ниже.
Учитывая, что ПО это так же нагрузка, вы можете сказать, что это тот простой который имел ввиду интел?
«Хотелось бы более внятные тесты потребления в простое от обзорщиков»
Опять же не верная аргументация, как по мне. Хотелось бы внятных тестов от самой Интел, где будет нормально расписана методология тестирования. Она конечно местами есть, но вот касательно простоя, что вот они имели ввиду под IDLE хз. Догадывайтесь. Как и то как они её собственно измерили. Что бы мы могли повторить тест или соотнести эти данные с данными из других источников.
Если что там и тесты жизни от батарейки были. Но результаты не очень внушительные, что и как сравнили я не вчитывался. Честно лень опять лезть на сайт интел через ВПН и копаться там.
https://youtu.be/yu2ughlWWD4?si=SFsnioYgOUBD2Fm2&t=106
Ссылка в правом нижнем углу.
«Браузеры жрут копейки. Вайфай тоже. „
“копейки» а может овердофига? Вот опять же к разговору о категориях, относительно чего копейки? Относительно 3д рендера? Или относительно простоя? Вот это копейки это в ватах сколько?
«Нет, фантастика это. Там и 79% меньше чем у 7840u в режиме простоя.»
«Наилучшее что смог найти по Интелу в простое это 2W»
Залез я короче на сайт интела за уточнением.
>Use up to 36% lower power while in «busy-idle» mode with an Intel® Core™ Ultra 7 165H processor, compared to an AMD Ryzen 7 7840U processor
>«Use up to 79% lower power while in „idle“ mode with an Intel® Core™ Ultra 7 165H processor, compared to an AMD Ryzen 7 7840U processor»
(As measured by system-on-chip (SoC) package power while in «idle» mode. )
>>А теперь укажите со 100% точностью что в вашем случае намеряли?
Кстати, сразу можно сказать, что тесты производительности интел
не релевантные. По крайней мере касательно IGPU в играх.
Т.к.
интел LPDDR5-7467
АМД LPDDR5-6400
Я конечно понимаю, что ноутов с АМД и Lpddr5x-7500 не встречаются (я не знаю таких), но могли уж свою систему с аналогичной памятью протестировать.
Неа. Т.к. у вас есть предыдущий кадр. Хуже того у вас есть информация, что и куда движется в кадре. Отсюда будет гостинг, неверное расположение объектов в кадре, а то и что похуже. Так например некоторые объекты могут не отрисовать, а некоторые перекрытые объекты могут на оборот отрисовать << но это уж слишком.
«ютуб можно отнести в категорию web browsing.»
Частично. Браузер то работает, сам браузер ресурсы жрёт, сеть ресурсы жрёт (пусть и не SoC).
Так что это 100% не просмотр локального видео.
«Нетфликс»
А вот тут сложности, это уже не веб браузер вроде есть конкретное приложение, которое вполне себе может кушать меньше ресурсов чем целый браузер.
Так ещё важны алгоритмы нетфликса, как минимум как поток закодирован. Я к тому, что может быть
А) Оптимизация под нетфликс
Б)Декодер интела лучше работает с кодировкой нетфликса
«В том и дело, что время жизни от батареи вообще не выросло. „
Опять 25. Я уже матерится хочу. Ещё раз из того, что вы привели вам этого и не обещали.
Ещё раз Интел говорит. на 44% меньше потребления SoC относительно 7840u.
В просмотре видео локально.
Причём тут рапторы и причём тут ютуб? И причём тут вообще время жизни от батареи.
Таймкод по Интелу кидал.
Я про то, что это можно сделать прям ссылкой.
https://youtu.be/yu2ughlWWD4?si=SFsnioYgOUBD2Fm2&t=106
https://youtu.be/Jw-apgUOpHk?si=A7oFqdGgFp6vp4wQ&t=261
>>" у него был GPU с 8 CU?"
Каким? вы серьёзно? А лишние 4 CU c rop/tmu и кешем места значит не занимают?
>>" этого хватало для отбраковки при тех же 150$ и никакого повышения ценника"
Вы знаете выход годных? Откуда данные что хватало? А с тем что уже наклепали, что делать?
>>«что бы не дай бог люди не купили нормальную встройки дешевле 300$,»
8600G и 8700G если окажется дешевле 300$, что вы будете делать?
>>" их просто не устраивало что люди покупали самые дешёвые решения ради встроенной видеокарты"
???? А что поменялось? Сейчас в каждый райзен (кроме F) встроена такая же самая дешёвая «видеокарта», как раньше у атлонов, так же будет 8300G. Который о мой бог со своими 4 CU имеет отнюдь не 0 шанс закрыть ту же вегу в лице 5600G а то и 5700G. Банально за счёт частоты, архитектуры и быстрой памяти.
И да тот же 5600G который покупался «как самая дешёвая „видеокарта“» стоил тогда ещё около 250у.е., но если вдруг будет 8600G, с условными 8CU, примерно за тот же прайс, то это конечно будет наглостью барыг.
Не ну задумка с экстраполяцией конечно интересная, вопрос в артефактах.
p.s. я бы в общем предпочёл, кооперацию Интел и АМД для создания кроссплатформенного и открытого апскейлера, что повысит качество оного, так и упростит интеграцию.
На горячем? Т.е. на соблюдении лицензионного соглашения АМД?
https://github.com/GPUOpen-Effects/FidelityFX-FSR/blob/master/license.txt
https://www.notebookcheck.net/fileadmin/_processed_/7/6/csm_IMG_0004_739ae7573d.png
«44% less power local video 4k»
>Во первых не смущает, что это относительно АМД 7840U? И тут цифры не абсолютные.
>Во вторых а не смущает, что это про «local video»? А у Jarrod’a это просмотр ютуба. Что не локальное видео (и не нетфликс)
>В третьих не смущает что речь про 165H, а не 155H, который у Jarrod’a.
>В четвёртых я уже выше пояснил, что снижение потребление SoC так же не равно увеличению жизни от батареи (на ту же величину). Т.к. вам придётся уровнять потребление вообще всех прочих потребителей энергии от дисплея до VRM. Т.к. интел говорит нам лишь о меньшем потреблении (только SoC!) в N-ном сценарии относительно конкурента.
>В пятых это вообще никак не коррелирует с тем что вы говорили ранее.
Пожалуйста если хотите, то критикуйте конструктивно, а главное по делу. Сами же логически разберите свои претензии. Они попросту не логичны.
Самое страшное тут то, что я ж даже не особо защищаю интел. Просто вы такую блин аргументацию приводите, которая вообще вот не вяжется друг с другом.
Я больше скажу, вы может быть на верной позиции стоите, но делаете только хуже.
Из + вы приводите ссылки и ссылаетесь на кого-то, но неплохо было б вставлять с тайм кодом.
И для удобства, было б лучше если прикрепляли ссылку и на тест Jarrod’a с тайм кодом.
Но это так личные пожелания, тут вы в принципе основную инфу указали.
«Тогда зачем APU вообще, в обычных райзенах сейчас есть iGPU.»
Потому что эти IGPU, в игры явно не могут.
«Если плевать на производительность, то зачем вообще апгрейдиться ;)?»
Так и запишем, «кеша-то опять в два раза» = «плевать на производительность»
Подменили ж понятия, ай как не хорошо то.
«С видеокартами вообще всё проще — сливаете старую, берёте новую. „
И теряете деньги за переплату. Вот вы собсна дурак который и переплатил.
“то во что вы собсно играете :)?»
В индюшатину и не совсем.
Ну так из не очень индющатины bannerlord/Grounded/Subnautica Below Zero/Shipbreaker/Outer wilds/7 Days to Die/Deep Rock Galactic/Breathedge
и всё остальное что я забыл. И в 3д иногда 5600G мне не хватает (что-то не тянет, где-то просадки). В том же граундед кстати неожиданно нормальный FSR. И я с полной уверенностью могу сказать, что той же 780m мне вполне себе хватит. И нафига ж мне 3050 то?
Ну и да по поводу производительности, на кеш мне всё ещё плевать, а вот докрутить до 32ГБ ОЗУ + обновить встройку надо. Ну и да 2 ядра лишними как бы не будут.
О х2 вы ж надеюсь про недавнюю презентацию где речь была о графике?
Вы в курсе, что буквально в следующей строке подменили объект суждения? Чем и разрывает логическую связь.
Вот с чего бы вдруг вы из уравнения вы взяли и исключили производительность? Она константна? Следственно увеличив оную в 2р. условие озвученное интел будет выполнено. (ленюсь проверить что конкретно заявил Интел)
Хуже того от одного лишь apu зависит время жизни от батареи?
Т.е. из увеличения производительности на ватт логически не следует увеличение время жизни от батареи. Так к примеру выше у нас может быть разная ёмкость самой батареи, но и прочие потребители энергии могут быть отличны от.
Т.е. вы не довольны тем, что Интел не сделала того, чего и не обещала?
Я надеюсь вы просто не корректно рассудили.
категории, коими мы пользуемся, имеют крайне важную роль при логических же рассуждениях.
Так я ж говорю на эту разницу, вполне себе может быть плевать. Просто потому, что а нафига ж оно надо, когда старшие решения, сами по себе могут быть доступные по цене, но давать не пропорционально (в +) лучшую производительность.
" если бы там было хотя бы 8 CU младшие модели были бы более конкурентными"
Или не были бы в виду стоимости же.
Но даже если, то нам всё ещё плевать. Ровно потому, что если оно не особо конкурентно, то просто не покупайте, альтернативы есть. Есть у нас и десктопные райзены, у которы CPU часть лучше чем у тех что в новости, есть и интел в конце то концов.
Вот чую ситуация складывается следующим образом,
8300G < это самый младший и дешёвый ЦП на АМ5, мб около 150$.
Далее 7500F и 7600 Вот куда-то сюда впишется 8500G, вероятная цена 200$.
Из плюсов встройкаа, возможно ИИ блоки и чуть меньшая цена чем у 7600, плюс монолит (даст температуры пониже). Минус CPU часть.
8600G допустим 300$ (что уже как бы много лучше 270-280)
8700G допустим 350$ (так же не очень комильфо, чем ближе к 300$ тем лучше)
в целом более менее вписывается.
Ну а вы что хотели? Вот так работает мир, когда мотивируешь работать людей за деньги. Так сам человек будет мало заинтересован в результате собственного труда. Творчеством сыт не будешь.
«Если кто-то работает неэффективно, компания попытается найти для этого человека новую команду и новое место внутри компании, вместо того, чтобы увольнять. В неспокойные времена Nvidia сокращает заработную плату руководителей, чтобы рядовые сотрудники не испытывали трудностей.»
Понятное дело, это ведь экономически целесообразно.
Проблема вообще в чём, сторожил увольнять сложно, т.к. это опытные и ценные спецы. Их ещё попробуй найди. Так ещё зачастую их опыт и перенимают новички.
А если увольнять молодняк, то откуда взяться опытным спецам? А молодняк работает не эффективно, относительно опытных спецов.
И сокращение бонусов манагеров так и вообще милое дело, т.к. не особо вредит производству, в отличии от работяг.
Возможный выход это замена кожаных мешков на нейрожестянку.
https://en.wikipedia.org/wiki/Hardware_description_language
Ну и так, понятное дело у нас литографическое оборудование работает не в ручном режиме, а работает по программе.
Смотрим первое схематичное изображение. И видим 8 ядер на CCX. По этой инфе нет 16 ядерный CCX АМД не разработала.
Речь о больших ядрах конечно. Т.к. кол-во ядер на CCX определяется по сути общим же кешем. Zen Xc ядра как раз демонстрируют, что к тому же кешу ты можешь подцепить и в двое больше ядер.
И вот что бы сделать 16 ядерный CCX с Zen5 нам на кристалле нужно уместить 64МБ кеша! При том, тут нужно решить важную проблему, скорость доступа к этому самому кешу.
Т.е. проблемы примерно как с кольцевой шиной интела. Т.к. кеш L3 не монолитен, а разделён на части.
https://www.hardwareluxx.ru/images/cdn01/C497754B12FE4FE19542FB7D35AFB8F4/img/268F6CA01B3947279543A4A68AB0DBC7/CPU_Complex_268F6CA01B3947279543A4A68AB0DBC7.jpg
Вот по этому прицепить больше ядер к тому же объёму кеша можно (условно малых ядер).
Мы даже можем уместить этот объём кеша на кристалле, что позволяют делать тех. процессы.
Но что бы сделать 16 ядерный CCX придётся решить проблемы с задержками и доступом к кешу.
Если что главная задача кеша, это оперативный доступ к информации, т.е. сокрытие задержек от нашей ОЗУ.
Библиотеки с нашими ячейками транзисторов. Вам дальше по тексту и поясняют:
«high-density and mid-range performance-density libraries»
Так к примеру для GPU, нам нужны транзисторы с более плотной компоновкой, а огромные мощности (с частотами) не очень то и нужны.
Вот так и нужно. Смотрите в чём прикол, сами тесты скорее всего на 100% верные иначе интел могут и в суде притянуть за клевету. Антимонопольщики к примеру.
Но у таких тестов, будут проблемы с методологией тестирования, где выборка может быть не релевантна. По этому нужно ж сперва смотреть, что говорит сама Интел или АМД, а после выискивая подобные нюансы нужно критиковать методологию тестирования.
Не вполне. Апех 720п ведьмак и кп2077(даже с фср не тянет), год оф вор (с фср) не тянет, елден ринг, я бы сказал тоже нет (т.к. ср фпс менее 30, с просадками меньше 20).
Не вполне, но окей что-то тянет, ваша правда, тут я не прав.
«Я ничего не подменял.» Именно подменили.
Хуже того вырвали из контекста «Как то вот хватает (ключевой фактор).» << это как то взяли и забыли.
«производительность от него вполне зависит.»
А теперь скажите на милость, как производительность встройки к примеру зависит от кеша проца? Никак. А ведь это тоже производительность нашего APU.
Так же можно найти ряд задач, где важные некоторые другие параметры, нежели размер кеша. Вот самый простой пример, это некоторый алгоритмы майнинга. Которые скалируются зачастую от ПСП и кол-ва потоков процессора. Есть вообще процессы аля САПР где важно иметь много ОЗУ, дабы в ней крутились расчёты.
Зато «Если плевать на производительность, то зачем вообще апгрейдиться ;)?»
отличное избиение соломенного чучела.
«Нет, вы попользовались картой»
Не в полной мере из за того, что брали с избытком. Или даже не пользовались особо. Т.е. вы уже в моменте покупки переплатили, за то чем не будете пользоваться. Я про избыток мощности. О чём изначально и условился.
" вы могли купить её б/у" или не могли. И всё равно переплатите.
«Потому что можно поставить выше разрешение или использовать DLDSR»
И на кой ляд оно мне надо?
«Цена за улучшение качества не так уж велика.»
Ну как не велика… она на оборот бесконечно велика. Ибо возьмём к примеру нойту, нафиг мне это ваше разрешение повыше?
Вы извините 1 не понимаете о чём говорите. 2 С какого-то ляда определяете что мне надо.
Вывод потребление браузера не копейки. Т.к. выше величины погрешности.
«соответствия словам Интел не видно.»
Так вы в своих же материалах, практически не где вообще не соответствовали словам интел.
«не нужно мне за неё предъявлять.»
Так как это не нужно, если нужно. Вы мне сейчас сказали что вот там 2Вт, мол в простое. При том, что нам не показано даже что это в простое, это вообще какое-то минимальное значение зафиксированное ПО, в не пойми каких условиях. Т.е. мы уже практически не можем это соотнести со словами интела. А уж делая из этого какую-то экстраполяцию… << что не верно, но тут да есть часть вины интел, о чём ниже.
Учитывая, что ПО это так же нагрузка, вы можете сказать, что это тот простой который имел ввиду интел?
«Хотелось бы более внятные тесты потребления в простое от обзорщиков»
Опять же не верная аргументация, как по мне. Хотелось бы внятных тестов от самой Интел, где будет нормально расписана методология тестирования. Она конечно местами есть, но вот касательно простоя, что вот они имели ввиду под IDLE хз. Догадывайтесь. Как и то как они её собственно измерили. Что бы мы могли повторить тест или соотнести эти данные с данными из других источников.
Если что там и тесты жизни от батарейки были. Но результаты не очень внушительные, что и как сравнили я не вчитывался. Честно лень опять лезть на сайт интел через ВПН и копаться там.
https://youtu.be/yu2ughlWWD4?si=SFsnioYgOUBD2Fm2&t=106
Ссылка в правом нижнем углу.
“копейки» а может овердофига? Вот опять же к разговору о категориях, относительно чего копейки? Относительно 3д рендера? Или относительно простоя? Вот это копейки это в ватах сколько?
«Нет, фантастика это. Там и 79% меньше чем у 7840u в режиме простоя.»
«Наилучшее что смог найти по Интелу в простое это 2W»
Залез я короче на сайт интела за уточнением.
>Use up to 36% lower power while in «busy-idle» mode with an Intel® Core™ Ultra 7 165H processor, compared to an AMD Ryzen 7 7840U processor
>«Use up to 79% lower power while in „idle“ mode with an Intel® Core™ Ultra 7 165H processor, compared to an AMD Ryzen 7 7840U processor»
(As measured by system-on-chip (SoC) package power while in «idle» mode. )
>>А теперь укажите со 100% точностью что в вашем случае намеряли?
Кстати, сразу можно сказать, что тесты производительности интел
не релевантные. По крайней мере касательно IGPU в играх.
Т.к.
интел LPDDR5-7467
АМД LPDDR5-6400
Я конечно понимаю, что ноутов с АМД и Lpddr5x-7500 не встречаются (я не знаю таких), но могли уж свою систему с аналогичной памятью протестировать.
Частично. Браузер то работает, сам браузер ресурсы жрёт, сеть ресурсы жрёт (пусть и не SoC).
Так что это 100% не просмотр локального видео.
«Нетфликс»
А вот тут сложности, это уже не веб браузер вроде есть конкретное приложение, которое вполне себе может кушать меньше ресурсов чем целый браузер.
Так ещё важны алгоритмы нетфликса, как минимум как поток закодирован. Я к тому, что может быть
А) Оптимизация под нетфликс
Б)Декодер интела лучше работает с кодировкой нетфликса
«В том и дело, что время жизни от батареи вообще не выросло. „
Опять 25. Я уже матерится хочу. Ещё раз из того, что вы привели вам этого и не обещали.
Ещё раз Интел говорит. на 44% меньше потребления SoC относительно 7840u.
В просмотре видео локально.
Причём тут рапторы и причём тут ютуб? И причём тут вообще время жизни от батареи.
Таймкод по Интелу кидал.
Я про то, что это можно сделать прям ссылкой.
https://youtu.be/yu2ughlWWD4?si=SFsnioYgOUBD2Fm2&t=106
https://youtu.be/Jw-apgUOpHk?si=A7oFqdGgFp6vp4wQ&t=261
При какой диагонали то? Важен размер пикселя.
" А а с определенной дистанции, куб будет круглым"
Если вы его вообще увидите
Каким? вы серьёзно? А лишние 4 CU c rop/tmu и кешем места значит не занимают?
>>" этого хватало для отбраковки при тех же 150$ и никакого повышения ценника"
Вы знаете выход годных? Откуда данные что хватало? А с тем что уже наклепали, что делать?
>>«что бы не дай бог люди не купили нормальную встройки дешевле 300$,»
8600G и 8700G если окажется дешевле 300$, что вы будете делать?
>>" их просто не устраивало что люди покупали самые дешёвые решения ради встроенной видеокарты"
???? А что поменялось? Сейчас в каждый райзен (кроме F) встроена такая же самая дешёвая «видеокарта», как раньше у атлонов, так же будет 8300G. Который о мой бог со своими 4 CU имеет отнюдь не 0 шанс закрыть ту же вегу в лице 5600G а то и 5700G. Банально за счёт частоты, архитектуры и быстрой памяти.
И да тот же 5600G который покупался «как самая дешёвая „видеокарта“» стоил тогда ещё около 250у.е., но если вдруг будет 8600G, с условными 8CU, примерно за тот же прайс, то это конечно будет наглостью барыг.
p.s. я бы в общем предпочёл, кооперацию Интел и АМД для создания кроссплатформенного и открытого апскейлера, что повысит качество оного, так и упростит интеграцию.
https://github.com/GPUOpen-Effects/FidelityFX-FSR/blob/master/license.txt
https://www.notebookcheck.net/fileadmin/_processed_/7/6/csm_IMG_0004_739ae7573d.png
С расстояния в 80см да, при зрении в единицу.
>Во первых не смущает, что это относительно АМД 7840U? И тут цифры не абсолютные.
>Во вторых а не смущает, что это про «local video»? А у Jarrod’a это просмотр ютуба. Что не локальное видео (и не нетфликс)
>В третьих не смущает что речь про 165H, а не 155H, который у Jarrod’a.
>В четвёртых я уже выше пояснил, что снижение потребление SoC так же не равно увеличению жизни от батареи (на ту же величину). Т.к. вам придётся уровнять потребление вообще всех прочих потребителей энергии от дисплея до VRM. Т.к. интел говорит нам лишь о меньшем потреблении (только SoC!) в N-ном сценарии относительно конкурента.
>В пятых это вообще никак не коррелирует с тем что вы говорили ранее.
Пожалуйста если хотите, то критикуйте конструктивно, а главное по делу. Сами же логически разберите свои претензии. Они попросту не логичны.
Самое страшное тут то, что я ж даже не особо защищаю интел. Просто вы такую блин аргументацию приводите, которая вообще вот не вяжется друг с другом.
Я больше скажу, вы может быть на верной позиции стоите, но делаете только хуже.
Из + вы приводите ссылки и ссылаетесь на кого-то, но неплохо было б вставлять с тайм кодом.
И для удобства, было б лучше если прикрепляли ссылку и на тест Jarrod’a с тайм кодом.
Но это так личные пожелания, тут вы в принципе основную инфу указали.
Потому что эти IGPU, в игры явно не могут.
«Если плевать на производительность, то зачем вообще апгрейдиться ;)?»
Так и запишем, «кеша-то опять в два раза» = «плевать на производительность»
Подменили ж понятия, ай как не хорошо то.
«С видеокартами вообще всё проще — сливаете старую, берёте новую. „
И теряете деньги за переплату. Вот вы собсна дурак который и переплатил.
“то во что вы собсно играете :)?»
В индюшатину и не совсем.
Ну так из не очень индющатины bannerlord/Grounded/Subnautica Below Zero/Shipbreaker/Outer wilds/7 Days to Die/Deep Rock Galactic/Breathedge
и всё остальное что я забыл. И в 3д иногда 5600G мне не хватает (что-то не тянет, где-то просадки). В том же граундед кстати неожиданно нормальный FSR. И я с полной уверенностью могу сказать, что той же 780m мне вполне себе хватит. И нафига ж мне 3050 то?
Ну и да по поводу производительности, на кеш мне всё ещё плевать, а вот докрутить до 32ГБ ОЗУ + обновить встройку надо. Ну и да 2 ядра лишними как бы не будут.
Вы в курсе, что буквально в следующей строке подменили объект суждения? Чем и разрывает логическую связь.
Вот с чего бы вдруг вы из уравнения вы взяли и исключили производительность? Она константна? Следственно увеличив оную в 2р. условие озвученное интел будет выполнено. (ленюсь проверить что конкретно заявил Интел)
Хуже того от одного лишь apu зависит время жизни от батареи?
Т.е. из увеличения производительности на ватт логически не следует увеличение время жизни от батареи. Так к примеру выше у нас может быть разная ёмкость самой батареи, но и прочие потребители энергии могут быть отличны от.
Т.е. вы не довольны тем, что Интел не сделала того, чего и не обещала?
Я надеюсь вы просто не корректно рассудили.
категории, коими мы пользуемся, имеют крайне важную роль при логических же рассуждениях.
" если бы там было хотя бы 8 CU младшие модели были бы более конкурентными"
Или не были бы в виду стоимости же.
Но даже если, то нам всё ещё плевать. Ровно потому, что если оно не особо конкурентно, то просто не покупайте, альтернативы есть. Есть у нас и десктопные райзены, у которы CPU часть лучше чем у тех что в новости, есть и интел в конце то концов.
Вот чую ситуация складывается следующим образом,
8300G < это самый младший и дешёвый ЦП на АМ5, мб около 150$.
Далее 7500F и 7600 Вот куда-то сюда впишется 8500G, вероятная цена 200$.
Из плюсов встройкаа, возможно ИИ блоки и чуть меньшая цена чем у 7600, плюс монолит (даст температуры пониже). Минус CPU часть.
8600G допустим 300$ (что уже как бы много лучше 270-280)
8700G допустим 350$ (так же не очень комильфо, чем ближе к 300$ тем лучше)
в целом более менее вписывается.