Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
«Совсем ненужные» — это всего тысяч 15 на разницу между каким-нибудь 5600G и 5950X
Какое значение разница между новыми процессорами (тем более такими) в рознице имеет для апгрейда? Это явно бредовая арифметика. За 5950X платили полную цену, потому что апгрейдились с чего-то типа 1800X, которые только на брелки.
получения достаточной еще на пару лет производительности как для игр, так и для работы.
А не под 80 на смену платформы.
5950X давно не годится для игр в хорошем качестве, он ниже 60 к/с в киберпуке держится, где 9800X3D выдаёт под сотню. И что это за работа, где нужен мощный процессор, а 80 т. р. имеют значение? Аргументация уровня нейросети :\.
Встройка интела тогда годилась только для отображения раб.стола и декодирования киношек.
Старые игры на ней шли — в Mass Effect можно было играть. К тому же, если играть, то дискретка в любом случае лучше. Даже на FullHD мониторе можно всякие DLDSR использовать.
Вложения были конечно просто запредельные
Для жителя Москвы-то? Никакие не запредельные, это же не на один год покупается.
Вега у 5600G конечно тоже не предел мечтаний, но на тот момент вроде дискретка с таким же уровнем производительности стоила чуть меньше этого самого 5600G
Ну то есть жёсткая экономия на себе, а не «достаточная производительность».
На сокете 1200 6-ти ядерник можно сменить только на 10-ти ядерник на той же архитектуре или на 8-ми ядерник на очень спорной архитектуре. На AM4 можно или 8-ми ядерник с 3д кэшем или 16-ти ядерник
Ну это если есть деньги совсем ненужные, чтобы на апгрейд устаревшей платформы их выкинуть.
Интел же приучил своих потребителей к постоянной смене сокета и там об апгрейдах, похоже, вообще практически уже никто не задумывается…
О сценарии вашего апгрейда вообще никто в здравом уме не задумывается. Перейти на 5600G в январе 2022 года, то есть за 8 месяцев до выхода Zen 4 — невероятная нелепость. Вы считали, что обманули систему, сохранив сокет, но на самом деле вас развели на вложение в устаревшую микроархитектуру, причём ещё и в слабый проц. Браво AMD, Интел так не умеет.
А вы сами не находите, что это сравнение теплого с мягким? У Apple чиплеты с графическими ядрами и памятью на борту, нацеленный на работу с мультимедиа и ML
Нет, он пишет про Geekbench 6 CPU, который сравнивает только части общего назначения, графические ядра и ASIC не участвуют. Соотношение, правда, там не совсем такое, но всё равно не может быть, когда 16-ядерный M4 Max оказывается примерно на уровне новейшего 128-ядерного EPYC 9755.
Чтобы по-настоящему ощутить достоинства Порша, нужно ездить на нём не только за хлебом ;). Сейчас для рядовой нетребовательной публики единственная наглядная разница флагмана с обычным смартом — беспроводная зарядка (но она и в FE была). Возможно, как раз поэтому её стараются в обычные модели не ставить, хотя себестоимость там явно копейка.
Может, и гонит, но разница не только в «понтах». Если S24 и S24FE сравнить, то у S24FE оптический датчик вместо ультразвукового — это не понты, а самый что ни на есть объективный функционал, разница ощутимая. Вместо настоящего датчика приближения виртуальный — это уже самое настоящее западло, говорю как пользовавшийся смартом с таким датчиком. Камера слегка порезана — меньше сенсоры на ШУ и теле, убрали на этих модулях 4K 60 Гц.
Приличные затычки к аудиоплеерам через 4,4 мм нынче подключают, а не через 3,5 мм. Бывает, что и звук через 3,5 мм плеер хуже выдаёт, чем через 4,4 мм.
Ох. Ну ладно, специально для ножеманов повторю ещё раз: прямо здесь, на ixbt тестировали Hisense C1 и убедились, что яркость соответствует заявленной. И даже ссылку приведу: https://www.ixbt.com/tv/hisense-c1-review.html
И даже цитату, если вдруг ссылки кто-то не умеет копировать в адресную строку браузера:
Максимальный световой поток близок к заявленным 1600 лм. Это в режиме, обеспечивающим максимальную яркость
Чтобы вы что-то видели на большом экране при прямом свете от пасмурного неба, нужно не ваши смешные 2700 люменов, а где-то раз в 100 больше. Ессно, речь про самые настоящие люмены. https://www.reddit.com/r/projectors/comments/10vxlo3/comment/j7koxm1/
Переотражение от стен, конечно, немного уменьшает световой поток с улицы, но всё равно с 2700 люмен шансов примерно никаких.
Запрет условный, запчасти к Боингам и Эйрбасам продолжают идти по хитрым схемам. Этим фирмам антиреклама в форме катастроф как-то не очень нужна, да и деньги не помешают.
Какое значение разница между новыми процессорами (тем более такими) в рознице имеет для апгрейда? Это явно бредовая арифметика. За 5950X платили полную цену, потому что апгрейдились с чего-то типа 1800X, которые только на брелки.
5950X давно не годится для игр в хорошем качестве, он ниже 60 к/с в киберпуке держится, где 9800X3D выдаёт под сотню. И что это за работа, где нужен мощный процессор, а 80 т. р. имеют значение? Аргументация уровня нейросети :\.
Старые игры на ней шли — в Mass Effect можно было играть. К тому же, если играть, то дискретка в любом случае лучше. Даже на FullHD мониторе можно всякие DLDSR использовать.
Для жителя Москвы-то? Никакие не запредельные, это же не на один год покупается.
Ну то есть жёсткая экономия на себе, а не «достаточная производительность».
Ну это если есть деньги совсем ненужные, чтобы на апгрейд устаревшей платформы их выкинуть.
О сценарии вашего апгрейда вообще никто в здравом уме не задумывается. Перейти на 5600G в январе 2022 года, то есть за 8 месяцев до выхода Zen 4 — невероятная нелепость. Вы считали, что обманули систему, сохранив сокет, но на самом деле вас развели на вложение в устаревшую микроархитектуру, причём ещё и в слабый проц. Браво AMD, Интел так не умеет.
Вроде, не участвуют, ARM SME к эппловским NPU не относятся, как я понимаю. https://www.geekbench.com/doc/geekbench6-benchmark-internals.pdf
Нет, он пишет про Geekbench 6 CPU, который сравнивает только части общего назначения, графические ядра и ASIC не участвуют. Соотношение, правда, там не совсем такое, но всё равно не может быть, когда 16-ядерный M4 Max оказывается примерно на уровне новейшего 128-ядерного EPYC 9755.
Пляски с бубном вокруг графика — это глупость, надо на P/E смотреть. P/E Nvidia нынче 50, высоковато. У Циско было аж 200, когда всё накрылось.
Это будет через много лет после взрыва текущего пузыря. Как с доткомами, да и с другими подобными пузырями.
И даже цитату, если вдруг ссылки кто-то не умеет копировать в адресную строку браузера:
Реально там получилось 1670 люмен.
Ну вот я конкретные цифры привёл, в наносекундах для реально продаваемых модулей. Так где именно приводит?
Переотражение от стен, конечно, немного уменьшает световой поток с улицы, но всё равно с 2700 люмен шансов примерно никаких.
Абсолютная — это и кастрюлю с кипятком на себя ребёнок не может опрокинуть? Обычно это главная угроза.