Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
«Совсем ненужные» — это всего тысяч 15 на разницу между каким-нибудь 5600G и 5950X

Какое значение разница между новыми процессорами (тем более такими) в рознице имеет для апгрейда? Это явно бредовая арифметика. За 5950X платили полную цену, потому что апгрейдились с чего-то типа 1800X, которые только на брелки.
получения достаточной еще на пару лет производительности как для игр, так и для работы.
А не под 80 на смену платформы.

5950X давно не годится для игр в хорошем качестве, он ниже 60 к/с в киберпуке держится, где 9800X3D выдаёт под сотню. И что это за работа, где нужен мощный процессор, а 80 т. р. имеют значение? Аргументация уровня нейросети :\.
avatar
Встройка интела тогда годилась только для отображения раб.стола и декодирования киношек.

Старые игры на ней шли — в Mass Effect можно было играть. К тому же, если играть, то дискретка в любом случае лучше. Даже на FullHD мониторе можно всякие DLDSR использовать.
Вложения были конечно просто запредельные

Для жителя Москвы-то? Никакие не запредельные, это же не на один год покупается.
Вега у 5600G конечно тоже не предел мечтаний, но на тот момент вроде дискретка с таким же уровнем производительности стоила чуть меньше этого самого 5600G

Ну то есть жёсткая экономия на себе, а не «достаточная производительность».
avatar
Так был бы Интел — была бы штатная встройка. А так — вы были вынуждены вложиться в устаревающую платформу.
avatar
На сокете 1200 6-ти ядерник можно сменить только на 10-ти ядерник на той же архитектуре или на 8-ми ядерник на очень спорной архитектуре. На AM4 можно или 8-ми ядерник с 3д кэшем или 16-ти ядерник

Ну это если есть деньги совсем ненужные, чтобы на апгрейд устаревшей платформы их выкинуть.
avatar
Интел же приучил своих потребителей к постоянной смене сокета и там об апгрейдах, похоже, вообще практически уже никто не задумывается…

О сценарии вашего апгрейда вообще никто в здравом уме не задумывается. Перейти на 5600G в январе 2022 года, то есть за 8 месяцев до выхода Zen 4 — невероятная нелепость. Вы считали, что обманули систему, сохранив сокет, но на самом деле вас развели на вложение в устаревшую микроархитектуру, причём ещё и в слабый проц. Браво AMD, Интел так не умеет.
avatar
Так с времён 10600K сокет у AMD тоже сменился, какие у вас-то проблемы?
avatar
Ядра NPU тоже в Гикбенче не участвуют?

Вроде, не участвуют, ARM SME к эппловским NPU не относятся, как я понимаю. https://www.geekbench.com/doc/geekbench6-benchmark-internals.pdf
avatar
А вы сами не находите, что это сравнение теплого с мягким? У Apple чиплеты с графическими ядрами и памятью на борту, нацеленный на работу с мультимедиа и ML

Нет, он пишет про Geekbench 6 CPU, который сравнивает только части общего назначения, графические ядра и ASIC не участвуют. Соотношение, правда, там не совсем такое, но всё равно не может быть, когда 16-ядерный M4 Max оказывается примерно на уровне новейшего 128-ядерного EPYC 9755.
avatar
Чтобы по-настоящему ощутить достоинства Порша, нужно ездить на нём не только за хлебом ;). Сейчас для рядовой нетребовательной публики единственная наглядная разница флагмана с обычным смартом — беспроводная зарядка (но она и в FE была). Возможно, как раз поэтому её стараются в обычные модели не ставить, хотя себестоимость там явно копейка.
avatar
Кризисы — это общая, постоянная проблема капитализма.
avatar
И пока что наблюдается фаза роста, так что тут ничего не лопнет.

Пляски с бубном вокруг графика — это глупость, надо на P/E смотреть. P/E Nvidia нынче 50, высоковато. У Циско было аж 200, когда всё накрылось.
А вот когда уже будет развитый ИИ а рынок микроэлектроники окажется перенасыщен, вот тогда и лопнуть может или по крайней мере сдуется пузырь.

Это будет через много лет после взрыва текущего пузыря. Как с доткомами, да и с другими подобными пузырями.
avatar
Может, и гонит, но разница не только в «понтах». Если S24 и S24FE сравнить, то у S24FE оптический датчик вместо ультразвукового — это не понты, а самый что ни на есть объективный функционал, разница ощутимая. Вместо настоящего датчика приближения виртуальный — это уже самое настоящее западло, говорю как пользовавшийся смартом с таким датчиком. Камера слегка порезана — меньше сенсоры на ШУ и теле, убрали на этих модулях 4K 60 Гц.
avatar
Приличные затычки к аудиоплеерам через 4,4 мм нынче подключают, а не через 3,5 мм. Бывает, что и звук через 3,5 мм плеер хуже выдаёт, чем через 4,4 мм.
avatar
Ох. Ну ладно, специально для ножеманов повторю ещё раз: прямо здесь, на ixbt тестировали Hisense C1 и убедились, что яркость соответствует заявленной. И даже ссылку приведу: https://www.ixbt.com/tv/hisense-c1-review.html
И даже цитату, если вдруг ссылки кто-то не умеет копировать в адресную строку браузера:
Максимальный световой поток близок к заявленным 1600 лм. Это в режиме, обеспечивающим максимальную яркость

Реально там получилось 1670 люмен.
avatar
Извини, я не хотел оскорблять твой интеллектуальный уровень слишком умными рассуждениями.
avatar
Усложнение структуры чипов памяти приводит к повышенным задержкам (латентности) при произвольной выборке.

Ну вот я конкретные цифры привёл, в наносекундах для реально продаваемых модулей. Так где именно приводит?
avatar
Вы сейчас реально думаете, что до сих пор никто не удосужился проверить правдивость заявлений Hisense? Даже на этом сайте был обзор.
avatar
Чтобы вы что-то видели на большом экране при прямом свете от пасмурного неба, нужно не ваши смешные 2700 люменов, а где-то раз в 100 больше. Ессно, речь про самые настоящие люмены. https://www.reddit.com/r/projectors/comments/10vxlo3/comment/j7koxm1/
Переотражение от стен, конечно, немного уменьшает световой поток с улицы, но всё равно с 2700 люмен шансов примерно никаких.
avatar
Запрет условный, запчасти к Боингам и Эйрбасам продолжают идти по хитрым схемам. Этим фирмам антиреклама в форме катастроф как-то не очень нужна, да и деньги не помешают.
avatar
Абсолютная пожаро-травмо-безопасность, особенно когда дома старики или дети.

Абсолютная — это и кастрюлю с кипятком на себя ребёнок не может опрокинуть? Обычно это главная угроза.