Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Вот это точно! Сам удивляюсь. Такое впечатление, что Мак с закрытой крышкой вообще ничего не потребляет!

Неправда. Замеры на ютубе показали, что с закрытой крышкой macbook теряет 5% в сутки.
avatar
А железо у него какое?
avatar
Откуда дровишки? Древний LG 77С8 больше 200 Вт в пике никогда не видел, плазма Samsung PS64E-8007 иногда и 250 Вт выходило))))

OLED 77 дюймов потребляет 500-600 Вт. Можете сами здесь ознакомиться с замерами.
avatar
Плазма при своём потреблении ещё и яркость давала невысокую. Нейросеть гугла утверждает, что максимум где-то 600 нит. А тут 1700, почувствуйте разницу.

1700 нит — это на небольшом участке 10%, а при полной заливке OLED может выдавать лишь 300 нит, и до 450 нит на заливке 50%.
avatar
А плазму можно сделать на 136 инч, и если можно сколько она весом будет?

1) В новости экран OLED состоит из 4 панелей по 68 дюймов.
2) Ещё в 15 лет назад вышла 152-дюймовая плазма Panasonic TH-152UX1W
avatar
20 лет назад все хвастались долговечностью матриц, а сегодня пиковой яркостью и зверским энергопотреблением.
OLED 65 дюймов кушает 500 Вт, что даже больше плазмы. А ведь от плазм отказались в первую очередь именно из-за большого энергопотребления!
avatar
How Arm Is Winning Over AWS, Google, Microsoft And Nvidia In Data Centers — https://www.crn.com/news/components-peripherals/2025/how-arm-is-winning-over-aws-google-microsoft-and-nvidia-in-data-centers

ARM заявляет, что убедили Nvidia, Amazon, Oracle, Microsoft, Google и других в превосходстве своей архитектуры по производительности на ватт за доллар. Но сегодня все знают, что это ложь! Ещё никто из них не представил процессора на ARM, который хотя бы был по производительности равен x86.
На данный момент процессоры на ARM потребляют уже по 400W, и при этом они значительно уступают по производительности x86.
Так что это лишь жалкое вранье ARM.
avatar
How Apple Dethroned Intel As the World's Most Innovative Chipmaker — https://www.fool.com/investing/2018/05/28/how-apple-dethroned-intel-as-the-worlds-most-innov.aspx

Зачем вы тут запостили чей то бред из 2018 года?
avatar
Cyberpunk 2077 также использует лишь одно ядро и выдаёт около 30 к/с, но лишь с FSR в режиме Ultra Performance.

Выходит, что она слабее современных встроек. Ведь встройки сегодня выдают те же 30 фпс в 1080p даже без FSR.
avatar
Ох уж эти китайцы. Разбили в дребезги мечты плоскоземельщиков своими снимками лунной поверхности и мест высадки :( беда печаль.
https://www.gazeta.ru/science/news/2020/06/20/n_14571583.shtml?utm_auth=false

Китайцы никогда не подтверждали пилотированные миссии США на Луну. Китайцы просто показали мутные фото, которые абсолютно ничего не доказывают. На этом фото может быть один из десятков спускаемых аппаратов автоматических станций, которые летали на Луну в автоматическом режиме. Как и СССР, американцы пытались десятки раз получить хоть какую-то информацию о Луне при помощи автоматических аппаратов. Вот это фото и есть одно из таких аппаратов. Возможно какой-то американской аппарат с сотой попытки и смог удачно сесть на Луну, и даже передать несколько кадров с поверхности… но никакого реголита они с Луны никогда не привозили и у них его никогда не было! И на этот счёт есть тонна доказательств:
1) Американцы показывали реголит и лунные камни в совершенно сером цвете, что является ложью !
2) Нидерланды заявили, что США под видом лунного образца им передали земную подделку окаменелой древесины !
3) Японцы заявили, что переданный им лунный грунт оказался земным, облученным в реакторе !
4) СССР тоже в глаза не видел ни одного килограмма лунного грунта из якобы 400 кг доставленных американцами с Луны. Ни один советский специалист не признался в изучении американских образцов!
avatar
Почему тогда СССР признали, что высадка была? И грунт изучали, который американцы прислали? Или советские ученые были тупее современных комментаторов?

СССР признал по договору в обмен на инвестиции, снятие санкций, открытие внешних рынков для торговли, закупку зерна по цене вдвое дешевле рыночной. США передали документацию на свои технологии, японцы поставляли оборудование и т.д…
То есть мы получили очень много от Запада по тому договору.
Самих же пилотированных полетов на Луну никогда не было, всё до последнего кадра снималось в павильонах на Земле. Нашим военным руководство просто приказало подтверждать полёты американцев на Луну.
avatar
Маск — фантазер. Путешествия в космосе невозможны из-за действия губительной радиации! Покажут фейковую высадку на Марс, снятую в павильонах на Земле. Им не впервой.
avatar
30-ваттный M5 постеснялись включить в сравнение?

Кому нужен ваш ARM?
avatar
сенатора интересовала сумма, которую миллиардер заплатил SpaceX за свои космические полёты, но Айзекман отказался её назвать

Да не было никаких полетов, всё отсняли в павильонах Земли, как и все лунные миссии полувековой давности.
Неужели кто-нибудь может на полном серьёзе верить, что миллиардер Джаред Айзекман стал бы подвергать свою жизнь опасности радиационного излучения ?
Поэтому и увиливает от неудобных вопросов. В полёте в космос обычного человека нет ничего секретного, поэтому там ничего подписывать о неразглашении не нужно. Но в НАСА всю жизгь занимаются фальсификациями своих достижений и просто хотели протолкнуть Айзекмана на пост главы, поэтому и был придуман этот фейковый полёт. Во всех этих махинациях замешан сам Илон Маск, который пытался протолкнуть Айзекмана на пост главы НАСА, чтобы вдвоём продолжать вешать лапшу всему миру.
avatar
Ещё ты забыл, что Гравитон не продаётся. Им дают попользоваться клиентам, но в первую очередь компания экономит свои бабки. Им нет никакого дела до глупышек хейтерков.

Ничего Amazon там не экономит. Этот гравитон обходится в несколько раз дороже аналогичного по производительности x86. При производстве небольшими партиями цена всегда космическая. Проходили уже на примере Ampere Altra, который в версии на 128-ядер сам по себе стоит $5800.
https://i.ibb.co/5LW4FJd/i-1.webp
А вы хотите чтобы 192-ядерный Amazon Graviton 5 был дешевле ?
В 2024 году hardwareluxx даже писал, что процессоры Ampere Altra так никто и не захотел покупать.
https://www.hardwareluxx.ru/index.php/news/hardware/prozessoren/55581-256-yader-i-12-kanalov-pamyati-ampereone-s-3-nm-tekhprotsessom-v-2025-godu.html
Десять лет назад все по глупости вложились в разработку своих процессоров на архитектуре ARM по примеру яблока — и яблоко первое ложанулось, потому что процессоры получались очень дорогими и при этом в разы уступали по производительности x86.
Apple за 5 лет уже выпустила 5 поколений своих процессоров и при этом смогла догнать лишь 16-ядерные x86-процессоры конкурентов. Причём догнали в ущерб энергоэффективности, ведь энергопотребление у топового M3 Ultra выросло в 20 раз относительно первого М1 !!!
Такой проц только в стационарный комп можно поставить. Вот я и говорю, что получилась лажа. Догнать x86 смогли, но и энергопотребление у ARM стало таким же. Так что все заявления Тима Кука о том, что они были вынуждены перейти на ARM из-за энергоэффективности, — оказалось неправдой.
В переход на ARM было вложено десятки миллиардов долларов, и все они пошли коту под хвост.
При этом ARM как был так и остался костылем с вырезанными инструкциями. Кому есть дело до попугаев в бенчах, если на ARM всё приходится запускать через эмулятор.
avatar
В каких? В пассмарке? :)
Чел, в M3 Ultra огромный GPU. Забыл?
Каждое ядро эпика жрёт по 20Вт в пике. Вот и подели своё ТДП на все ядра. Сколько там остаётся?

1) Энергопотребление у AMD EPYC 9354 такое же, как у Apple M3 Ultra
до 300W.
Количество ядер у обоих по 32 шт. Так что нечего привирать.
Но при этом в Blender у Apple M3 Ultra — 800 баллов, а у AMD EPYC 9354 — 900 баллов.
2) Про GPU разговора не было. При желании никто не запрещает добавить в систему дискретную видеокарту.
avatar
Как утверждает компания, чип обеспечивает наилучшее соотношение цены и производительности

Когда будут тесты в цпумарках — тогда и можно делать подобные заявления. Яблоко тоже много лет обещало невероятную производительность при в разы меньшем потреблении, а по факту M3 Ultra даже при 32-ядрах потребляет под 300 Вт! Проще и дешевле купить AMD EPYC, у которого выше производительность и меньше энергопотребление.
avatar
пушка-бомба
кипятильник

А у кого лучше? Даже у яблока на ARM потребление свыше 100 Вт.
avatar
Зачем это нужно? Это же стационарный блок питания, а не зарядник для смартфона.
avatar
hbm4 в 2 раза быстрее gddr7 и энергопотребление раза в 2 ниже

Откуда такая инфа? Память у RTX 5090 имеет пропускную способность 1.79 TB/s против 2.3 TB/s у HBM4.
А в новости обещают у DDR7 прирост до 40%, что будет превосходить пропускную способность HBM4.