Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Спорить не буду, полных тестов ещё не видел подробных. Предварительные говорят, что всё же 6800 уровень ближе к 3080, а не 2080 ти. Теплопакет вещь достаточно странная, особенно если вдаваться в подробности того, что на видеокартах тепло выделяют достаточно сильно и память и управляющие транзисторы и т.п. Которые так же продублированы и на другой подсистеме на материнской плате. Накладных расходов на ПК получается побольше, из-за универсальности архитектуры.
5600 + 6800 я даже и не сравниваю, это будет выше по производительности, судя по цифрам процентов на 20.
Тут поискал информация, TDP у GPU подсистемы 200 Вт у коробки.У 6800 — 250 Вт.
Чего же вы для айфонов, телевизоров и стиральных машинок и т.п. не просите установить региональный ценник исходя из покупательной способности? Многие комментаторы понимают, что подавляющее большинство игровой индустрии производится не в СНГ с зарплатами сотрудников не в рублях.
Наверное зависит от того, что я не в СНГ живу и у меня рублей нет ) И цены на всё идентичные, что на ПК, что на консоли. Дело-то всё в том, что консоли не ставят региональные цены для не богатых стран, их право, так как в таких странах часто много и не заработаешь.
Да, стоит, только на андроиде нет ничего похожего на игры, что бы этот телик потянул. Есть только мобильные дрочильни пальцем по экрану с оплатой каждого действия. Это не имеет ничего общего с геймингом.
1. TDP это немного не потребление, это требование к рассеиванию тепла.
2. Потребление коробки в пике, по словам тех же DF около 300 ватт, а блок питания 315 Ватт. (New calculations from DigitalFoundry peg the Xbox Series X's power consumption at up to 300W)
3. Отдельно взятая GPU имеет на борту свою память, своё охлаждение, своё питание (регулирующие транзисторы) и т.д. Так что сам чип GPU на видеокартах не потребляет те самые 220 Вт, заявленные для всё видяшки 3070 (или 250 Вт для 6800).
4. CPU там конечно не 3700, скорее 3600. И всё это в сумме вполне укладывается в 300 Вт, 3600 + слегка обрезанная 6800, на 15% меньше CU и чуть ниже частота.
Посмотрел параметры известные о 6700 XT, на techpowerup, что-то там грустно всё, на коробке пободрее GPU получается процентов на 20%. Значит будет что-то среднее между 6700XT и 6800, по числу CU даже ближе к 6800.
Ты видимо не очень разбираешься, то что он делит память CPU и GPU, на самом деле так не правильно говорить, они используют общую Очень быструю память GDDR6, это большой плюс. Нет постоянного потока данных по шине из ОЗУ в ГРАМ, например при разжатии текстур, просчёте физики, инструкциях на отрисовку и много в чём ещё. Общая память это круто, избавляет от необходимости дублировать некоторые данные и гонять тада-сюда и так по очень загруженной шине, ведь оба компонента и CPU и GPU имеют доступ до данных в этой памяти в равной степени. Плюс аппаратный модуль декомпрессии, который на лету разжимает текстуры и нет необходимости задействовать для этого CPU и RAM. И много ещё каких ухищрений, связанных с тем, что архитектура и компановка достаточно самобытны
Сам посчитал или кто-то помог? Разница максимум 25%. Посмотри характеристики на том же techpowerup: архитектура одна и та же, число CU 60 против 52. Частота без буста 1815 против 1825, но 6800 может бустить до 2105 Мгц. Терафлопсы 16 против 12. GPU коробки будет даже чуть быстрее 6700 XT, там по спекам 40 CU и 10 с копейками тфлопс. Или уровень примерно 2080 Ti
Только в РФ такое благо. В ЕС и Сев. Америке игры стоят одинаково, что на консоли, что на ПК и с торрентами в некоторых странах грустно. Поэтому консоли на западе очень популярны и есть в большинстве гостинных.
Есть ещё вариант: у всех и так есть ПК, ноутбук, планшет или кому что нужно и находится в своих спальнях/кабинетах, а в гостиной с теликом вместе стоит консоль, которая собирает всю семью ещё и с друзьями вместе, погонять в футбольчик, посмотреть кинчик или позалипать в какое-то многопользовательское казуальное веселье.
У меня именно так, в комнате я играю на ПК, жена своими делами занимается на сурфейсе, а в условный Лего мы с ней периодически вместе играем ну или она одна играет в своих ассасинов, лар крофт и прочее, пока я работаю. Вполне отличный вариант, меня более чем устраивает.
Тротлинга нет, более 30 минут тест на тротлинг, график ровный, в среднем на 85% от максимальной производительности. Температура тоже в порядке при этом.
Автономность достаточно средняя, ни хорошо ни плохо, мне до 1,5-2 дней хватает зарядки.
С тачем небольшие проблемы наблюдаются, выглядят софтовыми, не поправят, буду штурмовать Самсунг.
Я благодаря game pass за последний год поиграл в такое «старьё» как RDR2, Metro Exodus, Wolfenstein Youngblood, Wasteland 3, The Outer Worlds и еще в большое число игр, которых не было в моей библиотеке до этого. Что я сделал не так? И сколько бы я на эти игры потратил, купив даже по скидкам сейчас?
Чем принципиально DirectX отличается от GNM и GNMX (высокоуровневая часть) у плойки? И то и то графические API. Оба интерфейса работают на низком уровне с GPU.
5600 + 6800 я даже и не сравниваю, это будет выше по производительности, судя по цифрам процентов на 20.
Тут поискал информация, TDP у GPU подсистемы 200 Вт у коробки.У 6800 — 250 Вт.
2. Потребление коробки в пике, по словам тех же DF около 300 ватт, а блок питания 315 Ватт. (New calculations from DigitalFoundry peg the Xbox Series X's power consumption at up to 300W)
3. Отдельно взятая GPU имеет на борту свою память, своё охлаждение, своё питание (регулирующие транзисторы) и т.д. Так что сам чип GPU на видеокартах не потребляет те самые 220 Вт, заявленные для всё видяшки 3070 (или 250 Вт для 6800).
4. CPU там конечно не 3700, скорее 3600. И всё это в сумме вполне укладывается в 300 Вт, 3600 + слегка обрезанная 6800, на 15% меньше CU и чуть ниже частота.
У меня именно так, в комнате я играю на ПК, жена своими делами занимается на сурфейсе, а в условный Лего мы с ней периодически вместе играем ну или она одна играет в своих ассасинов, лар крофт и прочее, пока я работаю. Вполне отличный вариант, меня более чем устраивает.
Автономность достаточно средняя, ни хорошо ни плохо, мне до 1,5-2 дней хватает зарядки.
С тачем небольшие проблемы наблюдаются, выглядят софтовыми, не поправят, буду штурмовать Самсунг.