Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Ну так не забываем, что да, с одной стороны 200мгц дополнительных нифига. Но если это разгоняет все 8 ядер до этих частот (что маловероятно), то сложив все приросты на каждое ядро, то прирост-то в как минимум в 1.6ггц в общем, что неплохо в рабочих задачах. +10% точно из неоткуда, если охлад позволяет. Во много поточности как минимум, а 14900к запросто обгоняет 7950X в рабочих задачах ( Blender, Davicnii, Adobe и т.д), а если без этой матери, то и в ручную — запросто
«Нет таких Wifi» — у меня под 900 мбит (это уже быстрее в несколько раз чем USB 2), с телефона и ноута, файлы на тот же яндекс диск по Wifi 6 спокойно заливаются со скоростью 700-900мбит, или даже по локалке, как FTP сервер, файлы с фотика по 100мбайт моментально телепортируются на ПК. Вы 10 лет назад поставили роутер? А про провода бред, Thunderbolt или USB 4 провод можно купить от 1600 руб, а USB 3.2 Gen2 вообще по 600-800 руб, а если покупается какой аксессуар, то нужный провод и так в большинстве случаев идёт из коробки :)
Понятно что они разные, но даже самый медленный USB 3, в разы быстрее USB 2 и передает больше питания, что требуется для некоторых устройств чтобы даже заработать, подключившись. Типо с 500 мбайтами +- в секунду спокойно можно жить, а вот с 20-30… Ну прям такое. Даже на облако файл быстрее залить можно уже по вифи, если тариф позволяет.
Не помню ни один ноутбук с 2015 года без USB 3, либо с наличием 2.0. вообще не помню где есть 2.0, кроме как двух несчастных портов на метеринках для клавы и мыши, или какой то мелочи, которой тупо нужен заряд. Вообще мертвое дело, если банально даже пару гигов файл кидать. А Thunderbolt 5 жду, наконец то можно будет не по лану кидать материал на внешнее хранилище, а просто воткунл USB, без покупок 10гбитных сетевых карт в оба пк, так ещё и в разы быстрее :3
Я думаю очевидно, что в никакие сетевые настройки в IOS ничего не настроишь без помощи Apple, пока на Андроиде доступ к ним можно получить либо в режиме разработчика, либо парой цифр в приложении звонилки. А на андройде насколько знаю, только у гнусмаса пока что есть спутниковый модуль.
Более чем уверен что за 3-5 лет что я буду пользоваться этим монитором, 5000 линейка выйдет раньше этого срока — очевидно))) Дело не в ФПС в играх, а в том чтобы при 240 герцовом дисплее, битность цвета была выше для рабочих задач, как и Цветовая субдискретизация. Я конечно могу купить этот MSI, но через пол года-год, как выйдет новая видяха, буду дальше сидеть на 240 герцах с DP 1.4 и тем же DSC — круто что. Не, я конечно могу каждый раз перетыкать настройки, между 144гц когда работаю для 10 бит, и включать 240 с DSC чтобы поиграть, но делать мне больше нефига))) Учитывая что у меня сейчас на 4090 в той же Колде в 4К выдаёт между 160-190фпс, то на 5090 240герц будет не проблема, а Siege в который иногда захожу, будет за все 400.
У Гигабайта такой же выходит моник, но там DP 2.1 UHBR 20, 80Gb\s
У самого сейчас Gigabyte M32U, 4K 144 32дюйма. Всё отлично, кроме подсветки конечно. Буду на их новый Олед обновляться. 2 Года назад чуть не купил Asus Pro Art за 5К зелёных, для работы, а тут уже ОЛЕД 240 герц предлагают за 1\5 цены, так что звучит как афигенный варик.
А тут не надо никуда особо смотреть, сотни роликов и тестов есть в интернете, но кто-то даже их не смотрит, а из головы придумывает) То есть до того как появились пару лет назад карты Intel, никто в мире действительно не работал, понятно) Вот только у Интела нет преимущества даже в 4:4:4, в котором снимает RED и прочие. Толку если он поддерживается, если сама карта банально медленная. В h264 A770 медленнее rtx 3060, 151fps против 165 при рендерах в Давинчи. В премьер Pro таже ситуация. При монтаже RAW с RED разница вырастает уже в 35-40%, не в пользу синих, где вы и говорите о преимуществе Intel, тоже самое с ProRes и другими кодеками — кроме AV1. В блендере 3.3.0 разница между ARC 770 и 3060 уже почти в 2 раза, 1656 против 2474 в тесте на GPU, а в After Effects на 10-20% тоже сливает. Те кто "«действительно работают»", уже изначально не будут покупать бюджетную видеокарту за 300 баксов, которая к тому же будет уступать в этих задачах даже 3060 и будет быстрее лишь в AV1, который кроме как для стримов пока по сути и не нужен. И снова же, это лишь сравнение с 3060, где не завезли в 2 раза быстрее энкоудеры, что уже в 40й линейке. Вы сами то купили Arc, пользуетесь и работаете на нём, что так сильно верите в его преимущество? Вы сначала определите для себя своё высказывание «Действительно работающие люди», может для вас это школьник что начал стримить только, что ищет себе самую бюджетную карту для работы.
Ну я то покупаю не Дженсена, а видеокарту, продукт, над которыми работали не куртка, а инженеры и прочие люди, которые со своей стороны делают отличную работу, и придумывают постоянно много чего нового и дают это обычному потребителю. Почему меня должно волновать м**ак он или нет, если продукт который я купил работает отлично и в работе и играх и выполняет все мои задачи, без проблем. С такой проблемой не связывался, но не могу отрицать или подтвердить её существование на личном опыте, что субъективно с моей стороны. Но всё что выше я писал банальные факты, нравится это кому или нет
Да, понимаю, сложно что либо воспринимать, когда под каждой новостью про Nvidia, как стадо нужно только писать какой куртка плохой. Конечно преимущества у Нвидиа нет, когда купил AMD и играешь только в игрушки. В Ai рабочих приложениях, все карты Nvidia обгоняют AMD до 2.5 раз, даже 4070 Super. В блендере рендеры на 4070 быстрее чем у 7900XT, а у 4080 Super вообще в 2 раза быстрее. AMD вообще не имеет софтовой поддержки Блендера! И это при том что Nvidia на данный момент софтово не используют свой Optics Rendering, что ещё больше ускорить рендеры после внедрения в софт. Запустите стрим с карты AMD на Твич в 4К, напишите какие преимущества будут у вас. Но да, вам это не нужно, поэтому вы щас своё субъективное «мне лично это не нужно», будете преподносить в виде объективного «не преимущества», получите плюсики от людей которые купили карточки поиграть в дотку, с максимум фпс на доллар, и пойдёте дальше с ними играть и обсуждать какой куртка плохой. А интел молодцы в рабочих задачах, но мне нужно решение и для работы в первую очередь, но и игр, а в рабочих ситуациях, когда они приоритет, брать AMD, это потраченное время на рендерах, ради сэкономленных 100 баксов, которые могут окупиться хоть за пару часов в этих рабочих задачах.
Потому что Ютуб и OBS поддерживает стриминг через AV1 — и софт и платформа, а AV1 это открытый кодек, который может кто угодно использоваться без прав и лицензий. То что я написал выше, имеется ввиду, что на Твич нельзя стримить в 4К с не видеокарты Nvidia и использовать AV1. Именно это партнёрство недавно на CES и объявили, Nvidia,OBS и Twitch. А кто партнёрится с AMD в плане софта для кретивных задач? Почти Никто. Тот же Google и Nvidia с Хромом недавно намутили Апскейлинг видеоконтента в браузере, что на самом деле просто спасение, если у тебя 4К 32 дюйма монитор, и видосы на Ютубе в 1080P, просто ад было смотреть. Партнёрство Adobe с nvidia, которые позволили несколько лет назад в премьере рендерить ролики наконец-то через видеокарту, а не процессор, как было всегда раньше в видеомонтажках. Nvidia Omniverse так же крайне крутая штука. Кто угодно может сделать ремастеред игры, да не ремейк как Резидент, но и кто угодно потом может поиграть Бесплатно в эти ремастеры, которые иначе никогда не появиться официально, из-за сотни миллионов причин. И таких примеров много, и покупая AMD зачастую остается лишь надеяться что оно заработает, а не то что даст какие либо преимущества. Поэтому не все выбирают карту лишь по фпс\бакс, хоть таких слишком подавляющее количество.
Нужны, не нужны, люди покупают и будут покупать. Не у всех как у вас в голове сидит — «Как бы сэкономить лишние 100 баксов на устройстве, которое покупается в перспективе на 3-5 лет». К тому же всё банально просто, у всех свои потребности, условно тот же человек, который будет и стримить игры, или что монтировать, просто возьмёт Nvidia, из-за лучших энкоудеров, работы с софтом креативным, и прочем, в чём карточка Nvidia зачастую справиться лучше, даже не самая топовая. У Твича теперь вообще эксклюзивная фича для карт Нвидиа, стримить в 4К и других разрешениях в AV1 впридачу. Не всех волнует ФПС за доллар, видеокарта это не игровая консоль, но на этом ресурсе их воспринимают как таковых.
По такой логике и красные заскамили своих покупателей, продав обычные 7000 рязани, и через несколько месяцев выпустив X3D версии. Что за двойные стандарты?
У самого сейчас Gigabyte M32U, 4K 144 32дюйма. Всё отлично, кроме подсветки конечно. Буду на их новый Олед обновляться. 2 Года назад чуть не купил Asus Pro Art за 5К зелёных, для работы, а тут уже ОЛЕД 240 герц предлагают за 1\5 цены, так что звучит как афигенный варик.