Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Ну так не забываем, что да, с одной стороны 200мгц дополнительных нифига. Но если это разгоняет все 8 ядер до этих частот (что маловероятно), то сложив все приросты на каждое ядро, то прирост-то в как минимум в 1.6ггц в общем, что неплохо в рабочих задачах. +10% точно из неоткуда, если охлад позволяет. Во много поточности как минимум, а 14900к запросто обгоняет 7950X в рабочих задачах ( Blender, Davicnii, Adobe и т.д), а если без этой матери, то и в ручную — запросто
avatar
A7R V с кучей стёкл лучше взять, скорее всего с тем же сенсором и намного лучше АФ)
avatar
«Нет таких Wifi» — у меня под 900 мбит (это уже быстрее в несколько раз чем USB 2), с телефона и ноута, файлы на тот же яндекс диск по Wifi 6 спокойно заливаются со скоростью 700-900мбит, или даже по локалке, как FTP сервер, файлы с фотика по 100мбайт моментально телепортируются на ПК. Вы 10 лет назад поставили роутер? А про провода бред, Thunderbolt или USB 4 провод можно купить от 1600 руб, а USB 3.2 Gen2 вообще по 600-800 руб, а если покупается какой аксессуар, то нужный провод и так в большинстве случаев идёт из коробки :)
avatar
Видимо вы в день не сливаете материала на 500-1Тб, так что не вижу ничего ах***ого, чтобы ждать по пол дня)))
avatar
Я вроде и написал про пару портов для клавы и мыши, а так за все 10 лет, ни одно устройство USB в 2 что я втыкал, не выпендривалось с USB 3.
avatar
Ну тогда ещё лучше
avatar
Понятно что они разные, но даже самый медленный USB 3, в разы быстрее USB 2 и передает больше питания, что требуется для некоторых устройств чтобы даже заработать, подключившись. Типо с 500 мбайтами +- в секунду спокойно можно жить, а вот с 20-30… Ну прям такое. Даже на облако файл быстрее залить можно уже по вифи, если тариф позволяет.
avatar
Не помню ни один ноутбук с 2015 года без USB 3, либо с наличием 2.0. вообще не помню где есть 2.0, кроме как двух несчастных портов на метеринках для клавы и мыши, или какой то мелочи, которой тупо нужен заряд. Вообще мертвое дело, если банально даже пару гигов файл кидать. А Thunderbolt 5 жду, наконец то можно будет не по лану кидать материал на внешнее хранилище, а просто воткунл USB, без покупок 10гбитных сетевых карт в оба пк, так ещё и в разы быстрее :3
avatar
Я думаю очевидно, что в никакие сетевые настройки в IOS ничего не настроишь без помощи Apple, пока на Андроиде доступ к ним можно получить либо в режиме разработчика, либо парой цифр в приложении звонилки. А на андройде насколько знаю, только у гнусмаса пока что есть спутниковый модуль.
avatar
Топ, один шлем теперь для двух систем сразу, спасибо за подгон :)
avatar
Логично что не выпустят, Naughty Dog, Santa monica и Sucker Pucnh делают полностью новые IP. Как и тот же росомаха это тоже новая франшиза.
avatar
Более чем уверен что за 3-5 лет что я буду пользоваться этим монитором, 5000 линейка выйдет раньше этого срока — очевидно))) Дело не в ФПС в играх, а в том чтобы при 240 герцовом дисплее, битность цвета была выше для рабочих задач, как и Цветовая субдискретизация. Я конечно могу купить этот MSI, но через пол года-год, как выйдет новая видяха, буду дальше сидеть на 240 герцах с DP 1.4 и тем же DSC — круто что. Не, я конечно могу каждый раз перетыкать настройки, между 144гц когда работаю для 10 бит, и включать 240 с DSC чтобы поиграть, но делать мне больше нефига))) Учитывая что у меня сейчас на 4090 в той же Колде в 4К выдаёт между 160-190фпс, то на 5090 240герц будет не проблема, а Siege в который иногда захожу, будет за все 400.
avatar
У Гигабайта такой же выходит моник, но там DP 2.1 UHBR 20, 80Gb\s
У самого сейчас Gigabyte M32U, 4K 144 32дюйма. Всё отлично, кроме подсветки конечно. Буду на их новый Олед обновляться. 2 Года назад чуть не купил Asus Pro Art за 5К зелёных, для работы, а тут уже ОЛЕД 240 герц предлагают за 1\5 цены, так что звучит как афигенный варик.
avatar
А тут не надо никуда особо смотреть, сотни роликов и тестов есть в интернете, но кто-то даже их не смотрит, а из головы придумывает) То есть до того как появились пару лет назад карты Intel, никто в мире действительно не работал, понятно) Вот только у Интела нет преимущества даже в 4:4:4, в котором снимает RED и прочие. Толку если он поддерживается, если сама карта банально медленная. В h264 A770 медленнее rtx 3060, 151fps против 165 при рендерах в Давинчи. В премьер Pro таже ситуация. При монтаже RAW с RED разница вырастает уже в 35-40%, не в пользу синих, где вы и говорите о преимуществе Intel, тоже самое с ProRes и другими кодеками — кроме AV1. В блендере 3.3.0 разница между ARC 770 и 3060 уже почти в 2 раза, 1656 против 2474 в тесте на GPU, а в After Effects на 10-20% тоже сливает. Те кто "«действительно работают»", уже изначально не будут покупать бюджетную видеокарту за 300 баксов, которая к тому же будет уступать в этих задачах даже 3060 и будет быстрее лишь в AV1, который кроме как для стримов пока по сути и не нужен. И снова же, это лишь сравнение с 3060, где не завезли в 2 раза быстрее энкоудеры, что уже в 40й линейке. Вы сами то купили Arc, пользуетесь и работаете на нём, что так сильно верите в его преимущество? Вы сначала определите для себя своё высказывание «Действительно работающие люди», может для вас это школьник что начал стримить только, что ищет себе самую бюджетную карту для работы.
avatar
Ну я то покупаю не Дженсена, а видеокарту, продукт, над которыми работали не куртка, а инженеры и прочие люди, которые со своей стороны делают отличную работу, и придумывают постоянно много чего нового и дают это обычному потребителю. Почему меня должно волновать м**ак он или нет, если продукт который я купил работает отлично и в работе и играх и выполняет все мои задачи, без проблем. С такой проблемой не связывался, но не могу отрицать или подтвердить её существование на личном опыте, что субъективно с моей стороны. Но всё что выше я писал банальные факты, нравится это кому или нет
avatar
Да, понимаю, сложно что либо воспринимать, когда под каждой новостью про Nvidia, как стадо нужно только писать какой куртка плохой. Конечно преимущества у Нвидиа нет, когда купил AMD и играешь только в игрушки. В Ai рабочих приложениях, все карты Nvidia обгоняют AMD до 2.5 раз, даже 4070 Super. В блендере рендеры на 4070 быстрее чем у 7900XT, а у 4080 Super вообще в 2 раза быстрее. AMD вообще не имеет софтовой поддержки Блендера! И это при том что Nvidia на данный момент софтово не используют свой Optics Rendering, что ещё больше ускорить рендеры после внедрения в софт. Запустите стрим с карты AMD на Твич в 4К, напишите какие преимущества будут у вас. Но да, вам это не нужно, поэтому вы щас своё субъективное «мне лично это не нужно», будете преподносить в виде объективного «не преимущества», получите плюсики от людей которые купили карточки поиграть в дотку, с максимум фпс на доллар, и пойдёте дальше с ними играть и обсуждать какой куртка плохой. А интел молодцы в рабочих задачах, но мне нужно решение и для работы в первую очередь, но и игр, а в рабочих ситуациях, когда они приоритет, брать AMD, это потраченное время на рендерах, ради сэкономленных 100 баксов, которые могут окупиться хоть за пару часов в этих рабочих задачах.
avatar
Потому что Ютуб и OBS поддерживает стриминг через AV1 — и софт и платформа, а AV1 это открытый кодек, который может кто угодно использоваться без прав и лицензий. То что я написал выше, имеется ввиду, что на Твич нельзя стримить в 4К с не видеокарты Nvidia и использовать AV1. Именно это партнёрство недавно на CES и объявили, Nvidia,OBS и Twitch. А кто партнёрится с AMD в плане софта для кретивных задач? Почти Никто. Тот же Google и Nvidia с Хромом недавно намутили Апскейлинг видеоконтента в браузере, что на самом деле просто спасение, если у тебя 4К 32 дюйма монитор, и видосы на Ютубе в 1080P, просто ад было смотреть. Партнёрство Adobe с nvidia, которые позволили несколько лет назад в премьере рендерить ролики наконец-то через видеокарту, а не процессор, как было всегда раньше в видеомонтажках. Nvidia Omniverse так же крайне крутая штука. Кто угодно может сделать ремастеред игры, да не ремейк как Резидент, но и кто угодно потом может поиграть Бесплатно в эти ремастеры, которые иначе никогда не появиться официально, из-за сотни миллионов причин. И таких примеров много, и покупая AMD зачастую остается лишь надеяться что оно заработает, а не то что даст какие либо преимущества. Поэтому не все выбирают карту лишь по фпс\бакс, хоть таких слишком подавляющее количество.
avatar
Нужны, не нужны, люди покупают и будут покупать. Не у всех как у вас в голове сидит — «Как бы сэкономить лишние 100 баксов на устройстве, которое покупается в перспективе на 3-5 лет». К тому же всё банально просто, у всех свои потребности, условно тот же человек, который будет и стримить игры, или что монтировать, просто возьмёт Nvidia, из-за лучших энкоудеров, работы с софтом креативным, и прочем, в чём карточка Nvidia зачастую справиться лучше, даже не самая топовая. У Твича теперь вообще эксклюзивная фича для карт Нвидиа, стримить в 4К и других разрешениях в AV1 впридачу. Не всех волнует ФПС за доллар, видеокарта это не игровая консоль, но на этом ресурсе их воспринимают как таковых.
avatar
В тоже время у лучшего друга на этой карте на видеопамяти в играх до 105 градусов, и 94 на ядро, на новой из коробки)
avatar
По такой логике и красные заскамили своих покупателей, продав обычные 7000 рязани, и через несколько месяцев выпустив X3D версии. Что за двойные стандарты?