Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Для узкоспециализированных устройств на микроконтроллерах, типа автоматики, станков, бытовой техники и т. п. ПО пишется индивидуально под устройство от и до, и всем до лампочки на глобальную картину и что там делают американцы.

Для прикладного ПО, о котором вы говорите, действительно важен вопрос распространенности и поддержки. Но в этой области превалирует использование высокоуровневых инструментов. Огромное количество софта не имеет ни малейшей привязки к конкретному железу в своей логике.

Да, разумеется компилятор написать придется (но это сильно проще, чем может показаться). Да, придется написать и драйвера (и это не будет ничем отличаться от текущей ситуации с Android). Но в остальном достаточно предоставить унифицированные API и с высокой долей вероятности приложение даже не сможет понять, что оно работает на другой архитектуре.

Прошли те времена, когда программы писали наглухо приколоченными к конкретной платформе типа Windows на x86. Сейчас все знают, что ОС минимум три, а архитектур минимум две. Ну добавится ещё парочка, эка невидаль.
avatar
Не будут. Intel снова запретили, а AMD с самого начала не разрешали (на процессоры Intel и Qualcomm была выдана отдельная лицензия, которую и отозвали).
avatar
Если речь идёт о флагманах, то у Xiaomi их только три: N, N Pro, N Ultra. А на глобальном рынке вообще в данный момент два.

Если считать все, то будет три флагмана и четыре классом пониже: NT, NT Pro, NT Ultra, N Lite, N, N Pro, N Ultra.

Не сильно больше чем у Apple с четырьмя флагманами и одним SE. Или Samsung с тремя флагманами и бесчисленным количеством телефонов любого ценового диапазона.

Включать ли сюда Redmi вопрос субъективный, смотря какой результат хочется получить. Samsung выпускает кучу моделей и ничего, все как-то разделяют S24 и остальные. Также никто обычно не мешает Oppo, Vivo, OnePlus и Realme в одну большую кучу, хотя это буквально то же самое, что Xiaomi и Redmi.
avatar
Если сделать «новый DIMM, просто выводов побольше», то это будет уже не DIMM, а например LPCAMM2 =). У разъема DIMM по вполне конкретным стандартам ровно 64 вывода на данные.

С этой точки зрения да, этот новый стандарт это что-то типа апгрейда DIMM.

Но выше речь шла о вполне конкретном SO-DIMM. И про распаянные чипы я упомянул в этом же контексте: почему распаивать может быть предпочтительнее, чем использовать конкретно SO-DIMM с его конкретным количеством линий, альтернатив которому до недавнего времени не было.
avatar
Ну какая разница, 2 плашки можно распаять на одной платке, собственно вот этот новый стандарт так и сделан
О том и речь, что можно две «плашки» распаять на одной плате, только это будет уже не DIMM. А если использовать DIMM то для аналогичной суммарной ширине шины данных потребуется использовать два или даже четыре разъема. Сам факт наличия этих разъемов и их конкретное количество добавляет искусственное ограничение, которого нет в случае распайки напрямую. Ну или в случае использования иного стандарта, да.
Вообще многоканал (4 и более) ничего при обычных задачах не даёт, поэтому и не используется, даже в серверах
Вот прямо недавно я тестировал сервер, в который можно было поставить самое разное количество памяти, и под целевой нагрузкой между двумя каналами и четырьмя была разница практически в два раза. Ну вот так вышло, что наше ПО уперлось в скорость памяти раньше, чем в скорость процессора.
avatar
Вы правы, я что-то упустил из виду что сейчас большинство «бытовых» процессоров поддерживают только dual channel и соответственно 128 бит. Не так уж давно десктопы умели в quad channel, а еще недавно на работе тестировали сервер с двумя и четырьмя плашками — это видимо и подкрепило впечатление что памяти можно насыпать сколько угодно.
не будет разницы, это память физически в 4х типовых модулях SODIMM или в одном новом модуле под 256 бит, или в 2х таких 128 битных модулях, или просто распаяна
А вот тут погодите. В разъеме DIMM есть только 64 пина под шину данных, не может быть модуля под 128 бит или 256 бит разом — их в одном разъеме просто некуда припаять. Передача всегда производится по 64 бита за один полутакт.

В том ведь и смысл каналов памяти, что это отдельные интерфейсы по 64 бита каждый, работающие параллельно с разными плашками. Так что в зависимости от процессора может быть очень большая разница между одним, двумя, четырьмя модулями и отсутствием каких-либо ограничений, причем четыре модуля в ноутбуках наверно вообще почти не встречались.
avatar
Практически любая современная платформа сожрет столько, сколько позволят. Также, любое устройство разрядится за время, равное отношению емкости батареи к потребляемой мощности.

То есть ничем тут маки не отличаются. Любой ноут высадит батарею за час если система охлаждения будет в состоянии рассеять столько мощности. Ноут под 100% нагрузкой не высадит батарею за час только в том случае, если он не в состоянии рассеять столько тепла. Какой при этом на нем шильдик не имеет ни малейшего значения.

Так что все, о чем нам говорит фраза «маки под нагрузкой рарядили за 50 минут» — это что у маков огого какая система охлаждения.
avatar
Да, плохо выразился. Я имел в виду что в случае распаиваемых чипов можно развести все линии от всех чипов, сколько бы их там ни было.

Чипы памяти DIMM могут иметь разную ширину шины данных и на модуле их может быть разное количество, но у разъема DIMM чисто физически есть только 64 линии для данных. Нельзя взять чипы с большим количеством линий или большее количество чипов, чем 64 линии в сумме. Можно взять два модуля и сделать двухканальную память, но и тогда получится 128 бит и все.

С распаиваемыми чипами очевидно такой проблемы нет. Можно взять восемь x32 чипов и за просто так устроить вдвое быструю память, чем двухканальный DIMM.
avatar
Хотя один модуль LPCAMM2 выглядит не сильно меньше модуля SO-DIMM, LPCAMM2 имеет ширину шины данных 128 бит, а DIMM только 64. То есть сравнивать габариты нужно минимум с двумя модулями SO-DIMM, а тут уже разница оказывается очень большой.

Кстати ширина шины это одна из причин почему распаянная память чаще быстрее съемной: у одного разъема SO-DIMM только 64 пина под данные и все, а от припаянного чипа можно развести все имеющиеся линии разом.
avatar
Все флагманы в ценовом диапазоне порядка $1000 и более — нормальные телефоны. Просто выбирай что больше нравится и все.

Пользовался почти всеми брендами кроме Apple (мне они не нравятся, но полно знакомых обожает, поэтому и айфоны тоже видел много и в подробностях). Все эти «ну не китай же брать» — просто проекция личных предубеждений и не более.
avatar
главной изюминкой которых, по слухам, является телеобъектив на 200 Мп с большим размером сенсора 1/1,4 дюйма
Если действительно так, то это будет круто. Но тот факт, что у конкурентов и с меньшим размером сенсора модуль камеры по габаритам уже ни в какие ворота, дает основания для скептицизма. Если Vivo вот так внезапно спроектировали оптику вдвое меньшего размера при всех прочих равных характеристиках — то зря они такой инженерный талант разменивают на какие-то там телефоны.

С 200 МП тоже интересный момент, правда конкретно Vivo тут ни причем. При размере сенсора 1/1.4" и оптике порядка f/2.0 диффракционный предел наступает примерно на 65 МП.
avatar
А что не так, у Xiaomi моделей телефонов примерно как у Apple. Все остальное это уже не Xiaomi, а Redmi =).
avatar
От всех. Довольно очевидно, что наиболее выигрышная стратегия это держаться как можно дальше от всех участников движения.

Я например вообще дома сижу.
avatar
Тут я с вами почти во всем согласен. Но выше я имел в виду несколько другое. Упомянутое мной ограничение разрешающей способности из-за диффракции — это жесткий физический предел, примерно как скорость света. Если для данной комбинации размера сенсора и апертуры предел порядка 60 МП, то никаким образом больше информации из сенсора не достать. Это не означает, что нельзя делать кроп или пытаться повышать разрешение за счет «сдвига матрицы», просто использование сенсора с разрешением более 60 МП оказывается избыточно.
если судить по вашим расчётам, от 200 Мп на 1х (23 мм) нет толку. Однако, используя «lossless» 2х (46 мм), с центральных 50 Мп я нахожу детализацию конечного кадра вполне нормальной
То есть в данном конкретном случае (f/2.0, 1/1.4") после 2x кропа остается примерно 16 МП. Вполне возможно, что эта детализация для большинства задач окажется приемлемой, в конце концов 4K это всего лишь 8 МП и, положа руку на ногу, этого вполне достаточно для бытовых-любительских фото.

Есть правда нюанс, что предел в 16 МП это прям вообще верхняя граница, после которой уже совсем все. Как я упоминал, диффракция начинает портить картинку еще задолго до этого, то есть даже эти 16 МП будут неидеального качества. Сколько там останется «качественных» мегапикселей сказать очень сложно, это в большой мере субъективно.
при съёмке в максимально возможном разрешении выводят изображение, которое выглядит, как апскейл с дефолтных 12 Мп. Однако, эти же смартфоны, при цифровом кропе (зуме) 2-3х, с этого же сенсора, выдают вполне сносную детализированную картинку
Тут целая куча разных не связанных друг с другом вещей.

До относительно недавнего времени подавляющее большинство смартфонов в принципе не умели делать «lossless» цифровой зум, там всегда брался обычный снимок уже относительно низкого разрешения, а потом он кропался и апскейлился приложением независимо от аппаратуры камеры. Сейчас SoC научились работать в режиме, когда им указывают что надо использовать только область сенсора. Но и в этом случае чаще всего получается, что lossless кроп просто чуть лучше чем тупой апскейл и до настоящего 2x очень сильно не дотягивает, потому что оптика не в состоянии честно отработать все родные ~50 МП сенсора.

А вот цифровой зум дальше заявленных характеристик камер (например дальше 5x) это отдельная история. Судя по тому, что я вижу, все смартфоны в этом случае включают режим жесточайшей экстраполяции вплоть до буквального дорисовывания. Справедливости ради, картинка чаще всего смотрится довольно опрятно, но к деталям лучше не приглядываться.

Иногда доходит до абсурда. Мой Xiaomi 14 Ultra может снимать в обычном разрешении, а может в исходных 50 МП. И вот уже просто при обычной съемке в 50 МП без зума, кропа и т. п. он начинает додумывать детали — например может превратить обычные горизонтальные жалюзи в окне в причудливый прямоугольный узор. Да, детализация в целом сильно выше, чем в обычном режиме, но оптики явно не хватает даже на исходные 50 МП, а с учетом самодеятельности телефона я уже не уверен что хочу детализацию такой ценой.
появится телефон, скажем, с парой 200 Мп, по одному на ультраширик 12 мм и 2х зум 46 мм.
Тут я снова повторяюсь, но нет, скорее всего это не получится. Например для ЭФР 35 мм придется кропнуть 12 мм в три раза, что при тех же исходных данных (камера порядка f/2.0, 1/1.4") оставит что-то около 6 МП (1/9 от ограниченных диффракцией 60 МП).

Мне кажется что 2x кроп приемлемого качества это все, что можно использовать на практике, а значит придется использовать привычные 2-3 модуля.

А Sony например наоборот, пытается поставить в смартфон привычный системным камерам настоящий оптический зум. Пока выходит так себе, но как знать, может в итоге у них получится лучше чем кроп.
avatar
Фраза, достойная какого-нибудь паблика, ну или вот сайта с новостями про авто.

В этой реальности полным-полно вещей, которые невозможны и хоть ты тресни.
avatar
Не знаю насколько вам это все интересно, но я уже завелся и так просто этот научно-образовательный локомотив не остановить =).

Упоминание объективов обычных камер заставило меня вспомнить еще один момент касаемо разрешения. Вообще, есть два ограничения разрешающей способности оптики. Первое довольно очевидное интуитивно — это качество исполнения. Ни для кого не будет удивительным, что более дешевый и/или менее качественный объектив выдает менее четкую картинку и при попытке кропать изображение можно просто получить мыло.

В соседнем комментарии я имел в виду что в мире обычных системных фотокамер объектив, на который можно снять 60 МП FF, а потом кропнуть 1.5x до 26 МП APS-C и как будто так и было — он один весит и стоит как целый флагман-камерофон. Это вызывает определенный скептицизм насчет разрешающей способности крошечной и более дешевой оптики смартфона. Эти опасения подтверждаются различными обзорами, где сравниваются фото в обычном режиме (12-24 МП), а потом в полном разрешении (обычно порядка 48 МП) и часто оказывается что в плане детализации между ними очень небольшая разница, если она вообще есть.

Но есть и еще один любопытный фактор, а именно чисто физический предел разрешающей способности оптики. В который несложно упереться даже на полнокадровой камере, а уж на крошечной камере смартфона должно быть и подавно.

Есть такая штука, которая называется «диск Эйри» (Airy disk) — это минимальный размер, который в принципе может сфокусировать оптика. И если кратко, он зависит только от фактической апертуры (f-числа) объектива, например для f/2.0 размер диска Эйри составляет ~2.7 мкм в диаметре. Чем больше f-число, тем больше размер диска Эйри и тем более ограничена в разрешении камера.

Это не совсем соответствует разрешению в плане пикселей один-к-одному, потому что пиксели квадратные, диск круглый и вообще немного сложнее чем просто один сплошной диск. Картинка начинает деградировать уже когда размер диска Эйри становится сопоставим с размером пикселя, а когда пиксели оказываются меньше примерно половины диаметра диска Эйри, они становятся буквально неразличимы. На практике картинка еще остается картинкой при размере диска Эйри порядка 2-3 размеров пикселя. Это получается низкоконтрастная, размытая картинка, но все еще что-то. При дальнейшем увеличении диска (или уменьшении пикселя) никакой новой информации не добавляется.

Давайте прикинем плюс-минус лапоть. Для оптики f/2.0, размера диска ~2.7 мкм и отсечки в 2-3 пикселя на диск получаем удобное для подсчетов число — один пиксель должен иметь площать ~1 кв. мкм, от пикселей меньшего размера уже не будет никакого толка.

200 МП сенсор в таком случае должен был бы иметь площать 200 млн кв. мкм, то есть попросту 200 кв. мм. Это, прямо скажем, дофига =). Сенсор размером 1" имеет площать всего 116 кв. мм, а ближайший из общеупотребимых — это Micro Four Thirds площадью 225 кв. мм. Сенсоров такого размера в телефонах не будет наверное никогда.

Или в обратную сторону, сенсор HP3 имеет размер 1/1.4" или 9.136 x 6.858 мм и соответственно площадь 62.6 кв. мм. Это означает что при использовании оптики f/2.0 с такого сенсора в принципе нельзя получить больше 62.6 МП (с четверти соответственно 15.7 МП).

Вывод — 200 МП в смарфонных камерах это ничего более, чем маркетинговый мухлеж. Никакими инженерными изысками не получится выжать из такого размера даже близко к 200 МП.

Выше я довольно произвольно взял значение апертуры f/2.0. В принципе, ситуация может быть лучше, ведь если взять меньшее f-число, то диск Эйри будет меньше и можно добиться большей разрешающей способности. Но, увы, не намного большей — при f/1.8 размер диска Эйри уменьшается лишь на 10% (2.37 мкм), при f/1.6 на 20% (2.11 мкм), но даже такая оптика это чрезвычайно редкий гость в смартфонах.
avatar
Берём любую часть этого же снимка, хоть левую, хоть правую и делаем произвольный кроп кадра
Про это я выше и говорил, вы берете снимок, потом кроп от него и дальше уже сравниваете мягкое с зеленым. Потому что боке это функция не только диафрагмы, но и фокусного расстояния тоже. Грубо говоря вы из пейзажного снимка делаете портретный и затем отмечаете, что на портретном боке выглядит больше.

Но речь всегда идет о функционально схожих сценариях, портрет так портрет. При съемке с одним и тем же ЭФР (будь то родные 240 мм S23U или кропнутые 240 мм X100U или что-то еще в том же духе) оба снимка будут изначально, в процессе съемки, кадрированы одинаковым образом. Что с кропом на X100U, что «без кропа» на S23U, на финальном изображении будет одна и та же сцена — а не почему-то в одном случае вся сцена целиком, а во втором только кусочек от нее.

Да, в этом случае на большую матрицу X100U будет спроецирована более широкая картинка — но и боке на этой картинке будет меньше, вот в чем фокус. Потому что это будет не то же самое изображение, а более широкоугольный снимок на более короткое фокусное расстояние. При кропе соответственно получится более портретный снимок на более длинное фокусное расстояние и, соответственно, больше боке. В точности такое же боке, как и в случае второго аппарата, у когорого на меньший сенсор сразу поместилась только та же самая часть изображения.

Выше я написал «без кропа» на S23U в кавычках потому что на самом деле нет никакой физической разницы между «оптическим» кропом разным размером сенсора и «цифровым» кропом полученного снимка после считывания с матрицы. Что сенсор меньшего размера возьмет только часть всей проецируемой объективом картинки, что вы лично руками возьмете из всей спроецированной объективом картинки только ее часть — между этими вариантами буквально нет никакой разницы. Там всегда и везде кроп.
Также, перископ X100U будет в разы более универсален
Полностью согласен, при сопоставимых характеристиках эквивалентной светосилы в граничных сценариях, вариант с большей матрицей и цифровым кропом выглядит куда более универсальным.

Дальше есть вопросы к тому, сможет ли такое вывезти оптика — например в мире «настоящих» камер объектив, способный разрешить изображение хотя бы 60 МП это недешевое удовольствие с внушительными массо-габаритными характеристиками. Что останется от качества картинки в случае крошечной смартфонной оптики? И упоминавшийся мною выше момент с объединением пикселей и цвета.
avatar
Хм, действительно я как-то упустил ряд уже готовых моделей. Google TPU (как, впрочем и любой TPU) это буквально тот самый ASIC, который я имел в виду.

Cerebras WSE и Intel Gaudi скорее всего то же самое, хотя что именно за архитектура там не очень понятно.

Но вот с A100 мимо, что и создало у меня впечатление что у большинства все еще просто переоборудованные видеокарты. nVidia A100 это обычные GPU архитектуры Ampere с кучей всего привычного, CUDA, кодеки, текстуры, ну и в том числе есть несколько Tensor Cores (эти ядра наверное можно считать небольшими ASIC, но я имел в виду прям все устройство как один большой акселератор одной конкретной задачи).

И вот если A100 все еще пользуются такой популярностью в ИИ, возникают подозрения что и у остальных могут быть, скажем так, не до конца специализированные решения. Потому что например в случае тех же хешей или DSP разница с самыми топовыми GPU была просто колоссальная, ни о каком паритете и речи не шло.
avatar
Слегка переделанные видеокарты это не совсем то. Я имею в виду принципиально другое, изначально под конкретную задачу спроектированное оборудование. Те самые ASIC, которые стали прочно ассоциироваться с майнингом, хотя это просто Application-Specific Integrated Circuit. Те, робкие пробники которых только начинают ставить в разные мобильные SoC и новые iGPU.
avatar
Они отключат HT, чтобы следовать новой идеологии и не провоцировать неудовольствия покупателей старших моделей?
Оно и без новой идеологии раньше было, что i3 с HT, а i5 без.