Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Если Вы прочитаете книгу про теорию летающие машины, сделаете заметки, которые продвинут науку по ней — то есть шанс.
А так — почитайте историю что ли, можете и ее работы в контексте работ Бэйбиддджа тоже почитать, можете сделать свое альтернативное от общепризнанного толкование с доказательством и оспорить ее вклад, если так хотите.
p.s. и чтоб вы понимали, ее вклад признан очень давно (язык Ада появился в 80-х, как этакое признание заслуг, например) и с этим кажется никто из ученых не спорит, но Вы всегда можете стать первым.
Математик, считается первым в мире программистом*, работала вместе с Чарльзом Бэббиджем над его теоретическим описаниям аналитических машин. Особенно отличилась тем, что переводя статью Луиджи Манабреы по этой тематике и снабдила ее комментариями более обширными, чем изначальная работа (в том числе в них как раз и была первая опубликованная программа).
Ну и всякие мелочи, типа того что она в отличии от Бэббиджа видела в аналитической машине нечто большее, чем просто сложные механизированные счеты (в своих записках она считала что в будущем, эти машины научаться создавать формулы, писать музыку и картины, например).
* — в том смысле, что в своих комментариях к работе Манабреы, ею был приведен алгоритм специально составленный с учетом его реализации на реальном машине, а также эти заметки были опубликованы.
Если Вы считаете, что Ада Лавлейс не является нормальным ученым, то нет лучшего способа это показать чем избавиться от всех вещей, которые базируются на ее работах. Впрочем тогда Вам не с чего будет писать здесь комментарии…
Мне кажется, что не в менеджерах дело, а в первую очередь в позиционировании. То что делало ее хорошей для пользователей, делало ее очень плохой для разработчиков. А без софта она была обречена.
Тут дело в том, что про архитектуру сервиса данных маловато, поэтому совсем не факт, что легко будет поправить текущие проблем. Ну и скорость это не все — нужно чтобы людям было удобно, чтобы нужный набор фич был и, самое главное, чтобы о нем знали и помнили в хорошем контексте.
Не совсем, по их словам они его накатывают только для процессоров у которых меньше 8 ядер. Так что просто доработали библиотеку под нагрузку игры. Хотя конечно патч давал прирост на старых райзенах примерно всегда.
Там была история с тем, что они взяли открытую библиотеку, где был баг который для ryzen'ов возвращал количество доступных потоков вдвое меньше (точнее там «фича» для бульдозера была, которая из за бага срабатывала и для райзенов)
Звучит как «у меня проблемы нет, но когда появляется я не исправляю вот так». Как то сами себе противоречите буквально в соседних предложениях.
P.s. ну и стоит понимать, что «часто возникает» — это может значить что каждый 10000ый подвержен этой проблеме, что на масштабах продаж приставок заметно для компании, но для пользователя шанс наткнуться на проблему все ещё низок.
Скорее наоборот, но Ваше право считать как Вам удобно. А дискуссии у нас не получится скорее всего, как минимум потому что с терминологией у Вас не очень, а значит нельзя быть уверенным что Вы в принципе понимаете о чем говорите.
Ну и также читайте лучше что ли что Вам пишут, а то Вы мне приписываете еще утверждения, которые я не делал, а это очень некрасиво с Вашей стороны.
Конкретно, но не корректно. Подучите матчасть что ли...
M1 это НЕ ПЛАТА (точнее не более плата, чем упомянутый в статье Core i9 11900k, Ryzen 5800X и прочие процессоры).
По поводу «легко расположить 8 ядерный процессор и 32 Гб рам, попробуйте 64 ядра и 128 Гб и мощную видеокарту» — расположение на материнской плате таких вещей чисто схемотехническая задача, хорошо понятная и решаемая. Никакой проблемы масштабирования тут не возникает.
Проблема масштабирования — это создание многоядерного процессора и тут Apple по слухам ведет работу над такими. Ну и вопрос к контроллеру памяти, чтобы он поддерживал указанные объемы памяти, но это уже мелочь.
Так M1 это более жирный вариант A14, а до него был A13, A12 и так далее. Несколько поколений своих процессоров уже и в целом можно делать выводы.
Ну и «М1 — это вовсе не процессор, а плата с близко расположенными компонентами: проц+память+видео» — это не более корректно, чем то же заявление о любом другом процессоре.
Потому что автор не почитал объяснения, которое предоставлено в комментариях в оригинале.
Там сказано примерно следующее:
SAM это в целом именно BAR Resize который в спеках PCIe со времен 2.0 есть. Проблема в другом — что в текущих драйверах для каких-то дополнительных операций при включении SAM (гипотеза в том что конвертация представления для тестур, чтобы они сразу были в нужном виде, см. кривую Мортона) на AMDшных картах задействуются pext и pdep из avx2, но при этом на старых AMDшных процессорах они были реализованы не в железе, а на уровне микрокода и поэтому по разным тестам вместо 1 такта занимали от 18 до 250 тактов (18 на википедии, 250 в тестах anandtech). Теоретически никто не мешает использовать BAR Resize без этого, но прирост будет не такой значительный. Также как никто не мешает для преобразования данных сделать более шустрый алгоритм и получить часть прироста производительности, но проще просто напросто не делать ничего. К тому же для nvidia'вских карт это не так чтоб важно (исторически им чуть более плевать на оптимальность представления).
Впрочем это все некоторые догадки о том зачем такое может быть нужно и насколько все так — вопрос хороший.
Тут правильнее посмотреть по тестам. Есть M1 который в однопотоке в тестах потребляет порядка 15 Вт (Mac Mini) в пике (вся железка целиком, так как замеры на уровне розетки). Есть с другой стороны Ryzen 5950X который на строго однопоточной нагрузке потребляет 49 Вт (цпу целиком, включая кэш, I/O Die и т.п.) при этом по синетическим тестам они показывают сопоставимую производительность в однопоточном режиме.
Так то да, можно сделать энергоэффективный ноутбук на интелах или амдшках, который будет жить долго, но только в ряде тестов M1 показывает примерно втрое более лучшую производительность на Ватт. Поэтому он сейчас так и привлек внимание людей.
На Anandtech'е разбор достаточно подробный именно в плане низкоуровневых тестов. Чуть больше теоретических деталей было в статье где анализировали A14: https://www.anandtech.com/show/16226/apple-silicon-m1-a14-deep-dive/2
И если им верить, то у Apple просто очень жирный процессор во всем — много кэша, жирный декодер, много АЛУ, большой Reorder Buffer и просто в целом хорошо спроектирован он (задержки кэшей лучше чем у x86, например, при большем их размере, что достаточно сложно получить). И никакой в общем-то магии.
Правда все это базируется на анализе кучи тестов, так как эпл детали про микроархитектуру не публикует.
На это тоже есть ответ: https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested
График в секции «Memory Differences». Для RAM там 90 с небольшим ns в full random против ~80 у Zen 3 или ~70 у i9-10900k при использовании стандартной DDR4-3200 CL15 (из статей с того же anandtech)
А так — почитайте историю что ли, можете и ее работы в контексте работ Бэйбиддджа тоже почитать, можете сделать свое альтернативное от общепризнанного толкование с доказательством и оспорить ее вклад, если так хотите.
p.s. и чтоб вы понимали, ее вклад признан очень давно (язык Ада появился в 80-х, как этакое признание заслуг, например) и с этим кажется никто из ученых не спорит, но Вы всегда можете стать первым.
Ну и всякие мелочи, типа того что она в отличии от Бэббиджа видела в аналитической машине нечто большее, чем просто сложные механизированные счеты (в своих записках она считала что в будущем, эти машины научаться создавать формулы, писать музыку и картины, например).
* — в том смысле, что в своих комментариях к работе Манабреы, ею был приведен алгоритм специально составленный с учетом его реализации на реальном машине, а также эти заметки были опубликованы.
P.s. ну и стоит понимать, что «часто возникает» — это может значить что каждый 10000ый подвержен этой проблеме, что на масштабах продаж приставок заметно для компании, но для пользователя шанс наткнуться на проблему все ещё низок.
Ну и также читайте лучше что ли что Вам пишут, а то Вы мне приписываете еще утверждения, которые я не делал, а это очень некрасиво с Вашей стороны.
M1 это НЕ ПЛАТА (точнее не более плата, чем упомянутый в статье Core i9 11900k, Ryzen 5800X и прочие процессоры).
По поводу «легко расположить 8 ядерный процессор и 32 Гб рам, попробуйте 64 ядра и 128 Гб и мощную видеокарту» — расположение на материнской плате таких вещей чисто схемотехническая задача, хорошо понятная и решаемая. Никакой проблемы масштабирования тут не возникает.
Проблема масштабирования — это создание многоядерного процессора и тут Apple по слухам ведет работу над такими. Ну и вопрос к контроллеру памяти, чтобы он поддерживал указанные объемы памяти, но это уже мелочь.
Ну и «М1 — это вовсе не процессор, а плата с близко расположенными компонентами: проц+память+видео» — это не более корректно, чем то же заявление о любом другом процессоре.
Там сказано примерно следующее:
SAM это в целом именно BAR Resize который в спеках PCIe со времен 2.0 есть. Проблема в другом — что в текущих драйверах для каких-то дополнительных операций при включении SAM (гипотеза в том что конвертация представления для тестур, чтобы они сразу были в нужном виде, см. кривую Мортона) на AMDшных картах задействуются pext и pdep из avx2, но при этом на старых AMDшных процессорах они были реализованы не в железе, а на уровне микрокода и поэтому по разным тестам вместо 1 такта занимали от 18 до 250 тактов (18 на википедии, 250 в тестах anandtech). Теоретически никто не мешает использовать BAR Resize без этого, но прирост будет не такой значительный. Также как никто не мешает для преобразования данных сделать более шустрый алгоритм и получить часть прироста производительности, но проще просто напросто не делать ничего. К тому же для nvidia'вских карт это не так чтоб важно (исторически им чуть более плевать на оптимальность представления).
Впрочем это все некоторые догадки о том зачем такое может быть нужно и насколько все так — вопрос хороший.
Так то да, можно сделать энергоэффективный ноутбук на интелах или амдшках, который будет жить долго, но только в ряде тестов M1 показывает примерно втрое более лучшую производительность на Ватт. Поэтому он сейчас так и привлек внимание людей.
И если им верить, то у Apple просто очень жирный процессор во всем — много кэша, жирный декодер, много АЛУ, большой Reorder Buffer и просто в целом хорошо спроектирован он (задержки кэшей лучше чем у x86, например, при большем их размере, что достаточно сложно получить). И никакой в общем-то магии.
Правда все это базируется на анализе кучи тестов, так как эпл детали про микроархитектуру не публикует.
График в секции «Memory Differences». Для RAM там 90 с небольшим ns в full random против ~80 у Zen 3 или ~70 у i9-10900k при использовании стандартной DDR4-3200 CL15 (из статей с того же anandtech)