Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Что значит зачем? Корпуса и вообще системы сами себя не продадут!
Так ты, нехороший человек, купил какой-нибудь Zalman, Chieftech, Inwin лет 15 назад и довольный с ним сидишь — у тебя в нем места много, ничего никуда не упирается, всё продумано… Но производитель же страдает, ты больше ничего не покупаешь, а зачем нам такой потребитель? Правильно, незачем!
Поэтому надо поменять стандарт материнской платы и видеокарты заодно, чтоб ты не мог их туда физически больше вставить!
Тут видимо дело в том, что у AMD ножки в сокетах продержались гораздо дольше, поэтому память такая. А у Интела история с ножками закончилась на 370м сокете.
Ну что вы так, ясно же в проходе стоят — маршрутка ведь. Иначе там 15 в салоне + 2 у водителя, максимум 17 получается, но 19 это такой же бред маркетологов завода, как и семейный автомобиль.
По опыту межгорода на обычных автобусах — при попытке хоть что-то положить на верхнюю полку водитель орет — убрать вещи!
В лучшем случае разрешается куртки туда кидать.
А тут не они походу. Это не полнотелые блоки из вспененного бетона. Судя по описанию, похоже на пустотелый блок с нормальной плотностью и прочностью стенок и пеной внутри.
Не, ну справедливости ради ножки у Атлонов таки гнулись. Но как гнулись, так и обратно пластиковой карточкой выгибались.
Гораздо прикольнее было при ремонте и апгрейде с сокета снимать кулер с намертво прилипшим процессором. Но опять же ножки это дело переносили.
А это еще хуже, там где-то 5 годовых доходов отца семейства надо отдать. Учитывая, что мама в это время с детьми нянчится (семья ж многодетная), это вообще нереальная покупка.
Платежеспособный спрос равен нулю.
Причем еще в начале 2000-х. У меня Thermaltake Xaser III Big Tower, там поперечная вертикальная планка с регулируемым крепежом для подпорок длинных карт. Аналогично у Inwin и Chieftech было. Эх, какие корпуса были…
Ну к примеру нейронки вытягивают картинку меньшего уровня 720p до разрешения 4k и делают это вполне качественно, сравнимо с ее нативной отрисовкой или фотографией в разрешении 4k.
Если этот процесс можно сделать ощутимо быстрее, чем рендеринг в родном разрешении — то почему нет? И уж точно при повышении разрешения нет потерь качества, в худшем случае оно остается как было.
Как вариант, планируется реализовать давно обсуждаемую идею бесшовного супер-сервиса. Чтоб никаких там магазинов приложений и т.п. Одна мега-платформа от единого поставщика.
Тяжелые и неудобные, поэтому не зашли в итоге. Так чтобы аналогично обычным очкам выглядели и с хорошим качеством изображения пока вариантов нет.
Плюс ко всему таскать что-то перед глазами на носу не очень удобно.
Вы что, думаете тут никто не понимает, что ИИ — формальное название?
Речь выше шла о том, что дескать шлифовали десятилетиями и до сих пор шлифуют некие правила перевода, «жесткие» алгоритмы. Но это не так. Когда по такому пути развивали переводчики, то в какой-то момент уперлись в то, что не могут справиться со сложностью языковой модели, плюс еще финансовые вложения в ЗП лингвистов и т.п. принимали угрожающие размеры.
Поэтому в какой-то момент на «жесткие» алгоритмы забили, положившись на самостоятельный анализ данных и выявление закономерностей нейросетью. Да, внутри тоже алгоритм, но без жестких правил и шаблонов. Он сам выстраивает модели и связи, нужна только исходная информация, на которой его можно «обучить». Поэтому ИИ.
Можно старый вариант сравнить с человеком, который языка не знает, а перевод делает со словарем на листочке. Слова выписал, примерно прикинул как они на родном языке должны идти, предложение составил. Получилось коряво, но смысл понятен. А вариант с нейросетью — это человек, который язык знает. Он предложение прочитал, смысл понял, связное предложение в голове сложилось и потом на своём языке красиво написал.
Чего непонятного-то?
До сих пор с МКС устраивались «сеансы» связи — это всё равно что межгород времен 90-х:
— девушка, мне пожалуйста Москву
— все линии перегружены, поэтому я вас в очередь поставлю, ближайшее время через 1,5 часа, у вас 5 минут будет.
А теперь видать комплект Старлинка закинут, хоть интернет нормальный у людей будет.
Тут есть некоторые ньюансы — раньше это действительно должен был быть алгоритм.
То есть для переводчика — берем слово, к нему расписываем значения, модель и т.п. И потом по аналогичной модели собираем текст на другом языке. А теперь можно с минимальной обработкой скормить нейросетке результаты работы профессиональных переводчиков и на выходе получить систему, способную качественно переводить тексты не фокусируясь на значении слов и правилах грамматики.
То же самое и с распознаванием/синтезом речи. Раньше это был набор аудио-фрагментов, которые разбирались из записи в текст или собирались воедино из текста, а качество в основном зависело от глубины анализа текста — где ударения поставить, начало-окончание предложения и т.п. и величины аудиобазы. Сейчас можно загнать тексты+аудио в нейросеть и на выходе получить систему, способную читать тексты не хуже профессионального диктора, не имея при этом ни одного заранее заложенного правила анализа текста.
Ну плюс-минус лапоть, однако проблема не в этом. Проблема в том, что под соусом всякой «переработки» и «зеленой» повестки мы все начинаем платить больше. А любые реальные цифры всячески скрываются, прикрываясь вот такими вот ура-пресс-релизами.
Вот вы видите сверхзвуковой пассажирский самолет? А он есть...
Печалька в том, что собственно если кому-то сильно нужен бизнес-джет, способный долететь от Москвы до Дальнего Востока за 3 часа, то он мог бы с военными договориться, поди адаптировали какой-нибудь передовой агрегат для этих целей.
Но реальность такова, что это вот вообще никому никак не нужно…
Так ты, нехороший человек, купил какой-нибудь Zalman, Chieftech, Inwin лет 15 назад и довольный с ним сидишь — у тебя в нем места много, ничего никуда не упирается, всё продумано… Но производитель же страдает, ты больше ничего не покупаешь, а зачем нам такой потребитель? Правильно, незачем!
Поэтому надо поменять стандарт материнской платы и видеокарты заодно, чтоб ты не мог их туда физически больше вставить!
В лучшем случае разрешается куртки туда кидать.
Гораздо прикольнее было при ремонте и апгрейде с сокета снимать кулер с намертво прилипшим процессором. Но опять же ножки это дело переносили.
Платежеспособный спрос равен нулю.
Если этот процесс можно сделать ощутимо быстрее, чем рендеринг в родном разрешении — то почему нет? И уж точно при повышении разрешения нет потерь качества, в худшем случае оно остается как было.
Плюс ко всему таскать что-то перед глазами на носу не очень удобно.
Речь выше шла о том, что дескать шлифовали десятилетиями и до сих пор шлифуют некие правила перевода, «жесткие» алгоритмы. Но это не так. Когда по такому пути развивали переводчики, то в какой-то момент уперлись в то, что не могут справиться со сложностью языковой модели, плюс еще финансовые вложения в ЗП лингвистов и т.п. принимали угрожающие размеры.
Поэтому в какой-то момент на «жесткие» алгоритмы забили, положившись на самостоятельный анализ данных и выявление закономерностей нейросетью. Да, внутри тоже алгоритм, но без жестких правил и шаблонов. Он сам выстраивает модели и связи, нужна только исходная информация, на которой его можно «обучить». Поэтому ИИ.
Можно старый вариант сравнить с человеком, который языка не знает, а перевод делает со словарем на листочке. Слова выписал, примерно прикинул как они на родном языке должны идти, предложение составил. Получилось коряво, но смысл понятен. А вариант с нейросетью — это человек, который язык знает. Он предложение прочитал, смысл понял, связное предложение в голове сложилось и потом на своём языке красиво написал.
До сих пор с МКС устраивались «сеансы» связи — это всё равно что межгород времен 90-х:
— девушка, мне пожалуйста Москву
— все линии перегружены, поэтому я вас в очередь поставлю, ближайшее время через 1,5 часа, у вас 5 минут будет.
А теперь видать комплект Старлинка закинут, хоть интернет нормальный у людей будет.
То есть для переводчика — берем слово, к нему расписываем значения, модель и т.п. И потом по аналогичной модели собираем текст на другом языке. А теперь можно с минимальной обработкой скормить нейросетке результаты работы профессиональных переводчиков и на выходе получить систему, способную качественно переводить тексты не фокусируясь на значении слов и правилах грамматики.
То же самое и с распознаванием/синтезом речи. Раньше это был набор аудио-фрагментов, которые разбирались из записи в текст или собирались воедино из текста, а качество в основном зависело от глубины анализа текста — где ударения поставить, начало-окончание предложения и т.п. и величины аудиобазы. Сейчас можно загнать тексты+аудио в нейросеть и на выходе получить систему, способную читать тексты не хуже профессионального диктора, не имея при этом ни одного заранее заложенного правила анализа текста.
Печалька в том, что собственно если кому-то сильно нужен бизнес-джет, способный долететь от Москвы до Дальнего Востока за 3 часа, то он мог бы с военными договориться, поди адаптировали какой-нибудь передовой агрегат для этих целей.
Но реальность такова, что это вот вообще никому никак не нужно…