Для работы проектов iXBT.com нужны файлы cookie и сервисы аналитики.
Продолжая посещать сайты проектов вы соглашаетесь с нашей
Политикой в отношении файлов cookie
Тут видимо дело в том, что у AMD ножки в сокетах продержались гораздо дольше, поэтому память такая. А у Интела история с ножками закончилась на 370м сокете.
Ну что вы так, ясно же в проходе стоят — маршрутка ведь. Иначе там 15 в салоне + 2 у водителя, максимум 17 получается, но 19 это такой же бред маркетологов завода, как и семейный автомобиль.
По опыту межгорода на обычных автобусах — при попытке хоть что-то положить на верхнюю полку водитель орет — убрать вещи!
В лучшем случае разрешается куртки туда кидать.
А тут не они походу. Это не полнотелые блоки из вспененного бетона. Судя по описанию, похоже на пустотелый блок с нормальной плотностью и прочностью стенок и пеной внутри.
Не, ну справедливости ради ножки у Атлонов таки гнулись. Но как гнулись, так и обратно пластиковой карточкой выгибались.
Гораздо прикольнее было при ремонте и апгрейде с сокета снимать кулер с намертво прилипшим процессором. Но опять же ножки это дело переносили.
А это еще хуже, там где-то 5 годовых доходов отца семейства надо отдать. Учитывая, что мама в это время с детьми нянчится (семья ж многодетная), это вообще нереальная покупка.
Платежеспособный спрос равен нулю.
Причем еще в начале 2000-х. У меня Thermaltake Xaser III Big Tower, там поперечная вертикальная планка с регулируемым крепежом для подпорок длинных карт. Аналогично у Inwin и Chieftech было. Эх, какие корпуса были…
Ну к примеру нейронки вытягивают картинку меньшего уровня 720p до разрешения 4k и делают это вполне качественно, сравнимо с ее нативной отрисовкой или фотографией в разрешении 4k.
Если этот процесс можно сделать ощутимо быстрее, чем рендеринг в родном разрешении — то почему нет? И уж точно при повышении разрешения нет потерь качества, в худшем случае оно остается как было.
Как вариант, планируется реализовать давно обсуждаемую идею бесшовного супер-сервиса. Чтоб никаких там магазинов приложений и т.п. Одна мега-платформа от единого поставщика.
Тяжелые и неудобные, поэтому не зашли в итоге. Так чтобы аналогично обычным очкам выглядели и с хорошим качеством изображения пока вариантов нет.
Плюс ко всему таскать что-то перед глазами на носу не очень удобно.
Вы что, думаете тут никто не понимает, что ИИ — формальное название?
Речь выше шла о том, что дескать шлифовали десятилетиями и до сих пор шлифуют некие правила перевода, «жесткие» алгоритмы. Но это не так. Когда по такому пути развивали переводчики, то в какой-то момент уперлись в то, что не могут справиться со сложностью языковой модели, плюс еще финансовые вложения в ЗП лингвистов и т.п. принимали угрожающие размеры.
Поэтому в какой-то момент на «жесткие» алгоритмы забили, положившись на самостоятельный анализ данных и выявление закономерностей нейросетью. Да, внутри тоже алгоритм, но без жестких правил и шаблонов. Он сам выстраивает модели и связи, нужна только исходная информация, на которой его можно «обучить». Поэтому ИИ.
Можно старый вариант сравнить с человеком, который языка не знает, а перевод делает со словарем на листочке. Слова выписал, примерно прикинул как они на родном языке должны идти, предложение составил. Получилось коряво, но смысл понятен. А вариант с нейросетью — это человек, который язык знает. Он предложение прочитал, смысл понял, связное предложение в голове сложилось и потом на своём языке красиво написал.
Чего непонятного-то?
До сих пор с МКС устраивались «сеансы» связи — это всё равно что межгород времен 90-х:
— девушка, мне пожалуйста Москву
— все линии перегружены, поэтому я вас в очередь поставлю, ближайшее время через 1,5 часа, у вас 5 минут будет.
А теперь видать комплект Старлинка закинут, хоть интернет нормальный у людей будет.
Тут есть некоторые ньюансы — раньше это действительно должен был быть алгоритм.
То есть для переводчика — берем слово, к нему расписываем значения, модель и т.п. И потом по аналогичной модели собираем текст на другом языке. А теперь можно с минимальной обработкой скормить нейросетке результаты работы профессиональных переводчиков и на выходе получить систему, способную качественно переводить тексты не фокусируясь на значении слов и правилах грамматики.
То же самое и с распознаванием/синтезом речи. Раньше это был набор аудио-фрагментов, которые разбирались из записи в текст или собирались воедино из текста, а качество в основном зависело от глубины анализа текста — где ударения поставить, начало-окончание предложения и т.п. и величины аудиобазы. Сейчас можно загнать тексты+аудио в нейросеть и на выходе получить систему, способную читать тексты не хуже профессионального диктора, не имея при этом ни одного заранее заложенного правила анализа текста.
Ну плюс-минус лапоть, однако проблема не в этом. Проблема в том, что под соусом всякой «переработки» и «зеленой» повестки мы все начинаем платить больше. А любые реальные цифры всячески скрываются, прикрываясь вот такими вот ура-пресс-релизами.
Вот вы видите сверхзвуковой пассажирский самолет? А он есть...
Печалька в том, что собственно если кому-то сильно нужен бизнес-джет, способный долететь от Москвы до Дальнего Востока за 3 часа, то он мог бы с военными договориться, поди адаптировали какой-нибудь передовой агрегат для этих целей.
Но реальность такова, что это вот вообще никому никак не нужно…
Да нет, там цифры ведь вполне конкретно называются, 80 тыс. жителей это приличный район города. Другое дело, что хотелось бы не только красивых цифр «сколько поставили», а общий КПД и конечную стоимость этого электричества.
А то может оказаться, что всё это экономически вообще никак не выгодно и может существовать только на субсидиях и дотациях.
В лучшем случае разрешается куртки туда кидать.
Гораздо прикольнее было при ремонте и апгрейде с сокета снимать кулер с намертво прилипшим процессором. Но опять же ножки это дело переносили.
Платежеспособный спрос равен нулю.
Если этот процесс можно сделать ощутимо быстрее, чем рендеринг в родном разрешении — то почему нет? И уж точно при повышении разрешения нет потерь качества, в худшем случае оно остается как было.
Плюс ко всему таскать что-то перед глазами на носу не очень удобно.
Речь выше шла о том, что дескать шлифовали десятилетиями и до сих пор шлифуют некие правила перевода, «жесткие» алгоритмы. Но это не так. Когда по такому пути развивали переводчики, то в какой-то момент уперлись в то, что не могут справиться со сложностью языковой модели, плюс еще финансовые вложения в ЗП лингвистов и т.п. принимали угрожающие размеры.
Поэтому в какой-то момент на «жесткие» алгоритмы забили, положившись на самостоятельный анализ данных и выявление закономерностей нейросетью. Да, внутри тоже алгоритм, но без жестких правил и шаблонов. Он сам выстраивает модели и связи, нужна только исходная информация, на которой его можно «обучить». Поэтому ИИ.
Можно старый вариант сравнить с человеком, который языка не знает, а перевод делает со словарем на листочке. Слова выписал, примерно прикинул как они на родном языке должны идти, предложение составил. Получилось коряво, но смысл понятен. А вариант с нейросетью — это человек, который язык знает. Он предложение прочитал, смысл понял, связное предложение в голове сложилось и потом на своём языке красиво написал.
До сих пор с МКС устраивались «сеансы» связи — это всё равно что межгород времен 90-х:
— девушка, мне пожалуйста Москву
— все линии перегружены, поэтому я вас в очередь поставлю, ближайшее время через 1,5 часа, у вас 5 минут будет.
А теперь видать комплект Старлинка закинут, хоть интернет нормальный у людей будет.
То есть для переводчика — берем слово, к нему расписываем значения, модель и т.п. И потом по аналогичной модели собираем текст на другом языке. А теперь можно с минимальной обработкой скормить нейросетке результаты работы профессиональных переводчиков и на выходе получить систему, способную качественно переводить тексты не фокусируясь на значении слов и правилах грамматики.
То же самое и с распознаванием/синтезом речи. Раньше это был набор аудио-фрагментов, которые разбирались из записи в текст или собирались воедино из текста, а качество в основном зависело от глубины анализа текста — где ударения поставить, начало-окончание предложения и т.п. и величины аудиобазы. Сейчас можно загнать тексты+аудио в нейросеть и на выходе получить систему, способную читать тексты не хуже профессионального диктора, не имея при этом ни одного заранее заложенного правила анализа текста.
Печалька в том, что собственно если кому-то сильно нужен бизнес-джет, способный долететь от Москвы до Дальнего Востока за 3 часа, то он мог бы с военными договориться, поди адаптировали какой-нибудь передовой агрегат для этих целей.
Но реальность такова, что это вот вообще никому никак не нужно…
А то может оказаться, что всё это экономически вообще никак не выгодно и может существовать только на субсидиях и дотациях.