Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Накрутка статистики продаж?
avatar
Третий кадр намекает
avatar
Long если только
avatar
В Китае в 2004 6 млн, в 2014 — 24 млн, в 2024 31 млн. Медленно??
Но положим, рынок какой-нибудь Ваканды растёт быстрее, с тысячи до 5 тыс новых авто в год! Как АвтоВАЗ там будет побеждать китайцев? За счёт чего?
avatar
ЕС активно давало деньги на любые «зелёные» технологии. Но если для электричек батареи и инфраструктура по мере роста масштаба дешевеет, то водородная оказалась таки застрявшей на уровне «трындец как дорого».
avatar
5.1 метр и 3+ метра базы это далеко не пассат, как ни поверни
avatar
Три крупнейших авторынка мира — Европа, США и Китай. С Запада — санкции, а в Китае лады никому нафиг не сдались, какую цену ни поставь. Это где-то 55-60 млн из 80 млн ежегодно продаваемых новых авто.
А на остальных рынках, сюрприз, надо опять конкурировать с европейскими, американскими и китайскими производителями. В т.ч. по цене. И как это делать без прикрытия утильсбором?
avatar
Запрещёнка, кстати
avatar
Вы уж определитесь, это тупой поисковик или всемогущий надмозг?
avatar
Я вас огорчу, но даже дубовый джун кодит сильно лучше среднего человека. А уж дебажит она вообще любо-дорого.
А работают нейроны просто, пачка сигналов на входе, один на выходе. У первого слоя входные сигналы — токены входного текста, у последнего — вектор следующего токена. Никакой магии. Кроме того, что с миллиардами параметров она начинает проходить тест китайской комнаты.
avatar
В очень широком смысле если только. В котором на wetware тоже код работает.
avatar
Отвечает GPT-4.5: «Конечно, не пошутит. Он сразу скажет: „Шлем заказан на Ozon, автомобиль — на Авито, пиджак — на Wildberries, маршрут до Ялты построен“.»
avatar
Именно что. Это совсем не «поиск в интернете»
Вот прошлогодние задачки (с решениями, осторожно): https://www.imo-official.org/problems/IMO2024SL.pdf
avatar
Нет, БЯМ не перебирают варианты. И нет, БЯМ пишут код _намного_ лучше среднего человека. А если ей дать доступ к документации и среде исполнения, то и лучше среднего джуниора.
avatar
Как мониторить-то? У СоТ моделей можно промежуточные результаты сохранять, а у «атомарных» как?
avatar
Оценка _доверия_ ничего не говорит о качествах самой технологии.
И по вашей ссылке особо оговаривается, что в других случаях (если человек не знаком с кодом, или если код пишется с нуля, или если проект меньше) ииинструменты таки полезны. А также, что при условии сохранения темпов развития, и остаток кейсов тоже покроется.
Как из этого можно делать вывод, что это абсолютно тупой топор — я хз. Хотя, конечно, если пытаться дерево срубить бензопилой…
avatar
Буквально на днях появилась новость, что экспериментальная модель OpenAI хоть и впритык, но набрала достаточно баллов на «золото» в задачах мировой олимпиады по математике. Задачи такого уровня это не просто переформулировка из решебника, там нужно очень мощные мозги иметь.
И, что особенно интересно, они утверждают, что это модель общего назначения, а не натасканная специально на математику или олимпиадные задачи. Просто ей думать разрешили подольше.
avatar
Смотря какая модель, смотря с какими инструментами.
Так-то и человеку за полчаса написать 500 строк кода без единой ошибки сложновато.
avatar
Нет, это ML, которое активно используется уже лет 10. А вот если входные данные неструктурированы — это уже интереснее.
avatar
Так там нет ни набора правил, ни перебора.