Автор не входит в состав редакции iXBT.com (подробнее »)
avatar
Люди выбивали шмотки в линейке и с куда более низкими шансами на выпадение)
avatar
Наверное должно было быть FeO + CO => Fe + CO2
avatar
Ну хоть бы ссылки дали на хорошие ресурсы по изучению языков. А то статья вообще ни о чём. В духе: руки надо мыть чтобы они были чистыми. Конец.
avatar
LLM это нейросети по угадыванию каждого следующего слова на основе контекста. Они обучены на огромных массивах данных, но эти модели не имеют внутри ни одного слова, на которых её обучили. Внутри они состоят из нейронов, каждый из которых имеет какое-то число с огромным количеством знаков после запятой. Так называемые веса. При обучении происходит распределение этих весов с помощью специальных функций. Это очень похоже на работу нейронов нашего мозга. Отличие только в том, что у нас есть несколько участков мозга, каждый из которых отвечает за какую-либо функцию. Что-то отвечает за хранение информации, что-то за анализ и критическое мышление, какие-то участки занимаются обработкой этой информации. А нейросети пока умеют только хранить информацию. Для того чтобы сделать их работу более похожую на работу человеческого мозга, необходимо добавить ещё несколько модулей в нейросети.
avatar
Так это одно и тоже)