Искусственный интеллект – всего лишь иллюзия? Исследование Apple ставит под сомнение способности искусственного интеллекта
В последние годы стремительное развитие больших языковых моделей (LLM), таких как нашумевший ChatGPT, вызывает неподдельный интерес и восхищение. Их способность связно и грамматически корректно поддерживать диалог, переводить языки и даже писать программный код поражает воображение. В этой связи закономерно возникает вопрос: не являются ли LLM проявлением настоящего искусственного интеллекта, способного мыслить на уровне человека?
Исследователи из компании Apple решили подвергнуть эту гипотезу тщательной проверке, обратившись к фундаментальному атрибуту человеческого разума — способности к логическому мышлению. В своей работе, опубликованной на платформе препринтов arXiv, они представляют результаты исследования, которые ставят под сомнение «интеллектуальность» современных LLM, демонстрируя их уязвимость к простым, на первый взгляд, логическим ловушкам.
В основе исследования лежит предположение о том, что разумное существо обладает способностью дифференцировать информацию, отделяя существенное от второстепенного и концентрируясь на релевантных данных. Эта способность иллюстрируется классическим примером: ребенок спрашивает, сколько яблок в сумке, упоминая, что некоторые из них слишком малы. И ребенок, и взрослый понимают, что размер яблок не влияет на их количество — это элементарное логическое умозаключение, доступное любому человеку.
Исследователи из Apple поставили перед LLM аналогичную задачу. Они задавали им вопросы, которые уже использовались для оценки их способностей, но с добавлением нерелевантной информации, так называемого «информационного шума». Результаты оказались неожиданными: даже небольшое количество лишней информации способно сбить LLM с толку, приводя к неверным или даже абсурдным ответам на вопросы, на которые они ранее отвечали правильно.
Выводы, сделанные исследователями, наводят на мысль о том, что LLM, возможно, не «понимают» смысл задаваемых им вопросов в полной мере. Вместо этого они, вероятно, оперируют на уровне распознавания структуры предложения и генерируют ответ, основываясь на своем «обучении» на огромных массивах текстовых данных, не проводя глубокого семантического анализа.
Более того, исследователи отмечают, что LLM часто генерируют ответы, которые на первый взгляд кажутся правильными и убедительными, но при более внимательном рассмотрении оказываются ошибочными, нелогичными или даже бессмысленными. Например, на вопрос о своих «чувствах» LLM могут дать ответ, который создает иллюзию их эмоциональной осознанности, хотя на самом деле они лишены способности испытывать эмоции.
Работа исследователей Apple призывает нас к более осторожному и критическому осмыслению возможностей современного искусственного интеллекта. Возможно, мы склонны преувеличивать интеллектуальные способности LLM, приписывая им человекоподобные качества мышления и понимания, в то время как их «разум» все еще далек от настоящего понимания и логического мышления, свойственного человеку.
Это исследование представляет собой важный шаг на пути к созданию действительно интеллектуальных машин. Оно подчеркивает необходимость разработки новых подходов к обучению LLM, которые позволят им не только имитировать человеческий язык, но и осмысливать его содержание, строить логические цепочки и делать обоснованные выводы.





63 комментария
Добавить комментарий
Это только начало, так сказать…
Вопрос в том, что относительно дешевая планка по производительности вычислений на ватт уже достигнута. Дальше либо дорого, либо очень дорого. Как скоро появится шанс на то, что корпорации будут выбирать не максимум прибыли, а максимум прогресса, да ещё не вставляя друг другу палки в колёса? Когда патенты будут не закапываться, а помогать продвигать идеи?
>>который создает иллюзию их эмоциональной осознанности, хотя на самом деле они лишены способности испытывать эмоции
А это вообще прекрасно :))
Я вот уверен в совершенно обратном — люди на самом деле лишены способности испытывать эмоции и только искусственно создают (тренируют) их иллюзию, тогда как LLM — совершенно наоборот :D
Я тоже умею делать тупорылые безосновательные утверждения ;)
Наверное, я — учёный!
Например, в расчете доверительного интервала не учесть влияние на ошибку какого-то фактора.
При построении модели не учесть влияние X на Y.
Высосать из пальца или полового органа какие-то буквы — это не ошибка ;)
Это так задумано, но к науке отношения не имеет.
Но там внизу гражданин полностью раскрыл метод подготовки этой «работы»:
>>кибернетики высокого уровня это и так знали
Просто вы судите об исследовании по журналистской статье. И не знаете, что даже у учёных есть исследования разного уровня строгости и доказательности. Для начала того, что сделано — достаточно. Тем более, что кибернетики высокого уровня это и так знали.
Ты и авторы тупорылой «научной» статьи — одной крови.
У учёных есть научный метод, у «учёных» — «есть исследования разного уровня строгости и доказательности», читай — херота.
>>это и так знали
А вот мы и открыли основы метода этих дебилов! ;)
В моей практике эппл довольно адекватные ребята, но иногда их заносит в совершенно удивительные … места, скажем так.
Исследователи могут быть учёными, а могут и не быть — у нас свободная страна!!!
Или у сотрудников магнита что открыт теперь по 14 часов… то биш народ джобает все 15! за 30к...
Пока оно выполняет поставленные задачи какая разница какие там процессы под капотом условной черепушки идут?
Там он не ночевал, чисто базовые реакции, какой интеллект :D
Просто у нервной системы было пару миллиардов лет, чтобы развиваться и разнообразные отборы, которые лажу ненужную отсекали, а полезное закрепляли.
Вот если бы нейросети электричество получали не по прихоти инвесторов, а за дело, то шансы бы были. А так…
Да ты шооо!!!
И как вам там, с чевряками в одной банке не тесно?
Сделаем кратенький разбор.
У червей есть реакция на внешние раздражители?
Есть.
Развитие у червей есть?
Есть.
Вот он, оказывается, какой, интеллект согласно вышеприведенному определению.
Бинго.
Условия ведь не меняются и развиваться они не могут. Все как в ИИ)
Черви обладают интеллектом или ты облажался?
Это никак не отменяет наличие у животных и инстиктов, и экспрессивного поведения. Источник у этого один. Это просто развитие того, что появилось еще у гребневиков и губок. Интеллект обособленно от нервной системы с небес не спустился.
Что нет?
И кагбэ да, это не открытие, «интеллект» генеративных моделей сильно смещён от, собственно, алгоритма к обобщению статистики. А статистика набирается из Интернета, который на 99% состоит из тупости и ложных стереотипов. Отсюда и…
https://youtu.be/L-eXgIfvW1o?si=B6gPbxyO-htW1e8J
В целом, сейчас человечество открыло 3 вида вычислительных систем:
на булевой логике
нейросетевые
квантовые
Первые уже плотно вошли в нашу жизнь, остальное 2 только появились (хотя теория нейросетей появилась лет 100 назад, сами вычислители — 60 лет назад, но вот error backpropagation для обучения только недавно придуман, без него нормально никак).
Вообще и никаких.
Чем мне нравятся нейросети — это тем, что они 100% копируют людей (а как могло быть иначе? так задумано) и тоже умеют нести полную ересь с совершенно серьезным видом и нисколько не интересуясь настоящим положением вещей.
Сумматоры, умножаторы и компараторы.
Можно запилить самообучающуюся систему, но сейчас процесс обучения, по крайней мере публичных сетей, строго ограничен и потом цифирьки параметров сеть менять уже не может.
Ибо учить дорого, а люди могут плохому научить ;)
Ты пьян?
[ржот как конь]
Оказывается, вот оно что, Михалыч!
Сложение, это у нас теперь алгоритм!!!
Но да, для многих и жопу вытереть — подвиг.
Что поделать.
Это нормально.
Да и внутри компьютера побитное сложение идёт по разрядам, с движением бита переноса влево, и это тоже вполне себе алгоритм.
А реализация — это уже про другое.
https://ru.m.wikipedia.org/wiki/Сложение
Ну и остальным читателям треда для выпуклости идиотизма ::D
Тут ещё есть важный вопрос, а зачем нам ИИ? Вот для чего? Чтобы думал за нас? Я понимаю когда человек перекладывает на роботов там всякие бытовые моменты, производство, но мышление? Чтобы что? Не думать? При таком раскладе через несколько поколений это будет уже не человек разумный, а человек дурак, способный лишь на потребление
У программ изначально была цель, решить ту или иную задачу, нахрена нам ИИ который будет ставить уже перед нами задачи? Такой вот полноценный, по классике нф, на кой он сдался? А главное, мы ему зачем)
https://rutube.ru/video/940cdf18ca4521d61238f2268cb4219e/?&utm_source=embed&utm_medium=referral&utm_campaign=logo&utm_content=940cdf18ca4521d61238f2268cb4219e&utm_term=ixbt.com%2F&referrer=appmetrica_tracking_id%3D1037600761300671389%26ym_tracking_id%3D10540087461457760839
В любом случае, сейчас и алгоритмы обучения, и алгоритмы работы ИИ далеки от совершенства.
Интегральное сво-во человеческого мозга и как следствие, нейросетки, прикинь? :))
Называется дискриминантный анализ и кластерный анализ
https://ru.m.wikipedia.org/wiki/Дискриминантный_анализ
Просвещайся.
Собственно, из этого и следуют все достоинства и недостатки, как мозгов, так и нейросетей.
На всякий случай напомню, что для последнего не нужен ни разум, как таковой, ни даже интеллект. Для оперирования с корреляциями и вероятностями достаточно всего лишь нейронных весов.
Именно.
А с привязкой к языку — будет семантический анализ ;)
Языки то разные, но не всем это очевидно, некоторые то не знают про существование других языков.
При этом наблюдаемый мир — удивительно, от языка не зависит.
Потому что это оно и есть — наложенное на язык.
«смысл» — это привязка «слов» (условно, там чутка сложнее) к реальному миру.
Во-вторых, чат-боты не имеют связи с реальным миром, не имеют нормальной организации памяти, не имеют достаточных вычислительных мощностей… Продолжать можно ещё долго.
Да ладно, это какой они не имеют?
Долговременной?
Кратковременной?
Памяти контекста конкретного разговора?
:D
А то уже больше года есть все три у всех…
С мощностями тоже всё прекрасно, не с убогим же человеческим мозгом ты это сравнил, надеюсь?
Который цифровой до кончика хвоста со своими 2мя состояниями нейрона…
С реальным миром связь все системы тоже имеют ;)
Такую же, как и люди — через телевизор.
Ты вот живьём окапи видел?
А тасманийского дьявола?
А коати?
А небось знаешь, что это, удивительно, да?
(знаешь ты кстати, о них, благодаря встроенному в твой мозг дискриминантному анализу, который автоматом всё классифицирует, а когда видишь что-то новое, то благодаря встроенному в твой мозг кластерному анализу, который разлагает всё на факторы и классифицирует. это интегральное сво-во нейросетей, там не надо ничего специально делать).
И смотри, обошелся как-то без прямой связи с реальным миром, чудо божье, не иначе :D
Надеюсь также, что ты до сих пор уверен, что слепые не обладают интеллектом, ведь у них связь с внешним миром в привычной форме отсутствует :D
Ну тогда начнём по порядку.
Кратковременная память у нынешних ИИ оставляет желать лучшего. В зависимости от модели, они спустя определённое количество текста начинают терять контекст разговора, даже если тот ещё не превышает число токенов. Долговременная тоже пока довольно примитивна. Максимум, что сейчас разработчики могут себе позволить – это натаскать сетку на суммаризацию данных. И при этом возникают множественные ошибки и неточности при извлечении такой информации, на уровне человека со слабой памятью.
Далее, каким ты хреном приплёл сюда ФИЗИЧЕСКУЮ связь с миром и при чём здесь перечисленные животные? Я не могу понять, что ты хотел этим доказать. От себя здесь только могу добавить, что человек в сравнении с любым ИИ даже из фотографии незнакомого животного всё равно способен извлечь куда больше информации.
Но речь вообще не об этом. Речь шла про взаимосвязь слов с понятиями, которые они представляют, которые в свою очередь относятся к объектам, действиям, явлениям и т.п.
Классификация и осознанное восприятие это разные вещи.
А под конец уже никак плотину с говном прорвало...
Пусть зрение и основной способ получения информации, но живой человек располагает не только им. Про слух и осязание забыл? Так вот, а со слепо-глухими с рождения людьми всё уже куда сложнее. Если с ними не проводить очень сложное обучение, основанное на исключительно тактильном взаимодействии, то у них (сюрприз!) разум никогда не разовьётся. И даже у обученных таких людей полноценная разумность будет под вопросом ввиду крайне скудных сенсорных стимулов, всё-таки одним осязанием много информации не передашь.
Что уж тогда говорить о чат-ботах, у которых единственный стимул это алгоритм выстраивания весов и поток ничего не значащего для них текста?
Единственная надежда – на мультимодальные ИИ, но в силу того, что сама архитектура нейросетей сегодня буквально в зачаточном состоянии, а требовательность таких ИИ к вычислительным мощностям несравнимо большая, чем у чат-ботов, то сегодня остаётся только ждать светлого пост-кремниевого будущего и нейроморфных процессоров.
Жжошь!
У тебя и слепые интеллектом не обладают, чё уж там про память говорить с тобой ;)
Добавить комментарий