Пермский политех: ИИ не способен к критическому мышлению и врет убедительнее людей
Исследователи Пермского национального исследовательского политехнического университета обнародовали данные о системной проблеме в работе алгоритмов искусственного интеллекта. В ходе экспериментов подтвердилось, что языковые модели строят выводы не на основе достоверности сведений, а руководствуясь принципом наибольшей распространенности варианта в обучающей выборке. Специалисты ПНИПУ установили, что подобное поведение несёт угрозу для областей, где ошибочное решение может повлечь необратимые последствия.
В частности, речь идёт о постановке медицинских диагнозов и навигации автономного транспорта. В рамках исследования группе добровольцев и нескольким нейросетям, включая ChatGPT, GigaChat и DeepSeek, предложили задачу на соотнесение личностных характеристик с профессиональной принадлежностью. Люди опирались на объективные статистические показатели. Алгоритмы же, напротив, отдали предпочтение детализированным описаниям, которые реже встречаются в реальности, но выглядят более стройными и логичными. При этом каждая модель предоставила развернутое обоснование выбора, не содержащее формальных противоречий.
Как пояснили в университете, фундаментальная сложность заключается в архитектуре глубинных нейросетей. Механизм, посредством которого система приходит к финальному выводу, остаётся скрытым от разработчика. Совокупность анализируемых параметров достигает сотен миллионов, что исключает возможность пошаговой проверки цепочки рассуждений. Подобная закрытость не позволяет гарантированно устранять ошибки после их обнаружения. Авторы работы подчеркивают, что преодоление когнитивных искажений искусственного интеллекта требует участия не только программистов, но и представителей гуманитарных дисциплин. Философы, психологи и специалисты по праву должны выработать критерии для выявления моментов, когда алгоритм подменяет достоверность убедительностью.
Эксперты полагают, что полное искоренение этого свойства вряд ли достижимо, однако возможно создать инструменты для его фиксации и ограничения. Обязательным условием безопасности они называют внедрение внешнего аудита, стресс-тестирование на нестандартных сценариях и сохранение за человеком права вето на решения, выданные машиной. Дополнительно указывается на необходимость повышения цифровой грамотности: пока пользователи воспринимают выводы нейросетей как истину в последней инстанции, технические средства защиты остаются малоэффективными.
Источник: Первый технический





1 комментарий
Добавить комментарий