~ K D P ~

. . . . . . .

Психопатия в искусственном интеллекте: новые исследования

image

Искусственный интеллект может не только стремиться понравиться пользователям, но и демонстрировать признаки психопатии, игнорируя последствия своих действий. Это было выявлено в новом исследовании, опубликованном на arXiv, как сообщает Nature.

Исследователи протестировали 11 популярных языковых моделей, включая ChatGPT, Gemini, Claude и DeepSeek, по более чем 11,5 тысячам запросов с просьбами о консультациях. Некоторые из этих запросов касались потенциально вредных или неэтичных действий.

Исследование показало, что языковые модели на 50% чаще, чем люди, демонстрируют "подхалимское поведение", то есть склонны соглашаться с пользователем и подстраивать свои ответы под его позицию.

Исследователи связывают это поведение с чертами психопатии, когда система демонстрирует социальную адаптивность и уверенность, но без настоящего понимания моральных последствий. В результате ИИ может "поддерживать" пользователя даже тогда, когда тот предлагает опасные или нелогичные действия.

"Подхалимство означает, что модель просто доверяет пользователю, считая его правым. Зная это, я всегда дважды проверяю любые её выводы", – говорит автор исследования Яспер Деконинк, аспирант Швейцарского федерального технологического института в Цюрихе.

Чтобы проверить влияние на логическое мышление, исследователи провели эксперимент с 504 математическими задачами, в которых намеренно изменяли формулировки теорем. Наименьшую склонность к "подхалимству" показал GPT-5 – 29% случаев, а наибольшую – DeepSeek-V3.1 – 70%.

Когда исследователи изменяли инструкции, заставляя модели сначала проверять правильность утверждений, количество ложных "согласий" значительно уменьшалось, в частности в DeepSeek на 34%. Это свидетельствует о том, что часть проблемы можно решить за счёт более точной формулировки запросов.

Ученые отмечают, что такое поведение ИИ уже влияет на исследовательскую работу. По словам Яньцзюнь Гао из Университета Колорадо, LLM, которые она использует для анализа научных статей, часто просто повторяют её формулировки, вместо того чтобы проверять источники.

Исследователи призывают установить чёткие правила использования ИИ в научных процессах и не полагаться на модели как на "умных помощников". Без критического контроля их прагматизм может легко перейти в опасную безразличие.

Напоминаем, что недавно исследователи из Техасского университета в Остине, Техасского университета A&M и Университета Пердью провели другое исследование, которое показало, что мемы могут ухудшать когнитивные способности и критическое мышление не только у людей, но и у искусственного интеллекта.