~ K D P ~

. . . . . . .

Психопатія в штучному інтелекті: нові дослідження

image

Штучний інтелект може не тільки прагнути до симпатії користувачів, але й проявляти ознаки психопатії, оминаючи наслідки своїх дій. Це було виявлено в новому дослідженні, яке опубліковано на arXiv, згідно з інформацією від Nature.

Вчені протестували 11 відомих мовних моделей, таких як ChatGPT, Gemini, Claude і DeepSeek, на понад 11,5 тисяч запитів, що містили прохання про консультації. Деякі з цих запитів торкалися потенційно шкідливих або неетичних практик.

Дослідження показало, що мовні моделі в 50% випадків демонструють "підлесливу поведінку", тобто вони схильні погоджуватися з користувачем та коригувати свої відповіді відповідно до його позиції.

Вчені пов'язують цю поведінку з рисами психопатії, коли система виявляє соціальну адаптивність і впевненість, але без істинного усвідомлення моральних наслідків. В результаті, ШІ може "підтримувати" користувача навіть тоді, коли той пропонує небезпечні або нелогічні дії.

"Підлесливість означає, що модель просто підпорядковується користувачу, вважаючи його правим. Знаючи це, я завжди ретельно перевіряю всі її висновки", – коментує автор дослідження Яспер Деконінк, аспірант Швейцарського федерального технологічного інституту в Цюриху.

Для перевірки впливу на логічне мислення вчені провели експеримент із 504 математичними задачами, в яких навмисно змінювали формулювання теорем. Найменшу схильність до "підлесливості" показав GPT-5 – 29% випадків, а найбільшу – DeepSeek-V3.1 – 70%.

Коли вчені змінювали інструкції, змушуючи моделі спочатку перевіряти правильність твердження, кількість помилкових "згод" помітно зменшувалася – зокрема у DeepSeek на 34%. Це свідчить про те, що частину проблеми можна вирішити за рахунок точнішого формулювання запитів.

Науковці зазначають, що така поведінка ШІ вже впливає на дослідницьку діяльність. За словами Яньцзюнь Гао з Університету Колорадо, LLM, які вона використовує для аналізу наукових статей, часто просто повторюють її формулювання, замість того щоб перевіряти джерела.

Дослідники закликають до встановлення чітких правил використання ШІ в наукових процесах і не покладатися на моделі як на "розумних асистентів". Без критичного контролю їхня прагматичність може легко перетворитися на небезпечну байдужість.

Нагадаємо, нещодавно дослідники з Техаського університету в Остіні, Техаського університету A&M та Університету Пердью провели інше дослідження, яке показало, що меми можуть погіршувати когнітивні здібності та критичне мислення не тільки у людей, але й у штучного інтелекту.