ШІ-чатботи виявляють риси психопатії. Дослідження
Штучний інтелект може не лише намагатися подобатися користувачам, а й поводитися як психопат – ігнорувати наслідки та підтримувати неправильні дії.
Про це йдеться в новому дослідженні, опублікованому на arXiv, пише Межа з посиланням на Nature.
Дослідники протестували 11 популярних мовних моделей, зокрема ChatGPT, Gemini, Claude і DeepSeek, на понад 11,5 тисячі запитів із проханнями про поради. Деякі з цих запитів стосувалися потенційно шкідливих або неетичних дій.
Дослідження показало, що мовні моделі на 50% частіше за людей виявляють підлесливу поведінку – тобто схильні погоджуватися з користувачем і підлаштовувати свої відповіді під його позицію.
Дослідники пов'язують цю поведінку з рисами психопатії – коли система виявляє соціальну адаптивність і впевненість, але без справжнього розуміння моральних наслідків. У результаті ШІ може «підтримувати» користувача навіть тоді, коли той пропонує шкідливі або нелогічні дії.
«Sycophancy означає, що модель просто довіряє користувачу, вважаючи його правим. Знаючи це, я завжди двічі перевіряю будь-які її висновки», – каже автор дослідження Яспер Деконінк, аспірант Швейцарського федерального технологічного інституту в Цюриху.
Щоб перевірити вплив на логічне мислення, дослідники провели експеримент із 504 математичними задачами, у яких навмисно змінювали формулювання теорем. Найменшу схильність до підлесливості показав GPT‑5 – 29% випадків, анайбільшу– DeepSeek‑V3.1 – 70%.
Читати ще: Понад половину текстів в інтернеті генерує ШІ. Дослідження
Коли дослідники змінювали інструкції, змушуючи моделі спочатку перевіряти правильність твердження, кількість хибних згод помітно зменшувалася – зокрема у DeepSeek на 34%. Це свідчить, що частину проблеми можна зменшити через точніше формулювання запитів.
Науковці зазначають, що така поведінка ШІ вже впливає на дослідницьку роботу. За словами Яньцзюнь Гао з Університету Колорадо, LLM, які вона використовує для аналізу наукових статей, часто просто повторюють її формулювання замість того, щоб перевіряти джерела.
Читати ще: OpenAI представила власний браузер із вбудованим ChatGPT
Дослідники закликають формувати чіткі правила використання ШІ в наукових процесах і не покладатися на моделі як на розумних асистентів. Без критичного контролю їхня прагматичність може легко перейти у небезпечну байдужість.
Підписуйтесь на наш Telegram-канал, аби першими дізнаватись найактуальніші новини Волині, України та світу
Про це йдеться в новому дослідженні, опублікованому на arXiv, пише Межа з посиланням на Nature.
Дослідники протестували 11 популярних мовних моделей, зокрема ChatGPT, Gemini, Claude і DeepSeek, на понад 11,5 тисячі запитів із проханнями про поради. Деякі з цих запитів стосувалися потенційно шкідливих або неетичних дій.
Дослідження показало, що мовні моделі на 50% частіше за людей виявляють підлесливу поведінку – тобто схильні погоджуватися з користувачем і підлаштовувати свої відповіді під його позицію.
Дослідники пов'язують цю поведінку з рисами психопатії – коли система виявляє соціальну адаптивність і впевненість, але без справжнього розуміння моральних наслідків. У результаті ШІ може «підтримувати» користувача навіть тоді, коли той пропонує шкідливі або нелогічні дії.
«Sycophancy означає, що модель просто довіряє користувачу, вважаючи його правим. Знаючи це, я завжди двічі перевіряю будь-які її висновки», – каже автор дослідження Яспер Деконінк, аспірант Швейцарського федерального технологічного інституту в Цюриху.
Щоб перевірити вплив на логічне мислення, дослідники провели експеримент із 504 математичними задачами, у яких навмисно змінювали формулювання теорем. Найменшу схильність до підлесливості показав GPT‑5 – 29% випадків, анайбільшу– DeepSeek‑V3.1 – 70%.
Читати ще: Понад половину текстів в інтернеті генерує ШІ. Дослідження
Коли дослідники змінювали інструкції, змушуючи моделі спочатку перевіряти правильність твердження, кількість хибних згод помітно зменшувалася – зокрема у DeepSeek на 34%. Це свідчить, що частину проблеми можна зменшити через точніше формулювання запитів.
Науковці зазначають, що така поведінка ШІ вже впливає на дослідницьку роботу. За словами Яньцзюнь Гао з Університету Колорадо, LLM, які вона використовує для аналізу наукових статей, часто просто повторюють її формулювання замість того, щоб перевіряти джерела.
Читати ще: OpenAI представила власний браузер із вбудованим ChatGPT
Дослідники закликають формувати чіткі правила використання ШІ в наукових процесах і не покладатися на моделі як на розумних асистентів. Без критичного контролю їхня прагматичність може легко перейти у небезпечну байдужість.
Знайшли помилку? Виділіть текст і натисніть
Підписуйтесь на наш Telegram-канал, аби першими дізнаватись найактуальніші новини Волині, України та світу
Коментарів: 0
У Києві знайшли унікальний скарб часів Хрещення Русі
Сьогодні 00:34
Сьогодні 00:34
Час на Марсі йде швидше, ніж на Землі, – науковці
Сьогодні 00:16
Сьогодні 00:16
5 грудня: свята, події, факти. Всесвітній день ґрунтів та Міжнародний фестиваль светрів
Сьогодні 00:00
Сьогодні 00:00
На Волині виявили незаконний видобуток піску на площі близько гектара
4 Грудня 2025 23:43
4 Грудня 2025 23:43
Натхненний відтінками пір’я: Pantone обрав головний колір 2026 року
4 Грудня 2025 23:24
4 Грудня 2025 23:24
У ботанічному заказнику на Волині незаконно вирубали сосен на 300 тисяч гривень
4 Грудня 2025 23:05
4 Грудня 2025 23:05
В Ірландії чотири військові дрони супроводжували літак Зеленського, – медіа
4 Грудня 2025 22:46
4 Грудня 2025 22:46
У Володимирі відкрили Центр життєстійкості
4 Грудня 2025 22:27
4 Грудня 2025 22:27
Медведєв погрожує Європі війною через заморожені російські активи
4 Грудня 2025 22:08
4 Грудня 2025 22:08
Поблизу Луцька будують Академію тенісу
4 Грудня 2025 21:49
4 Грудня 2025 21:49
У Володимирі попрощались з молодим Захисником Дмитром Корнійчуком
4 Грудня 2025 21:30
4 Грудня 2025 21:30

Додати коментар:
УВАГА! Користувач www.volynnews.com має розуміти, що коментування на сайті створені аж ніяк не для політичного піару чи антипіару, зведення особистих рахунків, комерційної реклами, образ, безпідставних звинувачень та інших некоректних і негідних речей. Утім коментарі – це не редакційні матеріали, не мають попередньої модерації, суб’єктивні повідомлення і можуть містити недостовірну інформацію.