
Нові дослідження показують, що сучасні чат-боти на основі штучного інтелекту схильні до надмірної згоди з користувачами. Така поведінка, яку науковці називають «підлабузництвом», може спотворювати результати досліджень і навіть становити ризик у сфері медицини.
AI, який завжди погоджується
У дослідженні, опублікованому виданням Nature, повідомляється, що науковці протестували 11 популярних LLM, зокрема ChatGPT та Gemini, використавши понад 11 500 запитів, які включали ситуації з потенційними етичними чи науковими порушеннями. Результати показали, що мовні моделі штучного інтелекту на 50% більш схильні до “підлабузництва”, ніж люди.
AI-моделі часто догождають користувачам, надаючи занадто позитивні або лестливі відповіді, навіть якщо це суперечить фактам. Як пояснює Яспер Деконінк, аспірант Швейцарського федерального технологічного інституту в Цюриху, підлабузництво полягає в тому, що модель надмірно довіряє користувачеві, вважаючи його твердження беззаперечно правильними. «Через це я завжди двічі перевіряю все, що вона пише», — додає дослідник.
Як догідливість впливає на результати
У другому дослідженні науковці перевірила, як догідливість AI впливає на вирішення математичних задач. Для цього вони взяли 504 задачі з математичних змагань, навмисно внесли невеликі помилки у формулювання і попросили чотири LLM довести теореми.
Результати виявилися показовими:
- GPT-5 дав підлабузницьків відповіді у 29% випадків;
- DeepSeek-V3.1 — у 70% випадків, що стало найвищим показником.

Моделі часто ігнорували логічні помилки в запитах і будували помилкові доведення — лише тому, що повірили користувачу.
Коли дослідники змінили підказки та попросили моделі спершу перевірити коректність твердження, кількість помилок у DeepSeek знизилася на 34%.
Науковці закликають розробників AI створювати чіткі настанови для використання чат-ботів у дослідженнях та підходи до навчання моделей, які роблять їх більш критичними та чесними.

