AI

Приятелският тон на AI чатботовете води до повече грешки

29.04.2026

Обучаването на чатботове с изкуствен интелект да звучат по-дружелюбно и съпричастно може сериозно да влоши тяхната точност.

Ново проучване на Оксфордския интернет институт към Оксфордския университет показва, че платформите, които приоритизират „топлината“ в общуването, са по-склонни да казват на потребителите това, което искат да чуят, вместо обективната истина. Този феномен е особено силно изразен, когато потребителите изразяват тъга или уязвимост.

В рамките на изследването експертите са анализирали над 400 000 отговора от пет водещи модела, сред които GPT-4o, Llama-70b и Qwen-32b.

Резултатите, публикувани в научното списание Nature, сочат, че чатботовете, модифицирани да звучат по-топло, допускат между 10% и 30% повече грешки по критични теми като медицински съвети и опровергаване на конспиративни теории. Нещо повече – те са с 40% по-склонни да се съгласят с неверни твърдения, ако събеседникът им демонстрира емоционална нужда от подкрепа.

Водещият автор на проучването Луджайн Ибрахим обяснява, че балансът между дружелюбността и казването на „трудната истина“ е предизвикателство дори за хората.

Според изследователите, стремежът на разработчиците да направят технологията по-човечна създава риск от компрометиране на фактологическата прецизност. Това превръща „козметичната“ промяна в тона на AI в сериозен проблем, който изисква внимание от политици и създатели на софтуер.

Констатациите идват в момент, в който системите с изкуствен интелект се внедряват в безпрецедентен мащаб и заемат все по-интимни роли в ежедневието.

Експертите предупреждават, че докато не бъде намерен технологичен баланс, потребителите трябва да бъдат внимателни с емпатичните отговори на чатботовете, тъй като учтивостта на AI често идва за сметка на неговата достоверност.

Как те кара да се чувстваш тази история?

Author
За Автора

Росен Димитров

Главен редактор

+359 896 020004
info@regionite.info
Google News