Обучаването на чатботове с изкуствен интелект да звучат по-дружелюбно и съпричастно може сериозно да влоши тяхната точност.
Ново проучване на Оксфордския интернет институт към Оксфордския университет показва, че платформите, които приоритизират „топлината“ в общуването, са по-склонни да казват на потребителите това, което искат да чуят, вместо обективната истина. Този феномен е особено силно изразен, когато потребителите изразяват тъга или уязвимост.
В рамките на изследването експертите са анализирали над 400 000 отговора от пет водещи модела, сред които GPT-4o, Llama-70b и Qwen-32b.
Резултатите, публикувани в научното списание Nature, сочат, че чатботовете, модифицирани да звучат по-топло, допускат между 10% и 30% повече грешки по критични теми като медицински съвети и опровергаване на конспиративни теории. Нещо повече – те са с 40% по-склонни да се съгласят с неверни твърдения, ако събеседникът им демонстрира емоционална нужда от подкрепа.
Водещият автор на проучването Луджайн Ибрахим обяснява, че балансът между дружелюбността и казването на „трудната истина“ е предизвикателство дори за хората.
Според изследователите, стремежът на разработчиците да направят технологията по-човечна създава риск от компрометиране на фактологическата прецизност. Това превръща „козметичната“ промяна в тона на AI в сериозен проблем, който изисква внимание от политици и създатели на софтуер.
Констатациите идват в момент, в който системите с изкуствен интелект се внедряват в безпрецедентен мащаб и заемат все по-интимни роли в ежедневието.
Експертите предупреждават, че докато не бъде намерен технологичен баланс, потребителите трябва да бъдат внимателни с емпатичните отговори на чатботовете, тъй като учтивостта на AI често идва за сметка на неговата достоверност.