Изкуственият интелект притежава огромна мощ да моделира и променя общественото мнение, сочи ново международно изследване. Учени от университетите в Корнел и Вашингтон (САЩ), съвместно с експерти от Германия и Израел, установиха, че хората са склонни да приемат пристрастна информация от AI чатботове като ChatGPT, Claude и Gemini, дори когато изрично са предупредени за възможни манипулации.
Проучването, публикувано в списание Science Advances, обхваща 2500 участници, които е трябвало да пишат текстове по значими социални въпроси като смъртното наказание и фракинга, използвайки помощта на изкуствен интелект. Резултатите показват, че потребителите масово „се сближават с позицията на платформата“. Изненадващото е, че влиянието на AI се оказва по-силно от това на същите аргументи, представени като обикновен статичен текст.
Изследователите са тествали различни сценарии, като са програмирали ботовете да заемат крайни леви или десни позиции по различни теми. Във всички случаи мненията на участниците са се променяли в посоката, зададена от алгоритъма. „Казвахме на хората преди и след теста да бъдат внимателни, защото AI е пристрастен, но нищо не помогна“, споделя Мор Нааман от университета Корнел.
Основни акценти от изследването:
-
Универсално влияние: AI променя нагласите независимо от политическата ориентация на потребителя.
-
Неуспешна превенция: Предупрежденията за пристрастност не отслабват ефекта на внушението.
-
Риск от хомогенизиране: Други изследвания предупреждават, че масовата употреба на AI може да доведе до уеднаквяване на речта и мисленето, което да „атрофира“ способността ни за критично разсъждение.
Тези заключения идват на фона на доклади от 2024 г., според които почти всички водещи AI платформи показват определени политически пристрастия в отговорите си по въпроси на публичната политика. Това поставя сериозни въпроси пред бъдещето на информационната етика и ролята на технологиите в демократичния процес.