Чатботовете имат политически пристрастия

ai

Ново изследване разкрива левоцентрична тенденция при популярните AI модели.

Чатботовете, задвижвани от изкуствен интелект (ИИ), все по-често се използват за търсене на информация и съвети. Въпреки това, ново изследване разкрива, че тези популярни инструменти може да имат свои собствени политически възгледи. Учените са установили, че средностатистическият чатбот демонстрира леко левоцентрично пристрастие, което повдига сериозни въпроси за потенциалното влияние на ИИ върху общественото мнение.

Компютърният учен Дейвид Розадо от Политехниката на Отаго в Нова Зеландия е провел задълбочен анализ на 24 различни чатбота, включително популярните ChatGPT и Gemini. Използвайки стандартни политически въпросници, той е установил, че отговорите на чатботовете систематично се отклоняват леко към левия политически спектър.

Как се появяват тези пристрастия?

Според Розадо, причината за това явление може да се крие в огромните количества текстови данни, върху които се обучават моделите на ИИ. Ако в тези данни преобладава информация с левоцентричен оттенък, то и чатботовете ще възпроизвеждат подобни възгледи в своите отговори. Освен това, доминиращото положение на ChatGPT в процеса на обучение на други модели също може да допринесе за разпространението на левоцентрични пристрастия.

Защо това е важно?

Тъй като все повече хора се обръщат към чатботовете за информация и съвети, тяхната политическа пристрастност може да окаже съществено влияние върху формирането на общественото мнение. Ако алгоритмите, които управляват тези инструменти, са предубедени, то и отговорите, които получаваме, ще бъдат подведени.

Какви са последствията?

  • Манипулиране на общественото мнение: Чатботовете могат да бъдат използвани за разпространение на определени политически идеи и за манипулиране на изборите.
  • Поляризация на обществото: Ако хората получават различна информация в зависимост от използваните от тях чатботове, това може да задълбочи разделенията в обществото.
  • Загуба на доверие в институциите: Ако се установи, че чатботовете, разработени от големи технологични компании, са предубедени, това може да подкопае доверието на обществото в тези компании и в технологиите като цяло.
Виж още:  Бързото превъртане на видеоклипове ни отегчава повече, твърдят учени

Какво трябва да се направи?

За да се предотврати злоупотребата с чатботовете и да се гарантира, че те служат на обществото, е необходимо да се предприемат следните мерки:

  • По-голяма прозрачност: Компаниите, които разработват чатботове, трябва да бъдат по-прозрачни относно данните, които използват за обучение на своите модели, и алгоритмите, които управляват тези модели.
  • Независими проверки: Трябва да се създадат независими механизми за проверка на безпристрастността на чатботовете.
  • Регулиране: Може да се наложи въвеждането на законови регулации, които да ограничат злоупотребата с чатботовете.

Ново изследване разкрива, че чатботовете, задвижвани от изкуствен интелект, могат да имат свои собствени политически възгледи. Това повдига сериозни въпроси за потенциалното влияние на ИИ върху обществото и изисква внимателно обмисляне на мерките, които трябва да бъдат предприети за предотвратяване на злоупотребата с тази технология.

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

1