Появата на чатботовете с изкуствен интелект (AI) промени начина, по който достъпваме информация, но същевременно постави в сериозна опасност Internet Archive – най-голямата дигитална библиотека в света.
Организацията с нестопанска цел, основана през 1996 г., сега е изправена пред най-голямото си предизвикателство, което може да направи мрежата „невидима“ за бъдещите поколения.
Според разследване на Nieman Lab, стотици уебсайтове са започнали масово да блокират софтуерните роботи (crawlers) на Internet Archive.
Причината е опасението, че AI компаниите използват архива като „задна врата“, чрез която извличат съдържание без разрешение за обучение на своите модели. Това води до парадоксална ситуация – в опит да се защитят от изкуствения интелект, издателите на практика унищожават историческия запис на интернет.
Данните показват, че 241 новинарски сайта от девет държави вече са ограничили достъпа на ботовете. Сред тях са световни лидери като The New York Times, The Guardian, Financial Times и The Athletic.
Дори платформи като Reddit се присъединиха към тенденцията през август 2025 г., забранявайки на архивиращите ботове да правят „снимки“ на съдържанието им.
Основателят на Internet Archive, Брустър Кейл, предупреждава, че тези ограничения ще лишат обществото от достъп до важни исторически записи.
Докато някои медии като The Guardian филтрират само статиите си, други прилагат „твърдо блокиране“ чрез файла robots.txt. Това означава, че в бъдеще потребителите няма да могат да откриват изтрити публикации в социалните мрежи или стари версии на новинарски материали чрез популярната Wayback Machine.
Проблемът засяга и други проекти с нестопанска цел, като Common Crawl, който също е блокиран от почти всички изследвани сайтове. Ако тази тенденция продължи, мисията за демократизиране на информацията и запазване на дигиталното наследство ще бъде сериозно компрометирана, оставяйки огромни „дупки“ в историята на нашето съвремие.