Представете си, че притежавате книжарница. По-голямата част от приходите ви зависят от клиентите, които влизат и купуват книги, така че организирате различни аспекти на бизнеса около тази дейност. Може да поставите евтини артикули за „импулсивни покупки“ близо до касата или да започнете да продавате кафе за удобство. Може дори да си партнирате с издатели, за да поставите дисплеи с популярни бестселъри на добре видими места в магазина, за да стимулирате продажбите.

Сега си представете, че един ден в магазина влиза робот, за да купи книги от името на някого. Той игнорира дисплеите, кафе-киоска и сувенирите до касата. Просто взема книгата, която човекът е поръчал, плаща за нея и излиза. На следващия ден влизат 4 робота, а на следващия – 12. Скоро роботите надвишават по брой хората в магазина ви, докато вторите намаляват с всеки изминал ден. Скоро виждате, че продажбите на некнижни артикули са много малко, издателите спират да се занимават с тези дисплеи, а кафето изстива. Приходите се сриват.

В отговор може да започнете да таксувате роботите за влизане в магазина си и ако не платят, да им откажете достъп. Но един ден влиза робот, който изглежда точно като човек – до такава степен, че не можете да направите разликата. Какво ще се случи тогава?

Тази аналогия, пише в свой материал Fast Company, е в основата на това, през което преминава издателският свят в момента, след като трафикът на ботове към медийните уебсайтове се е увеличил драстично през последните три месеца, според данни от доклада State of the Bots на TollBit. Още по-притеснително обаче е, че най-популярните AI търсачки избират да игнорират отдавна уважаваните стандарти за блокиране на ботове. Те се аргументират с това, че когато „AI агент” за търсене действа от името на конкретен потребител, ботът трябва да се третира като човек.

Революцията на роботите

Докладът на TollBit очертава бързо променяща се картина на това, което се случва в сферата на изкуствения интелект по отношение на търсенето в интернет. През последните няколко месеца AI компаниите или въвеждат възможности за търсене, или значително увеличават вече наличните такива. Бот скрейпингът (Bot scraping) - процес, при който автоматизирани програми извличат съдържание от уебсайтове - се е увеличил с 49% спрямо предходните тримесечия.

В последните месеци Claude на Anthropic въведе функционалност за търсене, ChatGPT (най-популярният чатбот в света) отбеляза скок в броя на потребителите, а много големи доставчици на AI платформи започнаха да се налагат инструменти за задълбочено проучване.

В същото време издателите засилиха защитата си. Докладът на TollBit разкрива, че през януари медийните уебсайтове са използвали различни методи за блокиране на AI ботове четири пъти повече, отколкото през предходната година. Първата линия на защита е да се коригира файлът robots.txt на уебсайта, който посочва кои конкретни ботове са добре дошли и кои са забранени за достъп до съдържанието. Проблемът е, че спазването на заданието в robots.txt в крайна сметка е система, основана на честност, и не може да бъде наложена на 100%. Докладът показва, че все повече AI компании я третират като пожелателна: сред сайтовете в мрежата на TollBit ботовете, които игнорират robots.txt, са се увеличили от 3,3% на 12,9% само за едно тримесечие.

Част от това увеличение се дължи на относително нова позиция, която AI компаниите са заели. В общи линии, има три различни вида ботове, които извличат или индексират съдържание:

  • Ботове за обучение: Индексират интернет, за да извличат съдържание, което да предоставят като данни за обучение на модели за изкуствен интелект.

  • Ботове за индексиране на търсене: Индексират уеб пространството, за да гарантират, че моделът има бърз достъп до важна информация извън набора за обучение (който обикновено е остарял).

  • Ботове за потребителски агенти: Излизат в интернет в реално време, за да намерят информация в отговор на запитване на потребител, независимо дали съдържанието, което намират, е било индексирано преди това.

Тъй като №3 е агент, действащ от името на човек, AI компаниите твърдят, че това е разширение на поведението на потребителя и по същество са приели, че могат да игнорират настройките на robots.txt за този случай. Това не е предположение – Google, Meta и Perplexity са го посочили изрично в бележките си за разработчици. Така се получават роботи с човешки вид, влизащи във вашата книжарница.

Когато хората посещават уебсайтове, те виждат реклами и могат да бъдат заинтригувани или привлечени от друго съдържание - например от линк към подкаст по същата тема като статията, която четат. Хората могат да решат дали да платят за абонамент или не. Хората понякога избират да направят трансакция въз основа на информацията, която имат пред себе си.

Ботовете, от друга страна, всъщност не правят нищо от това (поне засега). Голяма част от интернет икономиката зависи от човешкото внимание към уебсайтовете, но както показва докладът, това поведение намалява значително, когато някой използва изкуствен интелект за търсене. AI търсачките осигуряват много малко препращащ трафик в сравнение с традиционните търсачки.

Очаквано, именно това е причината за много от съдебните дела, които в момента се водят между медийни компании и разработчици на изкуствен интелект. Как това ще бъде решено в правната сфера все още не е ясно, но междувременно някои медийни сайтове избират да блокират ботовете – или поне се опитват да го направят – от достъп до съдържанието си.

AI агентите обаче често заобикалят тези предпазни огради.

Разкриване на ботове

Така че, освен да заведат съдебни дела и да се надяват на най-доброто, как издателите могат да си възвърнат част от влиянието си в нововъзникващия свят на AI агентите? Този въпрос все още няма напълно валиден отговор.

Още повече, че идеята да се третира дейността на агентите като еквивалентна на човешката има последствия, които надхвърлят медиите. Всяко съдържание или инструмент, които традиционно са били достъпни безплатно, ще трябва да бъдат преоценени с навлизането на все повече софтуерни роботи. Ако е имало някакви съмнения, че простото актуализиране на инструкциите в robots.txt е достатъчно, докладът на TollBit ги разсейва напълно.

Позицията, че „AI просто прави това, което правят хората“, често се използва като защита, когато подобни системи поглъщат големи количества информация и след това произвеждат ново съдържание въз основа на нея. Сега създателите на тези системи тихо разширяват тази идея, позволявайки на своите агенти ефективно да се представят за хора, докато търсят данни в интернет. Докато не стане ясно как да се създадат печеливши магазини за роботи, трябва да има начин те да бъдат принудени да свалят маските си.