Deepfake дестинации, реални разочарования: Как изкуственият интелект пренаписва туризма
AI-генерирани курорти и виртуални инфлуенсъри се превръщат в новото лице на туризма – толкова красиво, колкото и нереално. А зад тези нови маркетинг методи вече се крият сериозни рискове за потребителското доверие и автентичността на туристическия опит
&format=webp)
Когато възрастна двойка от Малайзия тръгва към мечтаното приключение – прекарвайки три часа на път с кола от Куала Лумпур до щата Перак, водейки се от TikTok видео на репортерка, която се носи по въжена линия сред гори и щастливи туристи – те очакват да получат преживяването на живота си…
Вместо това обаче се озовават на празен паркинг и, вместо Kuak Skyride, намират само тишина и една служителка на хотел, която им обяснява, че видяното е продукт на Veo3 – генеративният AI инструмент на Google.
„Защо причиняват това на хората?“ – пита жената със смесица от болка и леко объркване. Нито журналистката реално съществува, нито въжената линия, дори туристите, хванати в кадър, не са истински. Всичко е фалшиво. Но логото в долния десен ъгъл е там. Само че никой не го е забелязал.
Тук не се е случила кражба на стойност $200 000, както е в други случаи на AI измами. Репутацията на никого не е срината, както при дийпфейк видеа с директори на училища. Щетите обаче са реални – поредната тухла, извадена от стената на реалността, в свят, където вече няма как да вярваш на това, което виждаш, чуваш или преживяваш.
Това не е единичен случай. Само в рамките на три години делът на дийпфейк измамите скача от 0,1% на 6,5% от всички фалшиви транзакции – над 2100% ръст, според данни на Signicat от февруари 2025 г.
Пенсионерът Стив Бошан губи всичките си $690 000, след като гледа deepfake видеа на Илон Мъск, който рекламира фалшиви инвестиции. Британската компания Arup губи $25 млн. в резултат на фалшиви видеообаждания с имитирани лица на реални служители.
В САЩ директор на училище получава смъртни заплахи след аудиоклип, генериран от негов подчинен, в който го представят като расист и антисемит. А в политиката? Робообаждания с гласа на Джо Байдън призовават избирателите да не гласуват в Ню Хемпшър.
Видеото, заблудило двойката, е публикувано от профил с името TV Rakyat – фалшива телевизия, създадена изцяло от AI. Сценарий, репортер, кадри от „въжената линия“, интервюта с фалшиви туристи – всичко изглежда професионално, изпипано… истинско. Когато разбират, че са били подведени, жената заплашва да съди журналистката… Само че такава личност не съществува.
Случаят се разиграва на 30 юни, разказва хотелски служител, който по-късно споделя историята в Threads. Двойката отказва да повярва, че видеото е фалшиво – толкова убедително било то.
Още преди генеративният изкуствен интелект да се намеси, туризмът страдаше от културата на „селфи пътуванията“.
Според UNESCO туристите все по-често посещават емблематични обекти, само за да се снимат и споделят кадрите онлайн. В Халщат, Австрия – градът, който вдъхновява „Замръзналото кралство“ – милион туристи годишно съсипват живота на местните жители. Венециански гондоли се обръщат заради туристи, отказващи да оставят телефоните си. А в Портофино, Италия, вече глобяват хора с по 300 евро заради „селфи задръствания“.
Досега вината падаше върху плещите на инфлуенсърите – перфектни кадри, изрязани тълпи, реалност, обгърната от филтри. Но в момента зад тези кадри дори не стоят реални хора.
AI инфлуенсъри вече дават „полезни съвети“ за дестинации, които не съществуват. Германия дори използва подобни виртуални образи в своя туристическа кампания. Индустрията на измислените пътешествия вече цъфти, а границите между реклама и измама изглеждат по-бледи от всякога.