Тайният език на социалните мрежи – мит или реалност е algospeak?
Потребителите често използват евфемизми, защото вярват, че платформите потискат определени теми и съдържание
&format=webp)
В социалните мрежи има определени думи, които сякаш никой не смее да използва. Хората говорят за „нежив“ вместо за „убит“, назовават оръжията „пиу-пиу“ и предпочитат „seggs“ вместо „секс“. Самите потребители признават, че звучат нелепо, но вярват, че ако използват „забранените думи“, алгоритмите ще ги „погребат“.
Тази система от кодирани изрази е позната като algospeak – език, който според мнозина се ражда, защото платформите потискат определени теми, за да се харесат на рекламодателите или да наложат политическо неутрално и „безопасно“ съдържание.
Технологичните гиганти отричат категорично. „YouTube не разполага с списък със забранени думи“, казва говорител на компанията пред BBC. TikTok и Meta твърдят същото – няма забранени думи, всичко зависи от контекста.
Истината обаче е по-сложна.
Историята на социалните мрежи е пълна с примери за това как компаниите тихо променят видимостта на съдържанието си, често в противоречие с публичните им твърдения за прозрачност. Дори когато не става дума за конкретни думи, експертите смятат, че платформите наистина ограничават определени теми.
Проблемът? Потребителят никога не знае причината. Дали публикацията е „наказана“ заради дума, или дадено видео е неприемливо? Тази несигурност създава масова автоцензура, което варира от комична до опасна. Някои хора говорят за сериозни теми, като използват абсурдни евфемизми, други напълно избягват определени дискусии, за да не загубят видимост.
„Островният човек“
Комедиантът и политически коментатор Алекс Пърлман, с милиони последователи, често усеща тежестта на алгоритмите. Според него TikTok „не обича“, когато в клиповете се споменава „YouTube“. Собствените му наблюдения показват спад в гледаемостта в такива случаи.
По-притеснителни са случаите, в които клипове за Джефри Епстийн изчезват без обяснение. В един ден TikTok премахва няколко от тях, оставя предупреждения (strikes) в профила на Пърлман, а обжалванията са отхвърлени, без конкретна причина. Същото съдържание остава видимо в Instagram и YouTube.
Пърлман решава да говори за Епстийн с кодови думи и започва да го нарича „островният човек“. Но този завоалиран език създава друг проблем – голяма част от аудиторията вече не разбира за какво става дума.
История на скритите намеси
Макар платформите да настояват, че са прозрачни и неутрални, серия от разследвания разкриват различна реалност.
Facebook и Instagram системно ограничават палестинско съдържание след започването на войната в Газа на 7 октомври 2023 г., твръдят BBC и Human Rights Watch.
През 2019 г. изтекли документи разкриват, че TikTok е инструктирал модераторите на съдържание да потискат клипове на „неатрактивни“, бедни, хора с увреждания или LGBTQ+ потребители, за да изглежда платформата „по-изискана“. Освен това социалната мрежа предлага на свои бизнес партньори скрита функция, благодарение на която избрани клипове могат да получат много повече видимост и популярност.Платформите твърдят, че тези практики или не съществуват, или са вече премахнати.
„Музикалният фестивал“, който не съществува
През август 2025 г. хиляди потребители публикуват клипове от измислен „музикален фестивал“ в Лос Анджелис. Всъщност кадрите показват протестите срещу дейността на Бюрото за имиграционен и митнически контрол в САЩ. „Фестивал“ е евфемизъм, използван, защото хората вярват, че TikTok цензурира протестно съдържание.
Лингвистът Адам Алексич посочва, че няма доказателства TikTok да е ограничавал видеа от демонстрациите. Според него потребителите сами са започнали да използват кодови думи, водени от страх и несигурност какво ще бъде наказанието.
Иронично, именно тайният език прави тези клипове крайно популярни – хората искат да са част от „посветените“.
Изследователите наричат това „алгоритмично въображение“ – хората започват да се държат така, както си представят, че работят алгоритмите, дори тези представи да не отговарят на истината.
Но именно това променено поведение в крайна сметка влияе на самите алгоритми и ги моделира.
Факт или заблуда?
Algospeak не е нов феномен. Платформите премахват определено съдържание, но често оставят други спорни теми да се разпространяват свободно. Ако TikTok наистина целеше да цензурира думата „убийство“, едва ли би позволил използването на евфемизма „нежив“.
Много създатели признават, че просто експериментират, за да разберат какво ще „минe“ през алгоритмите. Същевременно Meta открито ограничава политическо съдържание между 2023 и 2025 г., което допринася за усещането, че тайният език наистина помага.
„Истинският проблем е липсата на прозрачност“, отбелязва Сара Т. Робъртс от UCLA. Правилата са сложни, неясни и често остават невидими за потребителите. Това ги подтиква да създават свои обяснения и стратегии за оцеляване в платформите.
Алгоритмите не се интересуват от политика, а от пари
В основата на всичко стои бизнес моделът. Платформите печелят от реклама. Търсят масова аудитория, съдържание, което не плаши рекламодателите, и няма да предизвика санкции от страна на регулаторните органи.
В крайна сметка социалните мрежи едва ли са най-подходящото място за обществено недоволство, когато компаниите печелят именно от тази емоция.



)



&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)