Як TikTok формує стрічку рекомендацій для кожного користувача?
На рекомендації в TikTok впливає час перегляду роликів – як довго користувач зупинявся на відео, навіть якщо не лайкнув і не поділився ним, йдеться в розслідуванні The Wall Street Journal, повідомляють на Mind.ua
Найпопулярніша функція в TikTok – це стрічка рекомендацій. У 2020 році компанія заявляла, що система заснована на чотирьох основних факторах: лайки, репости, підписки і взаємодія з відео.
Користувачі TikTok часто дивуються, наскільки точно працює алгоритм – нібито він «читає думки». Вони відзначають, що не шукають в пошуку і навіть не вимовляють вголос певні речі, але вони потім з’являються у них в стрічці рекомендацій.
Деталі роботи алгоритму рекомендацій компанія ByteDance, що володіє соцмережею, не розкриває. Щоб з’ясувати, як саме він працює, журналісти WSJ створили більше сотні ботів у TikTok, які «переглянули» сотні тисяч роликів.
Ботам привласнили локацію, дату народження і кілька «цікавих» для них тем. Вони не лайкали відео, а тільки проглядали до кінця або дивилися двічі ті ролики, які відповідали їх темам. TikTok з’ясував інтереси одних ботів через дві години, а інших – швидше, ніж за 40 хвилин.
Новому користувачеві TikTok пропонує різні мейнстрімові відео з великою кількістю переглядів. Коли алгоритм розуміє, на яких відео користувач частіше зупиняється, то починає пропонувати більш «нішеві» ролики – наприклад, про готування або ремонт будинків.
Одному з ботів привласнили інтереси «депресія» і «смуток». Спочатку TikTok пропонував йому відео про те, як пережити розставання, але оскільки бот на них не реагував, в рекомендації потрапили ролики про проблеми з ментальними здоров’ям. У результаті стрічка «депресивного бота» на 93% складалася з такого контенту – інші 7% в основному були рекламою;
У TikTok відзначили, що симуляція WSJ не відображає реальну ситуацію, тому що зазвичай у людей різноманітне коло інтересів. Але, як заявили журналісти, навіть акаунти з різнобічними інтересами рано чи пізно опинялися в «кролячій норі». Боти виходили з «нір», тільки коли журналісти міняли їм інтереси.
Бот, який цікавиться політикою, через кілька десятків відео дійшов до конспірологічних теорій QAnon, а бот, який цікавиться сексом, потрапив у «нору» про БДСМ. Чим глибше користувач проникає в «нору», тим небезпечнішим може бути контент, оскільки його менше модерують – журналісти знайшли ролики про булімію, анорексію, заклики до суїциду і розповіді про передозування.
«Додаток відстежує кожну секунду, на яку ви затримуєтеся на відео. TikTok дізнається про ваші таємні інтереси та емоції – і відправляє вас у «кролячу нору» контенту, з якої складно вийти», – зазначають журналісти.
Гійом Шасло, засновник організації Algotransparency, яка забезпечує прозорість алгоритмів YouTube, розповів виданню, що TikTok важливо знаходити контент, який користувачі будуть дивитися частіше: «Алгоритм визначає, що депресивний контент створює залученість, тому просуває його. Таким чином, алгоритм підштовхує людей до все більш і більш небезпечного контенту, щоб змусити дивитися більше відео».