TikTok hat seinen Algorithmus verschärft, der explizite Inhalte erkennen kann. Das Social-Media-Unternehmen ist nun noch besser in der Lage, sogenannte „suggestive Inhalte“ zu erkennen, die nicht für Minderjährige geeignet sind, aber auch nicht gegen die Richtlinien verstoßen.
Dank der Verbesserungen des Algorithmus würden junge Menschen noch weniger mit so genannten „anzüglichen“ oder „grenzwertigen Inhalten“ konfrontiert, was das soziale Netzwerk zu einem sichereren Ort für junge Menschen machen sollte, so das Unternehmen. Die sogenannten „grenzwertigen Inhalte“ können sexuell oder gewalttätig sein. Diese Art von Inhalten ist für minderjährige TikTok-Nutzer nicht geeignet, verstößt aber auch nicht gegen die Regeln der Plattform, da sie manchmal nicht explizit genug sind, um von der Plattform entfernt zu werden.
Diese Art von TikTok-Videos werden Jugendlichen zwischen 13 und 17 Jahren seit der Einführung des sogenannten Content Levels“-Bewertungssystems Anfang des Jahres nicht mehr über Empfehlungen oder Suchergebnisse angezeigt. Das Social-Media-Unternehmen sagt auch, dass es mit der Hilfsorganisation StopNCII, Meta und Bumble zusammenarbeitet, um die Verbreitung von expliziten Bildern auf der Plattform zu stoppen.