Der Algorithmus, der erzieht
TikTok unterhält, vernetzt – und manipuliert. Der Algorithmus lernt, was wir fühlen, und formt still unsere Werte, unser Selbstbild und unsere Weltanschauung.

Auf den Punkt gebracht
- Aufmerksamkeit. TikTok ist gebaut, um Nutzer zu fesseln – jede Emotion wird zu einem Datenpunkt im Geschäftsmodell.
- Radikalisierung. Der Algorithmus verstärkt extreme, polarisierende Inhalte, weil Empörung länger bindet als Wahrheit.
- Selbstbild. Jugendliche lernen über TikTok, wie sie aussehen, denken und fühlen sollen – in einer Endlosschleife der Bestätigung.
- Verantwortung. Eltern und Lehrkräfte kämpfen gegen Systeme, die psychologisch präziser sind als jede Erziehung.
TikTok mag wie der digitale Spielplatz des 21. Jahrhunderts erscheinen, ein Ort voller Kreativität, Humor und flüchtiger Verbindungen. Aber hinter den Tanztrends, Glow-ups und viralen Memes verbirgt sich etwas weitaus Heimtückischeres. Der gleiche Algorithmus, der Millionen von Menschen an ihre Bildschirme fesselt, prägt auch still und leise die Art und Weise, wie junge Menschen sich selbst, einander und die Welt um sie herum sehen.
Mehr im Dossier TikTok
- Yazdi-Zorn zu TikTok: „Die Kinder verblöden“
- TikTok an den Schulen: Medienkompetenz als Selbstverteidigung
- Radikalisierung zwischen Internet und Moschee
- Wischen statt Wissen: Die Generation Smartphone
- Was Kindern im Netz begegnet – und was Eltern tun können
- Social-Media-Umfrage: Bitte verbieten (für Jugendliche)
- 9 Erziehungs-Tipps für Eltern
Unter der Oberfläche der kurzen Videos und Memes beschleunigt das für maximale Interaktion optimierte Kerndesign der Plattform aktiv die Konfrontation junger Menschen mit schädlichen, extremen und radikalisierenden Inhalten. Untersuchungen zeigen immer wieder, dass die schiere Menge an provokativem Material, das der Algorithmus von TikTok liefert, schädliche Sichtweisen normalisieren und sie nahtlos in das tägliche digitale Leben integrieren kann. Was als passives Scrollen beginnt, wird schnell zu einem subtilen Prozess der ideologischen und sozialen Konditionierung.
Mechanismus der Radikalisierung und Schädigung
All dies hängt mit dem Geschäftsmodell von TikTok zusammen, das auf einer einzigen Sache basiert: Aufmerksamkeit. Jede Sekunde, die mit Scrollen verbracht wird, jeder Wisch ist ein weiterer Datenpunkt, eine weitere Werbeeinblendung, ein weiterer verdienter Dollar. Das Design der App ist sorgfältig darauf ausgelegt, dass Sie weiter schauen, liken, teilen und wiederkommen. Die Nutzer so lange wie möglich zu fesseln – ein Zwang, den TikTok unglaublich effizient fördert – ist entscheidend für den finanziellen Erfolg der Plattform.
Bereits nach 30 Minuten Nutzung beginnt der Algorithmus von TikTok, Ihr psychologisches Profil zu „lernen”. Er findet heraus, was Sie begeistert, was Sie wütend macht, was Sie schockiert, und versorgt Sie dann mit mehr davon. Und da Empörung, Angst und Faszination das Engagement weitaus besser fördern als die Wahrheit, drängt das Empfehlungssystem von TikTok natürlich zu extremeren und emotional aufgeladenen Inhalten.
Für viele junge Männer ist TikTok zu einem unsichtbaren Mentor geworden. Der Algorithmus nutzt Einsamkeit, Unsicherheit und Frustration aus, die in der Pubertät häufig vorkommen, und beginnt, ihnen Inhalte zu liefern, die ihnen ein Gefühl der Stärke vermitteln, in Wirklichkeit aber zutiefst toxisch sind. Obwohl sie wiederholt gesperrt wurden, dominieren Persönlichkeiten wie Andrew Tate und seine Nachahmer nach wie vor die Plattform.
Antifeministische „Selbstverbesserung“
Ihre Videos erzielen Milliarden von Aufrufen und fördern hypermaskuline Ideale und antifeministische Rhetorik, die als „Selbstverbesserung“ getarnt ist. Durch die Algorithmen von TikTok wird jungen Männern suggeriert, dass die Welt gegen sie gerichtet ist, dass der Fortschritt der Frauen ihr Untergang ist und dass Aggression Stärke bedeutet. Diese Botschaft fühlt sich bestätigend an, und genau deshalb verbreitet sie sich so schnell.
Während viel über den Einfluss von TikTok auf Jungen geschrieben wurde, ist die Wirkung der Plattform auf Mädchen ebenso tiefgreifend und wohl noch weitreichender. Die Toxizität von TikTok radikalisiert nicht nur, sondern formt auch das Selbstwertgefühl neu. Für junge Mädchen ist die Gefahr oft weniger ideologischer als psychologischer Natur. Die Plattform bombardiert sie mit einem unerbittlichen Strom von körperbezogenen Inhalten: Videos über „was ich an einem Tag esse“, „Glow-up“-Challenges und gefilterte Beauty-Trends, die Wert mit Schlankheit, Symmetrie und sexueller Attraktivität gleichsetzen. Das Ergebnis? Eine Generation von Mädchen, die ihren Wert an Likes und Blickwinkeln messen.
Jüngste Studien haben ergeben, dass der Algorithmus von TikTok besonders aggressiv ist, wenn es darum geht, Videos zum Thema Aussehen an jugendliche Nutzer zu pushen, selbst an diejenigen, die nicht danach suchen. Sobald ein einziger Clip über Diäten, plastische Chirurgie oder Körpervergleiche angesehen wird, überschwemmt der Algorithmus den Feed mit ähnlichen Inhalten. Was als Neugier beginnt, entwickelt sich schnell zu einer Obsession, zu Angstzuständen und bei vielen zu Essstörungen. Schlimmer noch, die Grenze zwischen Empowerment und Ausbeutung ist verschwommen. Videos, die mit „Selbstliebe“ getaggt sind, verstärken oft genau die Unsicherheiten, die sie angeblich bekämpfen wollen, und Influencer und Marken profitieren von denselben Unsicherheiten, zu deren Entstehung sie beitragen, indem sie „Lösungen“ für Probleme verkaufen, die TikTok selbst fördert.
Süchtig nach Radikalisierung
Es ist nicht nur so, dass sich Fehlinformationen leicht verbreiten, sondern dass das System sie auch belohnt. Je mehr man reagiert, desto tiefer verfällt man in das, was Forscher als „You-Loop“ bezeichnen, eine personalisierte Echokammer mit Inhalten, die speziell auf die eigenen Unsicherheiten und Wünsche zugeschnitten zu sein scheinen. Würden die Algorithmen so geändert, dass Sicherheit Vorrang hat, würden die Nutzer laut Forschungsergebnissen weniger Zeit auf der Website verbringen, weniger auf Anzeigen klicken und das Unternehmen würde folglich weniger Geld verdienen. Aber hier kommt der wirklich beunruhigende Teil: Die Radikalisierung von Jugendlichen auf TikTok sieht selten wie Radikalisierung aus. Sie ist spielerisch. Sie ist memifiziert. Sie ist verpackt in Witzen, Bearbeitungen und ironischem Humor.
Anstelle von offensichtlichen Hassreden werden junge Nutzer von scheinbar harmloser Unterhaltung, Sketchen mit schwarzem Humor, „motivierenden“ Tiraden oder ironischen Kommentaren angezogen, die Gewalt, Frauenfeindlichkeit und Diskriminierung langsam normalisieren. Das macht TikTok besonders gefährlich, da giftige Ideologien offen sichtbar versteckt sind. Ein Witz über „Alpha-Männer“ wird zum Einstieg in antifeministische Communities. Ein sarkastisches Meme über Diäten führt zu endlosen Videos, die Hungern oder „clean eating“ verherrlichen. Die Aufgabe des Algorithmus ist es nicht, zu hinterfragen, sondern zu verstärken. Dieser Prozess füllt beliebte digitale Umgebungen für Jugendliche schnell mit gefährlichen Ansichten, wobei junge Nutzer zugeben, dass solche Inhalte „einfach überall“ zu finden sind.
Die „For You Page“ von TikTok versorgt die Nutzer mit einer konzentrierten Dosis an Informationen, die eine engstirnige, bereits vorhandene Weltanschauung bestätigen, was schnell zu einer Sucht führt. Der Algorithmus erkennt den Keim einer Idee, einer Frustration oder Unsicherheit und beginnt, diese zu nähren, indem er Inhalte anbietet, die sich sehr persönlich und bestätigend anfühlen. Untersuchungen legen nahe, dass sich Sucht im digitalen Zeitalter auf diese Weise entwickelt, nicht als Verlangen nach Substanzen, sondern als Verlangen nach Bestätigung.
Der Algorithmus lernt Ihre emotionalen Schwachstellen kennen und beginnt, sie zu nähren. Was als Neugier beginnt, verfestigt sich bald zu einer Abhängigkeit, einem unruhigen Bedürfnis, alle paar Sekunden etwas zu fühlen, egal was. Diese ständige Stimulation verändert die Aufmerksamkeitsspanne, die emotionale Schwelle und sogar die Empathie selbst.
Die Ästhetik des Extremismus
Verschwörungstheorien werden in Pastellgrafiken präsentiert, Frauenfeindlichkeit kommt mit filmischen Schnitten und motivierenden Zitaten daher. Selbst die Ästhetik des Extremismus hat sich abgeschwächt, Hassreden werden neu codiert, um viral zu gehen. Rechtsextreme Themen werden mit Lo-Fi-Musik und Montagen von Sonnenuntergängen unterlegt. Hypermaskulinität wird als „Disziplin” verkauft. Jede Ideologie hat ihren Influencer gefunden, jede Weltanschauung ihren ästhetischen Filter. Durch die Gamifizierung schädlicher Narrative verwandeln soziale Medien gefährliche Ideen in etwas, das sich interaktiv und lohnend anfühlt. Man schaut nicht nur zu, man nimmt teil. Jedes „Gefällt mir”, jedes Teilen oder jeder Kommentar fühlt sich wie ein Fortschritt an, wie eine kleine Handlung in einer größeren Bewegung.
In seltenen, tragischen Fällen können diese digital normalisierten Gewalttaten auf die reale Welt übergreifen. Beispielsweise prägt die weit verbreitete Konfrontation mit zeitgenössischer Pornografie, die häufig gewalttätig ist und Zwangs- oder erniedrigende Handlungen darstellt (79 % der Jugendlichen sehen dies vor ihrem 18. Lebensjahr), sexuelle Normen. Die Normalisierung ist so ausgeprägt, dass 42 % der Jugendlichen angeblich davon ausgehen, dass Mädchen sexuelle Gewalt „genießen”.
Das Erschreckendste daran ist, wie banal es sich anfühlt. Für den zufälligen Betrachter ist es nur ein weiteres Video in einem Feed. Aber für den Algorithmus sind es Daten, ein Beweis dafür, dass dieser bestimmte Nutzer auf diesen bestimmten Ton, diese bestimmte Emotion und diese bestimmte Ideologie reagiert. Der Algorithmus zwingt keine Überzeugung auf, er suggeriert sie sanft und konsequent, bis Widerstand unnötig erscheint. Am Ende fühlen sich die Nutzer nicht einer Gehirnwäsche unterzogen. Sie fühlen sich gesehen.
Wie können wir das beheben?
TikTok ist jedoch nicht von Natur aus böse. Sein kurzes, kreatives und unmittelbares Format hat die Kraft, zu bilden, zu mobilisieren und zu verbinden. Wir haben gesehen, wie es politische Bewegungen befeuert, ungehörte Stimmen verstärkt und marginalisierten Gemeinschaften eine globale Bühne verschafft hat. Das Problem ist die wirtschaftliche Logik hinter TikTok, nicht das Medium selbst. Wenn Aufmerksamkeit zur Währung des Erfolgs wird, werden Radikalisierung und Schaden zum Preis des Geschäfts.
TikTok spiegelt wider, womit wir uns beschäftigen, und vergrößert es dann so lange, bis wir nicht mehr wegsehen können. Es spiegelt wider, wer wir sind, verzerrt das Spiegelbild jedoch gerade so weit, dass wir länger hinschauen. Für viele junge Menschen hat sich dieser Spiegel in einen Spiegel voller verzerrter Bilder von Schönheit, Männlichkeit und Zugehörigkeit verwandelt. Was sie darin sehen, ist nicht das, was sie sind, sondern das, was der Algorithmus aus ihnen machen will.
Das Problem ist also nicht, dass junge Menschen TikTok lieben. Das Problem ist, dass TikTok gelernt hat, sie zurückzulieben – strategisch, unerbittlich, aus Profitgründen. Die Plattform fragt nicht, was gut für die Nutzer ist, sondern was sie hier hält. Und die Antworten auf diese Fragen überschneiden sich selten. Solange Tech-Unternehmen nicht gezwungen sind, ihre Systeme so umzugestalten, dass das Wohlbefinden Vorrang vor der Nutzungsdauer hat, lastet die Verantwortung für den Schutz ungerechtfertigterweise auf Familien, Pädagogen und den jungen Nutzern selbst. Eltern können nicht mit Algorithmen konkurrieren, die ihre Kinder besser kennen als sie selbst. Lehrer können die stundenlange Konditionierung, die sich vor Beginn des ersten Unterrichts auf den Bildschirmen abspielt, nicht rückgängig machen.
Entscheidet der Algorithmus, wer wir sind?
Seien wir ehrlich: Wachsamkeit allein wird uns nicht retten. Es ist unvernünftig, ja sogar grausam, von Einzelpersonen, insbesondere von Kindern, zu erwarten, dass sie milliardenschwere Aufmerksamkeitsmaschinen überlisten. Regierungen haben begonnen und müssen Transparenz bei der Entwicklung von Algorithmen fordern, unabhängige Prüfungen finanzieren und Funktionen verbieten, die absichtlich süchtig machen sollen. Die zukünftige psychische und soziale Gesundheit einer ganzen Generation hängt davon ab.
Es ist an der Zeit, dies nicht länger als Erziehungsproblem oder Generationenkonflikt zu betrachten. Das Problem liegt nicht in einem Versagen der individuellen Disziplin, sondern in einem System, das grundlegend darauf ausgelegt ist, sich jeder Einschränkung zu widersetzen. Die Frage ist nicht, warum Kinder nicht aufhören können zu scrollen. Die Frage ist: Warum lassen wir einen Algorithmus entscheiden, wer sie werden?
Conclusio
Systematisch. TikTok ist keine harmlose Spielerei, sondern ein präzises Instrument zur Aufmerksamkeitsbindung. Schaden ist systemisch, nicht zufällig.
Polarisierend. Algorithmen fördern das, was polarisiert. Nur wer das Prinzip begreift, erkennt, dass Widerstand nicht individuelle Willensfrage ist.
Strategisch. Regierungen müssen Transparenz und Sicherheit erzwingen. Bildungseinrichtungen brauchen Strategien, keine App-Verbote.

