Ich bin über einen Artikel gestolpert, der ein recht simples Experiment beschreibt: ein Test Account, mehrere Tage TikTok, aber ohne Suche, ohne Likes, ohne Kommentare. Also wirklich nur PASSIV durch die österreichische For You Page scrollen.

Was dabei rausgekommen ist, fand ich schon bemerkenswert. Laut dem Bericht hat sich der Feed innerhalb kurzer Zeit deutlich verschoben: zuerst allgemeine Parteipolitik, dann ziemlich schnell immer mehr FPÖ bezogene Inhalte und von dort ging es weiter zu ideologisch aufgeladenen Memes bis hin zu klar rechtsextremen Inhalten. Und das Ganze soll passiert sein, ohne dass aktiv nach sowas gesucht wurde. Einfach nur durch weiter swipen.

Dann haben sie auch noch die TikTok Daten vom Test Account angefordert. TikTok liefert zwar eine Menge Tabellen, aber das meiste ist leer und genau die Infos, die erklären würden WARUM der Algorithmus diese Richtung einschlägt, tauchen nicht auf. Also wenig nachvollziehbar, was dem Account an Interessen zugeordnet wurde und wieso bestimmte Inhalte kommen. Bleibt ziemlich INTRANSPARENT.

Parallel wurden während des Experiments mehrere Accounts mit rechtsextremen Inhalten gemeldet. Zum Zeitpunkt der Veröffentlichung waren die weiterhin online.

Diese: https://kontrast.at/fpoe-tiktok-rechtsextrem/

Frage an euch: Habt ihr schon erlebt, dass eure For You Page sich extrem schnell „einschleift“ und immer EXTREMER wird Und was wäre euch wichtiger: mehr TRANSPARENZ, warum Inhalte ausgespielt werden, oder härtere MODERATION bei problematischen Accounts

Experiment zeigt wie schnell die österreichische Tiktok-For-You-Page extremistisch kippen kann
byu/Ecstatic-Ad-4466 inAustria



Von Ecstatic-Ad-4466

Share.

9 Kommentare

  1. Ecstatic-Ad-4466 on

    Ich glaub viele unterschätzen, wie stark der Feed auf kleine Signale reagiert. Man merkt es oft erst, wenn man länger in einer bestimmten Ecke landet und dann plötzlich fast nur noch ähnliche Inhalte sieht. Ob das jetzt aktiv „radikalisiert“ oder einfach nur verstärkt, was ohnehin mehr Aufmerksamkeit bekommt, ist schwer zu sagen.

    Was mich eher beschäftigt ist die fehlende TRANSPARENZ. Wenn weder klar ist, welche Interessen zugeordnet werden noch warum bestimmte Inhalte gepusht werden, bleibt wenig Möglichkeit das nachzuvollziehen. Gleichzeitig ist Moderation auch schwierig, weil Plattformen riesige Mengen Content prüfen müssen.

    Am Ende wahrscheinlich eine Mischung aus beidem mehr Einblick in den Algorithmus und gleichzeitig konsequenteres Vorgehen gegen klare Verstöße.

  2. imnotokayandthatso-k on

    FYP zeigt dir Sachen die dir gefallen. Wenn du die FPÖ Videos wegdrückst, zeigts dir nimmer. News at 11

  3. blackdevilsisland on

    Ich hab vor ein paar Wochen ein YT Video gesehen, das genau das testet aber mit mehr Plattformen – FB, X, TikTok, YT, … Auch ohne Suche, ohne Kommentare, aber mit likes. Das war auch sehr interessant!

    Wenn ich das Video nochmal finde, edit ich den Link rein

  4. springdiwan on

    Hab das auch auf Telegram gemacht. Man glaubts kaum, was es da alles gibt, wie schnell da die irrsten vorgeschlagen werden.
    Hab Anfang Kickl gefolgt, dann Sellner, dann InfoDirekt. Bin jetzt bei Björn Höcke, dann wird schon vorgeschlagen: Der III. Weg, Kanal Sturmzeichen mit ärgstem Nazi-Dreck

  5. Flaky_Answer_4561 on

    Ah endlich der tägliche Kontrast Post hab schon drauf gewartet /s

  6. TruePantomath on

    Was hier noch die Frage wäre, Wie lange bei gewissen Videos verweilt wurde. Das macht nämlich sehr wohl einen unterschied, ja auch die paar sekunden, ob du jetzt ein „normales“ video nach 1 sekunden wegscrollst oder ein extremes video dir 5 sekunden anschaust, bei dem Experiment müsste gleichmäßig bei den Videos weitergescrollt werden, um ein seriöses Ergebnis zu erzielen.

Leave A Reply