Moderatoren, die für Majorel SP Solutions, S.A.U., ein Unternehmen mit Sitz in Barcelona, das sich mit der Moderation und Filterung von Inhalten der Plattform TikTok befasst, beschäftigt waren, haben auf Fragen von Europa Press versichert, dass sie gewalttätige Inhalte wie „Enthauptungen oder Verstümmelungen” überprüft hätten.
Dies berichtete eine ehemalige Mitarbeiterin, die behauptet, dass dies zwar nicht täglich vorkam, aber häufig genug, um sie emotional zu belasten: „Manchmal stießen wir auf Videos, die sehr gewalttätige Szenen zeigten, wie Enthauptungen oder Verstümmelungen, während die Opfer noch am Leben waren”.
Drei der Verantwortlichen des Unternehmens, die am vergangenen Montag (06.10.2025) vor dem Untersuchungsgericht 9 in Barcelona aussagten, bestritten, dass die Mitarbeiter „hochgradig verstörende“ audiovisuelle Inhalte überprüften, und wenn sie dies taten, dann nur in geringem Umfang, wie der Anwalt Francesc Feliu, der Rechtsvertreter der Klägerin, nach der Verhandlung erklärte.
Die ehemalige Mitarbeiterin stimmt zu, dass dies nicht kontinuierlich geschah, behauptet jedoch, dass sie expliziten gewalttätigen Inhalten ausgesetzt waren, insbesondere in Zeiten bewaffneter Konflikte oder Kriege, wenn „besonders harte Inhalte“ eintrafen.
Ihre Darstellung deckt sich mit der einer anderen ehemaligen Mitarbeiterin, die ebenfalls von Europa Press befragt wurde und erklärt, dass sie Enthauptungen und Videos sexueller Natur gesehen habe, wenn auch nicht in übermäßigem Maße, da der Großteil der angesehenen Inhalte musikalischer Natur gewesen sei und sie daher nicht glaube, dass sie psychisch beeinträchtigt worden sei: „Es gab zwar vereinzelt solche Videos, aber im Allgemeinen waren es keine besonders brutalen Videos”.
Die erste der ehemaligen Mitarbeiterinnen weicht jedoch von der Version der Klägerin ab, die behauptete, dass sie nur 5 Minuten pro Stunde Pause machen durften, ohne die Möglichkeit einer zusätzlichen Pause, wenn sie sich schockiert fühlten, und dass sie die Inhalte, die zwischen 1 und 4 Minuten lang waren, vollständig ansehen mussten: „Wir konnten aufhören und sogar bis zum Ende nicht moderieren, und es gab Psychologen, mit denen wir jederzeit sprechen konnten. Darüber kann ich mich nicht beschweren.”
Zur Arbeitsverteilung merkt sie an, dass es in der Majorel-Zentrale in Barcelona zwei Abteilungen gab und dass einige Mitarbeiter mehr als andere den explizit gewalttätigen Inhalten ausgesetzt waren: Diejenigen, die bei TikTok1 arbeiteten, sahen „das Gefährlichste und Gewalttätigste”, das nicht bei TikTok2 ankam, weil es bereits überprüft worden war.
Die ehemalige Mitarbeiterin berichtet, dass zu einem Zeitpunkt in ihrem Leben, als sie aufgrund einer persönlichen Angelegenheit niedergeschlagen war, ein bewaffneter Konflikt ausbrach und die Inhalte, die sie überprüfen musste, sie besonders belasteten: „Ich musste schreckliche Bilder sehen, die mich sehr erschüttert haben.”
Aufgrund dieser Situation, so versichert sie, verfiel sie in eine Depression, aber trotzdem arbeitete sie weiter und fühlte sich weder vom Unternehmen noch von ihren eigenen Kollegen unterstützt: „Ich fühlte mich völlig allein, deprimiert und hilflos”.
Die Ermittlungen wurden aufgenommen, nachdem eine Mitarbeiterin gegen vier Verantwortliche dieses Unternehmens Klage wegen Verbrechen gegen Arbeitnehmer, gegen die moralische Integrität und wegen schwerer fahrlässiger Körperverletzung eingereicht hatte. Sie behauptete, das Unternehmen habe seinen Mitarbeitern „absolut unmenschliche Arbeitsbedingungen“ auferlegt, die für keinen Menschen erträglich seien.
In der Klage werden die Unternehmen Majorel, Tiktok Technology Limited und deren Tochtergesellschaft Tiktok Information Technologies Spain als subsidiär haftbar genannt.
Die Mitarbeiterin behauptet, dass sie bei ihrem Eintritt in das Unternehmen im Jahr 2019 als „Telefonistin” eingestellt wurde, dass sie keine Schulung zur Prävention der mit ihrer Tätigkeit verbundenen psychosozialen Risiken erhalten habe und dass ihr nicht mitgeteilt worden sei, dass sie äußerst gewalttätige Inhalte sehen müsse. Sie behauptet sogar, dass das Unternehmen dieses Detail sowohl in den Vorstellungsgesprächen als auch in den Schulungen nach der Einstellung „herunterspielte”. Sie behauptet, dass sie täglich bis zu 1.200 Videos überprüften, darunter „hochsensibles und verstörendes” Material wie Videos von Morden, Enthauptungen, Verstümmelungen, Vergewaltigungen, Zoophilie, Kinderpornografie, Kindesmissbrauch, Zerstückelungen, Live-Selbstmorden, Folter und Terrorismus.
Die Mitarbeiterin meldete sich 2023 wegen vorübergehender Arbeitsunfähigkeit krank, nachdem sie „die Konfrontation mit diesen hochsensiblen Inhalten aufgrund einer psychischen Störung” nicht mehr ertragen konnte, und reichte im selben Jahr mehrere Beschwerden bei der Arbeits- und Sozialversicherungsaufsicht in Barcelona ein, um auf die Arbeitsbedingungen der Moderatoren aufmerksam zu machen. Dies führte 2024 zu einem Bericht der Arbeitsaufsichtsbehörde, in dem festgestellt wurde, dass ein Ursache-Wirkungs-Zusammenhang zwischen dem Versäumnis, Präventionsmaßnahmen zu ergreifen, und den psychischen Folgen für die Arbeitnehmerin besteht.
Sie behauptet, dass das Unternehmen keine technischen oder organisatorischen Maßnahmen ergriffen habe, um die Auswirkungen der Exposition zu verringern, wie z.B. visuelle Filter oder eine ausgewogene Verteilung sensibler Inhalte, und dass es „nicht die notwendigen Maßnahmen ergriffen habe, um die Sicherheit und Gesundheit der Arbeitnehmerin vor den psychosozialen Risiken ihrer Arbeit zu schützen”.
Auf die Frage, ob sie wieder als Moderatorin arbeiten würde, antwortet eine der ehemaligen Arbeitnehmerinnen, dass sie dies bei demselben Unternehmen niemals tun würde: „Meiner Meinung nach ist es ein skrupelloses Unternehmen”.
Quelle: Agenturen