EU ermittelt gegen Facebook und Instagram wegen schädlicher Inhalte

Handy-Display mit Icons von Facebook und Instagram

(Bild: Koshiro K / Shutterstock.com)

Algorithmen könnten Süchte bei Kindern auslösen, so der Verdacht der EU-Behörden. Untersuchung richtet sich auch gegen Desinformation vor den EU-Wahlen.

Nach der Social-Media-Plattform TikTok haben die EU-Behörden nun auch Facebook und Instagram ins Visier genommen. Es wird geprüft, ob sie gegen die EU-Regeln für Online-Inhalte verstoßen haben. Dabei geht es vor allem um den Schutz von Kindern und den Umgang mit Desinformation im Vorfeld der Europawahlen. Bei Verstößen drohen hohe Bußgelder.

Kinder- und Jugendschutz im Mittelpunkt der Vorwürfe

Die Europäische Kommission hat eine eingehende Untersuchung der beiden Plattformen eingeleitet, die zum US-Konzern Meta gehören. Sie befürchtet, dass die Plattformen nicht ausreichend gegen Gefahren für Kinder vorgegangen sind. Das berichtet Reuters. Meta hatte im September einen Bericht zur Risikobewertung vorgelegt.

Die Kommission ist besorgt, dass die Systeme von Facebook und Instagram, einschließlich ihrer Algorithmen, Verhaltenssüchte bei Kindern fördern könnten. Sie spricht von möglichen Kaninchenloch-Effekten".

Darunter verstehen Experten, dass Internetnutzer mit einfachen Recherchen beginnen und dann immer tiefer in die Tiefen des Internets gezogen werden. Dabei können sie mit immer bizarreren Inhalten konfrontiert werden, was schließlich dazu führen kann, dass sie sich in politischen Parallelwelten wiederfinden.

Ferner hegt die Kommission Zweifel an den von Meta verwendeten Methoden zur Altersverifikation und -kontrolle. Hier geht es um den Zugang von Kindern zu ungeeigneten Inhalten.

Desinformation im Vorfeld der Europawahlen

Bereits im April wurde über ein Verfahren gegen Meta-Plattformen diskutiert. Dabei spielten die Themen Desinformation und irreführende Werbung im Vorfeld der Wahlen zum Europäischen Parlament eine besondere Rolle. Die EU-Behörden warfen Meta vor, nicht ausreichend dagegen vorgegangen zu sein.

Die EU-Behörden sind besorgt über mögliche Quellen von Desinformation, darunter Russland, China und der Iran. Aber auch innerhalb der EU könnten politische Parteien und Organisationen versuchen, Wähler mit Falschinformationen zu beeinflussen.

Die Untersuchung wird sich insbesondere auf ein in Russland ansässiges Netzwerk namens "Doppelgänger" konzentrieren, das von Meta im Jahr 2022 aufgedeckt wurde. Meta hat nach eigenen Angaben Zehntausende von Links zu diesem Netzwerk gesperrt. Die EU-Kommission wirft dem Unternehmen etwa vor, mit unzureichenden Moderationskriterien zu arbeiten.

Meta verteidigt seine Vorgehensweise

Meta, mit mehr als 250 Millionen monatlich aktiven Nutzern in der Europäischen Union, verteidigt seinen Ansatz zur Risikominimierung.

"Wir haben einen etablierten Prozess, um Risiken auf unseren Plattformen zu identifizieren und zu mindern", sagte ein Sprecher des Unternehmens laut Reuters. Man freue sich darauf, die Zusammenarbeit mit der Europäischen Kommission fortzusetzen und weitere Details zu liefern.

Verstöße gegen den Digital Services Act (DSA) der EU können zu Geldstrafen von bis zu 6 Prozent des weltweiten Jahresumsatzes eines Unternehmens führen. Der DSA trat letztes Jahr in Kraft und verlangt von Technologieunternehmen, mehr gegen illegale und schädliche Inhalte auf ihren Plattformen zu unternehmen.