
Dr. Astrid Deilmann • LinkedIn
... anstatt Social Media nur für Jugendliche zu verbieten – und welche Regeln es für die Plattformen jetzt braucht.
Dass jetzt auch die SPD über Altersbeschränkungen für Social Media diskutiert, ist ein wichtiges Signal.
Denn die massiven psychologischen und gesellschaftlichen Schäden, die Plattformen verursachen, lassen sich schlicht nicht mehr ignorieren. Wer mit Jugendlichen spricht, mit Lehrkräften, wer selbst Kinder hat – merkt sofort:
Das Problem ist real. Und es wächst.
Aber so nachvollziehbar der Impuls ist, so klar will ich sagen: Altersgrenzen (die ohnehin umgangen werden können) lösen das Problem allein nicht. Sie behandeln Symptome, nicht Ursachen.
Das eigentliche Problem kommt aus dem Inneren der Plattformen selbst – und besteht in den Algorithmen von TikTok, X oder Instagram.
Diese Systeme sind strukturell darauf ausgerichtet, Aufmerksamkeit maximal zu binden. Und das gelingt am leichtesten mit Empörung, Polarisierung und emotional aufgeladenen Inhalten.
Mit einem Dauer-Dopamin-Bombardement, das süchtig machen kann. Deshalb werden Hass, Desinformation und Extreme auf Social Media systematisch belohnt – und das trifft Erwachsene wie Jugendliche gleichermaßen.
So funktioniert das Geschäftsmodell der Plattformen. Wenn wir also ernsthaft über Schutz sprechen wollen, müssen wir an die Wurzel. Markus Beckedahl hat Recht:
“Wir sollten Big Tech endlich für alle konsequent regulieren, anstatt nur für Jugendliche verbieten.”
Die spanische Regierung zeigt, dass das geht: Es braucht ein Verbot von süchtig machenden Features, die auf möglichst lange Verweildauer ausgerichtet sind.
Und im Zweifel den Entzug der Betriebserlaubnis in der EU.
Plattform-Manager dürfen sich nicht länger hinter Firmenstrukturen verstecken, wenn illegale Inhalte massenhaft verbreitet werden – persönliche Haftung wäre ein echter Hebel. Und wir brauchen endlich eine gesetzliche Pflicht zur Transparenz darüber, wie die Empfehlungsalgorithmen funktionieren und welche Inhalte sie verstärken.
Kurz gesagt: Die Zugänge zu regulieren ist besser als nichts. Aber nur gerade so. Denn Zugangssperren können umgangen werden und helfen Erwachsenen ohnehin nicht.
Ich meine: Die schädliche Architektur unserer digitalen Öffentlichkeit weiter unangetastet zu lassen, wäre ein fataler Fehler. Die politische Debatte hat endlich begonnen. Jetzt muss die Politik nur noch mutig werden – und sich trauen, im Interesse der Nutzerinnen und Nutzer zu handeln.
NTV hier 17.02.2026,Quelle: ntv.de, raf/dpa/rts
Spaniens Regierungschef will gegen Tech-Giganten durchgreifen
"Straflosigkeit muss Ende haben"
Der spanische Ministerpräsident Sánchez sieht in den sozialen Medien eine Gefahr für Kinder. Er schaltet die Justiz ein. X-Eigentümer Elon Musk macht er sich mit seinem Vorgehen nicht zum Freund.
In der Affäre um KI-generierte sexualisierte Bilder wächst der Druck auf Online-Netzwerke.
Die spanische Regierung will prüfen lassen, ob die Social-Media-Plattformen X, Meta und Tiktok durch ihre Anwendungen künstlicher Intelligenz möglicherweise Straftaten im Zusammenhang mit der Darstellung von sexualisierter Gewalt gegen Kinder und Jugendliche begehen. Das kündigte Ministerpräsident Pedro Sánchez in einem Beitrag auf X an.
"Diese Plattformen greifen die psychische Gesundheit,
die Würde und die Rechte unserer Söhne und Töchter an.
Der Staat darf das nicht zulassen.
Die Straflosigkeit der Tech-Giganten muss ein Ende haben"
, schrieb der linksgerichtete Regierungschef.
Der Ministerrat werde noch am heutigen Dienstag die Staatsanwaltschaft einschalten, damit eine Untersuchung eingeleitet werde.
Zu Jahresbeginn hatte die Künstliche Intelligenz (KI) "Grok" weltweit für Empörung gesorgt. Sie erlaubt es Nutzern, Personen auf hochgeladenen Bildern zu entkleiden oder sie in sexualisierten Posen darzustellen. Diese von der KI manipulierten Bilder wurden auf X und in anderen Online-Netzwerken geteilt.
Daraufhin leiteten die Behörden mehrerer Staaten Ermittlungen gegen X und den Grok-Entwickler xAI ein. Beide Unternehmen gehören dem umstrittenen Milliardär Elon Musk. Als Reaktion auf die Untersuchungen beschränkte X den Zugang zu bestimmten Grok-Funktionen auf zahlende Nutzer.
Die separate Grok-App generiert auf Aufforderung jedoch weiterhin sexualisierte Bilder.
Sánchez hatte bereits angekündigt, nach dem Vorbild Australiens ein Verbot sozialer Medien für alle Personen unter 16 Jahren einführen zu wollen. Er verglich soziale Medien mit einem gescheiterten Staat, in dem Gesetze missachtet und Verbrechen toleriert würden. X-Eigentümer Elon Musk beleidigte Sánchez daraufhin und schrieb in einem Post mit Kackhaufen-Emoji: "Der dreckige Sánchez ist ein Tyrann und ein Verräter des spanischen Volkes."
Christoph Hussy •
Spaniens Ministerpräsident hat einen klaren politischen Anspruch formuliert: Plattformen sollen nicht länger von struktureller „Straflosigkeit“ profitieren.
Der vorgestellte Maßnahmenkatalog zielt auf Verantwortung entlang der gesamten Wertschöpfungskette digitaler Kommunikation – von Managementhaftung über algorithmische Transparenz bis hin zur systematischen Messung von Hass und Polarisierung.
Die spannende Frage ist: Wie könnte ein solcher Ansatz in Deutschland aussehen?
Deutschland verfügt bereits über ein vergleichsweise dichtes Regulierungsumfeld – vom NetzDG über den Digital Services Act der EU bis hin zu medienrechtlichen Aufsichtssystemen. Dennoch zeigen viele Debatten der letzten Jahre: Die Durchsetzung bestehender Regeln ist oft komplex, fragmentiert und für Betroffene schwer nachvollziehbar.
Ein möglicher deutscher Ansatz könnte daher weniger im „Mehr an Gesetzen“, sondern stärker in folgenden Punkten liegen:
👉 Klare Verantwortungszuordnung auf Führungsebene
Nicht nur Unternehmen als juristische Person, sondern konkrete Entscheidungsträger müssten stärker in die Pflicht genommen werden, wenn systemische Verstöße nachweisbar sind.
👉 Verpflichtende Transparenz über algorithmische Verstärkungsmechanismen
Nicht jeder problematische Inhalt entsteht durch Nutzer allein – Reichweite wird aktiv erzeugt. Hier braucht es nachvollziehbare Prüfmechanismen und unabhängige Audits.
👉 Messbarkeit statt politischer Bauchgefühle
Ein standardisiertes, wissenschaftlich fundiertes Monitoring von Hass, Desinformation und Polarisierung könnte die Grundlage für evidenzbasierte Regulierung schaffen.
👉 Konsequente und koordinierte Durchsetzung
Deutschland hat viele zuständige Stellen – entscheidend wäre eine stärkere Bündelung von Kompetenzen und schnellere Verfahren.
Gleichzeitig gilt: Jede Regulierung muss die Balance zwischen Schutz vor Rechtsverstößen und Wahrung der Meinungsfreiheit sichern. Vertrauen entsteht nur, wenn Eingriffe transparent, überprüfbar und rechtsstaatlich kontrolliert sind.
Die zentrale Herausforderung bleibt also nicht nur die Regulierung digitaler Plattformen – sondern die Entwicklung eines Modells, das Verantwortung, Freiheit und demokratische Stabilität gleichermaßen schützt.
Keine Kommentare:
Kommentar veröffentlichen