Was haben süchtigmachende TikTok-Algorithmen, mangelnder Datenzugang für Forschende und ein Deepfake mit einem slowenischen Politiker gemeinsam? Sie alle sind Probleme, die der Digital Services Act in den Griff bekommen soll. Der Digital Services Act, kurz DSA, ist eine Verordnung der Europäischen Union, die seit etwas mehr als einem Jahr in Kraft ist, und Nutzer*innen von Online-Plattformen zu mehr Rechten im Netz verhelfen soll. Diese gilt es jetzt umzusetzen.
Daran sind mehrere Behörden beteiligt. In Deutschland ist die Bundesnetzagentur dafür verantwortlich, sie alle zu koordinieren. Sie agiert als Digital Services Coordinator (DSC), auf Deutsch: „Koordinierungsstelle für Digitale Dienste“. Um Perspektiven aus Wissenschaft, Zivilgesellschaft und Wirtschaft miteinzubeziehen, wurde der BNetzA in ihrer Rolle als Koordinierungsstelle ein neuer Beirat gegeben – der DSC-Beirat.
In diesen Beirat wurde ich im August 2024 als eine von sieben Vertreter*innen der Zivilgesellschaft berufen. Sieben Personen können die Diversität der Zivilgesellschaft nicht abdecken, geschweige denn sie repräsentieren. Um etwas Abhilfe zu leisten, Transparenz zu schaffen und so hoffentlich Partizipation zu ermöglichen, werde ich in dieser Kolumne aus der Arbeit des Beirats berichten.
Bevor es aber mit der ersten Sitzung des Beirats losgeht, wagen wir einen kurzen Rückblick darauf, was der DSA ist, was er können soll, und warum das alles relevant ist.
Was ist eigentlich dieser Digital Services Act?
Wie schon erwähnt, räumt der DSA Nutzer*innen neue Rechte gegenüber Online-Plattformen ein. Dahinter steckt die Hoffnung, die Machtasymmetrie zwischen Plattformen und Nutzer*innen etwas zu korrigieren. Die Plattformen machen die Regeln, die Nutzer*innen, die sich online bewegen, ausdrücken und informieren wollen, müssen sich ihnen unterordnen.
Viele der neuen Rechte haben mit der Moderation von Inhalten zu tun, also Maßnahmen wie der Entfernung, Einschränkung oder Demonetarisierung von Nutzer*innen-Inhalten durch Plattformen. Dazu zählt das Recht, über solche Maßnahmen informiert zu werden, sich dagegen zur Wehr zu setzen und Entscheidungen überprüfen zu lassen – durch die Plattform, außergerichtliche Streitbeilegungsstellen oder vor Gericht. Nutzer*innen müssen aber auch über Änderungen in den Richtlinien der Plattformen informiert werden, die wiederum europäische Grundrechte wie die Meinungsfreiheit oder die Privatsphäre achten und schützen müssen.
Darüber hinaus decken die 93 Artikel des DSA aber noch eine ganze Menge mehr ab: Der DSA regelt, wann Plattformen wie Facebook, X oder YouTube für die Inhalte ihrer Nutzer*innen zur Verantwortung gezogen werden können, wie transparent sie darüber sein müssen, wie sie Inhalte moderieren oder wie ihre Algorithmen funktionieren, wie Kinder und Jugendliche online geschützt werden müssen, und auf Grundlage welcher Daten Werbung personalisiert werden darf.
Nicht für alle Plattformen gelten die gleichen Regeln: Für kleine Plattformen gilt ein Minimum an Pflichten. Für die größten Plattformen wie Google, Amazon, Meta, TikTok und X gelten die detailliertesten Vorschriften, um ihrer gesellschaftlichen Macht gerecht zu werden.
BNetzA, BzKJ, BfDI – die Buchstabensuppe der Durchsetzung
Der DSA ist also ein kompliziertes Gesetz. Das, man ahnt es schon, macht seine Durchsetzung ebenfalls kompliziert: Alle 27 EU-Mitgliedstaaten müssen einen sogenannten „Digital Services Coordinator“ ernennen, um die Umsetzung des DSA zu beaufsichtigen. Allerdings haben die allermeisten der großen Plattformen ihren EU-Sitz in Irland – unter ihnen Meta, Google, X, TikTok, Pinterest und LinkedIn.
Um eine Situation wie im Datenschutzrecht zu vermeiden, wo die irische Datenschutzbehörde durch Inaktivität glänzt, hat der DSA deswegen eine Besonderheit eingeführt: Für die Durchsetzung der strengsten Regeln für die größten Plattformen (genannt Very Large Online Platforms, kurz VLOPs), ist die Europäische Kommission selbst zuständig. Schon auf der europäischen Ebene ergibt sich so eine komplexe Gemengelage aus der Europäischen Kommission als Super-Aufsicht, Irland als Mitgliedstaat, der für die meisten Plattformen zuständig ist, und 26 weiteren Mitgliedstaaten. Sie möchten ihre eigenen Vorstellungen, was gute Plattformregulierung betrifft, ebenfalls durchsetzen.
In Deutschland wird es, wie könnte es anders sein, dann noch mal ein wenig umständlicher. Dank des föderalen Systems und der Vielzahl der thematischen Felder, die der DSA berührt – von illegalen Inhalten über Kinder- und Jugendmedienschutz, Produktsicherheit bis zum Datenschutz – ist eine Vielzahl von Behörden an der Durchsetzung beteiligt. So sollen die Landesmedienanstalten, die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI), die Bundeszentrale für Kinder- und Jugendmedienschutz (BzKJ) sowie Behörden, die aktuell schon aufgrund anderer Regelungen Plattformen beaufsichtigten, in die Durchsetzung des DSA eingebunden werden. Und bei dieser Aufgabe soll ein neu geschaffener Beirat die Koordinierungsstelle unterstützen. Kommen wir also zum Beirat – was hat es damit auf sich, und was sind seine Aufgaben?
Ein Beirat für den DSC
Die Idee, der Aufsichtsbehörde einen Beirat an die Seite zu stellen, ist keine Vorgabe aus dem Digital Services Act, sondern gewissermaßen eine deutsche Innovation. Ziel ist es, Perspektiven aus Zivilgesellschaft, Wirtschaft und Wissenschaft zu Wort kommen und in die Durchsetzungsarbeit einfließen zu lassen. Dafür sind sieben Vertreter*innen aus der Zivilgesellschaft, vier aus der Forschung und weitere drei aus der Wirtschaft benannt worden. So weit so gut – was genau sind aber die Befugnisse dieses Beirats? Und was kann er ausrichten?
Während der ersten Sitzung des Beirats am 18. September im beschaulichen Bonn wurde schnell klar, dass die Arbeit und der Einfluss des Beirats stark von den vorhandenen Ressourcen abhängen werden.
Ein massives Problem sind dabei die Stellen, die die Bundesnetzagentur für die Durchsetzung des DSA bis jetzt bekommen hat und laut dem Haushaltsplan bis Ende 2025 bekommen soll. Mit 48 eingeplanten Stellen bleiben diese weit hinter den gesetzlich festgeschriebenen 70,6 zurück. Schon die waren aber, angesichts der vielen Aufgaben der Koordinierungsstelle, niedrig angesetzt. Und mit Blick auf die Bundestagswahl 2025 und die damit verbundenen Herausforderungen von Informationssicherheit bis Desinformation ist klar, dass die Behörde eher vor mehr als weniger Herausforderungen stehen wird. Ein Gesetz ist nur so gut wie seine Durchsetzung, gerade da scheint die Bundesregierung aber sparen zu wollen.
Was der Beirat konkret tun wird, wird also vom Beirat selbst abhängen. Das hat positive Seiten und bringt Gestaltungsspielraum mit sich. Gleichzeitig helfen konkrete Aufgaben und Befugnisse aber auch, wichtige Prozesse mitzugestalten, hartnäckig zu sein und den Finger dorthin zu legen, wo es weh tut. Eine essenzielle Rolle kommt darum der Geschäftsordnung zu. Die wird sich der Beirat in der nächsten Sitzung Ende November geben.
Was ist das Selbstverständnis des Beirats?
Was auf den ersten Blick nicht trockener klingen könnte, legt die Krux vieler Fragen offen: Was ist die Rolle des Vorsitz, und wie sehr wird der Beirat auf die Unterstützung des Sekretariats zurückgreifen können? Soll der Beirat Arbeitsgruppen haben? Müssten diese so besetzt sein, dass alle drei Interessengruppen – Zivilgesellschaft, Forschung und Wirtschaft – vertreten sind? Auf wie viel Transparenz kann sich der Beirat einigen? Will der Beirat Entscheidungen im Konsens treffen?
Die allerwichtigste Frage wird sich aber nicht in einer Geschäftsordnung klären lassen: Was ist das Selbstverständnis dieses Beirats?
Wer bei der Beschreibung des Durchsetzungs-Labyrinths aufgepasst hat, wird bemerkt haben: Die Aufsicht über die Plattformen, die uns alle am meisten betreffen, liegt nicht in den Händen deutscher Behörden. Bis jetzt ist Deutschland das einzige Mitgliedsland, dass sich einen Beirat gegeben hat, um die Durchsetzung des DSA zu begleiten. Damit ist dieser Beirat eine der wenigen Möglichkeiten, strukturell unterrepräsentierte Perspektiven der Zivilgesellschaft und von Forschenden in Verfahren einfließen zu lassen, die die Rechte von Millionen von EU-Bürger*innen betreffen werden. Sich dieser Aufgabe anzunehmen, würde aber auch bedeuten, größtmögliche Transparenz über die Arbeit des Beirats zu schaffen und auch über die deutschen Grenzen hinaus Menschen eine Stimme zu geben, die von der Durchsetzung des DSA betroffen sein werden.
Das sind meine Hoffnungen für die Arbeit und die Wirksamkeit des Beirats: Dass wir es schaffen, Perspektiven zu priorisieren, die sonst zu kurz kommen. Und dass wir diese nicht nur einbringen, sondern ihnen auch zu Wirkung verhelfen. Und die Möglichkeit nutzen, weiter als in den deutschen Behörden-Dschungel zu blicken. Wir müssen uns dort einbringen, wo Entscheidungen getroffen werden, die die Zukunft von Nutzer*innenrechten in Europa bestimmen werden.