WELTGo!
Journalismus neu erleben und produktiver werden
Ihr Assistent Journalismus neu erleben und produktiver werden
WELTGO! ENTDECKEN
  1. Home
  2. Debatte
  3. Kommentare
  4. Wenn die KI das deutsche „die“ für das englische „die“ hält

Meinung Social-Media-Plattformen

Wenn die KI das deutsche „die“ für das englische „die“ hält – und einfach löscht

56 Prozent der Bundesbürger haben bisher KI nicht selbst genutzt. 56 Prozent der Bundesbürger haben bisher KI nicht selbst genutzt.
Quelle: Sebastian Gollnow/dpa
Hier können Sie unsere WELT-Podcasts hören
Um eingebettete Inhalte anzuzeigen, ist deine widerrufliche Einwilligung in die Übermittlung und Verarbeitung von personenbezogenen Daten notwendig, da die Anbieter der eingebetteten Inhalte als Drittanbieter diese Einwilligung verlangen [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Indem du den Schalter auf „an“ stellst, stimmst du diesen (jederzeit widerruflich) zu. Dies umfasst auch deine Einwilligung in die Übermittlung bestimmter personenbezogener Daten in Drittländer, u.a. die USA, nach Art. 49 (1) (a) DSGVO. Mehr Informationen dazu findest du hier. Du kannst deine Einwilligung jederzeit über den Schalter und über Privatsphäre am Seitenende widerrufen.
Künstliche Intelligenz kann im Superwahljahr gefährliche „Fakten“ schaffen. Social-Media-Plattformen müssen solche Inhalte löschen. Aber niemand weiß, wer da eigentlich prüft. Und die neuerdings verpflichtenden Reports dazu machen alles noch schwieriger, schreibt unsere Gastautorin.

„Liebe Mitbürgerinnen und Mitbürger. Ich wende mich heute an Sie, weil unser Land einer schweren Bedrohung ausgesetzt ist.“ Mit diesen Worten beginnt ein Video, das aussieht wie eine Regierungsansprache: Bundeskanzler Olaf Scholz steht staatsmännisch vor einer Deutschlandflagge. Im Hintergrund ist der Bundestag zu sehen. „Meine Regierung wird zum 5. Todestag von Walter Lübcke am 2. Juni 2024 am Bundesverfassungsgericht ein Verbot der Partei Alternative für Deutschland beantragen“, kündigt der Sprecher an, der aussieht und spricht wie Olaf Scholz.

Ein fast perfekter, mit künstlicher Intelligenz generierter Deepfake – wären da nicht die Lippen des Politikers, die sich nicht exakt zu den gesprochenen Worten zu bewegen scheinen. Das Video, vom „Zentrum für politische Schönheit“ im November 2023 als Protest auf zahlreichen Social-Media-Plattformen verbreitet, wurde heiß diskutiert. Denn nicht jeder erkannte direkt, dass das keine echte Ansprache des Kanzlers war. Mittlerweile ist das Video nicht mehr verfügbar – trotzdem erreichte es zehntausende Nutzer.

Deepfakes wie das Video des Bundeskanzlers können ein ernstzunehmendes Problem sein. Denn mit künstlicher Intelligenz können wir alle alles sagen lassen und so im Superwahljahr „Fakten“ schaffen, die unsere Demokratie gefährden. Gleichzeitig sind nicht alle KI-generierten Inhalte per se gefährlich. Social-Media-Plattformen spielen deshalb eine fundamental wichtige Rolle darin, schädliche Inhalte zu erkennen, einzuschränken oder sogar zu löschen. Sie müssen Posts und Accounts einhegen, die digitale Gewalt, gefährliche Falschinformationen und verstörende Videos oder Fotos verbreiten.

Das Beispiel des falschen Kanzler-Videos ist nur ein Beispiel für die Verantwortung, die Plattformen dabei zukommt, und wie schmal der Grat zwischen sinnvoller Moderation und Einschränkung der Meinungsfreiheit sein kann. Abhilfe sollen nun sogenannte Transparenzberichte schaffen, mit denen Plattformen Einblicke in ihre Prozesse geben sollen.

Viele Plattformen veröffentlichen bereits seit Jahren freiwillig solche Berichte, die etwas mehr Transparenz zur Moderation von Inhalten schaffen sollen. Seit letztem August verpflichtet aber ein neues europäisches Gesetz insbesondere sehr große Online-Plattformen dazu, detaillierte Berichte halbjährlich zu veröffentlichen. Die erste Bilanz zeigt jedoch: Die Berichte halten nicht das, was sie versprechen.

Plattformen wie X, Facebook oder TikTok haben aufgrund ihrer Größe eine immense gesellschaftliche Verantwortung. Denn: Der politische und soziale Diskurs verlagert sich zunehmend ins Netz. Die Gratwanderung besteht nun darin, einerseits schädliche und beleidigende Inhalte zeitnah zu löschen und gleichzeitig die Meinungsfreiheit der Nutzer im Blick zu behalten.

Lesen Sie auch

Dieses Problem haben auch die Gesetzgeber erkannt. Mit dem ‚Digital Service Act‘, DSA sollen Online-Plattformen effektiv reguliert werden und zu mehr Transparenz gezwungen werden. Plattformen wie YouTube, Instagram oder Amazon müssen unter den neuen Regeln beispielsweise granular darlegen wie viele Inhalte sie aus welchen Gründen entfernt haben, ob Beschwerden von Nutzern gegen Sperrungen erfolgreich waren und wie viele Menschen sie für die Moderation von Inhalten beschäftigen, aufgeschlüsselt nach den europäischen Sprachen, die sie sprechen.

Mit den Berichten sollen Plattformen jetzt Rechenschaft ablegen, z.B. darüber, wie viele Inhalte Nutzer melden, wie viele Posts gelöscht wurden und wie groß das Team ist, das sich dieser Aufgaben annimmt. Für wirksame Kontrolle müssten die veröffentlichten Zahlen allerdings richtig, verständlich, aussagekräftig und vor allem vergleichbar sein. Die ersten Berichte liegen inzwischen vor. Doch statt der erhofften Klarheit ergibt sich ein chaotisches Bild.

Jeder gibt seinen Bericht anders ab

Die ersten Berichte der 19 größten Online-Plattformen und Suchmaschinen verdeutlichen das Problem: Sie sind nicht nur unterschiedlich aufgebaut, formuliert und strukturiert. Auch die dargestellten Zahlen sind oft nur schwer miteinander vergleichbar. Der Transparenzbericht von TikTok z.B. liest sich stellenweise wie Werbematerial. So heißt es: „At TikTok, our mission is to inspire creativity and bring joy. The safety and well-being of our community is our priority, and we have more than 40,000 trust and safety professionals globally working to protect our users.“

Anzeige

Dagegen werden von der Buchungsplattform Booking.com die geforderten Zahlen ohne große Erklärung aufgelistet. Das ist nicht nur unverständlich, sondern lässt zudem zentrale Fragen zur Methodik unbeantwortet. Selbst bei den abgedeckten Zeiträumen gibt es gravierende Unterschiede: Die Transparenzberichte von Instagram und Facebook umfassen einen Zeitraum von fünf Monaten – Googles Transparenzbericht dagegen nur zwei Wochen.

Der DSA selbst lässt an entscheidenden Stellen großen Interpretationsspielraum: So sind zentrale Begriffe wie „Moderationsentscheidungen“ kaum definiert und werden von jeder Plattform unterschiedlich ausgelegt. Ein besonders sensibler Bereich sind dabei Maßnahmen, die automatisiert vorgenommen werden.

Löschen Mitarbeiter oder die KI?

Manche Plattformen gehen vollständig automatisiert vor, wenn es etwa darum geht, Hass oder Gewaltdarstellungen einzuhegen. Andere lassen KI-Systeme mögliche Regelverstöße zunächst automatisiert ermitteln, um dann die einzelnen Inhalte händisch zu überprüfen. In den Transparenzberichten der Plattformen wird oft nicht unterschieden, um was für eine Art der Automatisierung es sich handelt. Das macht es unmöglich, die Daten sinnvoll zu vergleichen. Das Ausmaß des Einsatzes von KI bei der Inhaltemoderation bleibt damit im Dunkeln.

Um Beiträge von Nutzern sinnvoll bewerten zu können, müssen die zuständigen Teams mit einer umfangreichen Sprachkompetenz ausgestattet sein. Die Berichte zeigen jedoch, dass die meisten Plattformen keine Moderatoren für alle 24 EU-Sprachen haben. Lediglich die Meta-Plattformen Instagram und Facebook beschäftigen Moderatoren für alle EU-Sprachen.

Das Team von LinkedIn dagegen deckt lediglich sieben EU-Sprachen ab. Besonders negativ sticht AliExpress hervor. Der Online-Versandhandel beschäftigt nur englischsprachige Moderatoren und moderiert alle anderssprachigen Inhalte mit einem nach eigener Aussage „weltklasse“ Übersetzungsprogramm.

Lesen Sie auch

Fehlende Ressourcen wie diese haben gravierende Folgen für die Meinungsfreiheit. Entweder werden schädliche Beiträge nicht gelöscht und so der Raum, in dem Diskurs stattfindet, immer kleiner. Oder es werden vermehrt Inhalte gelöscht, die eigentlich harmlos sind. So wird beispielsweise das deutsche „die“ von automatisierten Systemen oft als das englische „die“, also „stirb“ erkannt.

Besonders bei Social-Media-Plattformen stellt sich die Frage, wie sie Inhalte grundrechtsschonend und kontextsensibel einschätzen wollen. Übersetzungstools können hier nicht die Lösung sein, da eine Moderation von Inhalten auch ein kulturelles und politisches Verständnis voraussetzt. Der Kontext einer Aussage ist für eine Bewertung äußerst wichtig. Ohne dieses Verständnis sind Fehlentscheidungen vorprogrammiert.

Anzeige

Damit bleibt nur die Hoffnung, dass die nächste Runde Transparenzberichte, die die großen Plattformen laut Gesetz halbjährlich liefern müssen, besser ausfällt. Da die Plattformen nicht mehr selbst berechnen müssen, ab wann der DSA für sie gilt, wird es bei dieser zweiten Runde zumindest Klarheit über den Zeitraum geben, über den berichtet werden muss. Damit werden die Zahlen belastbarer sein. Transparenzberichte brauchen aber insgesamt mehr Vergleichbarkeit, um ihren Zweck zu erfüllen. Nur so können sie angemessen ausgewertet werden und Schlüsse darüber zulassen, wie gut die Moderation der Plattformen funktioniert und wo sensible Eingriffe in die Meinungsfreiheit zu einem „overblocking“ führt.

An dieser Stelle finden Sie Inhalte von Drittanbietern
Um eingebettete Inhalte anzuzeigen, ist deine widerrufliche Einwilligung in die Übermittlung und Verarbeitung von personenbezogenen Daten notwendig, da die Anbieter der eingebetteten Inhalte als Drittanbieter diese Einwilligung verlangen [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Indem du den Schalter auf „an“ stellst, stimmst du diesen (jederzeit widerruflich) zu. Dies umfasst auch deine Einwilligung in die Übermittlung bestimmter personenbezogener Daten in Drittländer, u.a. die USA, nach Art. 49 (1) (a) DSGVO. Mehr Informationen dazu findest du hier. Du kannst deine Einwilligung jederzeit über den Schalter und über Privatsphäre am Seitenende widerrufen.

Transparenzberichte allein werden aber nie ausreichen, um sinnvolle Einblicke in die Arbeitsweise der Plattformen zu erlangen, und müssen von anderen Maßnahmen flankiert werden. Hier liegt besonders viel Hoffnung auf dem vom DSA vorgeschriebenen Zugang zu Daten, den Plattformen für Forschungszwecke gewähren müssen.

Zum ersten Mal müssen Plattformen Forschenden, die den Einfluss der Plattformen auf unsere Gesellschaft untersuchen, Zugriff auf das geben, was sie wie ihren Augapfel schützen: interne Daten. Das ist auch dringend nötig. Denn beinahe alle Programme und Schnittstellen, über die Plattformen vereinzelt freiwillig Zugang zu ausgewählten Daten gegeben haben, wurden eingestellt. Dabei ist gerade in diesem Jahr, in dem nicht nur Teile Deutschlands, sondern fast die Hälfte der Weltbevölkerung an die Wahlurne tritt, ein genauer Blick darauf, wie das Internet Wahlen beeinflusst, wichtiger denn je.

Quelle: Privatarchiv Herbster

Die Autorin beschäftigt sich als Juristin mit Datenschutz- und IT-Recht und unterstützt die Gesellschaft für Freiheitsrechte (GFF).

An dieser Stelle finden Sie Inhalte von Drittanbietern
Um eingebettete Inhalte anzuzeigen, ist deine widerrufliche Einwilligung in die Übermittlung und Verarbeitung von personenbezogenen Daten notwendig, da die Anbieter der eingebetteten Inhalte als Drittanbieter diese Einwilligung verlangen [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Indem du den Schalter auf „an“ stellst, stimmst du diesen (jederzeit widerruflich) zu. Dies umfasst auch deine Einwilligung in die Übermittlung bestimmter personenbezogener Daten in Drittländer, u.a. die USA, nach Art. 49 (1) (a) DSGVO. Mehr Informationen dazu findest du hier. Du kannst deine Einwilligung jederzeit über den Schalter und über Privatsphäre am Seitenende widerrufen.

Mehr aus dem Web
Neues aus der Redaktion
Auch interessant
Mehr zum Thema