Im Schatten der Meinungsfreiheit

22. Apr 2022 | Blog

VON Christina Kirisits

Ein weiteres Jahr ist ins Land gegangen und das Thema Meinungsfreiheit und -manipulation brennt angesichts des Kriegs in der Ukraine und des nach wie vor aktuellen COVID- Themas weiterhin unter den Nägeln. Ein zentraler Punkt des künftigen „Digital Services Act“ (DSA) der EU ist daher auch der Transparenz im Internet gewidmet, insbesondere der Offenlegung von „Praktiken der Inhaltsmoderation“, zu denen auch das Phänomen des sogenannten „Shadow bannings“ gehört.

 

Laut bedeutungonline.de (https://www.bedeutungonline.de/) bezeichnet „Shadow banning“ die teilweise bzw. gänzliche Blockierung der Inhalte eines Benutzers in einer Online- Community, wobei dem Benutzer dies in der Regel vom sozialen Netzwerk nicht mitgeteilt wird, und es für ihn im Gegensatz zu einer direkten Blockierung oder Löschung des Accounts daher nur über die verringerte Reichweite/Sichtbarkeit neuer Beiträge ersichtlich ist: Diese können nur mehr von bereits bestehenden Fans oder Followern geteilt bzw. geliked werden und werden Nicht- Followern in der Suche des sozialen Netzwerks zu bestimmten Hashtags nicht mehr angezeigt. Die betroffenen Beiträge führen also im wahrsten Sinne des Wortes ein „Schattendasein“. 

Verletzt ein Nutzer die Regeln des sozialen Netzwerks durch Verbreitung vermeintlich problematischer Inhalte, so kann ein „Shadowban“ über ihn verhängt werden, sei es bei vermehrten Beschwerden über einen Account, Über- und Unteraktivität oder Kauf von Fans und Followern. Über die Reichweitenreduktion soll gleichzeitig vermieden werden, dass sich die User ganz abmelden bzw. die Blockade über neue Konten umgangen wird.

Nachdem sich die Portalbetreiber nicht offiziell zum „Shadow banning“ äußern, kann dieses quasi nur über gemeinsame Beobachtungen und Berichte von Nutzern nachvollzogen werden, wobei deren Spektrum von Umweltaktivisten bis hin zu rechtsextremen Interessensgruppen reicht.  Die Zurückhaltung der Social-Media Plattformen zu diesem Thema soll zwar dem Schutz ihrer Algorithmen hinsichtlich potenzieller Manipulationen dienen, befeuert aber Spekulationen über die Willkür solcher „Shadowbans“. Wo ist hier die Grenze zwischen der berechtigten Unterdrückung von Spams und Zensur? Wenn Wortfilter z.B. in Bezug auf den Holocaust und sexuelle Orientierung ohne Betrachtung des Kontexts gesetzt werden, um der Verbreitung von Hasspostings vorzubeugen, wird aber gleichzeitig die Verwendung solcher Begriffe in einem neutralen Zusammenhang unmöglich gemacht (siehe ARD, Tagesschau 26.03.2022). 

Wer definiert eine „gesunde“ Gesprächskultur? Der Algorithmus kann dies nur in sehr begrenztem Maße bzw. wie weit sind wir schon gekommen, wenn wir diese Entscheidung einem Computerprogramm überlassen wollen/müssen, weil vielfach der gegenseitige Respekt im WorldWideWeb abhandengekommen ist. Das finde ich insofern schade, als man meinen sollte, dass wir gegenüber dem „Totschweigen“ bestimmter Tabu- Themen (auch eine Art von „Shadow Banning“- worüber man nicht redet, das gibt es nicht) von der Nachkriegszeit bis Ende der 80er Jahre mehr Fortschritte gemacht haben sollten.

Andererseits muss man sich aber auch vor Augen halten, dass Twitter standardmäßig über ein Interface verfügt, über das Regierungsbehörden weltweit bestimmte Inhalte oder Konten zensieren lassen können. Statistiken dazu veröffentlicht Twitter selbst in Transparenzberichten. Eine beim „Workshop on Privacy in the Electronic Society“ vorgestellte Studie (Known Unknowns | Proceedings of the 14th ACM Workshop on Privacy in the Electronic Society), die türkische Tweets von Ende 2014 bis Anfang 2015 untersuchte, kam allerdings zu dem Schluss, dass tatsächlich mehr Tweets zensiert wurden als offiziell angegeben, wobei es sich zum Großteil um politische und insbesondere regierungskritische Inhalte handelte. Solche Praktiken sind aus meiner Sicht problematisch, weil sie die Glaubwürdigkeit der berechtigten Kontrollen untergraben und Verschwörungstheoretikern erst recht Munition für ihre Argumentation liefern. Daher sollen laut den geplanten Bestimmungen des DSA die großen Online- Plattformen dazu verpflichtet werden, die wichtigsten Parameter der verwendeten Algorithmen in den AGBs offen zu legen (DAS, Art. 29 und 12).

 

Auch wenn ich gegen diese Art von politischer oder ideologischer Kontrolle bin, muss man den Portalbetreibern auch zugestehen, dass es in dem gesamten Spannungsfeld schwer ist, es allen irgendwie recht zu machen. Die früher vielfach beanstandete „Laissez-faire“ Haltung, quasi Inhalte jeglicher Art ungefiltert zuzulassen, ist in eine gewisse übervorsichtige Political Correctness umgeschlagen, die einerseits das Resultat einer Flut von Fake News und Bildern ist, andererseits aber auch der oft unüberlegten Bereitschaft der Nutzer, diese leichtfertig zu teilen oder zu liken, geschuldet ist. – Würden sich die Nutzer in Bezug auf ihre veröffentlichten Beiträge und ihre Zustimmung bzw. Ablehnung verantwortungsbewusster verhalten, müsste seltener ein Algorithmus die Inhalte im Internet „moderieren“!

Hier können Sie den Verfasser gerne kontaktieren: christina.kirisits@securitykag.at