KoolKill

Edit Policy: Trumps Verbannung von Social Media – Kritiker verkennen Gesetze

Edit Policy: Trumps Verbannung von Social Media – Kritiker verkennen Gesetze

Julia Reda saß von 2014 bis 2019 für die Piraten im Europäischen Parlament und verantwortet heute bei der Gesellschaft für Freiheitsrechte das Projekt „control c“ zu Urheberrecht und Kommunikationsfreiheit. Dieser Beitrag erschien zuerst in ihrer Kolumne auf heise.de und wurde dort unter der Lizenz CC BY 4.0 veröffentlicht.


Vergangene Woche sorgte Bundeskanzlerin Merkel mit der Aussage für Aufsehen, sie sehe die Sperrung der Social Media-Accounts des US-Präsidenten Donald Trump aus Sicht der Meinungsfreiheit als problematisch an. Diese Entscheidung sei durch die Unternehmensführungen von Facebook und Twitter getroffen worden, ohne dass es hierfür einen rechtlichen Rahmen gegeben habe.

Diese Aussage ist in zweierlei Hinsicht bemerkenswert. Denn es gibt sehr wohl einen rechtlichen Rahmen für die Moderation von Inhalten auf Social Media-Plattformen in den USA, an dem sich Twitter und Facebook orientiert haben. Außerdem wäre die Entscheidung in Deutschland, wo das Netzwerkdurchsetzungsgesetz den rechtlichen Rahmen absteckt, vermutlich genauso ausgefallen. Dennoch können wir aus dem Trump-Fall lernen, wie eine zeitgemäße europäische Plattformregulierung aussehen sollte.

Meinungsfreiheits-Doktrin in den USA

In der US-amerikanischen Verfassung hat die Meinungsfreiheit eine herausragende Stellung, was bereits daran zu erkennen ist, dass sie – so wie die Menschenwürde im deutschen Grundgesetz – allen anderen Grundrechten vorangestellt ist. Diejenigen, die in der Entscheidung von Twitter und Facebook eine Verletzung von Donald Trumps Meinungsfreiheit sehen, verkennen aber, dass dieses Grundrecht in den USA als klassisches Abwehrrecht gegen den Staat konzipiert ist. Trump wird das Recht zugestanden, nahezu jegliche Äußerung zu tätigen, die Verfassung verpflichtet aber kein Unternehmen, diese Äußerungen zu verbreiten.

Ganz im Gegenteil: Auch Unternehmen können sich auf den Ersten Zusatzartikel der US-Verfassung berufen, wenn sie darüber entscheiden, welchen Aussagen Dritter sie eine Plattform bieten. Laut der amerikanischen Doktrin wäre es eine Einschränkung der Meinungsfreiheit von Facebook und Twitter, wenn diese staatlich verpflichtet würden, bestimmte Aussagen zu verbreiten oder zu sperren.

Es wäre also falsch zu behaupten, die USA hätten keinen rechtlichen Rahmen, auch wenn man diesen Rahmen für falsch hält. Es war eine bewusste Entscheidung des US-Gesetzgebers, Plattformen absolute Freiheit über die Moderation von Inhalten zu geben. Diese Entscheidung wurde in den Neunziger Jahren bestätigt, nachdem ein Gericht eine Plattform für Aussagen ihrer Nutzer:innen in die Haftung genommen hatte, weil das Moderationsteam bestimmte Inhalte moderierte und die Plattform deshalb für alle Inhalte verantwortlich sei. Der Kongress verabschiedete daraufhin Section 230 des Communications Decency Act, um sicherzustellen, dass Unternehmen auch in Zukunft frei über die Moderation von Inhalten entscheiden könnten, ohne dadurch einem Haftungsrisiko ausgesetzt zu sein.

Der Staat sollte Meinungsfreiheit sicherstellen

Diese Herangehensweise lohnt es sich aus europäischer Perspektive durchaus zu hinterfragen. Einige Plattformen, allen voran Facebook, haben inzwischen eine so große Bedeutung für den öffentlichen Diskurs erlangt, dass willkürliche Entscheidungen über die Sperrung bestimmter Accounts durchaus eine Einschränkung der Meinungsfreiheit darstellen können. Das ist dann der Fall, wenn man Meinungsfreiheit nicht rein als Abwehrrecht gegen den Staat versteht, sondern darin auch eine staatliche Verpflichtung erkennt, die Rahmenbedingungen herzustellen, damit Menschen frei an politischen und gesellschaftlichen Debatten teilnehmen können. Eine Sperrung durch die großen Social Media-Plattformen kommt insofern schon einer Einschränkung der Meinungsfreiheit gleich, dass man sich zwar noch öffentlich äußern kann, aber wichtiger Möglichkeiten beraubt wird, von anderen Diskussionsteilnehmer:innen gehört zu werden.

Andererseits sollte diese Verpflichtung zur Wahrung der Meinungsfreiheit nicht so weit gehen, dass alle Plattformen verpflichtet werden, jegliche legalen Äußerungen zu dulden. Andernfalls dürfte es keine Löschung von erfundenen Informationen in Wikipedia-Artikeln mehr geben, keine spezialisierten Plattformen etwa für Kochrezepte, für Gaming oder für kindgerechte Inhalte, bei denen unpassende Inhalte gesperrt werden.

Die EU-Kommission hat insofern mit ihrem Entwurf für einen Digital Services Act, einer europaweiten Plattformregulierung, einen weisen Vorschlag für einen Mittelweg gemacht: Plattformen dürfen demnach zwar weiterhin ihre eigenen Moderationsregeln definieren, diese müssen aber transparent sein und bei deren Durchsetzung müssen sie die Meinungsfreiheit beachten. Dazu gehört, dass sie nicht willkürlich moderieren dürfen, dass Betroffene von Accountsperrungen ein Anrecht auf eine Begründung und menschliche Überprüfung haben – zur Not sogar vor Gericht. Die zügige Verabschiedung des Digital Services Act wäre also durchaus eine sinnvolle Lehre aus der Diskussion, die die Sperrung von Trumps Social Media-Accounts entfacht hat.

Bundesregierung verstrickt sich in Widersprüche

Trotz dieses gesetzgeberischen Handlungsbedarfs ist die Kritik von Kanzlerin Merkel an Twitter und Facebook verwunderlich. Sie hat zwar Recht, dass die Entscheidung über die Sperrung von Trumps Accounts nicht durch den Gesetzgeber, sondern durch Beschlüsse „der Unternehmungsführung von Social Media-Plattformen“ getroffen wurde, wie Regierungssprecher Seibert es formuliert. Genau zu solchen privatwirtschaftlichen Entscheidungen sind die Unternehmen aber auch in Deutschland nach dem NetzDG verpflichtet. Nach diesem Regelwerk können Plattformen mit Bußgeldern belegt werden, wenn sie es systematisch nicht schaffen, Inhalte binnen 24 Stunden zu sperren, die offensichtlich gegen bestimmte strafrechtliche Normen verstoßen. Dafür können sich die Plattformen auch nicht auf eine staatliche Einschätzung stützen, welche Aussagen offensichtlich rechtswidrig sind und welche nicht. Sie müssen diese Entscheidung selbst treffen.

Hätten Twitter und Facebook die Aussagen von Trump, die immer wieder von Nutzer:innen gemeldet wurden, nach den Kriterien des NetzDG beurteilt, wären sie mit hoher Wahrscheinlichkeit ebenfalls früher oder später zu dem Schluss gekommen, dass diese gegen Gesetze verstoßen – zumindest in Hinblick auf Aufrufe zu Gewalt. Einfacher wäre diese Entscheidung dadurch nicht gewesen. Das zeigt sich an dem Umstand, dass selbst das deutsche Bundesamt für Justiz, das mit der Durchsetzung des NetzDG gegenüber den Plattformen betraut ist, sich mit Entscheidungen über die Sperrung von Aussagen politischer Führungsfiguren äußerst schwertut.

Eine Beschwerde nach dem NetzDG gegen einen Tweet von Irans politischem Oberhaupt Chamenei, in dem dieser Israel als „bösartiges Krebsgeschwür“ bezeichnet hatte, das „ausgerottet“ werden müsse, wies das Bundesamt für Justiz mit der fadenscheinigen Begründung zurück, die Aussage stelle keine Volksverhetzung dar, weil sie sich nicht gegen einen Teil der in Deutschland lebenden Bevölkerung richte. In Deutschland lebende Israelis werden sich über diese Einschätzung wundern.

Es liegt die Vermutung nahe, dass das Bundesamt für Justiz, genau wie die Unternehmensführungen von Twitter und Facebook, vor der Sperrung von politischen Entscheidungsträger:innen zurückschrecken, weil sie politische Kontroversen vermeiden wollen. Das Problem der Sperrung rechtswidriger Inhalte (und des Schutzes legaler Inhalte vor widerrechtlichen Sperrungen) ist also nicht dadurch gelöst, dass man ein Gesetz zur Plattformregulierung verabschiedet. Für die Bewertung im Einzelfall, welche Aussagen tatsächlich strafbar sind, fehlt privaten Plattformen sowohl die juristische Expertise als auch die gebotene Neutralität, die Gerichte an den Tag legen.

Gefahr für Meinungsfreiheit durch Filter

Der aktuelle spektakuläre Einzelfall, bei dem Menschen in hohen Verantwortungspositionen bei den betroffenen Unternehmen eine sehr vorsichtige, vielleicht sogar zu zögerliche Entscheidung getroffen haben, dem scheidenden US-Präsidenten nicht länger eine Plattform für seine Aufrufe zu Gewalt und Missachtung eines demokratischen Wahlergebnisses zu bieten, verschleiert die wahren Probleme für die Meinungsfreiheit auf Plattformen. Man kann durchaus kritisieren, dass die Sperrung zu spät kam, nachdem Trump immer wieder durch Wahlmanipulation, die Androhung von Kriegsverbrechen und Aufrufe zu Gewalt aufgefallen war, dass erst mehrere Menschen bei dem Angriff auf das Kapitol ums Leben kommen mussten, ehe die Plattformen Trump die Tür zeigten. Ein rechtlicher Rahmen wie das NetzDG hätte diese Entscheidung jedoch kaum erleichtert, wie der Fall Chamenei zeigt.

Viel problematischer sind die alltäglichen Moderationsentscheidungen auf sozialen Medien, die von Algorithmen getroffen werden und bei denen es weder eine Erklärung über die Beweggründe der Sperrung noch einen effektiven Beschwerdemechanismus gibt. Hierfür einen rechtlichen Rahmen zu schaffen ist dringlicher denn je. Der Digital Services Act ist ein erster Schritt in die richtige Richtung Transparenz über Moderationsentscheidungen zu schaffen, aber er stellt die Praxis der Plattformen, vollautomatisiert zu sperren, nicht infrage. Zwar verpflichtet der Entwurf die Unternehmen nicht zum Einsatz von Uploadfiltern, Plattformen drohen aber trotzdem zu solchen Instrumenten zu greifen, um die Kosten für die Moderation von Inhalten niedrig zu halten. Das Europaparlament sollte sich deshalb für eine deutlichere Einschränkung der automatisierten Sperrungen von Inhalten einsetzen, um die Meinungsfreiheit im Netz effektiv zu schützen.

Deplatforming: Warum Trumps Accountsperrungen richtig und hochproblematisch sind

Deplatforming: Warum Trumps Accountsperrungen richtig und hochproblematisch sind

Twitter und viele andere Plattformen haben dem reichweitenstärksten Hassprediger der Welt nach der Stürmung des Kapitols in Washington den Saft abgedreht. Donald Trump verlor nicht nur seine Konten auf Twitter und Facebook, sondern sogar seinen E-Mailprovider, seinen Merchandise-Shop und seinen Snapchat-Account. Apple, Google und Amazon folgten und zerschlugen mit ihrer Marktmacht auch gleich die mögliche Exil-Plattform Parler, bevor ein von Trump angeführter Exodus dorthin stattfinden konnte.

Die Sichtbarkeit einschränken

Deplatforming nennt sich diese Praxis, Menschen ihre Bühne im Netz zu nehmen und sie ist ein wirksames Instrument, um Accounts weniger sichtbar für den Mainstream zu machen und die digitalen Berührungspunkte in der Gesellschaft zu verkleinern. Unerwünschte Akteure werden auf kleinere, radikalere, schwerer zugängliche Plattformen verdrängt, wo es zudem schwerer für sie wird Geld mit den Inhalten zu verdienen. Es bilden sich Paria-Netzwerke, in denen diese Akteure unter sich bleiben.

Aus demokratischer Sicht mag es wünschenswert sein, wenn diejenigen, welche die Demokratie beseitigen wollen, dieses Schicksal ereilt. Wenn sie in die Schmuddelecken des Internets verdrängt werden. Wohlmeinend könnte man sagen, dass hier Unternehmen ihre politische Verantwortung wahrnehmen, um die Demokratie vor ihren Feind:innen zu schützen.

In den Händen weniger Konzerne

Doch so einfach ist es nicht: Deplatforming ist ein problematisches Mittel, weil es die Macht über die Meinungsfreiheit in die Hände einiger weniger einflussreicher Konzerne legt.

Oder wie Evelyn Douek in The Atlantic formuliert: „Eine winzige Gruppe von Leuten im Silicon Valley definiert den modernen Diskurs und etabliert eine Grauzone, in der angeblich die Regeln irgendwo zwischen demokratischer Regierungsführung und Journalismus liegen, aber sie tun es spontan und auf eine Weise, die ihnen passt.“ Sie sind „Herrscher über das digitale Herrschaftsinstrument des Präsidenten“, schreibt Caroline Fetscher im Tagesspiegel.

Problematisches Mittel

Nun sind die Account-Sperrungen gegen Trump und Teile seiner Unterstützer:innen beileibe nicht die ersten Fälle von Deplatforming. Es handelt sich bei der Sperrung von Trump deshalb nicht um einen Präzedenzfall und auch auch nicht um die größte Löschwelle überhaupt, wie US-Konservative behaupten. In den letzten Jahren löschte Twitter mehr als eine Million mutmaßliche ISIS-Accounts ohne jegliche Transparenz. Zahlreiche Accounts aus dem rechtsradikal-verschwörungsideologischen Lager ereilte das selbe Schicksal in den letzten Monaten. Im vergangenen Sommer sperrten verschiedene Plattformen unzählige rechtsradikale Influencer.

Seit Jahren werden also Accounts auf Plattformen gesperrt, auch jene von Politiker:innen. Dies geschieht oftmals nach Gutsherrenart und ohne Begründung gegenüber den Betroffenen. Diese haben bislang wenig Chancen sich gegen solche Entscheidungen zu wehren, wenn sie keinen Sturm des Protestes und Medienberichterstattung generieren können, welche die Plattformen zum Umdenken zwingt.

Es gibt weder etablierte Beschwerdemechanismen oder noch eine neutrale Schlichtung solcher Sperrungen, die ja immer auch fehlerhaft sein können. Insbesondere, wenn Algorithmen und nicht Menschen über den Fortbestand von Accounts entscheiden.

Konzernentscheidungen zur Sperrung von Accounts sind von der Öffentlichkeit unkontrolliert. Sie werden umso problematischer, je größer, wichtiger und damit unverzichtbarer eine Plattform oder ein Service für die Kommunikation ist.

Erst jetzt gehandelt

Im Kapitalismus tun Konzerne, was ihnen politisch opportun erscheint. Im Regelfall kooperiert der Plattformkapitalismus mit jeder Regierung mächtiger Staaten, schreibt Christian Bartels im Altpapier.

Dass Trump erst von Facebook und Twitter rausgeworfen wurde, nachdem die Republikaner ihre Mehrheit und er selbst seine Macht als Präsident verloren hatte, ist nicht von der Hand zu weisen. Es gibt zahlreiche Tweets von Trump, die schon vor Jahren gegen die Community-Richtlinien Twitters verstoßen haben, arbeitet Simon Hurtz auf sueddeutsche.de heraus. Doch stattdessen räumte man dem Präsidenten Sonderrechte ein. Gehandelt wurde erst jetzt.

Problematisch ist Deplatforming auch, wenn wirtschaftliche Entscheidungen hinter den Maßnahmen stehen könnten. Wer sagt, dass Apple, Google und Amazon keine Eigeninteressen verfolgen, wenn sie eine möglicherweise aufstrebende Plattform wie Parler innerhalb von Tagen aus dem Netz drängen? Ben Wizner von der US-Bürgerrechtsorganisation ACLU kritisierte in der New York Times die Maßnahmen gegen Parler als problematisch. Im Gegensatz zu den Accountsperrungen auf den sozialen Netzwerken handele es sich im Fall von App Stores und Clouddiensten um Infrastruktur des Internets – hierbei sei Neutralität wichtig.

Privater oder öffentlicher Raum?

Man könnte auch wie Angela Merkel kritisieren, dass die Meinungsfreiheit als elementares Grundrecht nur durch den Gesetzgeber und nicht nach Maßgabe von Unternehmen eingeschränkt werden dürfe. Wobei eben gerade in Deutschland mit dem Netzwerkdurchsetzungsgesetz (NetzDG) Mechanismen geschaffen wurden, welche eine Entscheidung über die Gesetzmäßigkeit einer Meinungsäußerung bislang in die Hände eben jener kritisierten Konzerne legten. Und würde Merkels Kritik nicht bedeuten, dass Plattformen mit monopolartiger Marktmacht nicht mehr als private, sondern als öffentliche Räume definiert werden müssten?

Marcel Weiß geht bei Neunetz davon aus, dass Regierungen in Zukunft den Plattformen per Gesetz verbieten werden, ihre Accounts anzurühren. Regierungen weltweit würden sicherstellen wollen, dass US-Unternehmen nicht in ihre Regierungskommunikation eingreifen. Weiß ist sich sicher: „Es steht diesen CEOs nicht zu, zu entscheiden, ab welcher überschrittenen Linie ein Staatsoberhaupt nicht mehr auf den dominierenden Plätzen der vernetzten Öffentlichkeit partizipieren darf.“

Patrick Beuth beim Spiegel hingegen fordert das Gegenteil: Eine Gleichbehandlung von Politiker:innen mit einfachen Nutzer:innen.

Mehr Regulierung

In der EU sieht Binnenmarktkommissar Thierry Breton die Stürmung des Kapitols als 9/11 der sozialen Netzwerke. Eine Zäsur also, die eine Wende bei der Regulierung der Plattformen bringen wird. Diese könnten ihre Verantwortung gegenüber der Gesellschaft nun nicht mehr leugnen. Mit der dauerhaften Sperrung des persönlichen Twitter-Accounts von US-Präsident Donald Trump werde dies nun endlich anerkannt, schrieb Breton in einem Gastbeitrag.

Die Europäische Union will mit dem Digitale-Dienste-Gesetz die Praktiken von Plattformen für die Content-Moderation stärken und zugleich die Grundrechte in den internen Prozessen der Firmen wahren. Allerdings macht die EU auch weiterhin nicht direkt Moderationsregeln, sondern setzt auf Co-Regulierung: Plattformen sollen eigene Regeln machen und sich zu deren nicht-diskriminierender Durchsetzung verpflichten.

Ein Aspekt des EU-Gesetzesvorhabens könnte für Deplatforming große Folgen haben: Als grundrechtliche Sicherungsmaßnahme sieht der Kommissionsvorschlag einen verpflichtenden Beschwerdemechanismus für Nutzer:innen vor, deren Inhalte oder Konten entfernt wurden. Für Entscheidungen über solche Beschwerden könnte ein eigenes, quasi-justizielles Gremium geschaffen werden, an das sich jemand wie Donald Trump dann wenden könnte.

Deplatforming löst keine gesellschaftlichen Probleme

Fraglich ist natürlich auch, ob ein Deplatforming ausreicht, um antidemokratische und menschenfeindliche Ideologien zu bekämpfen. Kein Rassist wird durch ein Deplatforming zum Demokraten. Vielleicht führt die Maßnahme sogar zu einer Radikalisierung der Betroffenen, weil Gegenrede auf den Nischenplattformen vollkommen wegfällt

Ungeklärt sind auch Fragen von zielgerichteter politischer Werbung und die Rolle von Algorithmen, die honorieren, wie viel Interaktion, Empörung und Aufenthaltsdauer ein Inhalt generiert – und damit zur Verbreitung und Verstärkung rechtspopulistischer, verschwörungsideologischer und antidemokratischer Inhalte beitragen.

Was das Deplatforming angeht, steht es Demokratien nicht gut zu Gesicht, dass eine kleine Gruppe von Unternehmenschefs Entscheidungen solcher Tragweite trifft. Selbst, wenn das Ergebnis richtig ist für die Demokratie.

Stürmung des US-Kapitols: Internet-Hetze mit Konsequenzen

Stürmung des US-Kapitols: Internet-Hetze mit Konsequenzen

„Nichts wird uns stoppen….sie können es versuchen und versuchen und versuchen, aber der Sturm ist hier und er steigt auf D.C. herab in weniger als 24 Stunden….Dunkelheit zu Licht!“ Das schrieb Ashli Babbit kürzlich auf Twitter. Einen Tag später war die Veteranin der US-Luftwaffe tot. Es sollte ihr letztes digitales Lebenszeichen bleiben.

Sie war eine unter jenen, die in die US-Hauptstadt Washington gekommen waren, um den Noch-Präsidenten und Wahlverlierer Donald Trump im Kongress zu unterstützen – erst mit einer Demonstration, später mit der Stürmung des Capitols. Es waren noch nie dagewesene Szenen, ein blutiger Putschversuch im Parlament der mächtigsten Demokratie der Welt.

Ausgestattet mit roten MAGA-Kappen, Flaggen mit Aufdrucken der Konföderation, QAnon oder „Blue Lives Matter“, besetzten Trump-Anhänger für mehrere Stunden den US-Kongress, ohne auf nennenswerten Widerstand der Polizei zu stoßen. Die Welt schaute staunend zu, in unzähligen Livestreams im Internet, in sozialen Medien, in Tickern von Nachrichtenagenturen.

Gewalt vorprogrammiert

Von der Gewalt überrascht waren bestenfalls opportunistische Handlanger Trumps im Kongress wie die Senatoren Josh Hawley oder Ted Cruz. Sie halfen tatkräftig dabei mit, die Geister zu rufen, die nun Worte in Taten verwandelten. Wider besseres Wissen hielten sie die eigentlich rein formale Abstimmung auf, die den Wahlsieg von Joe Biden bestätigen sollte.

Dessen demokratisch errungenen Triumph über Trump will die konservative Hälfte in den USA schlicht nicht akzeptieren. Um die Macht einer zunehmend schwindenden weißen Bevölkerungsmehrheit zu sichern, scheint jedes Mittel recht zu sein.

Dabei hatte es sich seit langem abgezeichnet, dass die Chancen einer friedlichen Machtübergabe, ein elementarer Bestandteil jeder Demokratie, verschwindend gering war. Nicht erst seit gestern verbreitet Trump in seinem Twitter-Feed, in Fernsehauftritten oder Pressemitteilungen ungehindert gefährliche Verschwörungstheorien. Doch seit seiner Wahlniederlage beschleunigte sich die hetzerische und offen anti-demokratische Rhetorik.

In seinem Telefonat mit dem Wahlleiter des Bundesstaats Georgia etwa, das jüngst öffentlich wurde, ging Trump eine wirre Verschwörungsthese aus dem Internet nach der anderen durch. Eine Stunde lang setzte der Noch-Präsident Wahlleiter Bradford Raffensperger unter Druck und verlangte von ihm, doch endlich genug Wahlzettel zu finden, um ihm zum Sieg im bislang tiefroten Bundesstaat zu verhelfen.

Informationsdiät voller Verschwörungsthesen

Das Gespräch zeigte gut auf, in welchem Informations-Ökosystem sich der US-Präsident aufhält. Völlig losgelöst von jeglicher Realität haben er und sein Umfeld ein Paralleluniversum erschaffen, in dem sie stets die Opfer sind, umgeben und angeblich unterdrückt von finsteren Mächten – dem „Deep State“, Big-Tech, Philanthropen wie George Soros.

Der Twitter-Feed der im Capitol erschossenen Ashli Babbit, eines von vier Todesopfern, könnte auch von Trump stammen oder von einer seiner Anwält:innen wie Lin Wood oder Sidney Powell. Die selbsternannte Patriotin aus San Diego verbreitete Nachrichten von Michael Flynn weiter, dem ersten und nur wenige Wochen nach Amtsantritt entlassenen Sicherheitsberater Trumps. Prominente rechte Aktivist:innen wie Jack Posobiec finden sich dort, Donald Trump Junior, anonyme Nutzer:innen mit grünem Frosch-Avatar.

Viele der Retweets verweisen auf die QAnon-Verschwörungserzählung, die ohne Beleg einer weltumspannenden Elite systematischen Kindesmissbrauch vorwirft. Verbunden mit antisemitischen, antifeministischen und rassistischen Thesen hat die Bewegung schon lange den Untergrund schummriger Internet-Ecken wie 8kun verlassen. Q-Symbole finden sich auf Corona-Demonstrationen in Berlin, Spuren davon auch in Videos des rechtsextremen Mörders von Hanau.

Blaupause aus Michigan

Plattformen wie Facebook und Twitter haben sich inzwischen dazu durchgerungen, die virale Verbreitung dieser kruden Thesen einzudämmen. Doch es könnte zu spät sein, den Geist in die Flasche zurückzuzwingen. Auch haben die Plattformen bislang viel zu wenig unternommen, um andere, offensichtlich gefährliche Umtriebe auf ihren Diensten zu unterbinden.

Als etwa im Oktober rechte Bürgermilizen in Michigan die Entführung der Gouverneurin Gretchen Whitmer planten, nutzten sie dafür die von Facebook zur Verfügung gestellte Infrastruktur. Als Blaupause für die aktuellen Vorfälle in Washington lässt sich auch die Besetzung des Regierungsgebäudes im nördlichen Bundesstaat sehen.

Im Mai zogen dort rechte „Patriot:innen“ mit Waffen in das Gebäude ein, sie verlangten einen Stopp demokratisch legitimierter Anti-Corona-Maßnahmen. „LIBERATE MICHIGAN“ twitterte damals Donald Trump, ohne Rücksicht auf mögliche Folgen. Praktisch ungestraft zogen die Besetzer davon, aus ihrem Umfeld stammten die späteren Möchtegern-Entführer.

Deplatforming problematisch, aber notwendig

Mit einer Sperre auf einzelnen oder gar allen Plattformen ist es freilich nicht getan. Das lässt sich technisch kaum umsetzen, zudem ist solches Gedankengut zu tief in unseren Gesellschaften verankert. „Die Löschung eines Posts oder eines Accounts wird weder die Meinung von Menschen ändern, noch Gewalttaten oder Radikalisierung per se verhindern“, schreiben etwa Maik Fielitz und Karolin Schwarz in einer aktuellen Studie zu sogenanntem Deplatforming, also dem Entzug des virtuellen Megaphons für Hetzer.

„Und doch hat der Umgang von Plattformen mit rechtsextremen Akteuren einen großen Einfluss auf die Erfolgsbedingungen ihrer Politik und die Verbreitung antidemokratischer Propaganda“, schreiben die beiden weiter. Da solche Akteure inzwischen eigene soziale Netzwerke wie Gab oder Parler aufbauen, auf denen sie keinen Löschstift fürchten müssen, verlagere sich der Blick perspektivisch auf eine andere Ebene.

Im Visier stehen nun grundlegendere Infrastrukturen, etwa der DDoS-Schutzanbieter Cloudflare. Dieser ist aktuell etwa vor das früher bei Reddit gehostete TheDonald-Forum geschaltet, um Angriffe abzuwehren. Dort tauschen sich Hardcore-Trump-Fans aus, unter anderem dort wurde die gestrige Demonstration in Washington organisiert.

Privatisierte Rechtsdurchsetzung oder zivilgesellschaftlicher Druck?

Bei solchen Dienstleistern müsse man ansetzen, schreiben Fielitz und Schwarz – was gleichzeitig das Dilemma der aktuellen Situation aufzeige: „Denn je mehr solche Entscheidungen von Firmen getroffen werden, desto mehr entzieht sich der Konflikt seiner öffentlichen Dimension.“

Wenn private Firmen allein über den demokratische Diskurs entscheiden, dann ist das offenkundig problematisch – selbst wenn Politiker wie Trump dieses Feld längst verlassen haben. „Deplatforming bedarf einer demokratischen Legitimation“, heißt es in der Studie. „Denn trotz aller Probleme erweist sich das Deplatforming als wehrhaftes Instrument gegen Rechtsextremismus und Verschwörungsideologien“.

Twitter droht mit Account-Suspendierung

So lange wollte Twitter nicht warten – schon allein, weil nicht klar ist, wo die demokratische Legitimation herkommen soll, wenn der Präsident selbst die Demokratie untergräbt. Nachdem Trump gestern Abend mehrere Tweets in die Welt gesetzt hat, die die Lage eher angeheizt als beruhigt haben, sperrte der Anbieter den Account zunächst für zwölf Stunden.

„Als Resultat der beispiellosen und fortdauernden gewaltätigen Situation in Washington bestehen wir auf die Löschung dreier Tweets von @realDonaldTrump für ihren wiederholten und ernsthaften Verstoß gegen unsere Sicherheitsregeln“, begründete die Plattform ihr Einschreiten. Mit einer ähnlichen Formulierung löschte auch Facebook ein Video des Präsidenten.

Twitter könnte aber noch weiter gehen: Sollte Trump nach einer Aufhebung der Sperre weiter hetzen, werde sein Account dauerhaft suspendiert, warnt die Lieblingsplattform Trumps. Gut möglich, dass er bald auf eine Nischenplattform umziehen muss. Der Überlebenskampf der US-Demokratie wird weitergehen, so viel steht fest.

Political Influence Through Social Media is Growing, But Slowly

Political Influence Through Social Media is Growing, But Slowly

Guest post by Jacob N. Shapiro, Diego Martin, and Julia Ilhardt

Last week, FBI Director Christopher Wray testified that Russia is using social media, state-run media outlets, and fake online journals to damage Vice President Biden’s chances in the upcoming presidential election. The week before, the US Treasury sanctioned Russian and Ukrainian nationals for interfering in American politics. And earlier this month we learned that the Internet Research Agency was trying to recruit writers for fake news sites intended to influence American politics.

None of this should be surprising. Back in August, the Director of the National Counterintelligence and Security Center announced that: “Russia is using a range of measures to primarily denigrate former Vice President Biden and what it sees as an anti-Russia ‘establishment’”. Two days before that, the State Department’s Global Engagement Center detailed Russia’s online disinformation infrastructure. On July 20, Democratic legislators warned of a potential campaign targeting Congress; on July 14, social media analytics firm Graphika reported on Russia’s “Secondary Infektion” campaign that targeted multiple countries in the last six years; and early in the COVID-19 crisis, EU officials found evidence that Russia was using disinformation to worsen the impact of the pandemic.

As disturbing as the current situation is, the United States is far from alone in being a target of state-sponsored disinformation. During the 2019 pro-democracy protests in Hong Kong, fake accounts linked to the Chinese government tried to muddle online discourse. And during the Libyan National Army’s efforts to capture the capital city of Tripoli in 2019, Twitter was flooded with pro-insurgency hashtags originating in Gulf Countries and Egypt.

So how widespread is this problem? Which states are employing these techniques, and who are they targeting?

To find out, we spent the last two years collecting data on 76 state-backed foreign influence efforts from 2011-2019, as well as 20 domestic operations—i.e., when governments use social media manipulation against their own population. Unlike traditional propaganda, these campaigns include the creation of content designed to appear as though it is produced by normal users in the target states. We released the first report on our data in July of 2019, documenting 53 foreign influence efforts, and just released an updated report. Over the past year, we’ve identified a number of significant trends in the use and organization of influence efforts. Here are the key takeaways.

Influence Efforts for Hire

There are dozens of marketing groups specializing in online content, and in recent years some have begun executing political influence efforts.

Take Archimedes Group, a marketing firm based in Israel. The firm’s specialty is “winning campaigns worldwide,” and when Facebook removed a network of accounts linked to the company in May 2019, the political targets ranged across Africa, Latin America, and Southeast Asia. In contrast to the St. Petersburg-based Internet Research Agency whose only documented customer is the government of Russia, Archimedes Group produces content to support a wide range of political goals while obscuring the involvement of state actors.

A similar political marketing firm is Smaat, a Saudi Arabian company operating out of downtown Riyadh. In addition to marketing for clients like Coca Cola and Toyota, Smaat also works for the Saudi Arabian government. In a now-removed Twitter network, Smaat’s fake social media accounts interspersed commercial content with pro-Saudi political messaging.

Not only does the use of these firms make it hard to identify the actors behind social media manipulation, but it also allows states to engage in political interference without having to develop digital infrastructure.

Further obfuscating government involvement in disinformation campaigns is the trend towards hiring local content creators. Networks linked to Russian oligarch Yevgeny Prigozhin—who was indicted during the Mueller investigation—paid people in Madagascar and Mozambique to manage election-related Facebook pages. Such tactics make it challenging to distinguish foreign interference from genuine local discourse.

Common Content for Local Audiences

In 13 Central Asian countries in 2019, residents following Facebook pages for Latvian travel or the President of Tajikistan may have unknowingly consumed content from government-linked Russian media outlets. By distributing stories from sources like Sputnik and TOK on pages that omitted or obscured the link to Russia, this campaign spread narratives sympathetic to the Kremlin’s foreign policy initiatives.

The Russian network targeting Central Asia was part of a wider move towards efforts that pushed common content to specific locations. In the first version of our report, only two out of 53 foreign influence efforts targeted multiple countries at once. Nine out of 23 additional campaigns in our 2020 report did so. Like Russia, Saudi Arabia and the United Arab Emirates have mounted multi-year efforts to promote sweeping, nationalistic content adapted to resemble domestic discourse in multiple countries. And growing evidence suggests China has begun a broad social media campaign targeting the Chinese diaspora in multiple countries since 2017.

Cases involving widespread distribution of common content are, in some sense, an updated form of propaganda. Disinformation or biased stories adopt an air of local authenticity. Attacking countries do not need to invest as much effort into the creation of generic content as they would for country-specific campaigns.

State-Backed Disinformation on the Domestic Front

Even in democracies, governments sometimes employ media consultancies to justify their policies and damage opposition politicians. In Mexico, for example, branches of the government have paid fake media outlets to amplify stories in favor of the Institutional Revolutionary Party (PRI). During the presidency of Enrique Peña Nieto from 2012-2018, pro-PRI Twitter accounts were so common that they came to be dubbed “Peñabots.”

While foreign influence efforts have been dominated by six countries, particularly Russia and Iran, we found 20 domestic influence efforts spread across 18 countries going back to 2011. In almost all cases, domestic interference has sought to suppress political dissent. Countries such as Vietnam were overt about this goal, with the creation of a cyber military unit called Task Force 47 operating under the Vietnam People’s Army that sought to discredit opposition narratives. Alternatively, government officials in Malta directed social media trolling and hate speech via secret Facebook groups.

Our inclusion criteria required influence campaigns to be directly connected to a government or ruling party. Although political parties in some democracies engage in social media manipulation, these parties are not necessarily representative of the state. For instance, in India, both Prime Minister Narendra Modi’s Bharatiya Janata Party and the Indian National Congress have long made use of influence operations. Similarly, disinformation originating with firms like Cambridge Analytica does not constitute an influence operation in our study unless explicitly linked with governments.

What’s Next?

Online influence efforts are becoming an increasingly widespread tool for both domestic politics and foreign interference. The commercialization of these campaigns could make them easier to access and, in some cases, harder to identify. But the problem of state-back influence efforts is not yet pervasive.

In fact, we found two positive trends in our report. First, only Russia initiated new influence efforts in 2019, and second, Russia initiated only three new efforts in 2019, compared to eight in 2018. This is promising given the widespread capacity for executing influence efforts, and the number of countries who would like to shape US politics, and suggests something is holding countries back from using fake online activity to interfere in their rivals’ politics.

But a global norm needs to be reinforced. At the moment, there is little international collaboration on monitoring social media platforms and no multilateral push to create strong prohibitions on cross-border influence campaigns. And with the US presidential election less than two months away, the threat of foreign interference is being brought squarely to the fore.

Jacob N. Shapiro is professor of politics and international affairs at Princeton University, Diego Martin is a PhD Student in economics at Purdue University, and Julia Ilhardt is a senior in the School of Public and International Affairs at Princeton University.

IT-Security: Warum es so gefährlich war, dass Hacker über Twitters interne Systeme prominente Accounts steuern konnten

IT-Security: Warum es so gefährlich war, dass Hacker über Twitters interne Systeme prominente Accounts steuern konnten

Am Mittwochabend haben unbekannte Angreifer zahlreiche prominente und verifizierte Accounts auf Twitter übernommen und dabei Tweets abgesetzt, die zu einer Bitcoin-Abzocke führten. Unter den Accounts waren der ehemalige US-Präsident Barack Obama wie auch der demokratische Präsidentschaftskandidat Joe Biden. Betroffen waren neben Prominenten wie Kanye West oder Bill Gates auch Accounts großer Unternehmen wie Apple und Uber, außerdem prominente Kryptowährungsaccounts wie Coinbase, Binance und Gemini.

Bei den gehackten Promi-Accounts nutzten die Angreifer jeweils individuell angepasste Tweets nach dem gleichen Schema, bei anderen nicht-verifizierten Accounts wurde mit Copy-Paste gearbeitet.

Screenshot Scam-Tweet
Screenshot des Tweets, den der Account von Joe Biden absetzte. Alle Rechte vorbehalten Joe Biden / Screenshot

Mit dem an den Hack angeschlossenen Bitcoin-Betrug erbeuteten die Angreifer fast 120.000 US-Dollar. Ob die die Angreifer Zugriff auf die privaten Nachrichten der Accounts hatten oder im Hintergrund viele Daten abgesaugt haben, ist nicht bekannt. Diese Daten könnten für Erpressungen oder andere Zwecke genutzt werden.

Twitter bestätigt Angriff auf interne Systeme

Schon früh berichtete der IT-Security-Reporter Joseph Cox von Motherboard mit Verweis auf zwei anonyme Quellen darüber, dass Screenshots des internen Twitter-Admin-Panels aufgetaucht seien. Laut seinem Bericht hat Twitter die Screenshots dieses Panels gelöscht und die Accounts derer gesperrt, die diese Screenshots verbreiteten.

Internes Adminpanel Twitter

Dass die Angreifer Zugriff auf die internen Systeme von Twitter hatten, bestätigte das Unternehmen mittlerweile: Twitter geht davon aus, einen „koordinierten Social-Engineering-Angriff“ aufgedeckt zu haben, mit dem erfolgreich Mitarbeiter:innen mit Zugang zu internen Systemen und Werkzeugen ins Visier genommen wurden.

Motherboard berichtet in einem weiteren Artikel, dass die Angreifer einen Twitter-Angestellten bezahlt hätten, um Zugriff zu erlangen.

Der erlangte Zugang sei laut Twitter genutzt worden, „um die Kontrolle über viele gut sichtbare (einschließlich verifizierte) Konten zu übernehmen und in ihrem Namen zu twittern“. Twitter untersuche, welche anderen böswilligen Aktivitäten die Angreifer möglicherweise durchgeführt haben oder auf welche Informationen sie zugegriffen hätten.

Twitter habe die betroffenen Konten gesperrt und die geposteten Tweets der Angreifer gelöscht. Im Zug der Maßnahmen sei auch „Funktionalität für eine viel größere Gruppe von Konten eingeschränkt“ worden, gemeint sind damit unter anderem alle verifizierten Accounts. Sie konnten über Stunden nicht mehr twittern. Intern habe Twitter Schritte unternommen, um den Zugang der Mitarbeiter zu Systemen und Instrumenten während der Dauer der Untersuchung einzuschränken, heißt es weiter im Twitter-Thread zu der Attacke.

Sicherheitspolitische Bedeutung

Mit so einem umfassenden Zugriff auf bedeutende Accounts sind ganz andere Dinge möglich als nur ein banaler Bitcoin-Betrug, bei dem gerade einmal 12 Bitcoin gewonnen wurden. Deswegen wirft der Hack vor allem Fragen der internationalen Sicherheit auf.

Einerseits hätten die Angreifer die Accounts von offiziellen Repräsentanten, Außenminister:innen, Botschaften oder Nachrichtenorganisationen für koordinierte und orchestrierte Tweets nutzen können – um damit zum Beispiel zwischenstaatliche Konflikte anzufeuern. Gegen die Möglichkeiten eines solchen Kommunikationsangriffs mit verifizierten Top-Accounts muten Troll-Farmen und Propaganda-Accounts zur Diskurs-Beeinflussung wie Kindergarten an.

Wie aufgrund der schnellen und manchmal missverständlichen Kommunikation auf Twitter internationale Konflikte eskalieren könnten, hat gerade in dieser Woche das King’s College London in der Studie „Escalation by Tweet“ (PDF) beschrieben. Denkbar sind mit einem so umfangreichen Zugriff auf Unternehmensaccounts aber auch größere Börsenbewegungen und Spekulationsgewinne mit Insiderwissen.

Auf der anderen Seite war auch Twitters Reaktion gefährlich: Für mehrere Stunden ließ Twitter alle verifizierten Accounts mit dem blauen Haken nicht mehr twittern. Das betrifft auch viele offizielle Accounts von Polizeien und staatlichen Stellen, die sich in der schnellen Kommunikation auf den privaten Kurznachrichtendienst verlassen und nicht mehr twittern konnten.

Die Tweetsperre für verifizierte Accounts führte unter anderem dazu, dass beispielsweise Medien sich neue Accounts erstellten, die sie mittels Retweets ihrer verifizierten Accounts zur Verbreitung von Nachrichten nutzten.

Nutzer:innen nehmen es mit Humor

Twitter wäre nicht Twitter, wenn viele Nutzer:innen den Angriff nicht mit Humor genommen hätten. So wurde die mehrstündige Abwesenheit der verifizierten Accounts, Promis und Politiker als „sturmfreie Bude“ interpretiert. Andere freuten sich, dass endlich Trump einmal für ein paar Stunden nicht twittern durfte oder beklagten sich ironisch, dass sie zensiert worden seien.