FUTURE CONTENT #03

In meiner dritten FUTURE CONTENT Sendung geht es um die Ritualisierung von unserem Verhalten nach Terroranschlägen, nach einem Text von Sam Kriss. Es geht um den Facebook Safety Check, über den ich nach dem Anschlag in Berlin geschrieben hatte, und das jetzt um einen aktuellen Beitrag von Tausif Noor ergänzt habe: eine kritische Betrachtung davon wie ein Social Media Konzern gesellschaftliche Infrastruktur ausbaut. Es geht um Elysia Crampton, deren futuristische elektronische Musik mit Geschichte angereichert ist, von bolivianischen Rebellenanführerinnen deren Körper brutal zerstückelt als Symbol herumgereicht wurde bis zu einer utopischen Zukunft in der trans-humanoide Arachniden die Welt beherrschen (ihre Performance “A Dissolution of The Sovereign: A Time Slide Into The Future” könnt ihr am 30.4.17 im Zentralcafé live sehen). Und als letzten Block gibt es dann noch einen kleinen Kommentar zu Spoilern und eine Filmbesprechung von Paul Verhoevens Elle.

[mixcloud https://www.mixcloud.com/evemassacre/future-content-03/ width=100% height=60 hide_cover=1 mini=1 light=1]

PLAYLIST

LESLEY GORE – Sunshine, Lollipops and Rainbows

Begrüßung und Überblick

LESLEY GORE – You don’t own me

Ritualisierung von Reaktionen auf Terroranschläge

LIL SIMZ – Enter the void

Facebooks Safety Check #1

PRODIGAL – Showa eski riddim

Facebooks Safety Check #2

THE BABIES – Slow walking

Facebooks Safety Check #3

DEERHOOF – The Devil and his Anarchic Surrealist Retinue

Facebooks Safety Check #4

$WAGGOT – Delete your Myspace

Facebooks Safety Check #5

LOVE LIFE OF AN ORCHESTRA – Beginning of the heartbreak

ELYSIA CRAMPTON & RABIT – The Demon City

Elysia Crampton #1

ELYSIA CRAMPTON – Wing feat. Money Allah

Elysia Crampton #2

ELYSIA CRAMPTON & CHINO AMOBI – Children of hell

Elysia Crampton #3

ELYSIA CRAMPTON – After Woman (for Bartolina Sisa)

Kommentar zu Spoilern

THE RAVEONETTES – Boys who rape (should all be destroyed)

Paul Verhoevens Elle #1

STEEL MIND – Bad passion

Paul Verhoevens Elle #2

HELEN MONEY – Blood and bone

Paul Verhoevens Elle #3 + Abschied

MAVIS JOHN – Use my body


Ergänzend zum Weiterlesen:

Sam Kriss – The script we all follow after a terror attack

Zu Facebooks Safety Check: Tausif Noor – Safety in numbers

Zu Spoilern (und der erwähnten Studie): Laura Hudson – No One Can Agree What a Spoiler Is, But Maybe This Guide Can Help

Zwei gute konträre Kritiken zu Verhoevens ‘Elle’:
Joanna Rothkopf – Elle Succeeds Despite Its Men
Richard Brody – The Phony Sexual Transgressions of Paul Verhoeven’s “Elle”
Ergänzend noch ein paar Daten zu sexualisierter Gewalt:
Elisa Britzelmeier – Die 7 wichtigsten Fakten zu sexueller Gewalt

 

Fühlst du dich sicher? Facebooks Beunruhigungs-Check

Als ich das erste Mal von Facebooks Safety Check Feature hörte, fand ich es eine großartige Sache. Das war zu einer Zeit, als es nur bei Naturkatastrophen eingesetzt und von einem Team betreut wurde. Es schien eine praktische Möglichkeit zu sein, mehrere Menschen zugleich übersichtlich über dein Wohlbefinden zu informieren, auch wenn Handynetze zusammenbrachen.

Ranking von menschlichem Unglück

Als Facebook dazu überging, den Safety Check auch für Terroranschläge einzusetzen, kam es in die Kritik, dass hier eine US- und EU-zentrische Wertung von Menschenleben stattfände, denn das Feature war zwar beim Anschlag in Paris aktiviert worden, aber nicht am Tag zuvor bei dem Anschlag in Beirut. Damals begründete Zuckerberg das damit, dass sie bis Paris das Tool nur für Naturkatastrophen eingesetzt hätten, und Beirut eben einen Tag vor dieser Ausweitung geschah.

Bereits damals, November 2015, wurde von vielen in den Comments jedoch trotzdem beklagt, dass diese Begründung nicht erkläre, warum der Safety Check in einem Gebiet wie Aleppo auch nach Paris nicht geschaltet wurde. Es wurde von manchen vermutet, dass dort ein anderer Schwellenwert für menschliches Unglück angelegt wurde. Auch die Journalistin Domenika Ahlrichs erwähnt in einem Interview für Wired/DetektorFM nach dem Anschlag in Berlin, dass sie den Safety Check für sich selbst in Berlin als seltsam unangemessen empfand, gerade auch weil die Tage vorher die Zerstörung von Aleppo die humanitäre Katastrophe war, die alle beschäftigte und das Feature für die Menschen dort nicht freigeschaltet worden war. In diesselbe Richtung ging die Kritik der Journalistin Molly McHugh in einem Text darüber, wann Facebook eins seiner Beileids-Flaggen-Avatar-Features freischaltete und was das auch für Kontroversen unter Usern nach sie zog: “Facebook has put itself in the business of ranking human suffering, and that’s a fraught business to be in. Facebook is built on ranking things that matter and how much, like which BuzzFeed quizzes you see in your News Feed or which friends’ photos show up the most. But it’s deeply uncomfortable—disturbing, really—when that same idea is applied (even with what I have to imagine are different metrics) to disaster and death.”

Nun, etwas als flächendeckende Gefährdung von Menschenleben einzustufen, das ist keine Entscheidung, um die man irgendjemanden beneiden würde, da sie komplex ist und eine große Verantwortung daran hängt. Menschen verhalten sich anders, oft gefährlich irrational, wenn sie in Panik geraten, Angst haben, deswegen wird bei Falscheinschätzungen die Presse oder Regierungsbehörden auch auf Schärfste kritisiert. Und bei ihnen lag lange das Monopol über weitreichende Meldung und Einordnung von Katastrophen. Die Entscheidungen fallen da auch durchaus verschieden aus, so waren die behördlichen Katastrophen-Warn-Apps KatWarn und Nina meines Wissens z.B. für Berlin nicht aktiviert, in München schon. Daneben informieren sich inzwischen auch viele nicht mehr direkt auf Medienwebsites oder TV Nachrichten, sondern über Social Media.

Katastrophen verstehen via Social Media

Ich nutze am liebsten Twitter. Anders als wenn ich eine Nachrichten- oder behördlichen Meldung 1:1 als Information akzeptiere, funktioniert das Verstehen einer Katastrophe oder eines Anschlags auf Social Media anders. Auf Twitter kann ich via meiner Listen-Timelines oder auch eines Hashtags recht schnell ein Bild der Lage herausfiltern. Aus einer wilden Mischung von Tweets von Journalist*innen, Polizei, Augenzeug*innen, Politiker*innen und einem Haufen Menschen, die das Ereignis einzuschätzen versuchen, und mit Retweets und Kommentaren in einer Art Hive Mind Sachverhalte verifizieren, aber sich auch Zuspruch spenden, sich beruhigen, sich mitteilen welche Accounts oder Hashtags gerade Wichtiges beitragen, oder auch sich zu warnen, vor Gefahr ebenso wie vor dem Weitertragen von möglichen Falschmeldungen – daraus kristallisiert sich ein Bild der Ereignisse.

Auf Facebook funktioniert das nicht so gut, schon allein weil die Timeline nicht chronologisch und auch zu stark gefiltert ist, um für Echtzeitereignisse zu taugen. Ich bekomme zum Beispiel regelmäßig Postings über eine Veranstaltung erst einen Tag zu spät in meinen Newsfeed gespült. Aber so im Groben ist Facebook darin besser geworden, inzwischen auch zeitnah eine Mischung aus privaten Postings und News zu einem Ereignis in meinen Newsfeed durchzulassen, durch die sich ein grobes Bild des Geschehens machen lässt. Mit dem Schritt zum Aktivieren des Safety Checks allerdings, wenn es mit Push-Nachrichten aktiv Menschen über eine Katastrophe informiert, macht Facebook den Schritt zu einer Autorität, die sich über den Newsfeed erhebt und wird zu einer Mischung aus Social Tool, Nachrichtenmedium und Katastrophenwarndienst.

Mischung aus Social Tool, Nachrichtenmedium und Katastrophenwarndienst

Was für einen Effekt hat das? Als ich zwischen zwei Tassen Feuerzangenbowle und gemütlichen Gesprächen am Abend des Anschlags von Berlin einen Blick auf Twitter warf, fand ich die oben beschriebene Mischung von Tweets vor und hatte schnell die Information: was passiert war, grobe Opferzahlen, dass es noch keine Einordnung als Terroranschlag gab. Zu diesem Zeitpunkt hätte es auch ein Unfall sein können. Als ich Facebook aufrief, begrüßte mich dagegen die Meldung dass 138 meiner Freund*innen bei einem Anschlag draufgegangen sein könnten. Das versetzte mir – trotz des Wissens von Twitter her – schon mal eben einen ganz schönen Adrenalinstoß. WTF?! Und ich fand auch keine Option, um es ausschalten zu können. Von den 138 meiner Freund*innen, die Facebook (zum Teil fälschlicherweise) in Berlin verortet hat, sind bis heute gerade mal 67 als “safe” markiert. Was bringt mir so ein Tool? Soll ich panisch alle 67 anschreiben, ob sie unter den 12 Toten waren? Und ging es dem Rest auch wirklich gut, denn: Personen können auch von anderen als “safe” markiert werden. Jemand berichtete auch, dass sie, als sie sich als “Not in the area” markierte, als “Location unknown” gelistet wurde – auch nicht gerade beruhigend, da es als “gilt als vermisst” verstanden werden kann.

Es war nicht nur die zu diesem Zeitpunkt noch lange nicht von offiziellen Quellen bestätigte Einordnung als “Anschlag”. Es war auch das Charakteristikum des Social Tools, das mich störte, denn das hat eben einen anderen Fokus als Nachrichten: Es macht dich zum Zentrum des Ereignisses, es ist personalisiert. Wo ich auf Twitter Solidarität mit Fremden empfinde, ich mich dort gerade in solchen tragischen Momenten von einem Gemeinschaftsgefühl aufgehoben fühle, schafft es Facebook immer wieder mit seiner Art der Personalisierung das unmöglich zu machen, Brüche zu den Menschen und in einem gemeinsamen Erleben zu schaffen. Sei es durch die Filterung, die zeitlich versetzte Postings bringt, oder sei es, indem es bei special Features von Memories bis zu Safety Check mein Erleben so sehr ins Zentrum stellt, und bei letzterem in der Form, mir eine große Auswahl meiner Freund*innen als mögliche Terroropfer vor den Latz zu knallen.

Und genau das tut es: es wirkt wie ein Nachrichtenmedium, das vom Schlimmstmöglichen ausgeht. Es erinnerte mich daran, wie ein viel verbreiteter Tweet am nächsten Tag zwei Zeitungstitelseiten nebeneinander stellte:

Facebooks Safety Check war sowas wie die BILDZeitung unter den Social News.

Wie kam es zu der Einordnung als Anschlag (Erst hieß es “Anschlag”, dann “Gewalttat”, dann “Vorfall” – inzwischen wieder “Anschlag”.), obwohl die offiziellen Behörden das noch nicht bestätigt hatten? Nun, bis vor kurzem hatte Facebook ein Team von Menschen, die einen Safety Check erst freischalten mussten. Inzwischen aber haben wir es mit einer automatisierten Auslösung zu tun, zu der Patrick Beuth in der ZEIT die Facebook-Sprecherin zitiert: “Stojanow sagt, sobald bestimmte Begriffe wie Feuer, Erdbeben oder auch Anschlag in einer Region so häufig von Facebook-Nutzern gepostet werden, dass sie einen Schwellenwert überschreiten und die entsprechende Nachricht auch von externen Dritten verbreitet wird, denen Facebook vertraut, löst der Safety Check automatisch aus. Diese Dritten können zum Beispiel lokale Medien sein.” Von menschlicher Hand wird bei Facebook dann erst nachgebessert, wenn Nachrichtenmedien Genaueres berichten, schreibt Chris Köver im Wired, und ergänzt: “Die Mühe, Angaben selbst bei den Primärquellen nachzuprüfen, in diesem Fall der Berliner Polizei, macht sich Facebook jedoch nicht.” Offensichtlich wurde nicht mal auf der Facebookseite der Berliner Polizei nachgelesen. So kam es denn zu chaotischen Informationen: Im Falle Berlins musste sogar der Ort nachgebessert werden, anfangs stand “Berlin-Heinersdorf” im Safety Check.

Einen anderen Fall gab es vor ein paar Tagen und auch er zeigte, dass eine Verifizierung aus guten Gründen zur journalistischen Verantwortung gehört: Facebook gab einen falschen Safety Check wegen einer großen Explosion im Stadtzentrum von Bangkok heraus. Basis dafür waren wohl ein Demonstrant, der kleinere Böller auf ein Regierungsgebäude warf und eine Fake-Newsmeldung, die ein BBC-Video von einer Explosion aus dem Vorjahr verwendete. Als Facebook den Safety Check – automatisiert – ausgelöst hatte, markierten sich unter anderem auch Journalist*innen, da sie Facebook als Quelle ernst nahmen. Da sie wiederum zu den Personengruppen gehören, die anderen als Verifizierungsinstanz dienen, bestätigten sie damit versehentlich die Falschmeldung noch zusätzlich. Ein anderes Mal wurde für ganz Chicago wegen eines “violent crime” der Safety Check ausgelöst. Dann wieder war es ein längst gelöschtes Feuer in Dallas, dass das Feature auslöste.

Einerseits werden hier also klassische öffentliche Informations-Infrastrukturen von Facebook mit einem eigenen Feature durchbrochen, andererseits übernimmt Zuckerberg keine Verantwortung für Fehler. Für so ein soziales Herumexperimentieren im learning by trial and error-Stil am lebenden Objekt wäre weder für Nachrichtenmedien noch für staatliche Behörden akzeptabel, aber bei Facebook nehmen es viele kritiklos hin. Heuer war überhaupt das erste Mal, dass Zuckerberg von seinem Standpunkt abwich, dass sie ja nur neutrale Technologie schaffen würden, durch die Information fließe: Er hat einen Bruchteil von Verantwortung an der Verbreitung von Fake-News eingeräumt.

Die Korrektur von Falschmeldungen, egal ob sogenannte Fake-News oder Fehler beim Safety Check übernimmt jedes Mal die Presse, und Facebook gibt nur widerwillig Kommentare dazu ab. Von guter Absicht, von Neutralität dank Automatisierung und von ständiger Verbesserung wird dann geschwatzt – und die User seien quasi selber schuld, denn der Safety Check wird “initiated by people … and not by Facebook itself”. Den wenigsten Usern ist allerdings überhaupt bewusst, dass sie durch ein Posting, in dem sie den Verdacht äußern, dass in ihrer Nähe ein Anschlag stattgefunden haben könne, auf die Auslösung eines Safety Check einwirken. Und, ganz soziales Datenexperiment, das Facebook auch ist, zählt die uninformierte spontane Meinung mehr als die informierte, sich einer Verantwortung bewussten, und auf einen Kontext hin formulierte Äußerung. (vgl. dazu auch Zuckerbergs Utopie von Telepathie als “ultimate communication technology”, die William Davies in einem Artikel für den Atlantic in Zusammenhang mit einer Philosophie des Neuromarketing bringt: “People lie, brains don’t. Observe what people really feel, the thinking goes, rather than what they say they feel.”)

Die User als uninformierte Versuchskaninchen und als eigentlich Verantwortliche

Die User sind also für Facebook gleichzeitig verantwortlich andererseits aber uninformierte Versuchskaninchen für das Große und Ganze, für die Optimierung von Facebook als sozialer Infrastruktur unserer Gesellschaft. Facebook als Plattform für soziale Experimente machte 2014 Schlagzeilen, als sie Usern über einen begrenzten Zeitraum nur positive oder nur negative Meldungen in ihrer Timeline zeigten, um zu testen, ob Emotionen ansteckend seien. Ethisch wäre das sonst ziemlich fragwürdig, aber im Falle von dem sich gern als humanitär darstellenden Facebook kam es denn schon auch zu solchen Verteidigungen: “it’s worth keeping in mind that there’s nothing intrinsically evil about the idea that large corporations might be trying to manipulate your experience and behavior. Everybody you interact with–including every one of your friends, family, and colleagues–is constantly trying to manipulate your behavior in various ways. … So the meaningful question is not whether people are trying to manipulate your experience and behavior, but whether they’re trying to manipulate you in a way that aligns with or contradicts your own best interests.“

Trotz aller Faszination und Liebe zu sozialen Netzwerken, oder eher gerade deswegen, stehe ich da aber schon ganz hinter Zeynep Tufekci, die in “Engineering the Public” schreibt: “resignation to online corporate power is a troubling attitude.“ Gerade weil ich diese Infrastrukturen viel nutze, will ich auch wissen, was für Gedanken hinter einem Design stecken könnten, warum sie wie funktionieren usw. Ich wünschte mir auch hierzulande deswegen mehr gute Texte von Webtheoretiker*innen, die Soziologie, Datenwissenschaft und Design kritisch zusammendenken und damit diese neuen Infrastrukturen für die Öffentlichkeit sezieren. Gerade der Safety Check ist ja auch ein gutes Beispiel dafür, dass es längst nicht (mehr) ‘nur’ um Kaufanreize geht, und da lohnt sich wieder mal die Frage: Warum greift Facebook immer wieder zu Automatisierung, wenn diese immer noch so fehleranfällig ist und nicht komplex genug arbeitet?

Typischer Facebook Move: Auf Kritik an Neutralität mit Automatisierung reagieren

Ich erinnerte mich an die Geschichte mit den Trending News, einem Feature, das bei mir nur manchmal eingeblendet wird, in den USA aber wohl für alle geschaltet wird, und das die wichtigsten Themen, die User derzeit bewegen, anzeigt – im Idealfall also sowas wie ein Nachrichtenticker. Als Michael Nunez enthüllte, dass regelmäßig “conservative” Meldungen unterdrückt wurden und die Auswahl der Trending News nicht neutral sei, reagierte Facebook mit der Entlassung der letzten 18 redaktionellen Trending-Mitarbeiter*innen und automatisierte den Auswahlprozess, d.h. es gibt nur noch ein Team, das den Auswahlalgorithmus verfeinert, aber keines mehr, das die ausgewählten Meldungen auf Wahrheitsgehalt oder Qualität prüft. Auch bei diesem Facebook Feature funktionierte das ganz und gar nicht gut, sondern führte dazu, dass innerhalb kürzester Zeit übelste Falschmeldungen von Clickbait-Websites in den Trending Topics auftauchten, sowie Artikel Themen zugeordnet wurden, mit denen sie nichts zu tun hatten.

Dieser Rückzug auf Automatisierung statt menschlichem Urteil ist typisch für Facebook, wann immer es dafür kritisiert wird, dass es keine neutrale Plattform sei. Auch als es dafür kritisiert wurde, dass die Inhalte, die ein User im Newsfeed sehen würde, durch das personalisierte Aussortieren eine Filterbubble schaffen würden, wurde sich hinter dem angeblich neutralen Algorithmus versteckt, den die User doch selbst mit dem füttern, was sie sehen wollen: “It’s not that we control NewsFeed, you control NewsFeed by what you tell us that you’re interested in,” so ein Facebook-Mitarbeiter. Aber wie Jay Rosen, Journalismus Professor und Medienkritiker, schreibt: “It simply isn’t true that an algorithmic filter can be designed to remove the designers from the equation.”

Behauptete Neutralität soll Verantwortung auf User schieben

Nathan Jurgenson, Internettheoretiker und Soziologe, hat das noch genauer ausgeführt: “conceptually separating the influence of the algorithm versus individual choices willfully misunderstands what algorithms are and what they do. Algorithms are made to capture, analyze, and re-adjust individual behavior in ways that serve particular ends. Individual choice is partly a result of how the algorithm teaches us, and the algorithm itself is dynamic code that reacts to and changes with individual choice. Neither the algorithm or individual choice can be understood without the other.”

Nichtsdestotrotz soll die Verantwortung mit einer behaupteten Neutralität hin zu den Usern verschoben werden: “To ignore these ways the site is structured and to instead be seen as a neutral platform means to not have responsibility, to offload the blame for what users see or don’t see onto on the users. The politics and motives that go into structuring the site and therefore its users don’t have to be questioned if they are not acknowledged.”

Auch im Hinblick auf Safety Checks ist das zu beobachten, wie Journalistin Bettina Chang schreibt: “Facebook emphasizes that the community-generated alert is an automatic feature that doesn’t imply any sort of judgment on the event, but rather relies on the reporting of Facebook users themselves and their friend networks.” Klar, und wenn alle User immer Facebook über ihren richtigen Aufenthaltsort informieren würden und nichts Sarkastisches, Vermutetes, oder gar poetische Sprache posten würden, nie etwas ironisch liken würden, also wenn alle User sich so verhalten würden, wie Facebook “Ehrlichkeit” oder “Authentizität” definiert, dann würde alles auf Facebook bestimmt auch viel besser funktionieren. Der Versuch der Verantwortungsverschiebung auf die User ist letztlich nur, wie Jurgenson sagt, ein “ideological push by Facebook to downplay their own role in shaping their own site”.

Beim Safety Check Feature ist wie gesagt gerade ein ähnlicher Ablauf wie beim Trending Feature zu sehen: Ursprünglich wurde es von einem Team von Menschen auf der Basis von “Medienquellen und Polizeiberichten” aktiviert. Nachdem Kritik an den Auswahlkriterien dafür, was als Katastrophe galt, laut wurde, zog Facebook das Team ab, automatisierte den Prozess, und behauptete, damit hätten sie sich selbst als beeinflussender Faktor aus der Gleichung genommen. Damit läge die Verantwortung bei Usern, die auf Facebook ängstliche Vermutungen posten, das etwas passiert sein könne, oder Usern, die Nachrichtenmeldungen dazu posten, und bei “Drittquellen”, die, wie beim falschen Alarm in Bangkok, schon auch mal sogenannte “Fake News”-Websites sein können.

In Sachen Verantwortlichkeit bin ich da aber ganz bei Chris Kövers Resümée im Wired: “egal, wie viele Nutzer auf Facebook zu einem frühen Zeitpunkt schon über einen ‘Anschlag’ diskutierten, diese Bezeichnung kann von Facebook nicht einfach übernommen werden. Wenn ein Feature, dessen erklärte Absicht es sein soll, Menschen in einem KrisenmomentZeiten der Krise zu beruhigen, stattdessen Millionen von Pushmitteilungen auf der ganzen Welt versendet, in denen von einem Anschlag die Rede ist, lange bevor dies bestätigt ist, dann dient das nicht der Beruhigung, sondern der Panikmache.” Und das kann in solchen Momenten überhaupt erst Gefahr hervorrufen. Dazu noch ein Beispiel für eine Falschauslösung: Facebook löste den Safety Check bei einer friedlichen Black Lives Matter Demonstration ein und kennzeichnete damit die Protestveranstaltung als viel gefährlicher, als sie war. In einer bereits geladenen Atmosphäre ist so etwas alles andere als deeskalierend, und es kann auch Menschen so verängstigen, dass sie darauf verzichten, ihr Demonstrationsrecht wahrzunehmen.

Mehr Verantwortung fordern

Es ist dabei völlig egal, ob ein Feature wie der Safety Check durch einen Algorithmus oder aus menschliche Einschätzung heraus ausgelöst wird – wir sollten von Herstellern von Tools, die solch eine zentrale gesellschaftliche Rolle einnehmen wollen, mehr Verantwortlichkeit fordern. Wir sollten mehr Bewusstsein dafür schaffen, dass solche Dinge auch anders funktionieren könnten und nicht immer einfach nur die treudoofen Crash Test Dummies spielen, die einem vermeintlich geschenktem Gaul nicht ins Maul schauen wollen. Gut gemeint ist nicht gut genug, vor allem, wenn sich die Zuckerbergsche Definition von “gut” eventuell gar nicht mit deinem Verständnis davon deckt. Und die Kritik kommt langsam voran. Charlie Warzel hat heute einen Jahresrückblicksartikel veröffentlicht, der 2016 als das erste Jahr sieht, in dem Menschen so richtig bewusst wurde, dass es sich bei all den digitalen Plattformen um Infrastrukturen handelt, die unser Leben beeinflussen und nicht nur um irgendwas Nicht-Reales im Netz, das sich jederzeit ausschalten ließe, und dass es auch das erste Jahr sei, indem große Plattformen wie Facebook, Uber, Twitter oder AirBnB mal soweit zur Verantwortung gezogen wurden, dass sie es nicht mehr einfach so an sich abprallen ließen: “Until recently, Facebook’s unofficial engineering motto was “Move fast and break things” — a reference to tech’s once-guiding ethos of being more nimble than the establishment. “Move fast and break things” works great with code and software, but 2016’s enduring lesson for tech has proven that when it comes to the internet’s most powerful, ubiquitous platforms, this kind of thinking isn’t just logically fraught, it’s dangerous — particularly when real human beings and the public interest are along for the ride.”

In diesem Sinne, werte Leser*innen, auf ein kritisches und überhaupt ganz großartiges neues Jahr!

*klopft sich auf die Schulter, weil sie doch noch ein Blogposting in 2016 geschafft hat und macht sich auf ins Raclette-/Fondu-/Sekt-Getümmel* ????

Es gab nie einen Cyberspace – mein SPIEGEL Interview zu digitaler Kommunikation, Information und Vernetzung

Ich wurde vor kurzem von Susanne Weingarten für DER SPIEGEL Wissen zu allem möglichem rund um digitalisierte Kommunikation, Information und Vernetzung interviewt. Danke auch an Florian Generotzky, der mir für eine Fotosession im K4 vorbeigeschickt wurde. Macht meinereiner ja auch nicht alle Tage. 🙂

Hier blogge ich euch die ungekürzten Antworten.

wp-1473660895217.jpg

Eve Massacre, wie lange bloggen sie schon? Mit welchen Erwartungen haben Sie damals angefangen? Und haben sich diese erfüllt?

Ich habe Mitte der Nuller zu bloggen begonnen. Mein Blog war für mich sowas wie meine Schnittstelle im Netz: Onlinetagebuch, lautes Denken, meine Musik, Links zu anderen Blogs, die mir wichtig schienen – Passion, Information, Diskussion, Community Media. Mit losen Gedankenenden, die jemand anders aufnehmen kann. Letztlich eine logische Fortführung von dem, was ich offline stets an Fanzinekultur geschätzt hatte. Mir ging es dabei nie um möglichst große Reichweite und finanzielles Interesse, sondern darum, den öffentlichen Diskurs um eine Stimme vielfältiger zu machen. Meine Erwartungen in Sachen Vernetzung hat meine Art zu bloggen eigentlich immer gut erfüllt. Die Welle der Kommerzialisierung von Bloggen, habe ich stets als befremdlich empfunden, da es da meist mehr um Optimierung als um Inhalte ging.

Welche Bedeutung hat das Bloggen heute für Sie?

Leider ist viel von dem, was ich an Blogs schätzte, vor allem die dezentrale gegenseitige Vernetzung und Diskussion inzwischen an Facebook gewichen, aber das Bloggen ist nach wie vor für mich eine wichtige Art, meine Gedanken zu einem Thema oder einem Zeitpunkt oder zu einer Geschichte zu sammeln, zu fokussieren und sie so mit anderen zu teilen.

Wie hat sich Ihr Leben durch Ihre Präsenz im Netz verändert?

Meine Präsenz im Netz hat für mich schon immer eine grundlegende Erweiterung meiner Möglichkeiten, meines Horizonts und meiner ganzen Identität bedeutet. Die Möglichkeit, sich über geographische Grenzen hinweg mit Menschen, die ähnliche Interessen haben, lose zu vernetzen, seinen Blick auf die Welt in Form von Fotos oder getippten Gedanken mit anderen schnell teilen zu können, und auch der granulare Blick auf die Gesellschaft, also dass eine unglaubliche Vielfalt an Stimmen hörbar geworden ist – das hat eine ganz neue Art zu Denken und der Identitätsstiftung mit sich gebracht. Das geographische Umfeld verliert an prägender Bedeutung, du bist weniger in deine Umgebung geworfen.

Viele Menschen unterscheiden zwischen ihrem „echten“, sprich analogen Leben einerseits und ihren Aktivitäten online, etwa Facebook, auf der anderen Seite. Halten Sie das für sinnvoll und richtig?

Im Gegenteil, ich halte das für ein grundlegend falsches Verständnis, aus dem viele Probleme entstanden sind. Dadurch dass jahrzehntelang vom Cyberspace geredet wurde, hat sich in vielen Köpfen ein Bild gefestigt, dass es ein virtueller Ort sei, an dem du dich der eigentlichen Realität entziehst. Von dieser Wildwestfantasie profitieren heute noch die meisten großen Digitalplattformen, seien es Facebook und Twitter, oder AirBnB und Uber: als ob dort ein neues “Gebiet” in Beschlag genommen würde, in dem sich erst mal der Gesetzgebung und Arbeitsrecht der Offlinewelt entzogen werden kann. Dass das so gut funktioniert schiebe ich zu einem großen Teil auf dieses falsche Denken in analoge vs virtuelle Welt. Online und offline sind zutiefst ineinander verwoben, und das zieht sich bis in unser Denken. Die Möglichkeiten der digitalen Revolution sind auch in unserem Kopf, wenn wir offline sind. Das ist nicht mehr zu trennen.

Social-Media-Plattformen wie Facebook und Twitter wurden anfangs bejubelt als Foren, in denen alle gleichermaßen Gehör finden können. Wo sehen Sie die größten gesellschaftlichen Chancen und Möglichkeiten von sozialen Medien? Wo die größten Risiken?

Die positiven und negativen Möglichkeiten liegen oft in denselben verstärkenden Mechanismen: Facebook bietet inzwischen großartige Möglichkeiten, sich in privaten Groups zu organisieren. Das kann für schnelle unbürokratische Flüchtlingshilfe genauso nützlich sein wie für den Hassmob der vorm Flüchtlingsheim steht. Facebook bietet Medien die Möglichkeit, ihren Journalismus gezielter an die Menschen zu bringen, gräbt ihm aber gleichzeitig die Existenzgrundlage (z.B. direkte Kundenbindung und Werbefinanzierung) ab, ohne jegliche redaktionelle Verantwortung zu übernehmen. Twitter-Hashtags ermöglichen die Sichtbarmachung eines Randgruppenproblems, aber sie vereinfachen es auch Rassist*innen und Sexist*innen ihre Opfer zu finden.

Ich sehe nach wie vor eine wichtige Rolle von sozialen Plattformen in ihrer verstärkenden Funktion, allerdings nicht unkritisch, da es keine neutralen Plattformen sind. Die gefilterte Timeline, die eigenen Hausregeln (z.B. Realnamenpflicht auf Facebook), schlechte Umsetzung von Communitystandards, die Gamifizierung von Sozialem – das alles halte ich für durchaus problematisch, wenn eine Plattform wie Facebook eine so zentrale monopolistische Rolle spielt. Wenn früher ein Messageboard seine eigenen Regeln gemacht hat, hatte ich kein Problem mit der Haltung “wenn’s dir nicht passt, dann geh halt”. Facebook ist inzwischen gesellschaftlich an einem Punkt, dass es viele sich beruflich und sozial und vom Informationszugang her nicht mehr so einfach erlauben können, dort nicht präsent zu sein. Dazu kommt wie bereits erwähnt, dass uns digitale Plattformen auch prägen, wenn wir sie nicht benutzen. Zum Beispiel, dass manche ihre Erfahrungen schon ganz automatisch danach scannen, ob etwas dabei ist, was sich zu posten lohnt. Nathan Jurgenson hat das mit dem Bild vom “camera eye” erklärt: Eine Fotografin sieht auch, wenn sie gerade keine Kamera dabei hat, ihre Umgebung in möglichen Bildausschnitten und hat ein geschärftes Auge für Lichteinfall. Ähnlich prägt uns die Nutzung von anderen Technologien, und nichts anderes ist so eine Social Media Plattform ja.

Wenn Facebook nur in Form eines sozialen Netzwerks so eine zentrale Rolle spielen würde, hätte ich weniger Bauchgrummeln dabei, aber wenn eine so intransparent fungierende Plattform auch noch der zentrale Punkt ist, über den viele Menschen Zugang zu Journalismus und zu Informationen von staatlichen Organisationen usw. bekommen, dann finde ich es gefährlich. Facebook strukturiert was Menschen zu sehen bekommen, indem es die Timeline filtert – darin liegt eine Macht, die ich in so intransparenter Form kritisch sehe. Facebook hält dabei ein Image als neutrale humanistische Plattform hoch, die sich durch ein Totalversagen in der Praxis der Durchsetzung von Community Standards ad absurdum führt. Wer Geld hat, kann dafür zahlen, dass seine Nachrichten in der Timeline anderer zu sehen sind. ich hatte da schon alles mögliche von Werbung für ein Neonazi-T-Shirt bis zur Todesdrohung an Frauen, die keine Schleier tragen. Kritische Seiten werden regelmäßig offline genommen, weil die Verantwortlichen bei Facebook nicht unterscheiden, ob eine Seite kritisch über Rassismus und Antisemitismus berichtet oder Propaganda dafür macht. Die ganze Struktur ist auf Belohnung aufgebaut, schürt damit eine bestimmte Art von Postings und beeinflusst so das Kommunikationsverhalten.

Hier sind einfach so viele Beeinflussungen und Filterungen der Weltwahrnehmung gegeben, die nicht einfach so in der Hand eines Unternehmens liegen sollten. Wenn es jetzt 20, 30 verschiedene Netzwerke wären, die Menschen nutzen würden, fände ich das weniger besorgniserregend.

wp-1473660939021.jpg

Durch das Internet fallen zunehmend die klassischen „Gatekeepers“ weg, also Institutionen wie die Presse, die traditionell den Zugang zu Informationen und Meinungen reguliert haben. Halten Sie dies für einen Zugewinn an Basisdemokratie? Oder für eine Gefahr, wenn man sich etwa davon abhängig macht, welche Informationen Facebook mit seinen Algorithmen bevorzugt oder unterdrückt?

Das ist für mich kein Entweder/Oder. Ich halte das Wegfallen klassischer Gatekeepers für eine gute Sache, gerade weil wir keine sehr diverse Zusammensetzung unter den dort Journalismus Betreibenden haben, noch nicht mal geographisch gesehen. Ich bin davon überzeugt, dass ohne Blogs und Social Media in den klassischen großen Medien heute noch nicht mal das – immer noch magere – Level an Diversity zu finden wäre, wenn nicht eine Vielfalt von Randgruppen-Stimmen im Netz es geschafft hätte, sich Gehör zu verschaffen. Diese Pluralität der Stimmen, die mit Blogs in der öffentlichen Wahrnehmung gewachsen ist, halte ich für sehr wichtig. Dass sie über soziale Plattformen noch verstärkt wurde, sehe ich auch erst mal positiv, auch wenn sie viele verunsichert, die ihre engere sichere konservative Weltsicht erschüttert sehen. Dass Facebook – als *die* soziale Plattform hierzulande strukturell gleichzeitig keine konsensformende Diskussionskultur begünstigt, sehe ich wiederum kritisch. Es wird gern verkannt, dass wir in Form von Facebook einen größeren Gatekeeper denn je haben – es ist keine neutrale Plattform, sondern hat ganz eigene Regeln unter denen manches verstärkt, anderes unsichtbar gemacht wird.

Und das halte ich für ein Problem: Wie bei jedem Gatekeeper wird einfach vieles unsichtbar gemacht. Dass Inhalte von neuen Gatekeepers, nämlich Google als Suchmaschine und Facebook als Social Media Plattform gefiltert werden aber sie sich gleichzeitig als neutral darstellen, ist ein Problem. Der höhere Platz auf der Wahrscheinlichkeitsliste, dass du Usern gezeigt wirst, kann sich erkauft und ergamet werden. Mit ergamet meine ich: Viral Content, SEO-Optimierung, mehr Fokus auf Form als auf Inhalt und Gehalt. Die Art von emotionalisierter Zuspitzung, die inzwischen viel im Journalismus verwendet wird, um ihre Artikel viral erfolgreich zu machen, landet zwischen den sozialen privaten Nachrichten und prägt damit auch die Emotionalisierung der privateren Postings, prägt ein Kommunikationsverhalten. Dass dementsprechend Kommentare oft genauso polemisch ausfallen wie die Anreiz-Überschriften hat miteinander zu tun. Mein Problem ist also nicht, dass alte Gatekeeper wegfallen, sondern dass sich die neuen Gatekeeper keiner editiorialen Verwantwortlichkeit stellen geschweige denn transparent vorgehen. Behauptete Neutralität ist immer gefährlich.

In den Anfängen des Internets gab es die Hoffnung auf einen „freien“ virtuellen Raum ohne Hierarchien, Diskriminierung und Hass. Stattdessen berichten heute viele Frauen, die twittern, bloggen oder in den digitalen Medien arbeiten, von drastischer Frauenfeindlichkeit, Belästigungen, Drohungen und Hacker-Attacken. Wie erleben Sie die Situation?

Das Internet war nie ein virtueller Raum. Es ist eine Technologie, in die alle Vorurteile und Weltbilder derjenigen, die sie bauen, miteinfließen. Da so gut wie alle Plattformen im Internet von der dominanten Gruppe unserer Gesellschaft geschaffen wurden, haben diejenigen, die nicht dazu gehören, unter dem zu leiden, was in der Struktur dieser Plattformen nicht berücksichtigt wurde. Dazu gehören zum Beispiel gute Möglichkeiten, sich gegen Hasskommentare zu wehren. Facebook könnte es ja einfach ermöglichen, dass die Kommentarfunktion abgeschaltet werden kann.

Dass die Kommunikation früher weniger hasserfüllt war, halte ich für ein Gerücht, nur sind heute wesentlich mehr Menschen online und die Plattformen sind wesentlich zentralisierter. Wenn ich früher ein Messageboard besuchte und sah, das dort ein frauenfeindlicher Spruch nach dem anderen gepostet wird, dann habe ich es einfach nicht genutzt. Facebook oder Twitter dagegen haben für viele Betroffene eine zu zentrale soziale, informationelle und berufliche Rolle, als dass sie es sich einfach so erlauben könnten, es nicht mehr zu benutzen.

Darüberhinaus sind es wie bereits erwähnt oft diesselben strukturellen Möglichkeiten, die eine große Reichweite ermöglichen, die Menschen auch leichter zum Opfer werden lassen können. Und es sind ja auch oft die prominenteren User*innen am meisten betroffen, und Reichweite heißt, so wie die Plattformen gebaut sind: Sie können genauso eine Flut von Hasskommentaren abbekommen wie sie eine Flut von Rückhalt und positiven Kommentaren bekommen. Wenn möglichst große Reichweite zum Businessmodell gehört, werde ich keine gute Regulierung von Hasskommentaren bekommen. Weder Facebook oder Twitter noch die Kommentarsektionen von Newsmedien wollen in die Moderation oder anderweitige Regulierung von Trollkommentaren viel investieren und konsequent agieren, da sie ja von der Masse der Klicks profitieren. Sie könnten ja auch Kommentare nur freischalten, wenn sie inhaltlich etwas beitragen. Meines Erachtens sollten Kommentarbereiche nur geschalten werden, wenn sie auch mit editorialem Verantwortungsbewusstsein moderiert werden und tatsächlich Interesse an einer Diskussion mit dem Publikum da ist.

wp-1473660916947.jpg

Verlockt die Anonymität des Internets zu einer Enthemmung in Sachen Frauenhass oder auch Rassismus, wie sie in der analogen Welt nicht gewagt und auch sozial nicht geduldet würde?

Auf keinen Fall. Es gibt sogar Studien, die belegen, dass Anonymität nichts damit zu tun hat, sondern dass gerade die, die besonders hinter ihrer Haltung stehen, extra unter Realnamen posten, um ihrer Meinung Gewicht zu verleihen. Umgekehrt ermöglicht die Verwendung von Fake-Namen es auch Menschen, die sonst Angst haben müssten, sich öffentlich zu äußern, weil sie sexistische, homo/transphobe oder rassistische Übergriffe fürchten müssen. Deswegen gibt es ja auch soviel Kritik an der Realnamen-Politik von Facebook. Letztlich stärkt Realnamenpolitik nur die, die in einer Gesellschaft eh schon die stärksten Positionen einnehmen – mich erinnert das immer etwas an die “wer nichts zu verbergen hat, braucht auch Überwachung nicht zu fürchten”-Haltung. Jeder Mensch hat etwas zu befürchten, und je weiter ich dem Mainstream entfernt bin, “anders” bin, desto angreifbarer bin ich. Nicht umsonst sind es Netzwerke wie Twitter und Tumblr, die keine Realnamenpflicht haben, auf denen Randgruppen sich lange Zeit am stärksten vernetzt haben, und auf denen sich zum Kampf für mehr soziale Gerechtigkeit vernetzt wird.

Ich sehe verschiedene Wurzeln für das Problem des enthemmten Hasses im Netz.

Eine tiefsitzende Wurzel ist die Erziehung zum digitalen Dualismus, wie es Nathan Jurgenson genannt hat, also: zu einem Denken, das zwischen vermeintlich realem Leben und virtuellem Onlineleben trennt. Dadurch ist über Jahrzehnte hinweg die Idee genährt worden, dass alles was online gepostet wird nicht “real” sei. Das rächt sich nun bitterlich. Es gibt schlicht und einfach auch hierzulande weitverbreiteten Alltagsrassismus, -homo&transphobie und -misogynie. Die Hasskommentare im Netz kommen uns geballter vor, weil sie dort nachlesbar, sammelbar und damit sichtbarer sind, während verbale Hasskommentare im Alltag in tausende kleiner Einzelerfahrungen fragmentiert sind, die meist keine gemeinsame Stimme und damit keine breite Öffentlichkeit finden.

Dazu kommt, dass sich im öffentlichen Raum ein gesellschaftlicher Konsens bildet, was laut aussprechbar ist, und wofür ich von meinem Umfeld Sanktionen zu erwarten habe. Und hier besteht einfach eine Kluft, was wir willens sind unwidersprochen zu lassen, wenn es jemand z.B. in der U-Bahn sagt, und dem, wo wir auf Facebook weggucken. Wie gesagt: die Wurzel sehe ich darin, dass so lange das Internet als nicht-real behandelt wurde. Online wird so bis heute von vielen ein falsches Credo von Meinungsfreiheit hochgehalten: falsch, weil dabei die Idee der Meinungsfreiheit instrumentalisiert wird, um gegen Schwächere hetzen zu können, die ja eigentlich durch die Idee der Meinungsfreiheit gestärkt werden sollten.

Was die starke Emotionalisierung in den Kommentaren anbetrifft, tragen Medien durchaus eine Mitschuld. Die hasserfüllten Polemiken diverser weißer älterer rechtskonservativer Herren des Zeitungsfeuilletons bringen viel Leserschaft und Echo, weil darüber diskutiert wird. Emotionalisierende Schlagzeilen und Bildauswahl werden genutzt, um Artikel auf Social Media möglichst weitverbreitet zu bekommen. Damit lassen sich Medien auf die Schwachstellen, mit denen eine Plattform wie Facebook gebaut ist, ein, schüren damit aber auch einen Umgangston, über den sie sich dann selbst ärgern, wenn sie ihn aus den Kommentaren zurück um die Ohren bekommen. Ebenso ist eine Plattform wie Facebook mitschuld, wenn sie denen Gehör verschafft, die am lautesten und emotionalisierendsten schreien.

Haben Sie schon einmal die Behörden eingeschaltet, weil Sie attackiert wurden? Wenn ja, was war Ihre Erfahrung?

Nein, ich selbst nicht.

Frauen im Netz wird oft geraten, die sie beleidigenden oder bedrohenden Trolle nicht zu „füttern“, sondern zu ignorieren – halten Sie das für die richtige Strategie?

Ja, schon allein, weil du niemandem die Zeit und Mühe schuldest. Ignorieren, blocken, keine Zeit schenken. Das ist die Taktik, mit der ich am besten fahre – die mir auch zu einem dickeren Fell verholfen hat. Musste ich aber auch erst lernen. Mit klassischen Trollen/Hatern lohnt keine Diskussion. Das heißt wohlgemerkt nicht, sich gar nicht auf Diskussionen mit Andersdenkenden einzulassen. Aber mit der Zeit entwickelst du ein Feingefühl dafür, wo die Diskussion lohnt, und wo nur die immergleichen Strategien angewandt werden, um dich fertigzumachen.

Letztes Jahr gab es in den USA den „Gamergate“-Skandal, nachdem dem eine feministische Kritikerin der Videospiel-Industrie mit Morddrohungen überzogen wurde. Hat diese Diskussion über die Frauenfeindlichkeit der Videospiel-Szene etwas bewirkt?

Sie hat bewirkt, dass vor allem die strategische Frauenfeindlichkeit, die zum Teil praktiziert wird, von einer breiteren Öffentlichkeit wahrgenommen wird, und sich dadurch manche weniger allein mit ihrem Erleben fühlen müssen, und natürlich auch Strategien dagegen weiter verbreitet wurden.

 

Sie haben anlässlich des Erfolgs von „Pokémon Go“, einem virtuellen Spiel, das draußen auf Straßen und Plätzen gespielt wird, darauf hingewiesen, dass der öffentliche Raum nicht allen Menschen gleichermaßen zur Verfügung steht – können Sie das erklären?

Pokémon Go ist nicht mehr oder weniger virtuell als andere Spiele. Es macht nur spürbarer, wie Digitales und Nicht-Digitales ineinandergreifen, dass das Digitale nur eine Erweiterung ist, keine andere Sphäre. Dadurch dass es durch sein Geocaching-Element Menschen aus dem Wohnzimmer hinaus in den öffentlichen Raum führt, zeigt es, wie wenig dieser ein neutrales “Spielfeld” ist. Viele Frauen werden sich nachts alleine nicht in jede dunkle Gasse einem Pokémon nachspüren trauen. Ein junger Mann mit dunkler Hautfarbe wird oft schneller als ein möglicher Einbrecher verdächtigt, wenn er vor einem Haus herumlungert, weil er da um ein Pokémon Gym kämpft. So führt uns Pokémon ganz nebenbei vor Augen, wer sich am freiesten wo in unseren öffentlichen Räumen bewegen kann.

Das Silicon Valley wird zunehmend dafür kritisiert, dass die Unternehmen vorzugsweise junge weiße Männer beschäftigen – und viel zu wenige Frauen. Damit setzt die Tech-Industrie aber nur eine lange Tradition fort: In lukrativen, technisch-mathematischen Geschäftsfeldern waren schon immer die Männer vorneweg. Warum drängen Frauen nicht viel stärker in diese Zukunftsbereiche?

Weil diese Bereiche genau aus diesen Gründen oft nicht sehr einladend sind, und Frauen dank strukturellen Sexismen oft doppelt so hart kämpfen müssen, um sich dort durchzusetzen. Dazu kommt wie in jedem männlich-dominierten Bereich: Je weniger Vorbilder es gibt, desto weniger Frauen kommen überhaupt drauf diesen Weg einzuschlagen. Es sind immer wieder diesselben Gründe.

In den USA gibt es Bestrebungen von Vereinen und Stiftungen, Mädchen ans Programmieren heranzuführen. Sehen Sie ähnliche Entwicklungen auch für Deutschland? Würden Sie sich solche Programme wünschen?

Auf jeden Fall würde ich mir solche Programme auch hier wünschen, inwieweit es sie bereits gibt, dazu kenne ich mich zu wenig in der Programmierszene aus.

Was ist für Sie persönlich der größte Fortschritt, den die Digitalisierung unserer Welt bewirkt hat?

Die Erweiterung unserer Kommunikationsmöglichkeiten auf so viele Ebenen und die Dezentralisierung unseres Wissens. Aber tatsächlich vor allem, wieviel mehr Menschen dank digitaler Möglichkeiten voneinander wissen und sich austauschen, dieses großartige Hin und Her zwischen eigener Identitätssuche und einer unendlichen Neugier von Menschen aufeinander, verstreut über dutzende komplexe Varianten von Social Media Plattform bis zu Messenger App, von Periscope bis Snapchat.

 

Rassismus-Kehrwoche: RegierungTM vs Facebook the Hutt

Als ich zu denen gehörte, die es nicht verkehrt fanden, dass Heiko Maas Facebook um ein härteres Durchgreifen in Sachen rechter Hetzpostings bat, war ich einen Moment lang besorgt, ob ich damit auch gleich automatisch zu denen gehöre, die sich eine Regierung wünscht, die mal richtig durchgreift. Schon mehr Bruce Willis als Chuck Norris, also mehr Xena als Hitler, aber irgendwie trotzdem besorgniserregend. Dann kam mir aber, dass Voraussetzung dafür ja wäre, dass ich dran glauben täte, dass die RegierungTM FacebookTM mehr als ein wohlkalkuliertes höflich-verständnisvolles Lächeln abringen könnte. Deswegen ist das Vorpreschen von Maas, dem sich Merkel inzwischen ja angeschlossen hat, schon eine amüsante Sache, denn es wird zeigen, dass Facebook letztlich die Merkel der sozialen Plattformen ist: Kritik, das Aufzeigen von Grenzen und Verbesserungsvorschläge versacken stets in einer lächelnden mausgrauen? Mausblauen! Jabba-The-Hutt-PR-Wabbelhaut, die alles soweit eindringen lässt, dass es den Anschein einer Reaktion hat, dann aber lässig zurückfedert in was-auch-immer eh vorher schon ihre Position war. Macht wabert hinter Faux-Durchschnittlichkeit, hinter dem Hoodie des Jedermann, der nur dein Bestes will, sein Bestes versucht, wie du und ich, aber es ist halt kompliziert, das musst du schon verstehen, aber: mit gesundem Menschenverstand und wenn wir uns alle gemeinsam bemühen, dann! An Facebook zu verzweifeln ist wie die Verzweiflung eines Kindes in seiner ohnmächtigen sozialen Abhängigkeitssituation. Ein Kind, das den Eltern nicht klarmachen kann, wo ein Problem liegt, weil diese, sich besserwissend wähnend, gar nicht richtig zuhören, weil: Vorsprung durch Daten, mehr Überblick, mehr Erfahrung, mehr Wissen. Mehr halt. Das kann sich ein Kind doch gar nicht vorstellen. Diese Position gönne ich Maas.

“Facebook ist letztlich die Merkel der sozialen Plattformen”

Man könnte sich ja jetzt Popcorn greifen, sich zurücklehnen und zuschauen, quasi Godzilla gegen Mothra (oder vielleicht: Mechagodzilla, aber Mothra ist cooler, weil Robert Smith gegen Streisand, egal: jedenfalls Supervergleich, weil beide auch nicht 100% gut oder 100% böse), aber dann dämmert dir: Blöd, dann sind die Flüchtlinge ja die Einwohnerinnen von Tokyo, will heißen: im besten Fall Statistinnen ohne Stimmen, im blödesten: Kollateralschaden. Und überhaupt, warum kümmert Maas und Merkel das plötzlich? Ein menschlich-herziges Ablenkungspflasterl, damit die Verschärfung der Flüchtlingspolitik nicht so schmerzt? Beziehungsweise nur die Flüchtlinge schmerzt, aber die wohlmeinende deutsche Zivilgesellschaft nicht. Oder Imagesorgen um die Marke? Wir schaffen das. Wohlkalkulierte Dosierung von Wir-Gefühl, ging wohl ein bissler nach hinten los, denn soviel “Wir gegen die” war ja auch wieder nicht gewollt. Das grünwiesige und crazybiedermannberlinige (denn letztlich wird Berlin ja nur als andauernder quasi-nostalgischer Ausbruchsmoment gefeiert, nicht als Vision einer anderen Möglichkeit, an der gebaut wird, aber das ist ein anderer Rant) SchlandTM, das mit Fußball und Staatspop und etzsimmawiederwer-Gefühl, na, da wuchern nun schon ein paar Rostflecken auf der weißen – entschuldigung: “wir sind bunt”-Weste, naja: vielleicht doch eher “wir sind pastellfarben”, zu bunt soll es hier ja auch niemand treiben, jedenfalls: der braune Rost muss mal wieder weg. So ist das aber halt, wenn nix gegen das feuchte Dauerklima getan wird, weil die Parolen ja doch auch immer mal wieder praktisch für die eigene Politik sind, so ist das halt, wenn immer nur drüberlackiert wird und nie ordentlich abgeschliffen und grundiert, das sagt dir jede Autoschrauberin: da kommt der Nazidreck halt immer wieder durch.

“Warum kümmert Maas und Merkel das plötzlich? Ein menschlich-herziges Ablenkungspflasterl, damit die Verschärfung der Flüchtlingspolitik nicht so schmerzt?”

Nun mögen manche Mitglieder der weißen Herrenmasse den Finger heben, weise mahnend, dass es doch vielleicht auch gut so sei, dass das alles auf Facebook so sichtbar sei, ein wahrer Spiegel der Gesellschaft, da wisse man wenigstens woran man sei, und das Geschmeiß kreuche nicht nur im Dunklen herum, wo es dann wieder nur Agent Antifa Moulder sieht, dem eh keiner glaubt, weil in der deutschen Fußballlogik halt immer noch wie Pluspol/Minuspol gedacht: linksextrem ist die andere Seite von rechtsextrem. Dass sich die Definition von linksextrem aber seit Jahren von “Bombenattacken gegen den Staat” zu “noch einen Funken sozial-politisches Verantwortungsgefühl und Empathie im Leib” verschoben hat, und sich somit zu einem Gütesiegel entwickelt hat – wen juckt’s. Aber früher wurde ja auch mal geglaubt, dass Homosexualität widernatürlich sei, weil Magnet: Pluspol und Pluspol stoßen sich ab. Von daher bleibt tröstende Hoffnung, dass auch die Extremismustheorie Jahre nach ihrer theoretischen Überwindung auch noch IRL eingemottet werden wird. Zu der Logik, dass es doch super wäre, dass der rechte Dreck nun dank Facebook sichtbar sei und nicht an dunklen Stammtischen verborgen bliebe: Nun, das mag für manche Nichtbetroffene schon so sein, dass sie sich das als kleinen Gruselschauer beim Morgenkaffee geben wollen, aber ob das nun Flüchtende als bereichernd empfinden, dass sie das so alltäglich  in die Fresse kriegen? Wohl weniger. Denen geht es wohl eher wie mir, wenn ich den “endlich mal für alle sichtbaren, yeah!” sexistischen und homophoben Dreck um die Ohren kriegte, dass mir schon vorm Frühstück der Magen klamm wurde. Nicht umsonst habe ich eine liebevoll handgemachte, immer wieder überarbeitete Filterbubble, die mir niemand Nichtbetroffenes ever ranzig machen wird. Diesen Hassdreck im sozialen Kontext von Facebook immer wieder zu lesen, bringt Gewöhnung mit sich und resultiert in der Verschiebung von Grenzen des Tolerierten. Nicht umsonst arbeiten Menschen inzwischen mit allen Mitteln – Facebookmeldung, Anzeige bei der Polizei, Shaming bei Arbeitgeber und sozialem Umfeld – um einen sozialen Konsens wiederherzustellen, in dem es nicht alltäglich ist, rassistischen Dreck von sich zu geben.

“Super, dass dank Facebook, dem Spiegel der Gesellschaft, der rechte Dreck nun sichtbar ist? Für Flüchtlinge und andere Betroffene wohl kaum.”

Facebook als Spiegel. Nuja. Wenn, dann schon eher so ein Labyrinth von Zerrspiegeln, wie am Oktoberfest, in dem manches doppelt so breit oder wellenförmig gezeigt wird, und anderes gar nicht. Und wenn du verstehen willst, wie das aufgebaut ist und funktioniert – ich sag dir: keine Chance. Da irrst du tagelang durch das Kabinett und rennst dir bloß das Hirn blutig. Was dir aber klar wird, während du im Bierzelt nebenan mal eben noch einen Stärkungsschluck nimmst, ist, dass schon gezielt manches mehr gezeigt wird als anderes. Zum Beispiel Emotionalisierendes. Vielleicht war es ein Schluck zu viel, denn das war tapsig und dir entgleitet die schöne Spiegelkabinettmetapher, oder – nee, war nicht das Bier: Funktioniert hat sie von Anfang an nicht, weil: Es wird ja überlegt, bevor gepostet wird, ausgewählt, formuliert, Inszenierung, Performanz überall wohin du schaust. Fast wie offline, aber bewusst für online. Auch Rassist*innen können schließlich Social Media managen und da funktioniert so eine soziale Plattform ja genauso toll wie für Sexist*innen. Prima zum gegenseitigen Hochschaukeln und Schulterklopfen, ob öffentlich oder in geschlossenen Gruppen mit Verschwörungsbonus, und was für ein tolles Tool zum Vernetzen und Organisieren. Facebook ist ein gottverdammter Verstärker. Merkst du was ich merke? Wie sich mystery und hystery und history verstärken.

“Auch Rassist*innen können schließlich Social Media managen und Facebook ist ein verdammter Verstärker.”

Lass uns nicht über Sexist*innen reden, aber Rassismus geht dann doch zu weit. Wobei sich auch die Misos seit Jahren wirklich viel Mühe geben – das muss auch mal anerkannt werden, auch wenn sie jetzt gegen die rechten Sprüche abstinken – aber hey, mit blutrünstigen Todesdrohungen und hochkreativer vernetzter Verächtlichkeit – das da draus noch kein Event gemacht worden ist, wo du einen Eintritt dafür zahlst, eigentlich ein Wunder. Ach, gab’s schon. Sieh eine an. That’s social media: Aus Scheiße Gold machen und damit noch zur Senkung der Toleranzgrenze beitragen. Das muss man ja auch mal sagen dürfen: Egal, aus was für einem Grund das gesagt wird, es wird gesagt, und irgendwie muss alles mal gesagt werden heutzutage. Dürfen. Ich muss dürfen! Einsdrölf. Immer mit diesem Gestus, als hätte dir’s jemand verboten, das zu sagen. Immer die Sorge um die Meinungsfreiheit. Wessen eigentlich? Dazu müsste es doch erst mal eine gleiche Meinungsfreiheit für alle geben, was wir offline nicht hinkriegen, aber Facebook könnte das: neutrale Voraussetzungen schaffen. Du brauchst keine Lupe zu zücken, um drauf zu kommen, dass die soziale Plattform ganz schön rutschig ist, und es wieder mal die Marginalisiert*innen sind – ja, sieh einer an: ein Scherz über die inkludierende Schreibweise gleich mal selbst vorweggenommen, bevor du ihn bringst -, wo war ich: ach ja, die rutschige Plattform ist dann doch wieder eher für den Grip der bärtigen Sohlen mancher gemacht, nicht für alle. Haste die falschen Brustwarzen, biste raus. Willste selber vorsorgen, dass keine genärrischen Maskulinen oder Rechten über deinen Namen deinen Wohnort rausfinden und ihre kreative Hate Poetry offline in kreative Hate Performance umsetzen, und meldest dich deswegen unter einem Fakenamen an, wirste von einem Moment auf den anderen gekickt, weil dich wer meldet, dem oder der deine Postings nicht passen. Weg, das soziale Umfeld, weg, die Kontakte, ja, hätteste nur Emailadressen getauscht usw jaja, hätteste pätteste. “Wo soll das hinführen, wenn Privatunternehmen über Äußerungen entscheiden?” ist eine rhetorische Frage, gell? Die Antwort sehen wir doch längst in der angewandten Praxis. Wenn wir genau hinsehen.

“Willste selber vorsorgen, dass keine genärrischen Maskulinen oder Rechten über deinen Namen deinen Wohnort rausfinden und ihre kreative Hate Poetry offline in kreative Hate Performance umsetzen, und meldest dich deswegen unter einem Fakenamen an, wirste von einem Moment auf den anderen gekickt, weil dich wer meldet, dem oder der deine Postings nicht passen.”

Beißt sich in den Schwanz: Dass die Plattform nicht auch für deine freie (und das heißt: sichere) Meinungsfreiheit strukturiert ist, zwingt dich überhaupt erst zum Fakenamen. Der Fakename sorgt dafür, dass du rausgeschmissen wirst. Ein Klassiker, ja, quasi sowas wie das Wiener Schnitzel unter den Gegenargumenten zu “wer nix falsches tut, braucht nix zu verbergen”. Mit Panade und Zitrone. Selber schuld, wenn deine bloße Existenzweise für die soziale Struktur der Plattform-Mehrheit ungeeignet ist. Facebook kann sich seine putzigen 88 Optionen dein Geschlecht anzugeben mit einer gehörigen Portion Emojis, damit’s auch ein bisserl schmerzt, in seine tighte ToS schieben. Guckense halt weg, gibt’s nix zu sehen, Profil ist weg und dank der lustigen ausschnittweisen Anzeigen von Postings in der Timeline merkt’s noch nicht mal wer. Wie vom Erdboden verschluckt. Nadia Drake, Laurie Penny, Michael Anti, Feminista Jones, Salman Rushdie – um ein paar bekannte Namen zu nennen, die von Facebook gebannt wurden. Nicht leicht, sie zu finden, diese Geschichten. Wie ein blinder Fleck, das wachsende Nichts in der unendlichen Geschichte. Grausam, nicht mal so ein Abgang wie Artax in den Sümpfen der Traurigkeit ist dir da gegönnt. Keine auf der Wange zitternd glitzernde Träne, keine winkenden Taschentücher, kein Glamour. Eher so Kafka. Noch eine Pointe an der Sache: Fake für wen? Dein Fakename ist im sozialen Sinne eh gar keiner, weil dein Bekanntenkreis genau weiß, wer du bist. Aber die leidige Anzeigenkundschaft. Für die ist es halt ein Fake, da kommt Facebook nicht drumrum und kann’s doch nicht mal laut aussprechen, denn das könnte ja User vergraulen. Mit so einem Fake kann man sich halt nichts kaufen. Da braucht es halt Profile wie deutsche Reihenhäuser. Mit Jägerzaun, Hund, zwei Kindern, Till Schweiger und Oktoberfest. Dann biste safe. Wie DeutschlandTM halt. Ja, liebe Flüchtlinge, willkommen, aber lernt erst mal Kehrwoche, Karneval und Knödel schätzen, ze germin KKK quasi, sonst wird das nix mit uns.

Aber worauf wollte ich eigentlich raus? Ach ja, auf so ein semi-resigniertes “Ob es eine Imagekampagne für ein deutsches Identitätsgefühl ist – das man schon will, aber halt nicht gleich so wie jetzt diese Neonazis abgehen – oder ob es um den Lack vom humanitären Facebookselbstbildnis geht, letztlich: Wenn plötzlich mehr Hetze gelöscht werden sollte, dann nur, weil doch niemand seine Werbung neben Faschosprüchen stehen haben will.”

PEGIDA entfreunden?

 

Zur Zeit machen Artikel zu “Unfriend Me” auf Facebook die Runde, in denen Kurzlinks zu finden sind, unter denen du nachsehen kannst, wer von deinen Friends PEGIDA, NPD, AfD, Ken.Fm usw liked. Aufgehängt an der Aufforderung, diese zu entfreunden. Dass dies mit einer Prise Humor zu genießen ist, sollte spätestens klar sein, wenn du siehst, dass auch ein Link dabei ist, der dir zeigt, wer Nickelback-Fan ist.

Hat mich amüsiert, habe ich auf Facebook geteilt, habe die Handvoll Friends getaggt, die Ken.Fm geliked haben (PEGIDA, NPD, AfD Leute waren bei mir eh nicht dabei), mit der Frage, dass sie dies doch bestimmt nur ironisch oder neugierdehalber täten. Ich hatte erwartet, dass diese Leute lachend abwinken, sich enttaggen und gut ist. Und: dass ich in dieser Form beim Weiterverbreiten gleich dezent mit darauf hinweise, dass Menschen auf Facebook eben nicht nur “liken”, was sie tatsächlich mögen, sondern das auch zur Recherche tun, oder ironisch, oder weil sie am Laufenden bleiben wollen, was auf diesen Seiten für Scheiß verbreitet wird usw. User werden immer ihre eigenen Wege finden, Funktionen wie den Like-Button zu nutzen und dies nicht nur auf die vom Service vorhergedachte Weise tun. Genauso wie Leute auf “Unfriend.me” Artikel nicht blindlings mit Entfreunden reagieren, sondern auch mit Diskutieren, Belustigen, u.v.m.

Ich hatte unterschätzt, dass es tatsächlich Leute in meinem FB-Bekanntenkreis geben könnte,* die sich von sowas auf den Schlips getreten fühlen (mindestens einer davon hasst mich jetzt, glaube ich :'( ) oder das gar welche dabei sein könnten, die Jebsens sektiererische Weltverschwörungstheorien ernst nehmen. ( o_O )Dass dem so ist, betrübt mich etwas, aber zu Diskutieren mochte ich gar nicht erst beginnen, denn dafür stehen mir diese Jebsen-Fans nicht nahe genug und erfahrungsgemäß sind Verschwörungstheorienanhänger_innen durch die quasi-religiösen Züge der Argumentation ihrer Wortführer meist diskussions-resistent. Wenn du PEGIDAs, Montagsmahnwachenden und Friedensmarschierenden beizubringen versuchst, dass es die US-zionistische Weltbankverschwörung nicht gibt und dass sie auch nicht die Medien hierzulande wie eine Krake in ihren Tentakeln halten, und warum dieses Bild antisemitisch ist, dass die Islamisierung des Abendlandes genauso wenig droht wie dass eine Gender-Mafia ihnen ihre Kinder entreißt, werden sie dich meist nur wissend anlächeln und dir sagen, wie naiv du bist, und dass du Ken oder Elsässer und wie sie alle heißen, nur nicht genug zugehört hättest. Oder, wenn sie gerade in Gruppen auftauchen, schallt dir ein stumpfes “Wir sind das Volk!” entgegen, grob an die “Sie klaun unsere Jobs!”-Typen aus South Park erinnernd.**
Aber.

Ich halte es auch für keine Lösung, sich über PEGIDA und Co. lustig zu machen und sie als dummen Mob zu kategorisieren, auch wenn es ein verlockendes Ventil ist, weil wir dem beängstigenden Wachstum dieser Aufmärsche mit einer lähmenden Hilflosigkeit gegenüberstehen. Selbst Gegendemonstrationen versagen als Mittel ihnen Konter zu bieten, da sie sich davon nur bestärkt fühlen. Gegendemonstrationen sind aber andererseits als eine Möglichkeit wichtig, all denen unter uns ein Zeichen der Solidarität zu schicken, die von PEGIDA angegriffen und eingeschüchtert werden. Die offene Frage bleibt jedoch: Wie kommst du an eine konservative Masse von Menschen ran, die sich einfach aus einem vagen Bauchgefühl heraus unterdrückt und belogen und ausgebeutet fühlt und jedes Argument als Lüge abtun?

Ich denke, das Interessante an dem eingangs erwähnten Unfriend.Me Artikel ist nicht die Aktion, zu der er oberflächlich aufruft, sondern die Funktion, dass er vielen Leuten aufzeigen kann, dass PEGIDA oder Ken.Fm Anhänger_innen nicht “die anderen” sind; nicht ein anonymer Mob, mit dem sie nichts zu tun haben, sondern Menschen aus dem Bekanntenkreis, Leute von nebenan. Was sie dann draus machen – das dürfte bei jeder_m anders ausfallen.

P.S.: Als ich das erste Mal von PEGIDA hörte, fühlte ich mich an die Anfang des Jahres veröffentlichte “Mitte-Studie” erinnert, und ich dachte mir, dass PEGIDA nun vielleicht endlich ein groß genuger Anlass sein könnte, auch in der Mainstreamberichterstattung und Politik der Extremismustheorie den längst überfälligen Todesstoß zu versetzen. Dieser Gedanke taucht auch in einem neuen Artikel der Publikative.org auf, deren Berichterstattung und Auseinandersetzung zu PEGIDA auch sonst sehr empfehlenswert ist.

*) Ich bin jemand, dessen FB-Bekanntenkreis neben offline-Freundschaften stark durch kulturelle Interessen wie Musikszenen und durch sozial/netz/etc./politische Haltung geprägt ist und ich poste ausschließlich öffentlich. Jemand, der oder die Facebook eher für Familiäres und in kleinen geschlossenen Kreisen nutzt, wird andere Ergebnisse haben und damit anders umgehen. Wenn Journalist_innen über das Netz schreiben, solltet ihr nicht vergessen, dass sie immer nur eine von vielen möglichen Perspektiven auf Social Media haben, die meist entweder auf ihrer eigenen personalisierten Timeline, auf der Timeline der Facebook-Seite ihres Nachrichtendienstes, oder auf verallgemeinernden Datenauswertungen basiert, die nur öffentliche Postings berücksichtigen. Correct me wenn ich falsch liege.

**)  In einer Folge der Serie kommen durch ein Zeittor Immigrant_innen aus der Zukunft (“Goobacks”, das Wortspiel mit Schleim, Zeitreise, immigrant_innenfeindlichem Slogan geht im Deutschen leider etwas verloren) als Billigarbeitskräfte nach South Park, hier gibts die ganze Folge online zu sehen.