DIGITAL: Filterblase und Filterclash: Die Verantwortung der Plattformen

Bob Blume
I
10. Januar 2019
0 Kommentare
I
171 views

Algorithmen und Menüs, Nachrichten und Design bestimmen das Nutzerverhalten mehr als wir wahrnehmen und wahrhaben wollen. Vieles lässt sich nur von Seiten der Plattform ändern.

Vor ein paar Tagen sah ich einen Tweet, den ich leider nicht mehr finde (Hilfe ist erwünscht), indem die These, grob gesagt lautete: Die Teilnehmer einer Plattform machen die Plattform aus. Daraus ergebe sich, dass verantwortungsvolle Nutzung und verantwortungsvolle Nutzer nicht nur erstrebenswert seien, sondern der wichtigste Aspekt öffentlicher Kommunikation. Dem möchte ich hier widersprechen.

Der Balance-Akt ist es zu vermeiden, die Nutzer als dumme Schafe zu skizzieren, die wie Lemminge in diese oder jene Richtung geleitet werden, aber dennoch darauf hinzuweisen, dass eine Anzahl verantwortungsvoller Nutzer nicht ausreicht, um Plattformen quasi organisch zu verbessern.

Nicht erst seit den Artikeln von Tristan Harris[1]und Jaron Lanier[2]sollte klar sein, dass sehr unterschiedliche Arten gibt, das Nutzerverhalten zu steuern. In einer nicht weit zurückliegenden Podcastfolge mit Sam Harris spricht Renée DiResta[3], Leiterin der politischen Abteilung der non-profit Organisation „Data for Democracy“ über Forschungsergebnisse, die beweisen, wie ausländische Einflüsse Wahlen beeinflusst haben.

Dabei geht es nicht um eine allgemeine Verhaltensänderung, wie sie Lanier oder Tristan Harris nahelegen (beide langjährige Mitarbeiter der größten Tech-Unternehmen). Es ging und geht bei dieser Verhaltensänderung um das „Heranzüchten von Stämmen“ (Übersetzung des Autors), von Gruppen also, deren unabänderliche Überzeugungen genutzt werden, um sie gegen andere auszuspielen. Dabei spielt es keine Rolle, um es um liberale schwarze Aktivisten oder konservative, weiße Arbeiter geht. Der Punkt ist: Wenn eine Gruppe etabliert ist, die ihr Ökosystem auf für sie unwiderlegbaren Axiomen gründet (zum Beispiel: Impfen ist schlecht), dann ist die weitere Radikalisierung ein technischer und in der Konsequenz auch persönlicher Selbstläufer.

Zwar vermerkt DiResta, dass der Radikalisierungsmaschinerie in Teilen Einhalt geboten wurde, aber das Problem bleibt: Algorithmen erkennen Präferenzen von Nutzern, ohne dabei die individuellen und sozialen Konsequenzen für die Personen einzukalkulieren. Wieso auch? Der Algorithmus soll dafür sorgen, dass der Nutzer weiter auf der Plattform bleibt, beispielsweise, um digitale Gaben zu erlangen (diese Mechanismen wurden in Teilen auch von Johannes Paßmann für Twitter nachgewiesen[4]). Selbst mit den initiierten Selbstregulierungsmöglichkeiten, die nach langer Diskussion in die Plattform Einzug gehalten haben, bleibt die Währung „Screentime“[5].

Die Radikalisierung geschieht dabei nicht aufgrund eines dunklen Masterplans, sondern ist ein konsequenter Teil der Marketing-Strategie. Der Algorithmus erkennt Korrelationen und nutzt diese[6]. DiRest konnte so an eigenem Leib erfahren - sie hatte sich in Anti-Impf-Gruppen angemeldet und sowohl Teilnehmer als auch Vorschläge des Algorithmus beobachtet. Diejenigen, die damit, dass sie Impfungen ablehnten, eine Offenheit für Verschwörung zeigten, wurden als erste in die „Pizzagate“-Verschwörung getrieben, die das ganz reale Ende der Schießerei in jener Pizzeria nach sich zog, von der ein durch diese Gruppen verwirrter Nutzer dachte, dass Hillary Clinton einen Pädophilen-Ring im Keller unterhielt[7].

Diese Entwicklungen resultieren in dem, was unter dem bekannten Phänomen „Filterblase“ bekannt ist, aber auch in dem von Bernhard Pörksen als Kontrapunkt bezeichneten „Filterclash“[8]: Das Aufeinandertreffen von Gruppen, die sich innerhalb einer hermetische Abriegelung ihrer durch technische Vorschläge unterstützten immer radikaleren Ansichten versichern.

Das resultiert in sehr merkwürdigen, höchstens systemimmanenten Logiken. Beispiel: Wenn eine konservative Gruppe sich stigmatisiert fühlt; wenn diese meint, sie könnten nichts mehr sagen; wenn sie meint, jeder, der seine Meinung sagt, sei gleich ein Nazi; wenn sie darauf hin meinen, sie seien lieber „Nazi“ als nicht mehr ihre Meinung zu sagen; dann ergibt sich für jene in dem eigentlich selbstverständlichen Hashtag #nazisraus ein Angriff auf sie selbst. Dann erscheint diese demokratische Erkenntnis zutiefst linksextrem.

Das ist keine Apologie dieser, wie gesagt, merkwürdigen Logik. Es soll nur verdeutlichen, dass die Folgen von technisch gewollten („Screentime“[9]) Einseitigkeitsstrategien real sind. Unlängst wurde herausgefunden, wie einzig das anklicken der vorgeschlagenen Youtube-Videos in immer radikalere Gefilde führt[10]. Der Weg geht quasi von Fox bis in den Ku Klux Klan.

Das widerspricht in keinem Fall dem Wunsch nach reflektierten und aufgeklärten Nutzern. Im Gegenteil. Es zeigt nur auf zwei unterschiedliche Tatsachen:

  1. Es ist schwerer zu wissen, was man nicht wissen kann (weil man in seiner Echokammer hockt), als zu glauben, dass man etwas weiß.

Mit anderen Worten: Je „tiefer“ ich in der Blase bin, desto schwieriger ist es, von den dort artikulierten Ansichten Abstand zu nehmen.

Das gilt übrigens ganz allgemein. Wie schwer ist oder wäre es für einen Linksliberalen anzuerkennen, das eine von Donald Trump initiierte politische Entscheidung gut ist (das ist hier nur ein theoretisches Beispiel, das aber in vielen amerikanischen Podcasts verhandelt wird).

  1. Da die Zentralisierung, die aus einem dezentralen WWW ein Social-Media-Web gemacht hat, viele dieser Probleme erschaffen hat, liegt auch ein großer Teil der Verantwortung dafür, diese anzugehen, bei den Konzernen selbst.

Nehmen wir dafür ein weiteres, physisches Beispiel, das hoffentlich nicht zu krass daher kommt. Selbst wenn man davon ausgeht, dass ein jeder Besucher eines Festivals im Prinzip intelligent genug ist, problematische Engstellen zu meiden, ist es zu der Katastrophe von Duisburg gekommen, als in einer Engstelle über 20 Menschen starben und über 500 verletzt worden sind[11].

Abstrakt könnte man sagen: Schuld waren weder die Einzelnen, noch die Gruppe. Schuld war das Design, eine Infrastruktur nämlich, die nicht für die Anzahl der Nutzer und das Nutzungsverhalten ausgelegt war. Man kann bezweifeln, ob das eigenverantwortliche Handeln der einzelnen Teilnehmer dafür hätte sorgen können, dass das Unglück nicht passiert wäre. Diese Überlegungen sind auch müßig. Vielmehr verdeutlicht diese Analogie, wie stark Entscheidungen über Wege, die Nutzer „gehen“ in Folgen resultieren können, die der einzelne Nutzer nicht abschätzen kann (wer diese Gegenüberstellung für schwierig hält, dem seien Artikel über Choice Architecture[12][13]ans Herz gelegt, in denen unschwer zu erkennen ist, dass selbst die Wegführungen von Supermärkten Nutzerverhalten steuern).

Ganz platt: Wenn ich zu meiner Gartenpartie nur Freunde einlade, kann ich aufgrund meiner Auswahl davon ausgehen, dass keiner auf die Idee kommt, Dinge zu zerstören oder Leute anzuschreien. Wenn ich die Partie öffentlich mache, sollte ich für Security, einen Ablaufplan und gesicherte Orte und Wege sorgen.

Wie oben angedeutet, wäre es nun zu einfach, verbale Ausfälle, Beleidigungen oder Shitstorms ausschließlich in die Verantwortung der Konzerne zu legen. Natürlich brauchen wir verantwortungsvolle Nutzer, das ist trivial. Aber: Nutzer machen die Plattform nicht aus. Sie füllen den vorgegebenen Rahmen, eben auch dort, wo ein Vakuum besteht.

Mit anderen Worten: Natürlich müssen wir hoffen, dass die Nutzer einer Netzgemeinde verantwortungsvoll handeln. Aber die Verantwortung dafür, dass dies nicht nur möglich, sondern sogar löblich ist, liegt bei jenen, die Entscheidungen über Design und Algorithmen und deren automatisierte Lob- und Sanktionsstrategien fällen.

Wie kann das geschehen? Ganz am Ende ein kurz skizziertes Beispiel für eine solche Änderung der Technik, die den Nutzer zumindest möglicherweise beeinflussen könnte. So sprach jenes „Gute Gewissen von Silicon Valley“ Tristan Harris über einen „This changed my mind“-Button auf Facebook[14]. Entweder der Nutzer würden tatsächlich Artikel lesen (können), die seine Perspektive erweitern. Oder er würde zumindest von der Technik unter die Nase gerieben bekommen, dass er nichts liest, was er nicht sowieso schon glaubt oder weiß. Ein kleiner Schritt zu einer Nutzung, die Selbstreferentialitäteben nicht goutiert.

Wir brauchen verantwortungsvolle Nutzer und verantwortungsvolle Netzwerke.

tl;dr

Es reicht nicht, verantwortungsvolle Nutzer zu fordern. Sie sind nur Teil eines Systems und füllen es so aus, wie es das System zulässt. Aus diesem Grund müssen technische Entscheidungen ein Nutzerverhalten fördern, dass verantwortungsbewusst ist. Gefordert sind so Plattformen und ihre Nutzer.

Links und Literatur

[1]https://bobblume.de/2017/11/17/serie-wie-technologie-unseren-geist-manipuliert-i/, aufgerufen am 10.01.2019.

[2]Jaron Lanier: 10 Gründe, warum du deine Social Media Accounts sofort löschen musst. Übersetzung von Karsten Petersen und Martin Bayer. Hamburg 2018.

[3]https://samharris.org/podcasts/145-information-war/, aufgerufen am 10.01.2019.

[4]Johannes Paßmann: Die soziale Logik des Likes. Frankfurt am Main 2018.

[5]http://pediatrics.aappublications.org/content/132/5/958.short, aufgerufen am 10.01.2019.

[6]https://gizmodo.com/all-the-ways-facebook-tracks-you-that-you-might-not-kno-1795604150, aufgerufen am 10.01.2019.

[7]https://de.wikipedia.org/wiki/Pizzagate, aufgerufen am 10.01.2019.

[8]Bernhard Pörksen: Die große Gereiztheit. München 2018.

[9]http://www.tristanharris.com/2016/05/how-technology-hijacks-peoples-minds%E2%80%8A-%E2%80%8Afrom-a-magician-and-googles-design-ethicist/, aufgerufen am 10.01.2019.

[10]https://www.deutschlandfunkkultur.de/radikalisierung-durch-youtube-mit-zwei-klicks-in-die.1264.de.html?dram:article_id=428723, aufgerufen am 10.01.2019.

[11]https://www.waz.de/staedte/duisburg/soziophysiker-haelt-massenpanik-nicht-fuer-ursache-der-loveparade-katastrophe-id6817674.html, aufgerufen am 10.01.2019.

[12]https://www.economicshelp.org/blog/glossary/choice-architecture/, aufgerufen am 10.01.2019.

[13]Eric Johnson et al. Beyond nudges. Tools of a choice architecture. New York 2012.

[14]https://samharris.org/podcasts/what-is-technology-doing-to-us/, aufgerufen am 10.01.2019.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Newsletter
warum lernen?
Kategorien
Bildung
Unterricht
Referendariat
Vermischtes
Literatur
Material
chevron-down