Wir alle kennen das: Wir möchten bei einem großen Online-Versandhändler etwas bestellen und bekommen weitere Artikel vorgeschlagen, die für uns ebenfalls von Interesse sein könnten. Oder wir schauen uns beim Modeversand Schuhe an, die uns dann plötzlich auf jeder Webseite angezeigt werden. Verantwortlich dafür sind Algorithmen, die im Hintergrund unser Nutzungsverhalten analysieren und uns darauf basierend Informationen anzeigen, die sie als für uns relevant erachten. Dies passiert nicht nur, wenn wir online einkaufen, sondern auch – wenngleich oft weniger offensichtlich – bei der Nutzung von Suchmaschinen oder sozialen Netzwerken. Diese Vorsortierung von Inhalten nach bestimmten Kriterien sorgt beispielsweise auch dafür, dass Wikipedia-Artikel regelmäßig im oberen Bereich der Suchergebnisse landen, da sie offenbar von den Algorithmen als besonders relevant eingestuft werden.
Angesichts einer stetig wachsenden Menge von Informationen erscheint dies auf den ersten Blick nützlich, wenn nicht gar notwendig. Allerdings warnen Kritiker davor, dass unsere Lebensrealität dadurch immer mehr von algorithmisch gefilterten Inhalten geprägt werde und sich Informationsblasen bilden, die sich negativ auf die Meinungsdiversität auswirken. Eli Pariser prägte dafür den Begriff “Filter Bubble”. Wir sprachen daher am 27. Oktober in der Geschäftsstelle von Wikimedia Deutschland darüber, wie die zunehmende “Algorithmisierung” des Internets zu bewerten ist und welche Kompetenzen diese Entwicklung von den Internetnutzenden fordert. Dazu hatten wir mit Saskia Sell vom Institut für Publizistik- und Kommunikationswissenschaft der Freien Universität Berlin und René König vom Karlsruher Institut für Technologie zwei ausgewiesene Fachleute eingeladen, die sich mit dem Thema aus wissenschaftlicher Perspektive intensiv auseinandersetzen.
Die “Filterbubble” ist kein originäres Onlinephänomen
Saskia Sell berichtete in ihrem Kurzvortrag zunächst darüber, wie wir generell mit Informationen umgehen, die uns im öffentlichen Raum bereitgestellt werden. Dabei betonte sie, dass es sich bei der “Filterbubble” nicht um ein originäres Internetphänomen handele. Schließlich nehmen wir Informationen immer selektiv wahr und auf. Dies tun wir beispielsweise indem wir Medien mit bestimmten politischen Ausrichtungen präferieren, uns im Vorfeld von Wahlen unterschiedlich intensiv mit den Programmen der verschiedenen Parteien auseinandersetzen oder aber uns generell primär Menschen zuwenden, die gleiche oder ähnliche Positionen vertreten wie wir. Das führe dazu, dass wir eher unsere eigene Meinung stärken und uns ihrer Richtigkeit versichern als uns mit konträren Standpunkten auseinanderzusetzen. Eine Gesellschaft, in der alle Bürgerinnen und Bürger die gesamte Bandbreite an (relevanten) Informationen gleichsam wahrnehmen, unvoreingenommen und offen für konträre Positionen sind und sich an für die Gesellschaft relevanten Prozessen und öffentlichen Diskursen beteiligen, sei daher zwar der wünschenswerte Idealzustand, entspreche aber nicht der Realität.
Ist ja nicht so als wäre die Filterbubble ein neues oder gar digitales Phänomen #DigiKompz
— Jella (@Nienor_) October 27, 2014
René König ging anschließend genauer auf die Wirkungsweise von Algorithmen in Suchmaschinen ein. Anhand einer von ihm und einem niederländischen Kollegen durchgeführten Studie demonstrierte er, wie sich die Suchergebnisse für den Begriff “9/11” über mehrere Jahre hinweg veränderten und führte dies auf Anpassungen der eingesetzten Algorithmen zurück, die regelmäßig vorgenommen werden. Zwar hätten Studien ergeben, dass die Personalisierungseffekte, die im Übrigen von vielen Nutzenden explizit erwünscht seien, nicht so stark seien, wie von Pariser angenommen. Gleichwohl bestehe jedoch nach wie vor die Gefahr von Informationsblasen.
Müssen wir die Blase zum Platzen bringen?
Die naheliegende Option, die Algorithmen einfach wieder abzuschaffen, sei nicht zielführend, da waren sich Sell und König einig. Ohne eine Vorfilterung, so Sell, käme es schnell zu einem totalen “information overload”, da wir überhaupt nicht in der Lage seien, alles gleichermaßen wahrzunehmen und herauszufinden, was relevant ist und was nicht. Die Informationsfülle, mit der wir heute gerade im Internet konfrontiert werden, mache eine technische Filterung zwingend notwendig. Zudem seien Filtermechanismen förderlich für eine stärkere Vielfalt von Positionen und können unser soziales Zugehörigkeitsgefühl stärken, da wir leichter in Kontakt mit Gleichgesinnten kommen, was der von Filterkritikern wie Pariser vertretenen These einer sozialen Fragmentierung widerspreche. Sell kritisierte zudem, dass der Begriff der “Filterbubble” die Komplexität von Meinungsbildungsprozessen verkenne. Nur weil Menschen bestimmte Informationen lesen, bilden sie nicht zwangsläufig entsprechende Meinungen. Dazu zitierte sie den Kommunikationswissenschaftler Klaus Beck, der einen solchen “Technikdeterminismus” ebenfalls ablehnt: “Menschen sind keine Reiz-Reaktions-Automaten sondern intentional handelnde und symbolverstehende Wesen.”
Die Filterblase zum Platzen bringen zu wollen sei daher nicht der richtige Ansatz. Vielmehr gehe es darum, sie transparenter und durchlässiger zu gestalten, beispielsweise, indem die Algorithmen dem Serendipitätsprinzip angepasst würden, die Suchergebnisse also um nicht intendierte Zufallsinformationen ergänzt werden. Aber auch über Regulierungen wie die gesetzliche Einforderungen von mehr Transparenz sollte zumindest nachgedacht werden, merkte König an, dabei müsse man jedoch im Hinterkopf behalten, dass volle Transparenz im Sinne der Offenlegung der Algorithmen immer auch die Möglichkeiten zur Manipulation erhöhe.
Aber auch wir als Nutzende haben die Einflussmöglichkeiten, die Personalisierungseffekte zumindest abzuschwächen. So reiche es beispielsweise schon aus, sich vor der Suche bei Google abzumelden, merkte König an. Auch die Nutzung alternativer Suchdienste sei eine Möglichkeit, allerdings angesichts der Übermacht von Google in diesem Bereich keine besonders praktikable. Wichtig sei aber vor allem, dass wir unser Wissen über die Funktionsweise von Filteralgorithmen vergrößern, damit wir einordnen können, was uns im Internet angezeigt wird. Hier scheint es bei vielen Nutzenden nach wie vor Defizite zu geben, die es erfordern, die benötigte Medienkompetenzen zu vermitteln.
Auch in der anschließenden Diskussion wurde deutlich, dass die These einer die Gesellschaft fragmentierenden Filter Buddle von den wenigsten geteilt wurde. Unter den Diskutierenden bestand weitestgehend Einigkeit darüber, dass die Flut an Informationen im Netz ohne Filter kaum zu bewältigen ist, es aber wichtig ist, zu wissen, dass es die Algorithmen gibt und wie sie funktionieren.
Fazit: Die Filterbubble muss überhaupt nicht zum Platzen gebracht werden, es reicht, wenn wir mehr Möglichkeiten haben, sie anzupieksen und damit ihre Durchlässigkeit und Transparenz zu erhöhen. Was wir brauchen sind daher nicht weniger oder keine Filter, sondern mehr “Filterkompetenz” im Sinne einer besseren Kenntnis von deren Funktionsweise und den vorhandenen Einflussmöglichkeiten, die sich uns bieten. So können wir letztendlich mehr Kontrolle über das, was wir im Netz an Informationen präsentiert bekommen, erlangen.
Preview: Die nächste Veranstaltung der Reihe Digitale Kompetenzen findet am 17. November unter dem Titel “Digital selber lernen – Wie gehen wir mit verändertem Lernverhalten um?” statt.
———–
* Mehr Bilder der Veranstaltung gibt es auf Wikimedia Commons.
Videozusammenfassung der Veranstaltung mit Interviews:
Video der Veranstaltung in voller Länge:
Zur Reihe “Digitale Kompetenzen”: Als Partner im Wissenschaftsjahr 2014 widmet sich Wikimedia Deutschland e. V. jenen Fähigkeiten und Fertigkeiten, die für das Individuum in der Digitalen Gesellschaft wichtig sind: Digitale Kompetenzen. An fünf Veranstaltungsabenden identifizieren und diskutieren wir mit Expertinnen und Experten aus Wissenschaft und Forschung, Netzaktivistinnen und -aktivisten, Akteuren aus der Praxis sowie interessierten Bürgerinnen und Bürgern die Digitalen Kompetenzen unserer Zeit.