Filterblasen

Internetdienste wie Google oder Facebook, aber auch andere, haben stets das Ziel, für ihre Nutzer so attraktiv wie möglich zu sein. Je mehr sie genutzt werden, desto mehr Werbeanzeigen können sie platzieren und desto mehr Geld können sie verdienen. Deshalb versuchen diese Firmen, dem Benutzer immer das zu zeigen, was er sehen möchte.

Um zu verstehen, wie das funktioniert, muss man sich die Arbeitsweise der Algorithmen ansehen. Wenn z.B. ein Suchergebnis in Google angezeigt wird, dann klickt der Besucher natürlich zunächst auf die Links, die ihn am meisten interessieren. Die Algorithmen registrieren das und bei der nächsten Suche berücksichtigen sie das bei der Ergebnisauswahl. So bildet sich ein Interessenprofil, welches dazu führt, dass die Suchergebnisse bei gleichen Suchanfragen für jede Person unterschiedlich ausfallen können. Der Fachausdruck dafür ist Personalisierte Suche. Was zunächst vernünftig und logisch klingt, hat aber eine andere, unerwünschte Seite, die man nicht vergessen sollte. Die Algorithmen werten neben dem Klickverhalten voch viel mehr Informationen aus, so dass ein detaillreiches Bild über den Internetnutzer entsteht. Es ist sicher bequem, wenn man Ergebnisse bekommt, die man erwartet und die einen interessieren. Die Kehrseite davon ist, dass Ergebnisse, die vielleicht wichtig wären, einfach ausgeblendet werden. Damit wird die Sicht auf das Weltgeschehen durch den Algorithmus nicht nur fokusiert, sondern gesteuert. Wenn man Informationen im Internet sucht, um sich eine Meinung zu bilden, dann bekommt man oft bestimmte Informationen gar nicht, die für auf die Meinungsbildung erheblichen Einfluss hätten.

Das kann man derzeit sehr gut in Facebook beobachten. Wenn man mehrfach auf Beiträge geklickt hat, in denen es um kriminelle Ausländer gegangen ist, dann ist plötzlich alles, was man angezeigt bekommt auf dieses Thema beschränkt. Der Eindruck entsteht, dass wir in einer Welt leben, in der es vor Messerstechern, Vergewaltigern, Mördern, die alle als Flüchtlinge zu uns kommen, geradezu wimmelt - ohne Pfefferspray oder Personenschutz kann man sich gar nicht mehr frei bewegen. Die Realität sieht eigentlich anders aus, aber wir haben durch unser Klickverhalten eine Filterblase um uns geschaffen, die nur noch Themen durch lässt, die in ein bestimmtes Muster passen. 

In der realen Welt gibt es Tore, vor denen ein Wächter steht. Der sieht den Besucher an und entscheidet, ob er rein darf. Wenn es Probleme gibt, kann man mit ihm reden und sein Verhalten beeinflussen. In der virtuellen Welt gibt es auch Türsteher. Aber das sind Roboter und kennen nur true und false. Reden ist da nicht mehr. Wo es in der realen Welt jede Menge Farbschattierungen gibt, gibt es für die Roboter nur schwarz oder weiß.

Die Herausforderung ist es, die Informationen, die wir aus dem Internet beziehen unter dieser Voraussetzung zu bewerten. Wir dürfen das Weltgeschehen, dass uns im Internet präsentiert wird nicht einseitig als real ansehen. Wir müssen gezielt nach Informationen suchen, die die durch die Alorithmen gelieferten Beiträge infrage stellen. Dadurch ändern wir die Filterblase und die Ergebnisse werden vielfältiger.

Im Übrigen gibt es ein ähnliches Problem auch in der Welt der Printmedien. Jemand der seine Informationen nur aus der Berichterstattung der BILD erhält, wird ein anderes Weltbild entwickeln, als der, der die Berichte über Ereignisse in unterschiedlichen Medien verfolgt.

Die Konzerne, die uns im Internet mit Informationen versorgen, sollten aktiv gegen die Filterblasen vorgehen und die Algorithmen so gestalten, dass die Meinungsvielfalt erhalten bleibt.

Zu diesem Thema gibt es ein schönes Video in Youtube (leider in Englisch), in dem die Filterblasen gut beschrieben sind:

{youtube}B8ofWFx525s|520|360|0{/youtube}