04.04.2012

Das (Un)Behagen am Algorithmus. Zur Debatte um das Kalkül des Verhaltens

Das neue Jahr hat gleich mit einer kleinen Debatte angefangen. Katrin Passig holte aus zur Kritik der Kritik. Algorithmen seien vielfach allzu einseitig unter feuilletonistischen Geneneralverdacht gestellt worden. Auf Süddeutsche.de feuerte Passig deshalb zurück: Algorithmuskritik sei eine irrationale Furcht vor unsichtbaren technischen Vorgängen. Bereits in den 1980er Jahren sei diese Technikfeindlichkeit als Angst vor Computern zu beobachten gewesen. Jochen Thermann von der Kooperative Berlin berichtet. 

Das von Passig gerügte „Algorithmusbashing“ hat dennoch einige Argumente hervorgebracht, die hier noch einmal kurz nachgezeichnet werden sollen. In dem Maße, in dem die real existierenden Algorithmen unseren Bücherkauf, unseren Musikgeschmack und unsere Suchanfragen beeinflussen, ist der Algorithmus auch zum Gegenstand der Kulturkritik avanciert. Die potenten Rechenvorschriften sind verstärkt in die Sphären kultureller Praxis eingedrungen und bieten dort ihre Berechnungsergebnisse an. An dieser algorithmischen Durchdringung menschlicher Lebensbereiche hat sich die Grundsatzkritik entzündet, zumal damit zugleich auch die traditionellen Formen der Kulturkritik betroffen sind: Buch-, Musik- und Filmempfehlungen gehören zum Herzstück des Feuilletons, aber auch ganz klassische Nachrichten, die von einer Redaktion bearbeitet werden, drohen von algorithmischen Verfahren des personalisierten Streams ins nachrichtentechnische Abseits gestellt zu werden.

Der Autor Eli Pariser hat mit seinem Buch „The Filter Bubble“ (die deutsche Fassung „Die Filterbubble“ erschien Ende Februar) und mit einem TED-Vortrag ein zentrales Debattenschlagwort platziert. Pariser mahnt, dass durch die Filterung von Nachrichten- und Suchergebnissen das Sperrige, das Unerwartete und Randständige im personalisierten Nachrichtenstrom verloren ginge. Verschärft habe sich dieses Tendenz zur maschinellen Darbietung des Ähnlichen durch die im letzten Jahr forcierte soziale Suche. Die beiden führenden Suchmaschinen Google und Bing haben 2011 die Empfehlungen von Freunden aus Google+ und Facebook in ihren Suchalgorithmus eingebunden. Netzseiten, die von Freunden „geliked“ wurden, klettern im Ranking der Ergebnisliste nach oben. Parallel dazu wird der persönliche Nachrichtenstream von Facebook nach einem dem User nicht ersichtlichen algorithmischen Verfahren gefiltert, so dass man diejenigen Nachrichten erhält, die nach den Kriterien des Algorithmus für den Nutzer als relevant eingestuft werden. In diesem Zusammenhang fällt auch oft der Begriff der Echokammer, in der durch die gegenseitige Verstärkung des eben gehörten, die immer gleichen Links weitergeleitet werden.

Ähnlich prominent wie Pariser positionierte sich in Deutschland die Kommunikationswissenschaftlerin Miriam <Meckel auf der re: publica 2010. Sie kritisierte, dass algorithmische Verfahren, zum Beispiel bei Musikdiensten, den Geschmack des Einzelnen zum Mainstream hin auf Gleichförmigkeit trimmen. Personalisierende Algorithmen extrahieren aus der Vergangenheit, nämlich einer Datenbank, die Entscheidungen der Zukunft. Das müsse zwangsläufig zu einer Verengung ästhetischer Erfahrung führen, da das Unbekannte, das Unerwartete, das Nicht-Passende gar nicht vorkomme oder systematisch aus den Empfehlungen herausgerechnet würde.

Passig hält diesen Überlegungen entgegen, dass ein guter personalisierter Algorithmus gerade nicht zu den Dominanten kultureller Strömung führt. Sie bezieht sich auf den „Long Tail“, ein Begriff, den Chris Andersen im Wired Magazine 2004 in die Netzkultur einführte. Damit wird die höhere Chance von Nischenprodukten im Internet bezeichnet: Was auf einem regional begrenzten Markt keine Käufer findet und aus dem Sortiment gestrichen wird, kann auf einem potentiell globalen Markt wie ihn das Internet öffnet, Käufer finden. Vorausgesetzt allerdings, der Algorithmus ist tatsächlich so gebaut, dass das Exotische in der Datenbank des Algorithmus und auch in der Ergebnisliste auftaucht.

Das Faszinierende an einem guten, personalisierendem Algortihmus ist zweifellos, dass man ihn trainieren, dass man ihm Geschmack beibringen kann und dass er diesen Geschmack ziemlich genau kennenlernen kann. Ein guter Algorithmus weiß nicht nur um meine Vorlieben, er kann mich auch überraschen. Dass eine Berechnung zu solchen Einschätzungen in der Lage ist, ist zwar eine narzisstische Kränkung für die ästhetische Urteilskraft, das sollte nicht darüber hinwegtäuschen, dass die Datenbank jedoch gerade aus einer Sammlung ästhetischer Urteile besteht, die als Basis der Geschmacksberechnung dient.

Die Skalierbarkeit eines Algorithmus durch den User hingegen betrifft eine zentrale Frage bezüglich der Macht von Algorithmen. So sehr Passig recht damit hat, dass eine pauschale Verdammung die Nützlichkeit von Algorithmen verdeckt, so sehr unterschätzt sie die emanzipatorische Frage. Das größte Hindernis in einem souveränen Umgang mit Algorithmen, ist in meinen Augen weniger Technikangst als die abgeschottete Arbeitsweise des Algorithmus. Wenn die Funktionsweise eines Algorithmus als Geschäftsgeheimnis behandelt wird, ist selbstverständlich auch kein davon losgelöstes Vertrauen in einen Algorithmus möglich – es wäre naiv. Die kommerzielle Ausrichtung blockiert unter Umständen den individuellen Nutzen, der zumindest stets von einem Geschäftsinteresse begleitet wird. Es wäre töricht davon auszugehen, dass die Interessen eines Individuums oder einer Gruppe stets mit denen eines Unternehmens korellierten.

Auch wenn ein offener Algorithmus nicht von jedem verstanden wird, er böte zumindest die Möglichkeit ihn zu verändern, wenn die graphische Oberfläche dazu nicht ausreicht. Mit der Skalierbarkeit von Algorithmen stellt sich nämlich die Frage, in wessen Dienst diese stehen. Die Frage von open source ist mehr als nur eine Frage der Kosten, es ist immer auch eine Frage, wer wen und was beherrscht.

David Gelernter, Autor, Computerpionier und Digitaltheoretiker, schrieb, kurz nachdem der isländische Vulkan Eyjafjallajökull den europäischen Luftraum mit einer Aschewolke vernebelt hatte, in der Frankfurter Allgemeinen Zeitung über die Diktate unbegriffener Sofwaresimulationen – das schließt auch Algorithmen ein. Die Komplexität dieser Systeme habe die menschliche Einsicht überstiegen. Neu daran ist, dass Rechensysteme Handlungsempfehlungen geben, gegen die zu entscheiden, kaum ein Politiker noch Mut aufbringt. So wird die politische Entscheidung, ob ein Flugraum gesperrt wird oder nicht, auf einen Algorithmus delegiert. Dieser Vorgang ist möglicherweise das Vernünftigste, was man angesichts eines schwer einzuschätzenden Risikos tun kann. Es ist jedoch unvernünftig, diese Dimension unserer Entscheidung zu übersehen oder sie als neuen technischen Souverän unhinterfragt als Macht des Faktischen geschehen zu lassen.

Text: Jochen Thermann | Bild: flickr/Chloester

Dieser Eintrag wurde veröffentlicht in: Ideen, Chancen, Risiken, JOURNALISMUS & NETZ
  • Über Kooperative Berlin

    Die Kooperative Berlin ist ein Redaktionsbüro und Netzwerk für digitale Kulturproduktion. Unter anderem produziert die Kooperative Berlin den täglichen Netzreporter für Dradio Wissen und den wöchentlichen NetScout für Deutschlandradio Kultur, die Werkstatt - Digitale Bildung in der Praxis, das Montagsradio - Netzgespräche zur Zeitgeschichte u.v.a. Markus Heidmeier ist als Netzjournalist bei der Kooperative zuständig für digitale und zeitbasierte Medien, schreibt neben dem DRadio Wissen-Netzreporter unter anderem auch für ZEIT Online und gehört zum Redaktions- und Moderatorenteamteam von Breitband. Jochen Thermann ist als Autor und Dramaturg unter anderem für mehrere Theater, für DRadio Wissen und den Tagesspiegel tätig.

    Alle Beiträge von

0 Kommentare zu diesem Artikel


  1. Sehr gelungene Zusammenfassung dieser Debatte! Ein Aspakt ist vielleicht noch zu betonen- der nicht-transparente Algorithmus ist ja manipulierbar…wenn man an Menschen denkt, die nicht nur, wie ich, in ihrem technischen Verständnis stark beschränkt sind, sondern vielleicht auch ansonsten eher „unmündig“ funktionieren in ihrem medialen Konsum (wie ich natürlich nicht), dann tut sich da schon das Bild einer Art Fernbedienung für menschliches Konsumverhalten, aber eben vielleicht auch für Meinungen auf. „Fair enough“ da ein Auge drauf zu lassen.