Die Zerrissenheit unserer Gesellschaften, zeigt sich auch beim Brexit. Zu vielen Themen gibt es zwei Lager, die sich in sozialen Medien hochschaukeln.
So beobachtete Tom Steinberg, Berater und Autor beim Projekt „Civic Hall“, dass innerhalb seines Facebook-Newsfeeds oder auch über die Suche keiner zu finden war, der den Brexit bejubelte. Verkürzt sagt er

Not to act on this echo-chamber problem, will tear apart the fabric of our societies.

Wie sehr beeinflussen Algorithmen unseren Alltag, bedrohen sie gar unsere Demokratie, wie einige Kritiker sagen? Ich spreche mit Dr. Puschmann, der am von Google initiierten Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) arbeitet. Er ist an verschiedenen Projekten, die sich mit Algorithmen und ihrem Einfluss auf die  Gesellschaft beschäftigen, beteiligt.

Dr. Puschmann, können Sie für die Leser einmal kurz erklären, was ein Algorithmus ist und wie er funktioniert?

So einfach lässt sich das nicht beantworten, solange man keinerlei Einschränkungen vornimmt. Algorithmen sind zunächst einmal nur mathematische Formalisierungen, die sich auf nahezu alles beziehen können. Die Algorithmen, mit denen ich mich beschäftige, wirken grundsätzlich in Computern und verarbeiten praktisch immer Daten, häufig solche, die von Nutzern generiert werden. Andere Wissenschaftler sprechen beispielsweise von „networked information algorithms“ (NIAs), um eine Unterscheidung zu mathematischen Formeln in beliebigen Kontexten zu machen.

Ihr aktuelles Forschungsprojekt mit dem Hans-Bredow-Institut klingt spannend: „Algorithmed Public Spheres“. Was haben Sie sich da vorgenommen?

Algorithmen wirken dort, wo Informationen in digitaler Form verarbeitet werden, also im Zeitalter von Smartphone und Tablet nahezu überall. Das Postdoc-Kolleg Algorithmed Public Spheres konzentriert sich auf ihre zunehmende Bedeutung für die Priorisierung, Klassifikation, Assoziation und Filterung von Medieninhalten und digitaler Kommunikation, etwa in Suchmaschinen (Google), Empfehlungssystemen (Amazon) und bei der Auswahl von Nachrichten und Postings (Facebook, Twitter). Personalisierung als übergeordnetes Prinzip, welches Nutzer zu mehr Aktivität anregt und ihre Entscheidungen beeinflusst, ist dabei von zentraler Bedeutung. Entstehen so Filterblasen? Ist algorithmische Selektion diskriminierend? Mit dem Postdoc-Kolleg „Algorithmed Public Spheres“ will das Hans-Bredow-Institut die Motive hinter und die Auswirkungen von Algorithmen auf Kommunikation und Öffentlichkeit untersuchen. Der Stand der Forschung ist noch sehr unvollständig und die Meinungen über die Gefahren von „echo chambers“ und Filterblasen gehen z.T. stark auseinander. Bei einer internationalen Tagung, die ich kürzlich besucht habe, konnte in einer Studie nicht bestätigt werden, dass es solche Effekt tatsächlich in dem Umfang gibt, wie es manche Kritiker nahelegen. Andererseits haben Algorithmen ganz sicher Einfluss darauf, wie wir kommunizieren und uns informieren.

Wenn wir an die großen Vier (Google, Amazon, Apple, Facebook) denken, welches sind hier die Algorithmen, die uns am meisten beeinflussen?

Das hängt natürlich sehr von der individuellen Mediennutzung ab. Die Personalisierung der Google-Suche wird unter anderem durch den Aufenthaltsort des Nutzers optimiert. Die Produktempfehlung von Amazon und Apple sind durch vorangegangene Kaufentscheidungen beeinflusst. Das Facebook News Feed orientiert sich daran, mit wem man befreundet ist und was diese Nutzer selbst posten. All das sind Beispiele für Algorithmen, die viel Einfluss haben, auch wenn dieser Einfluss zum Teil kaum wahrgenommen wird, weil er so alltäglich ist.

Vor kurzem las man im Blog Gizmodo Vorwürfe eines angeblichen ehemaligen Facebook-Mitarbeiters, dass bei der Auswahl der Trending Topics manipuliert wurde zu Ungunsten der Konservativen. Facebook wiederum bestreitet dies und unterstreicht, dass auch die Trending Topics als erstes einem Algorithmus folgen. Ist die Schnittstelle „Mensch“ nicht hier genau das Problem? Menschen programmieren Algorithmen, Maschinen wenden sie an und wiederum steht der Mensch vor den Ergebnissen – und greift ggf. wieder ein.

Absolut. Dieses Argument – dass Algorithmen ebenso vorurteilsbehaftet sind wie die, die sie entwickeln, ist schon häufig gemacht worden. Allerdings muss man hier unterscheiden, etwa zwischen intendierter und unintendierter Diskriminierung. Häufig ist auch den Entwicklern einzelner Verfahren unklar, wie diese sich auf konkrete Daten auswirken. Das macht das Problem nicht kleiner. Aber sehr oft handelt es sich um komplexe Konstellationen, in denen auch das Verhalten von Nutzern Diskriminierung sozusagen in den Algorithmus hineinschmuggeln kann – man denke etwa an Google-Bombing oder die Tiraden des Microsoft-Chatbots Tay.

Im „Spektrum der Wissenschaft“ haben neun Wissenschaftler wie Prof. Gerd Gigerenzer vom Max-Planck-Institut für Bildungsforschung das „Digital-Manifest“ veröffentlicht. Die Wissenschaftler aus den Bereichen Big Data, Soziologie, Ökonomie und Philosophie warnen vor einer Automatisierung unserer Gesellschaft durch Algorithmen. Es drohe eine Aushöhlung der Demokratie durch neuartige totalitäre Strukturen – bis hin zu einer Steuerung der Menschen durch künstliche Intelligenzen. Man sehe dies an Beispielen wie in Singapur und China, welche Formen solche Gesellschaften annehmen könnten. Halten Sie diese Gefahr für real?

Auch wenn das Manifest wichtige Fragen aufwirft, halte ich einige der Prognosen für zu pessimistisch. In China ist das politische System autoritär – das ist es auch ganz ohne Big Data. Die Gefahren, die sich durch ein mangelndes Verständnis der Risiken von Big Data zum Teil ergeben, halte ich für größer – aber sehr oft handelt es sich dabei um unintendierte Konsequenzen.

Intransparenz ist allerdings ein weiteres, sehr erstzunehmendes Problem. Produkte wie die, die etwa in den USA für das sog. Predictive Policing eingesetzt werden, sind häufig sehr ungenau. Das ist weniger ein Problem von Algorithmen per se, sondern ihres undifferenzierten Einsatzes. Zeynep Tufekci trifft es sehr gut wenn sie bemängelt, dass bisweilen Mathematik pauschal mit wissenschaftlicher Genauigkeit gleichgesetzt wird. Weil niemand weiß, welche Faktoren diese Verfahren genau miteinbeziehen, ist die Wahrscheinlichkeit von Fehlern sehr hoch. Deshalb ist es entscheidend, dass wissenschaftliche Forschung diese Verfahren „reverse enigneered“ also versucht, ihre Funktionsweise zu bestimmen. Journalisten und Wissenschaftler können hier zusammenarbeiten, wie das Beispiel der ProPublica-Studie zeigt.

Die Autoren fordern in einem 10 Punkte-Plan Maßnahmen, welche die Beeinflussung durch Algorithmen minimieren und setzen dabei auf Punkte wie Dezentralität von Informationssystemen, Transparenz, Kontrolle der Nutzer über Algorithmen, kurzum eine „digitale Aufklärung“. Wenn es Unternehmen gibt, die Marktanteile von über 80% in Europa halten, wäre es dann nicht sinnvoll, auch öffentliche Regulierung oder wenigstens Kontrolle von Algorithmen anzustreben? Die Offenlegung ist ja eher eine naive Forderung, denn schließlich sind Algorithmen der Schlüssel für die Monetarisierung der Anbieter.

Ja zu beiden Punkten. Regulierung ist notwendig, darüber besteht nach meinem Eindruck zunehmend Einigkeit, schon allein wegen der von Ihnen genannten Marktkonzentrationen. Allerdings ist fraglich, ob man durch die Offenlegung von Algorithmen der Öffentlichkeit einen Gefallen tut. Schon eher wäre es sinnvoll, dass unabhängige Kontrolleure die Möglichkeit bekommen, die Neutralität konkreter Systeme zu gewährleisten. Noch wichtiger wäre aber eine tatsächliche „digitale Aufklärung“, d.h. ein viel breiteres gesellschaftliches Wissen darüber, wie diese Systeme grundsätzlich funktionieren, und welche konkreten Probleme existieren. Informatik in der Schule wäre ein Anfang, wenn auch sicherlich kein Allheilmittel. Wir sind da auf einem sehr langen Weg.

Kommen wir zu der viel zitierten „Echokammer“, also einen selbstverstärkenden Effekt, der auch „Filterbubble“ genannt wird. Dr. Christian Stöcker von Spiegel Online liest eine Radikalisierung der Gesellschaft aus verschiedenen Studien heraus, aus dem Effekt immer mehr von dem zu sehen, was man ohnehin denkt. Facebook wiederum bestreitet diesen Effekt und sagt, dass die meisten Nutzer gerade durch den Newsfeed auch andere Meinungen zu einem Thema entdecken würden. Wie ist Ihre Haltung?

Das ist ein ungemein komplexes Thema, und eindeutige Kausalitäten sind m.E. praktisch nicht auszumachen. Sind es nicht politische und gesellschaftliche Faktoren, welche eine (zu belegende) Radikalisierung begünstigen und zu denen das Internet als individualisierte Kommunikationsform beiträgt? Fest steht: Menschen benutzen nicht nur eine Plattform, und die Möglichkeiten sich zu informieren sind mannigfaltiger denn je. Aber es ist durchaus denkbar, dass die Sichtbarkeit von Meinungen, die den eigenen ähneln, eine legitimierende Wirkung hat. Subjektiv würde ich allerdings sagen, dass etwa die Art und Weise, in der beispielsweise Facebook die Kommunikation organisiert, da noch deutlich stärker wirkt.

In einem von der VolkswagenStiftung finanzierten Projekt „Networks of Outrage: Mapping the Emergence of New Extremism in Europe“ untersuchen Sie die Rolle von Social Media bei Aufsteigen rechter Protestbewegungen. Was genau wollen Sie dort untersuchen und gibt es schon erste Ergebnisse?

Wir beschäftigen uns mit populistischen islam- und migrationsfeindlichen Bewegungen, d.h. im Moment vor allem mit Pegida. Unter anderem nutzen wir Daten aus Facebook und Twitter, um die Entwicklung, die Themen und zentralen Akteure in diesen Bewegungen zu beschreiben. Zu den bisherigen Ergebnissen gehört, dass Pegida-Anhänger in einem deutlich höheren Maße auf verschwörungstheoretische und unseriöse Quellen zurückgreifen, als dies Nicht-Anhänger tun.

Mein persönlicher Lieblings-Algorithmus ist…

Der Spotify-Algorithmus, der die wöchentliche Playlist zusammenstellt.

Ich glaube, dass Algorithmen in fünf Jahren…

Sehr viel alltäglicher sind als heute.

Dr. Puschmann, vielen Dank für das Gespräch!