vgrass.de

14. Dezember 2015

Die Meinungsmacht von Google

GoogleisierungRezension von:
Stark, Birgit / Dörr, Dieter / Aufenanger, Stefan (Hrsg.), Die Googleisierung der Informationssuche. Suchmaschinen zwischen Nutzung und Regulierung, Reihe: Media Convergence / Medienkonvergenz 10, De Gruyter 2014
erschienen in: in: Medien & Kommunikationswissenschaft, 4/2015, Hans-Bredow-Institut für Medienforschung an der Universität Hamburg (Hrsg.)

***

Evil oder nicht evil – an Google, oder neuerdings Alphabet, scheiden sich die Geister. Aus der sprichwörtlichen kalifornischen Garage entstanden, hat sich das Unternehmen trotz atemberaubenden Wachstums Kreativität und Innovationskraft bewahrt und ist Champion der Fortschrittsoptimisten und Traumarbeitgeber für IT’ler. Andererseits weckt das Unternehmen, das mit der unbescheidenen Mission antritt, „die Information der Welt zu organisieren“, durch seine Monopolstellung im Suchmarkt und die schiere Größe des darum entstandenen diversifizierten und vertikal integrierten Konzerns die schlimmsten Befürchtungen von Daten- und Verbraucherschützer, Kartell- und Medienrechtlern. Immer wieder gibt es Vorwürfe der Manipulation der Meinungsbildung seiner Nutzer und der Benachteiligung von Informationsanbietern. Politiker wie Justizminister Maas, Wirtschaftsminister Gabriel und EU-Kommissar Oettinger sind schnell mit der Forderung nach strikter Aufsicht oder gar Zerschlagung bei der Hand.

Die Suchmaschine Google, die im Zentrum des vorliegenden Bandes steht, ist ein Segen, weil sie uns erlaubt, in dem Meer an Information Antworten auf unsere Fragen zu finden, und ein Fluch weil sie mit einem aktuell auf mindestens 92% geschätzten Marktanteil effektiv das Monopol auf diese Basisfunktion im Internet hält. In der allgemeinen Internet-Bevölkerung ist allerdings keinerlei Leidensdruck zu erkennen. Für sie ist es das beste Angebot, und suchen ist googeln.

Auf welcher Erkenntnisgrundlage entscheiden wir uns für die eine oder andere Richtung? Was wissen wir über die Meinungsmacht von Google?

Wir wissen nicht, was sie mit uns tut, so könnte man den Erkenntnisstand über die Suchmaschine Google zusammenfassen, der sich im vorliegenden Sammelband widerspiegelt. Trotz ihrer enormen gesellschaftlichen Bedeutung sind die Auswirkungen dieses Gatekeepers zum Wissensraum Internet auf unser digitales Dasein bislang nur unzureichend erforscht.

Dem wollte ein interdisziplinäres Forschungsprojekt an der Johannes Gutenberg-Universität in Mainz abhelfen. Die drei Herausgeber stehen für die verschiedenen Perspektiven: Birgit Stark für die kommunikationswissenschaftliche, Dieter Dörr für die medienrechtliche und Stefan Aufenanger für die medienpädagogische.

Im Zentrum des Sammelbandes stehen vier empirische Untersuchungen des Mainzer Forschungsprojekts, die jeweils um Gastbeiträge ergänzt werden. Birgit Stark, Melanie Magin und Pascal Jürgens präsentieren in ihrem Beitrag die Ergebnisse einer qualitativen Nutzerbefragung von 27 Probanden und einer repräsentative Online-Befragung von 1.012 Internet-Nutzern. Die Ergebnisse bestätigen weitgehend die bisherigen Erkenntnisse. Die Suchmaschinenkomptenz ist im Allgemeinen gering. Ein-Wort-Suchanfragen überwiegen. Operatoren, Optionen, selbst Anführungszeichen für exakte Textsuche werden selten verwendet. Bei den Suchergebnissen wird nur die erste Seite angesehen und auch da häufig nur die ersten drei Treffer. Kenntnisse über die Rankingkriterien und damit das Zustandekommen der Ergebnisse sind nicht vorhanden. Zugleich ist die Mehrheit der Nutzer überzeugt, dass die Ergebnisse ausgewogen und unverzerrt sind.

Auch Stefan Aufenanger und Tabea Siebertz stellten bei bei ihrer Beobachtung von 17 Probanden bei der Lösung von Suchaufgaben unterschiedlichen Schwierigkeitsgrades fest, dass viele Nutzer die Potentiale für eine effektive Suche nicht ausnutzen können, ihre Suchkompetenz jedoch als hoch einschätzen.

Die mangelnde Kritikfähigkeit der Nutzer eröffnet die Möglichkeit, doch manipuliert uns Google tatsächlich? Dirk Lewandowski, Friederike Kerkmann und Sebastian Sünkler von der HAW Hamburg erläutern die Funktionsweise einer Suchmaschine und zeigen die Eingriffspunkte auf. Der Hauptverdacht richtet sich auf das Ranking der Suchergebnisse nach angenommener Relevanz. Hier betonen die Autoren, dass es schlicht nicht möglich sei, keinen Einfluss zu nehmen. Die Komplexitätsreduktion auf ein algorithmisch generiertes Informationsinteresse hin ist ja gerade die Leistung von Google. Zu fragen sei vielmehr, „welches Interesse Suchmaschinenbetreiber haben könnten, gezielt Einfluss auf die Selektionsentscheidungen ihrer Nutzer zu nehmen.“

In das Ranking gehen über 200 Faktoren wie Popularität, Aktualität und Lokalität eines Treffers ein, aber auch Diversität, um mehrdeutige Anfragen zu bedienen. Rankingprozesse seien theoretisch nicht objektivierbar und praktisch geheim, schreiben die Autoren. Daher böten sie Möglichkeiten für Manipulation, die durch die Gestaltung der verschiedenen Elemente auf der Ergebnisseite noch zunehmen. Aus der Tatsache, dass Google 95% seiner Erlöse mit Textanzeigen erzielt, folgern sie, dass es einen Anreiz gibt, durch die Präsentation der Anzeigen die Wahrscheinlich zu erhöhen, dass sie geklickt werden. Ob Google von den Möglichkeiten tatsächlich Gebrauch macht, sei jedoch noch nicht systematischen untersucht. Immerhin haben gewichtige Indizien vor allem für die systematische Bevorzugung des eigenen Preisvergleichsdienstes „Google Shopping“ zum seit 2010 laufenden Kartellverfahren der EU-Kommission geführt.

Ist Suchmaschinen-Bias an sich schon schwierig zu untersuchen, wird es noch komplizierter durch Personalisierungsfunktionen, die potentiell jedem Nutzer andere Ergebnisse liefern. Pascal Jürgens, Birgit Starke und Melanie Magin haben sich einen klugen Blackbox-Test ausgedacht, um Auswirkungen von Personalisierung festzustellen. Ihre Ergebnisse zeigten „einen messbaren, aber sehr schwachen Effekt“, der zudem fluktuierte. Nicht jede Anfrage wurde mit personalisieren Ergebnissen beantwortet.

Astrid Mager, Wissenschafts- und Technikforscherin an der Universität Wien, geht in ihrem Beitrag vom STS-Modell der sozialen Konstruktion von Technologie aus und zeigt, „wie sich die kapitalistische Ideologie durch soziale Praktiken in Suchalgorithmen einschreibt.“ Suchmaschinen seien nicht nur, argumentiert sie mit Matteo Pasquinelli, Apparate zur Datenüberwachung von oben, sondern auch zur Wertproduktion von unten. Jeder Link, den Google auswertet, sei eine Konkretisierung der kollektiven Intelligenz, aus der Google Profit schlage.

Der Grundaussage der STS-Studien, dass sozial konstruierte technische Systeme immer auch anders konstruiert werden können, führt sie zu der Forderung, dass Informationsanbieter und Informationssuchende aus der Allianz oder Komplizenschaft mit Google ausbrechen, die Politik entsprechende Rahmenbedingungen setzen und die Massenmedien eine kritische Debatte über Suchmaschinen führen müssten. Als positives Beispiel nennt sie die Kontroverse über Google Street View in Deutschland, die zu einer Verbannung der Kameraautos in manchen Städten geführt hat. Einer von Magers Interviewpartnern aus der US-amerikanischen Politik weist auf das Entstehen von privatwirtschaftlichen Suchmaschinen in den neoliberalen 1980ern hin und die verpasste Chance, sie als öffentlich finanzierte Infrastruktur zu etablieren. Öffentliche Förderung für alternative Suchtechnologien ist eine der Schlussfolgerungen aus Magers Analyse.

Eine unabhängige, aus dem Rundfunkbeitrag öffentlich finanzierte Suchmaschine vor allem für audio-visuelle Inhalte schlagen auch Hans Hege, Direktor der Medienanstalt Berlin-Brandenburg und Eva Flecken von Sky Deutschland vor. Sie sei ein zeitgemäßerer Beitrag zur Vielfaltssicherung als viele von den Rundfunkanstalten produzierte Inhalte. Eine Initiative für einen europäischen, öffentlich finanzierten Open Web Index (OWI) ist inzwischen von dem in diesem Band vertretenen Dirk Lewandowski gestartet worden.

Der Berliner Medienanwalt Ansgar Koreng weist in seinem Aufsatz darauf hin, dass die aktuelle Debatte über Netz- und Suchmaschinenneutralität seine Wurzeln in einem Zentralprinzip nicht nur des Telekommunikations- und Wirtschaftsrechts, sondern auch des Medienrechts hat: Vielfaltssicherung durch diskriminierungsfreien Zugang zum „Markt der Meinungen“ als konstitutive Voraussetzung für Demokratie.

Zum öffentlich-rechtlichen Rundfunk erwähnt Koreng nur, dass seine binnenplurale Struktur dem Bundesverfassungsgericht stets ein Anliegen war, nicht aber, dass diese nur eine notwendige Folge der Grundsatzentscheidung war, mit einer öffentlich-rechtlichen Organisation des Rundfunks auf ein antizipiertes Marktversagen zu antworten. Die naheliegende Analogie – eine öffentlich-rechtliche Suchmaschine als Antwort auf das Versagen des Suchmarktes – spricht er nicht an.

Wohl beklagt er in Bezug auf die bislang gänzlich unregulierten Suchmaschinen, dass der Gesetzgeber der Entstehung demokratiegefährdender Meinungsmonopole tatenlos zusehe. Als Lösung schlägt er zivilrechtliche Instrumente vor, mit denen andere Marktteilnehmer „das Gleichgewicht auf dem fraglichen Markt selbst wiederherstellen … können.“

Auch der abschließende Beitrag von Dieter Dörr und Simone Schuster plädiert für eine maßvolle, niedrigschwellige Regulierung. Wo Google sich durch Optimierungsprozesse und andere Eingriffe vom Inhaltevermittler zum Inhalteanbieter wandelt, sei sie nötig. Als zentrale Orientierungspunkt dafür nennen die Autoren Suchmaschinenneutralität, Transparenz und Medienkompetenz der Nutzer. Sie plädieren nicht für eine Überwachungsbehörde, sondern für eine ausdifferenzierte Aufgabenverteilung, in der der Staat die Basis für das Vertrauensverhältnis zwischen den Akteuren „Intermediär“ und „Nutzer“ schaffen und die Industrie sich selbst regulieren solle. Den Verhaltenskodex der Suchmaschinenanbieter in der FSM nennen sie als Vorbild, doch auch dessen Transparenzvorschriften scheiterten an mangelnder Durchsetzbarkeit.

Der vorliegende Band liefert eine willkommenen Einblick in den Stand der akademischen Erkenntnislage über ein Schlüsselelement des digitalen Ökosystems, und er zeigt an vielen Stellen den Bedarf nach weiterer Forschung.

SEO-Aktivitäten werden verschiedentlich angesprochen, aber eine systematische Untersuchung ihrer Auswirkungen auf den Ergebnisraum fehlt. Vertikale Integration ruft die Kartellwächter auf den Plan, doch wie wirken sich Nutzerdaten aus Google+, Maps, Youtube, Docs, Mail usw. auf die Suche aus? Der PageRank-Algorithmus ist natürlich omnipräsent, aus seiner Evolution über die regelmäßigen Updates hinweg wird nur das im Herbst 2013 eingespielte Hummingbird genannt. Darüber erfährt man mehr aus der SEO-Welt als von der Wissenschaft. Neben marktlicher und öffentlicher Organisation von Suchmaschinen gibt es auch Peer-to-Peer-Lösungen, doch verteilte Suchmaschinen wie YaCy und Faroo werden nicht erwähnt. Schließlich verwundert es, dass in einem Band über die Meinungsmacht von Google, dessen Lobbying-Aktivitäten nicht thematisiert werden. Neben der klassischen Politikbeeinflussung in Berlin und Brüssel wäre hier auch an weichere Formen wie das Collaboratory zu denken. Zum Humboldt Institut für Internet und Gesellschaft schreibt Mager nur, seine Rolle „bleibt abzuwarten“.

Bei einem derart dynamischen Untersuchungsgegenstand beginnt ein Buch schon vor dem Druck zu veralten. Auch das eine Conclusio: Wissenschaft müsste auf das Tempo des digitalen Wandels kommen, um den gesellschaftlichen Diskurs und eine zeitnahe Regulierung mit ihren Erkenntnissen wirksam zu unterfüttern.

Keine Kommentare »

Noch keine Kommentare.

RSS-Feed für Kommentare zu diesem Artikel. TrackBack-URL

Einen Kommentar hinterlassen

Powered by WordPress ( WordPress Deutschland )