Das Netz und die apokalyptischen Streiter

Gunnar SohnMachen uns das Internet und die personalisierte Datensauce blöd?

Jeden Tag wird eine neue Sau durchs virtuelle Dorf getrieben: Tratsch, Klatsch, Alarmismus, Affären, Warnungen, Prognosen, Sensationen, Innovationen, Werbung, Entdeckungen, Debatten, Bekenntnisse, Erkenntnisse, Schuld, Sühne, Sex und Kriminalität. Das alles kennen wir aus der analogen Welt. Im digitalen Kosmos steigert sich das Ganze noch in der Lust zum Diskurs über den Internet-Diskurs.
 
Netzexperten zelebrieren Hypothesen über das Netz und über andere Netzexperten, die sich wiederum über das Netz auslassen und damit eine Endlosschleife auslösen. Jüngstes Beispiel ist die Blasentheorie über Filter und Algorithmen. Sie stammt nicht vom großen Blasen-Philosophen Peter Sloterdijk, sondern vom Filter-Bubble-Autor Eli Pariser, der vor der Gefahr eines Algorithmen-Totalitarismus warnt. Er meint damit vor allen Dingen Personalisierungsmaschinen im Web, die unsere Spuren analysieren und uns mundgerechte Portionen zum Konsum servieren. Kürzlich noch zeichneten Berufsapokalyptiker wie Frank Schirrmacher, Jaron Lanier oder Nicholas Carr ein psycho-soziales Horrorbild der Reizüberflutung im Cyberspace an die Wand, die zu neuronalen Dauerschäden der Internet-Rezipienten führen.
 
Besonders originell seien die Positionen dieser Nörgler nicht, so NZZ-Blogger Nico Luchsinger. Er hat sich intensiv mit dem Buch von Carr „Wer bin ich, wenn ich online bin…: und was macht mein Gehirn solange? – Wie das Internet unser Denken verändert“ beschäftigt:  Carr habe wie der FAZ-Herausgeber Frank Schirrmacher das Gefühl, dass jemand oder etwas sein Gehirn beeinflusse. Auch der Tech-Autor habe als Hauptschuldigen das Internet ausgemacht. Es führe zur Ablenkung und zum oberflächlichen Lernen. „Dutzende Studien, die Carr zusammengetragen hat, sollen beweisen, dass das Internet tatsächlich unsere Synapsen neu verknüpft. So sei nämlich erwiesen, dass das Internet schnelles kursorisches Lesen fördere; ständig werde unsere Aufmerksamkeit von Links auf andere Inhalte abgelenkt; die kontemplative Auseinandersetzung mit einem Text sei deshalb eine aussterbende Kulturtechnik“, so Luchsinger. „Der lineare, literarische Verstand war für fünf Jahrhunderte das Zentrum von Kunst, Wissenschaft und Gesellschaft. Aber er könnte schon bald der Vergangenheit angehören“, meint Carr.
 
Intelligente Suchroutinen und die Lizenz zum Flüchtigen
Nun ist diese Position nicht nur elitär, sondern historisch gesehen Unfug. Herder hatte ich ja schon erwähnt, der mit der Flut an Buchneuerscheinungen nicht mehr fertig wurde, obwohl die Lage im Vergleich zu heute noch überschaubar war. Der Zuwachs einer deutschen Hochschulbibliothek bewegt sich jährlich zwischen 30.000 bis 50.000 Bände, während der Gesamtbestand einer Hochschulbibliothek Ende des 18. Jahrhunderts bei rund 20.000 Büchern und Schriften lag. Zur Mitte des 19. Jahrhunderts lag man bei 130.000 Büchern. Eine Uni-Bibliothek abonniert heute mehr als 8.000 Periodika. Zu Beginn des 19. Jahrhunderts gab es erst 100 wissenschaftliche Zeitschriften. Die Library of Congress beziffert ihre Bestände auf weiter über 130 Millionen Einheiten.
 
Die von Carr so gescholtene Kulturtechnik des kursorischen Lesens musste im 18. Jahrhundert schon der Schriftsteller Johann Gottfried Herder anwenden. Ihm war klar, dass eine Bibliothek, die zu stark auf die Ordnung des Wissens Einfluss nimmt, Innovationen erschwert oder unmöglich macht. Nichtwissen ist dabei eine notwendige Voraussetzung, um innovativ sein zu können. Kein Gelehrter könne das Universalarchiv noch einholen. Alles ist nicht zu lesen, zu kennen, zu wissen. Kanonische Wissensbestände sollten daher durch intelligente Suchroutinen ersetzt werden. Herder entwickelte ein methodisches Verfahren, das ihm die Lizenz zum Flüchtigen gibt. Die gelehrte Lizenz, Materialmengen „aufs Geratewohl“ zu durcheilen und die Frage der richtigen Ordnung zugunsten der größeren Nähe zum furor poeticus hintanzusetzen, ist sogar in einer eigenen literarischen Gattung Tradition. „Man schreibt nicht akademisch oder pedantisch genau, sondern aus dem Stegreif“, so Matthias Bickenbach und Harun Maye in ihrem Buch „Metapher Internet“ (Kadmos-Verlag).
 
Die Klage über den Überfluss an Informationen sei kein Phänomen des Internetzeitalters und der mobilen Arbeitswelt, bestätigt Peter B. Záboji, Chairman des Afters Sales-Spezialisten Bitronic. Man müsse wie früher genau selektieren, welche Informationen durchkommen dürfen und welche nicht. „Beim traditionellen Briefverkehr waren es die Vorzimmer im Unternehmen, die eine Auswahl vorgenommen haben. Heute sind es elektronische Filter und virtuelle Assistenzsysteme. Man sollte die Technik nur geschickt einsetzen und darf sich nicht von ihr dominieren lassen“.
 
Die Folgen der informationellen Unzulänglichkeit des Menschen habe der Informatiker Professor Karl Steinbuch vor über 30 Jahren treffend beschrieben. Ein Wissenschaftler stehe beispielsweise ständig vor dem Dilemma, ob er seine Zeit der Forschung widmen soll oder der Suche nach Ergebnissen, die andere schon gefunden haben. Versuche er, fremde Publikationen erschöpfend auszuwerten, dann bleibe ihm kaum Zeit zu eigener Forschung. Forsche der Wissenschaftler jedoch ohne Beachtung fremder Ergebnisse, dann arbeitet er möglicherweise an Erkenntnissen, die andere schon gefunden haben. „Mit den Recherchemöglichkeiten, die das Internet heute bietet, reduziert sich allerdings der Aufwand für das erste Szenario erheblich“, sagt Záboji. Wichtig sei es nach Ansicht des DeTeWe-Geschäftsführers Christian Fron, dass Informationen nur da hinkommen, wo sie wirklich hin sollen. „Ich habe jederzeit die Möglichkeit, die Informationen komplett umzulenken, so dass nur in dringenden Fällen Nachrichten an mich herangetragen werden.“
 
Werden wir Opfer unserer eigenen Blödmaschinen?
Aber genau dieser Antipode im Kampf gegen den Informationsdschungel steht jetzt auch in der Schusslinie: Das personalisierte Web macht uns zu Lemuren unserer eigenen Datensauce. Auf die Spitze getrieben werden die Eli Pariser-Behauptungen in einem Beitrag des „Elektrischen Reporters“. In Zukunft werde jeder Mensch in einer abgeschlossenen Meinungs- und Medienblase herumdümpeln. Der Meinungspluralismus wandelt sich in Autismus. Man spiegelt im Netz nur seine eigenen Vorurteile, Meinungen und Vorlieben. Konträres werde ausgeblendet. Am Ende entsteht so etwas wie ein Algorithmen-Volksempfänger. Was hier als kritischer Blick in die Zukunft gesehen wird, werteten die Kybernetik-Wissenschaftler der DDR völlig anders. Die Forscher der Mathematik, Informationstheorie und der algorithmischen Sprache hatten einen Parteiauftrag: Das Gedankengut der Kybernetik sollte mit der marxistisch-leninistischen Weltanschauung durchdrungen werden: Es handelt sich um einen zentralen Gegenstand des ideologischen Klassenkampfes, schreibt Heinz Liebscher im Vorwort des Wörterbuches der Kybernetik, in der vierten Auflage 1976 erschienen.
 
Welchen Parteiauftrag nun Google und Facebook haben, ist nicht ganz so einfach zu beantworten. Aber auch sie wollen uns angeblich manipulieren. Etwa bei der Einblendung von „maßgeschneiderten Kaufinformationen“, wie es der „Elektrische Reporter“ ausdrückte. Und beim Medienkonsum filtern wir uns zu Opfern unserer eigenen Blödmaschinen. Nach dem Zeitalter der Massenmedien, kommt jetzt die Epoche der Selbsttäuschung. Wo doch schon die Massenmedien als Konformitätsschmiede galten.
 
„Grundsätzlich gilt: Jede Form der Filterung scheint problematisch, vielleicht sogar manipulativ. Bei Licht betrachtet ist sie aber das Normalste der Welt. Denn genau so funktioniert der Mensch: Er ist nicht in der Lage, die tatsächlichen Dinge zu begreifen. Er ist verdammt dazu, ständig zu filtern. Und erst die Filterung erzeugt seine eigene Wirklichkeit“, erklärt Mirko Lange von der Agentur Talkabout in München. Es gebe nur einen Ausweg und der gilt für Menschen ebenso wie für Netzwerke: „Man muss sich des Filterns bewusst sein. Denn es ist egal, wessen Opfer man ist, der seiner eigenen Konditionierungen oder derer der Netzwerke. Man ist in beiden Fällen Opfer. Und man kann und muss sich immer die Alternativen offen halten: Im Freundeskreis sind das die Menschen mit anderer Meinung und in den Netzwerken die alternativen Methoden: Selbst zusammengestellte ‚Circles‘, die ‚Hauptmeldungen‘ bei Facebook und die frei verfügbaren Apps bei Apple“, meint der Web 2.0-Spezialist Lange.
 
Algorithmen seien fachlich durchaus besser, als Kritiker ahnen, führt Christoph Kappes in einem Beitrag für die FAZ aus. „So legen sie uns Neues vor, um aus unserem Klickverhalten zu lernen, und sie schließen dieses Neue aus Verhalten unseres ‚digitalen Umfelds‘, das es für sich entdeckt hat. Es kommt also über die soziale Struktur Neues hinzu, wenn wir diese Struktur zugänglich machen. Das Problem aber ist ein anderes, nämlich schlicht die Qualität der Filter im Vergleich zu dem, was Menschen können.
 
Zwar erzeugt Google über die +1-Klicks bessere Suchergebnisse, modifiziert seine algorithmischen Ergebnisse von Hand und Facebook wird über die ‚Gefällt-mir-Buttons‘ der Informationsflut Herr, doch heißen Klicks noch lange nicht, dass wir das eine mehr sehen wollen als ein anderes. Dem Klick fehlt Semantik – und für jegliche Schlussverfahren vom Klicken zum Gezeigtwerden die Plausibilität.“ So sei denn die heutige Dummheit der Algorithmen das Problem, Technik in den Kinderschuhen, die uns noch lange nicht kränken kann, wenn wir verstanden haben, was Maschinen noch nicht können. „Unser Trost ist, dass wir auch im Leben schon immer selektiv vorgingen. So erleben wir also im Digitalen nur das, was immer schon war. Wir sehen meist nur, was wir kennen und daher zulassen wollen“, resümiert Kappes.
 
Gunnar Sohn, www.SERVICE-Insiders.de

Anzeige
Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.