Internet

Seth Stephens-Davidowitz: Everybody Lies. What the Internet Can Tell Us About Who We Really Are.

Große Teile der Sozialwissenschaften basieren auf Umfragen. Wann immer man etwas über Einstellungen oder Verhalten wissen will, wird ein im Idealfall statistisch repräsentatives Sample befragt. Die zahlreichen methodischen Probleme dabei sind inzwischen gut bekannt, und es gibt auch eine Reihe von statistischen Techniken sie wieder auszugleichen. Psychologen dagegen arbeiten gerne mit ihren Studenten als Versuchskaninchen, also überwiegend mit weißen Menschen aus der Mittelschicht.
Erstmals in der Wissenschaftsgeschichte stehen nun ganz andere Möglichkeiten zur Verfügung: Die Milliarden Suchanfragen im Internet. Es stellt sich nämlich heraus, dass viele Menschen Google Dinge anvertrauen, die sie sonst selbst vor engen Verwandten und Freunden geheim halten.

The microscope showed us there is more to a drop of water than wie can see. The telescope showed us there is more to the night sky than we think we see. And new, digital data now shows us there is more to human society than we think we see.
[S. 16]

Seth Stephens-Davidowitz war Datenanalyst bei Google und zeigt in diesem spannenden Buch an zahlreichen Beispielen, welche neuen Erkenntnisse man durch die Analyse von Suchanfragen gewinnen kann. Es sei gleich gesagt: Misanthropen werden sich schnell bestätigt fühlen. Was Seth-Davidowitz zu heiklen Themen wie Rassismus und Sexismus herausfindet, lässt einen schnell die Haare zu Bergen stehen. Das Standardnarrativ in den USA lautet, dass der radikale Rassismus seit den fünfziger Jahren stark abgenommen hätte, und es primär nur noch impliziten Rassismus gäbe. Wie falsch das ist, zeigt Stephens-Davidowitz durch eine Auswertung, wo und wie oft nach „nigger jokes“ gesucht wird. Millionen (!) weiße Amerikaner suchen danach. Ein weiteres Beispiel: Eltern fragen Google viel öfters danach, ob ihr Sohn hoch begabt ist, als ihre Tochter. Das gilt auch für andere Themen, die mit Intelligenz verbunden sind. Umgekehrt suchen Eltern bei ihren Töchtern viel öfters als bei ihren Söhnen nach Dingen, die mit dem Aussehen in Verbindung stehen.
Der Autor beschränkt sich nicht auf Google als Quelle, sondern nutzt auch die Suchen auf Pornoseiten. Ein verstörendes Ergebnis hier ist, wie viele Frauen nach Gewaltpornographie suchen, in denen Frauen gedemütigt werden.

So wie es also aussieht, haben wir damit nun geschichtlich erstmals die Möglichkeit, unseren Mitmenschen so direkt ins Hirn zu sehen wie bisher noch nie. Wie hässlich das Ergebnis sein wird, zeigen diese wenigen Beispiele. Einen wichtigen Aspekt thematisiert Stephens-Davidowitz allerdings zu wenig, nämlich den demokratiepolitischen. Denn die beschriebene anthropologische Erkenntnismaschine ist nicht in der Hand von Universitäten, sondern von wenigen Internetkonzernen. Sie können damit die menschliche Natur durchleuchten und in Folge manipulieren, wie niemand zuvor in der Weltgeschichte. Strengere Regeln wären auch deshalb politisch dringend angebracht.

Seth Stephens-Davidowitz: Everybody Lies. What the Internet Can Tell Us About Who We Really Are (Bloomsbury)

Jacquie McNish, Sean Silcoff: Losing the Signal – The Untold Story Behind the Extraordinary Rise and Spectacular Fall of BlackBerry

Mein Berufsleben war mehrere Jahre eng mit BlackBerry verknüpft, weshalb ich das Buch sofort nach dessen Erscheinen las. Jacquie McNish und Sean Silcoff beschreiben den riskanten Aufstieg von Research in Motion, wie die Firma lange hieß, von ihrer Zeit als kleines Startup über den Aufstieg zu einer der erfolgreichsten Technologiefirmen bis hin zum rasanten Abstieg nach Beginn des Smartphone Booms. Gut recherchiert und basierend auf vielen Interviews mit den damals Beteiligten liest sich der Titel spannend wie ein Technologiekrimi. Einerseits erfährt man viel über die Anfänge des mobilen Zeitalters einschließlich der wichtigsten Protagonisten (Motorola, Nokia, Apple, Google…). Andererseits bekommt einen exzellenten Einblick wie volatil Erfolge in dieser Branche eigentlich sind.

Jacquie McNish, Sean Silcoff: Losing the Signal: The Untold Story Behind the Extraordinary Rise and Spectacular Fall of BlackBerry (Flatiron Books)

Macht Liebe blind?

Erschienen in The Gap Nr. 138

Michel Serres schreibt über die vernetzte Generation, ihre Däumlinge, und den radikalen Umbruch, den sie erlebt – ganz ohne Kulturpessimismus, dafür fällt er ins andere Extrem.

Kann es gut gehen, wenn ein Dreiundachtzigjähriger der jungen Netzgeneration seine Liebe erklärt? Der französische Philosoph Michel Serres versucht genau das in seinem kurzen neuen Buch „Erfindet euch neu!“, das eben auf Deutsch erschienen ist. Es gibt eine lange Tradition seit der Antike, in der die Alten der Jugend vorwerfen, die neue Generation sei schlechter als die alte. Stichwort: Werteverfall. Keine Moral mehr, diese Jugend! Und die Sprache: Fürchterlich!

Serres unterbricht erfreulicherweise diese Litanei und fällt ins andere Extrem. Er ist in vielen Punkten exzellent über die aktuellen Lebensgewohnheiten seiner Enkel informiert. Das Buch scheitert nicht an seiner guten Absicht, sondern an seiner Argumentation:

„Heute weiß jeder kleine Däumling von der Straße glänzend Bescheid über Atomphysik, Leihmütter, genmanipulierte Organismen, Chemie, Ökologie.“

Smartphones – Tragbare Kognitionsbüchsen

Dieses Zitat ist typisch für Serres Pauschalierungen und seine ungenaue Verwendung von Begriffen. Es reicht natürlich nicht aus, ein Smartphone in der Tasche zu haben, um etwas über Chemie zu wissen. Serres behauptet aber genau das: Er bezeichnet ein Smartphone sogar als „objektivierte Kognitionsbüchse.“ Für einen Philosophen, der sich selbst als gelernter Epistemologe bezeichnet, ist das eine erstaunlich naive Sicht auf Erkenntnis. Zum einen reicht es nicht aus, Zugriff auf Informationen zu haben: Man muss diese auch verstehen können. Ein Blick auf die Pisaergebnisse seiner „Däumlinge“ hätte Serres belehrt, dass es bei vielen mit dem sinnerfassenden Lesen nicht so weit her ist. Es ist deshalb anzunehmen, dass Serres Thesen in erster Linie durch die Beobachtung seiner Elitelernenden in Stanford entstanden sind. Es war offenbar auch niemand delikat genug, ihn darauf aufmerksam zu machen, dass der größte Teil des modernen Datenverkehrs nicht durch Videos über Chemie oder Atomphysik verursacht wird, sondern durch Pornographie.
Dass er die neue Generation als „Däumlinge“ anspricht, wirkt zumindest auf Deutsch herablassend und passt nicht zu seiner Forderung einer machtfreien Kommunikation.

Auf doppelt wackeligen Boden begibt sich der Philosoph, wenn er über Erkenntnis und Computertechnik schreibt:

„Mein Denken ist unterschieden vom Wissen, von den Erkenntnisprozessen…die, samt Synapsen und Neuronen, in den Computer ausgelagert sind.“

Die Neuroinformatik beschäftigt sich zwar intensiv mit derartigen Konzepten, ist aber noch ein paar Lichtjahre von einer Umsetzung entfernt, die der menschlichen Kognition auch nur nahe käme.

Daten-Wunderwaffen

Der Philosoph stilisiert die Informationstechnik zu einer Wunderwaffe. Sie sei der Schlüssel zu einer dringend notwendigen Komplexitätsreduktion des modernen Lebens. Der reale Alltag sei hoch komplex, aber „ein paar Ingenieure reichen aus, dieses Problem zu lösen, indem sie zum informatischen Paradigma übergehen, das aufgrund seiner Leistungsfähigkeit den Simplex bewahrt“. In Wahrheit bedarf es hier natürlich einer Vielzahl von Ingenieuren und diese Technik ist nicht nur selbst hoch komplex: Sie verursacht auch jede Menge neuer komplexer Probleme. Beispielsweise schaffen die westlichen Demokratien derzeit freiwillig die perfekte technische Überwachungsinfrastruktur für zukünftige Diktaturen, obwohl es eigentlich ihre Pflicht wäre, zukünftigen Diktatoren prophylaktisch die Tyrannei zu erschweren. Statt auch nur einen dieser kritischen Punkte zu erwähnen, bringt er ausgerechnet einen „virtuellen Pass“ mit allen persönlichen Daten als positives Beispiel.

Zwar äußert Serres die Prognose, dass die Digitalisierung der Welt zu dem größten gesellschaftlichen Umbruch seit der Renaissance Anlass geben wird. Man liest diese Zukunftsprognosen allerdings mit Skepsis, weil bereits seine Gegenwartsdiagnosen problematisch sind.

Er beschreibt viele Entwicklungen und Trends in der Gesellschaft über die es jede Menge wissenschaftlicher Untersuchungen gäbe. Mit Belegen zu seinen Behauptungen gibt sich Serres jedoch nicht ab. Ein Ergebnis dieser philosophischen Formulierungsfreiheit sind Fehler. So nähert sich die Zahl der Facebooknutzer natürlich nicht jener der Weltbevölkerung an (Facebook: 1,2 Milliarden. Weltbevölkerung: 7,1 Milliarden). Aber vermutlich hat Serres die Zahl nur schnell mit seiner Kognitionsbüchse gesucht und ist auf eine fehlerhafte Webseite geraten.

Ein radikaler Umbruch

Was die gesellschaftliche Entwicklung angeht, sieht der Philosoph nun zum ersten Mal die Gelegenheit gekommen, die seit Anbeginn bestehenden gesellschaftlichen Machtstrukturen zu durchbrechen. In der Vor-Internetzeit gab es „oben ohrlose Münder, unten stummes Gehör“. Heute dagegen wolle alle Welt sprechen, alle Welt kommuniziere mit aller Welt in zahllosen Netzwerken. Zweifellos findet hier ein radikaler Umbruch statt und zweifellos sieht Serres hier viele valide Punkte. Unkritischer Optimismus ist aber auch gesellschaftspolitisch unangebracht, wie der Zusammenbruch des ägyptischen Frühlings diesen Sommer zeigte.

Beim Lesen des Buches drängt sich die Frage auf, wie man im 21. Jahrhundert Philosophie betreiben soll. Michel Serres und andere französische Philosophen setzen auf einen oft dunklen, assoziativen Sprachstil und scheren sich nicht um wissenschaftliche Erkenntnisse. Andere aktuelle Philosophen wie der an der Oxford University tätige Quantenphysiker David Deutsch, gehen da einen ganz andere Wege. Deutsch denkt von der Wissenschaft weg statt gegen die Wissenschaft an und kommt damit zu wesentlichen plausiblen Erkenntnissen als Michel Serres.

Michel Serres: Erfindet Euch neu! Eine Liebeserklärung an die vernetzte Generation (edition suhrkamp)

Die Wahrheit über Blogs

Enthüllungsbücher genießt man am besten immer mit einer ordentlichen Portion Skepsis. Aber was Ryan Holiday in seinem Buch Trust Me, I’m Lying kenntnisreich an Manipulationsmethoden beschreibt, um falsche Geschichten im Internet bekannt zu machen, sollte jeder kritische Medienkonsument gelesen haben.

Was die Glaubwürdigkeit Holidays stärkt: Er belastet sich selbst. Viele Jahre als machiavellistischer PR Spezialist tätig, beschreibt er en detail die vielfältigen schmutzigen Tricks, mit welchen er seine Aufträge erledigte. Das reicht von erfundenen Kampagnen über glatte Lügen bis hin zur Korruption in unterschiedlichen Graden. Ein Beispiel: Um den umstrittenen Autor Max Tucker zu fördern, beschmierte Holiday höchst selbst in der Nacht Tuckerwerbeplakate mit kritischen Slogans, um dann unter Pseudonym Medien empört darauf hinzuweisen und so eine fiktive Kontroverse zu inszenieren. Selbst feministische Protestaktionen provozierte er als fiktiver Tippgeber.

Holiday beschreibt über viele Kapitel sehr ausführlich, wie das System der Internetpublizistik in den USA funktioniert. Journalistische Standards werden selbst von den berühmtesten Blogs kaum eingehalten. Schnelligkeit und viele Clicks sind die Götter dieser Medien, alles andere ist zweitrangig. Verleumdungen werden aufgrund von E-Mails publiziert, ohne dass je die Identität des Senders überprüft wird. Fact Checking ist völlig unbekannt. Sehr plausibel zieht Holiday hier Parallelen zur Yellow Press des 19. Jahrhunderts. Wer die Arbeitsbedingungen und die miese Bezahlung der Blogautoren nach der Lektüre von Trust Me, I’m Lying kennt, wird Huffington Post, Tech Crunch und wie sie alle heißen zumindest mit neuen Augen sehen. Je bekannter und kommerzieller, desto mehr Dreck am Stecken. Die richtige Konsequenz aber wäre, diesen publizistischen Dreck überhaupt zu ignorieren und statt dessen auf die immer noch existierenden Medien mit hohem Niveau zurückzugreifen. Meine Empfehlungen kann man in Was soll man lesen? finden.

Besonders wütend ist Ryan Holiday auf jene Akademiker, welche die nicht-vorhandenen Qualitätsstandards als iterativen Journalismus schön reden. Die Beispiele, die Ryan Holiday bringt, sprechen auch hier für sich.

Ryan Holiday: Trust Me, I’m Lying. Confessions of a Media Manipulator (Portfolio)

Die feinen Unterschiede

[Aufmacher des von mir 1999 herausgegebenen Dossiers Literatur und Internet in Literatur und Kritik Nr. 339/340 (November 1999). Bisher als Notiz nicht verfügbar und deshalb reanimiert.]

Über das Verhältnis von Literatur und Netzliteratur

I.

Neue Medien waren immer schon ein dankbarer Spielplatz für unterbeschäftigte Theoretiker. So ist es nicht verwunderlich, daß sich auch das Internet großer theoretischer Aufmerksamkeit erfreut. Manche Denker prophezeien sogar ein neues Zeitalter, dessen Innovationen kaum einen Bereich des menschlichen Lebens unberührt lassen werden. Wie dieses Zeitalter aussehen wird, darüber gehen die Meinungen auseinander. Die Spannweite jedoch ist groß: Sie reicht von technofaschistoider Euphorie bis zu kulturpessimistischen Geisteshaltungen. Spiegelbildlich wiederholt sich diese Debatte in diversen (sub)kulturellen Nischen des Internet, von denen eine die der Netzliteratur ist: Begeisterte Anhänger der neuen ästhetischen Möglichkeiten stehen jenen gegenüber, die den Untergang der Literatur prognostizieren. Bevor man solche weitreichenden Spekulationen anstellt, sollte aber erst einmal geklärt werden, ob und inwiefern sich Netzliteratur von „normaler“ Literatur unterscheidet. Dieser Frage sind die folgenden Überlegungen gewidmet.

Auffallend viele ästhetische Überlegungen, die sich mit Kunst und Literatur im Internet beschäftigen, greifen auf postmoderne Theoriekonzepte zurück. Poststrukturalistische Denker sehen im Cyberspace ihre abstrakten Begriffe Wirklichkeit werden und befassen sich ausführlich mit „rhizomatischen“ virtuellen Strukturen. Aus postmoderner Perspektive nähert sich auch Walter Grond in seinem jüngsten Buch, Der Erzähler und der Cyberspace (1), diesem Thema. Auf 160 Seiten läßt er kaum etwas aus, was in den letzten 25 Jahren zur theoretischen Avantgarde gezählt worden ist (Dekonstruktion, Postkolonialismus, Popkultur, Foucault, Cyberpunk …). Viele seiner Thesen sind jedoch wenig überzeugend, beispielsweise wenn er behauptet, daß der Cyberspace einen revolutionären Kulturwandel bezeichnet, „indem die Netzwerke die Wahrheit in Bruchstücke zerlegen“ (S. 33). Der Wahrheitsbegriff an sich ist mit einer postmodernen Erkenntnistheorie unvereinbar, weil man etwas, dessen Existenz man grundsätzlich bestreitet, schwerlich in Bruchstücke zerlegen kann. Von einer absoluten Wahrheit ist in der Philosophie und sogar in großen Teilen der Naturwissenschaft seit vielen Jahrzehnten kaum mehr die Rede: der revolutionäre Pathos läuft deshalb ins Leere. Die Stichhaltigkeit von Gronds literaturtheoretischen Überlegungen läßt sich ebenfalls bezweifeln, etwa wenn er den „Hypertext“ mit Hilfe der schillernden Schrifttheorie Derridas erläutern will: „Einen ersten Text, der die Welt begründet hätte, gibt es nicht; der Ursprung ist leer. Das Buch und mit ihm die Welt, die alle anderen Bücher – und Welten – enthält und zugleich Offenbarung ist, bleibt ein Gerücht. Es gibt also keinen Ausweg aus den Texten. Sie sind bodenlos und notwendig […]“ (S. 93). Selbst wenn man die tiefsinnige Frage offen läßt, warum die Welt partout durch einen Text begründet werden soll, ist der Schluß von „Es gibt keinen ersten Text“ zu „Es gibt keinen Ausweg aus den Texten“ logisch nicht nachvollziehbar. Trotzdem entspricht diese Texttheorie „als Rahmen durchaus dem Hypertext; das elektronische Buch ist aber nicht nur von endloser Länge, sondern hat auch Seiten, die endlos ineinander verschachtelt sind.“ (S. 93) Letzteres ist empirisch widerlegbar, selbstverständlich gibt es viele Hypertexte, die von endlicher Länge und nicht endlos verschachtelt sind.

Die mangelnde Überzeugungskraft von Gronds Analysen (2) hängt eng mit seinen metatheoretischen Vorstellungen zusammen. Seiner Auffassung nach kann in einer computergestützten Umgebung keine totale Antwort auf die Frage nach dem Wesen der Dichtung mehr gefunden werden. Ließe sich eine solche Antwort aber in einer computerfreien Umgebung finden? Grond meint vermutlich, daß Netzliteratur einen zu hohen Komplexitätsgrad erreicht habe, als daß man noch eine plausible Literaturtheorie entwerfen könne. Dagegen kann man aber einerseits einwenden, daß es „analoge“ Werke wie Joyces Finnegans Wake gibt, die komplexer sind als fast alle Werke der Netzliteratur. Andererseits liegt diesem Gedankengang eine Verwechslung von Objekt- und Metaebene zugrunde. Ein vieldeutiger, komplexer Gegenstandsbereich schließt eindeutige theoretische Aussagen über ihn keineswegs aus.

II.

Wenn postmoderne ästhetische Konzepte nur wenig Konkretes zum Verständnis von Netzliteratur beitragen können, gilt es nach Alternativen Ausschau zu halten. Im folgenden soll deshalb der Versuch unternommen werden, aus der Perspektive der analytischen Ästhetik den Unterschied zwischen „traditioneller“ Literatur und ihren virtuellen Nachfolgern zu eruieren. Werke der Netzliteratur müssen die neuen ästhetischen Möglichkeiten des Mediums nutzen, ansonsten spricht man besser von Literatur im Netz, die beispielsweise im Internet abrufbare Klassiker umfaßt.

Ein literarisches Werk läßt sich auf der abstraktesten ästhetischen Ebene als ästhetischer Gegenstand analysieren, wobei mit „Gegenstand“ die allgemeinste ontologische Kategorie gemeint ist. Das gilt sowohl für alle klassischen Werke der Weltliteratur als auch für die meisten modernen Publikationen, wenn man einige avantgardistische Konzepte aus heuristischen Gründen ausklammert. Für das philosophische Verständnis von Kunstwerken hat es sich als hilfreich erwiesen, das Werk als abstrakte Entität (type) von seinen jeweiligen materiellen Manifestationen (token) zu unterscheiden. Nach dieser Terminologie ist beispielsweise die achte Symphonie von Schostakowitsch als solche ein type, während es sich bei den im Umlauf befindlichen Partituren jeweils um ein token handelt. Auch für die Literatur ist diese Unterscheidung theoretisch bedeutsam, denn sonst gäbe es ein literarisches Werk nicht nur einmal, sondern mehrfach, also nicht nur einen Hamlet, sondern unzählige „Hamlets“, weil es unzählige Bücher mit Hamlet gibt: offenkundig eine unsinnige Annahme. Um Literatur nun von anderen Kunstformen zu unterscheiden, nehmen die meisten Literaturtheorien noch das Prädikat „sprachlich“ hinzu. Außerdem werden komplexe Strukturen postuliert, die auf den verschiedensten Ebenen interagieren. Ein literarisches Werk wäre demnach ein komplex strukturierter sprachlicher ästhetischer Gegenstand.

Untersucht man Netzliteratur nach dem selben Prinzip, stellt man schnell fest, daß der Unterschied zur „normalen“ Literatur auf dieser theoretischen Ebene nur minimal ist, handelt es sich doch ebenfalls um einen ästhetischen Gegenstand, der komplex strukturiert ist. Die „Partitur“ dieser Struktur ist nun aber kein Buch: Das Papier als materielles wird durch ein digitales Trägermedium ersetzt. Dies bringt vielfältige Konsequenzen für Produktion, Rezeption und Vermittlung mit sich. Festzuhalten ist aber an dieser Stelle, das Literatur und Netzliteratur ästhetisch mehr Gemeinsamkeiten aufweisen, als gemeinhin angenommen wird. Die oft zu vernehmende pathetische Abgrenzungsrhetorik ist deshalb auf beiden Seiten unangebracht. Statt ästhetische Fronten zu errichten, die desto brüchiger werden, je abstrakter die ästhetische Analyseebene ist, sollte man Gemeinsamkeiten und Unterschiede leidenschaftslos untersuchen.

Die Kardinalfrage bezüglich der Abgrenzung zwischen Netzliteratur und ihrem analogen Vorläufer betrifft die Sprachlichkeit. Soll man das Prädikat „sprachlich“ zur ästhetischen Begriffsbestimmung hinzunehmen? Auf den ersten Blick scheint die Antwort klar zu sein: Virtuelle Werke greifen oft auf nicht-sprachliche Elemente zurück – das Schlagwort lautet „Multimedia“ -, eine Einschränkung auf den sprachlichen Bereich erscheint unangebracht. Verzichtet man jedoch auf diese Charakterisierung, besteht die Gefahr, daß der Begriff Netzliteratur die Trennschärfe verliert, die theoretisch notwendig ist, um semantische Beliebigkeit zu vermeiden. Wieso dann überhaupt noch von „Literatur“ reden, und nicht gleich von Netzkunst? „Literatur“ wäre bestenfalls eine vage Metapher, und es stünde der Verdacht im Raum, das kulturelle Prestige der Literatur solle für literaturfremde Anliegen zweckentfremdet werden. Deshalb ist es sinnvoll, zumindest in einer modifizierten Form an Sprachlichkeit als Kriterium für Netzliteratur festzuhalten, wobei Audioelemente eingeschlossen sind. Ein Werk der Netzliteratur wäre demnach ein komplex strukturierter überwiegend sprachlicher ästhetischer Gegenstand.

III.

Wenn es für die ästhetische Konzeption unerheblich wäre, ob und inwiefern ein Werk sprachlich ist, führte das schnell zu literaturfernen Vorstellungen. Daß es sich dabei um keine spekulativen Annahmen handelt, zeigt ein vielbeachtetes Buch von Janet H. Murray, die am Massachusetts Institute of Technology ein Projekt über „Advanced Interactive Narrative Technology“ geleitet hat. Unter dem Titel Hamlet on the Holodeck. The Future of Narrative in Cyberspace (3) entwirft sie ein virtuelles Zukunftsszenario, in dem Literatur nur noch eine marginale Rolle spielt. Ihrer Auffassung nach wird nämlich nicht der Hypertext (in welcher konkreten Ausformung auch immer) das narrative Element des neuen Mediums beherrschen, sondern Simulationen. Damit meint sie virtuelle Landschaften, in denen der „Leser“ in gewissen Grenzen selbst aktiv werden kann. Man kann sich das als eine Fortentwicklung bestimmter Genres von Computerspielen vorstellen, freilich auf einem wesentlich höheren Niveau. Anstatt vergleichsweise primitive Kampf- oder wenig relevante Rätselaufgaben zu lösen, könnte der „Spieler“ in einem komplex organisierten Handlungsrahmen beispielsweise vor schwierige moralische Entscheidungsprobleme gestellt werden. Das hätte mit Lesen im herkömmlichen Sinn offenbar nicht mehr viel gemein. Als mediale Vergleichsgrößen scheinen in diesem Szenario eher Fernsehen und Kino in Frage zu kommen. Vorläufer dieser neuen Form der Narration sieht Murray konsequenterweise weniger in literarischen Werken der Moderne, sondern in dreidimensionalen Filmprojektionen oder PC-Spielen.

Wer sich nun die Frage stellt, inwieweit dieses Zukunftsszenario ästhetisch an die Literatur anknüpfen kann, wird in dem ausführlichen zweiten Teil des Buches, The Aesthetics of the Medium, keine befriedigenden Antworten finden. Die drei Schlüsselbegriffe lauten nämlich Eintauchen (Immersion), Interaktivität (Agency) und Transformation (Transformation). Aber schon das erste dieser drei Kriterien für erfolgreiches „Erzählen“ mutet aus dem Blickwinkel der literarischen Ästhetik vormodern an: Das Eintauchen-Können in eine fiktive Welt mag überlebenswichtig für Produkte der Unterhaltungsindustrie sein, sagt aber sicher nichts über die Qualität von Literatur aus. Das gilt auch für das interaktive Element, welches zwar häufig eine wichtige Eigenschaft von Netzliteratur ist, aber nicht notwendigerweise eine ästhetische. Mit „Transformation“ bezeichnet Murray eine Vielzahl von unterschiedlichen Phänomenen, beispielsweise die Möglichkeit, in virtuellen Welten verschiedene Rollen anzunehmen oder verschiedene Handlungsvarianten durchzuspielen. Ist man mit diesen „ästhetischen“ Grundlagen vertraut, wird man nicht mehr davon überrascht, daß die Autorin die Zukunft des digitalen Erzählens in einer Synthese von virtueller Simulation und dem Fernsehen sieht: „The more closely the new home digital medium is wedded to television, the more likely it will be that its major form of storytelling will be the serial drama.“ (S. 254) Schlüsselbegriffe sind hier „web soap“, „hyperserial“ und „cyberdrama“.

Sollte Murray mit ihren breit rezipierten Prognosen recht behalten, dann würde zwar eine neue Ära des elektronischen Entertainments eingeleitet, aber sicher keine neue Kunstform entstehen. Angesichts dieser Aussichten ist es nötig, am spezifisch Literarischen der Netzliteratur festzuhalten. Ein notwendiges Merkmal des Literarischen ist das Sprachliche, weshalb die Forderung berechtigt ist, von einem Werk der Netzliteratur nur dann zu sprechen, wenn es überwiegend sprachlich ist. Für alle anderen Kunstwerke im Netz bietet sich Netzkunst als Bezeichnung an.

IV.

Eine akzeptable Begriffsexplikation von ‚Netzliteratur‘ muß selbstverständlich noch um weitere Merkmale ergänzt werden: Ein Werk im Internet gehört genau dann zur Klasse der Netzliteratur, wenn es sich um einen überwiegend sprachlichen, komplex strukturierten ästhetischen Gegenstand handelt, auf den zusätzlich eines der folgenden Merkmale zutrifft: Er ist hypertextuell oder multimedial oder interaktiv.

[1] Walter Grond: Der Erzähler und der Cyberspace. Haymon Verlag, Innsbruck 199, 160 Seiten.

[2] Selbst Anhänger der Popkultur konnte er nicht von seinen Thesen überzeugen, wie man in der Rezension seines Buches nachlesen kann, die im Szenemagazin Testcard (Nr. 7; S. 270/271) erschienen ist.

[3] Janet M. Murray: Hamlet on the Holodeck. The Future of the Narrative in Cyberspace. MIT Press, Cambridge 1997, 324 Seiten.

Eli Pariser: The Filter Bubble

Pariser lenkt den Blick auf einen wichtigen Aspekt der technischen Entwicklung des World Wide Web: Die zunehmende Personalisierung. So bequem diese „künstliche Intelligenz“ auf den ersten Blick scheinen mag, so problematisch ist sie, wenn man ausführlicher darüber nachdenkt. Eli Pariser beschreibt in seinem Buch nicht nur den aktuellen Stand der Personalisierungs- und Data-Mining-Techniken, sondern nimmt auch die nähere Zukunft kompetent ins Visier.

Was die Geschichte von Google und Facebook angeht, erfährt man zwar nicht viel Neues, wenn man sich seit längerer Zeit mit offenen Augen im Internet herum treibt. Allerdings gelingt es Pariser gut, auf kurzem Raum bewusst zu machen, wie schnell Firmen unglaubliche Macht ansammeln können. Seine Beispiele, wie weitreichend die Konsequenzen von scheinbar unpolitischen Techniker-Entscheidungen sein können, lesen sich in diesem Kontext besonders aufschlussreich. Um ein einfaches Beispiel zu nehmen: Facebook-Nutzer sehen in ihrem Newsfeed Links, welche ihre Freunde markieren. Nun macht es einen großen Unterschied, wie dieser Button beschriftet ist. Wer klickt bei wichtigen, aber abstoßenden Themen auf „Gefällt mir“? Ein neutraler Begriff wie „teilen“ bewirkt hier ein völlig anderes Klickverhalten. Weniger offensichtlich, aber ebenso einflussreich, können Entscheidungen von Google-Ingenieuren über Such- und Personalisierungsalgorithmen sein.

Wie subtil man mit vergleichsweise unauffälligen Mitteln Internetnutzer manipulieren kann, führt Pariser sehr packend am Beispiel Chinas aus, eines der besten Kapitel des Buches. Spannend sind auch jene Abschnitte, welche die Infrastruktur des Datensammelns offen legen. Es gibt enorm einflussreiche Firmen, mit Milliarden an Datensätzen, deren Namen man noch nie hörte, weil sie sich geschickt im Hintergrund halten. Pariser zerrt sie ins Tageslicht.

Schon jetzt ist es so, dass Google einem Börsenmakler andere Suchergebnisse anzeigt, wenn dieser nach „Royal Dutch Shell“ sucht als einem Umweltschützer. Menschen neigen dazu, vor allem Nachrichten zur Kenntnis zu nehmen, welche ihr Weltbild und ihre Meinungen bestätigen. Erkenntnis funktioniert aber ganz im Gegenteil dadurch, dass man seine Hypothesen immer wieder kritisch überprüft. Je weniger kritische Informationen man präsentiert bekommt, desto erkenntnisärmer wird das tägliche mediale Umfeld.

Ein entscheidender Punkt: Man weiß nicht mehr, was man nicht weiß, weil so vieles dauerhaft ausgeblendet wird. Das ist ein Grund, warum ich beispielsweise das wöchentliche Durchblättern des The Economist (Empfehlungs-Notiz) für völlig unverzichtbar halte.

Pariser zitiert die Journalisten-Legende Walter Lippmann, um seine Bedenken zu illustrieren:

All that the sharpest critics of democracy have alleged is true, if there is no steady supply of trustworthy and relevant news. Incompetence and aimlessness, corruption and disloyalty, panic and ultimate disaster must come to any people which is denied an assured access to the facts.

Weniger stark sind jene Teile des Buches, in denen Pariser mit Argumenten aus diversen Disziplinen (Psychologie, Philosophie, Medientheorie, Soziologie…) theoretisch begründet, warum und welche Schäden die Personalisierungstechniken anrichten können. Hier hätte ich mir mehr Tiefe gewünscht. Allerdings sind die von ihm aufgeworfenen Punkte für die Konsistenz seiner Argumentation ausreichend.

Einer seiner konstruktiven Lösungsvorschläge ist, dem Personalisieren gesetzlich Transparenz zu verordnen. Jeder Internetnutzer sollte nachvollziehen können, warum ihm etwas angezeigt wird. Auch das komplette Ausschalten der Personalisierung sollte einfach möglich sein. Pariser ist also kein Fundamentalist. Er sieht die Vorzüge der Personalisierungstechniken sehr wohl, will diese aber mit mehr Entscheidungsmöglichkeiten aus Nutzersicht anreichern.

Noch ein Wort zu dem mehrmals vorgebrachten Einwand gegen das Buch, es hätte ein fragwürdiges Menschenbild, weil es von unmündigen Medienkonsumenten ausginge. Richtig ist, dass es eine kleine Minderheit an mündigen Mediennutzern gibt, für welche auch eine weitgehende Personalisierung kein Problem darstellt. So lange in Demokratien aber jede Stimme gleich gewichtet ist, sind Parisers Argumente in Sachen Massenmedienkonsum durchaus valide. Aktuelle Einschaltquoten und Auflagenhöhen belegen das mehr als hinreichend.

Jeder kritische Medien- und Internetnutzer sollte die Filter Bubble lesen.

Eli Pariser: The Filter Bubble. What the Internet is Hiding from You (Penguin) / Deutsche Ausgabe

Webseite zum Buch: www.filterbubble.com

Eine lesenswerte Rezension findet sich auch bei werquer.

Web-Tipp: Karl-Popper-Sammlung

Hier wird seit 1995 der Nachlass Karl Poppers verwaltet, darunter auch Poppers Arbeitsbibliothek, die 7000 Bände umfasst. Es gibt eine online abrufbare Datenbank, die aber im Moment nicht zur Verfügung steht. Die Sammlung wird von der Universitätsbibliothek Klagenfurt verwaltet.

Web-Tipp: NOVA

Eine der erfolgreichsten Wissenschafts-Sendungen der Welt, naturgemäß etwas populärwissenschaftlich. Immerhin findet man dort im Realvideo- bzw. im Quicktime-Format* eine Reihe von Sendungen online, darunter auch eine zweistündige Sendereihe über das menschliche Genom.

Update Jan. 2010: …bzw. dem heutzutage allgegenwärtigen Flash :-) Allerdings scheinen viele der aktuelleren NOVA-Sendungen aufgrund rechtlicher Einschränkungen von Europa aus nicht angesehen werden zu können.

Web-Tipp: Colin McGinn

Wie auf so viele bin ich auf McGinn durch die NYRB aufmerksam geworden, für die er in den letzten Jahren einige Artikel schrieb. Er gehört sicher zu den interessantesten zeitgenössischen analytischen Philosophen. Sein jüngstes Buch ist nun bei C.H. Beck (bzw. Piper) auf Deutsch erschienen: Wie kommt der Geist in die Materie? Das Rätsel des Bewußtseins. Auf der Seite des C.H. Beck Verlags findet man eine umfangreiche Leseprobe als PDF-Datei*.

Besonders gerne erinnere ich mich an seine fulminante Psychoanalyse-Kritik mit dem Titel „Freud Under Analysis“*

Links:

Update Jan. 2010: Die pdf-Leseprobe aus der deutschen Ausgabe scheint nicht mehr online zu sein, dafür hat die NYT einen Link zu gesamten ersten Kapitel in ihrer Rezension von „The Mysterious Flame. Conscious Minds in a Material World“.

* Diese beiden Artikel sind im kostenplichtigen NYRB-Archiv.

  • RSS Feed for Posts
  • RSS Feed for Comments
  • Twitter
  • XING
  • Facebook

Kategorien

„Die Presse“ meint:

"Aber das Internet ist nicht schuld daran, dass Zeitungen reihenweise ihre Literaturseiten „gesundschrumpfen“. Vielmehr hat es das Monopol der traditionellen Medien auf seriöse Literaturkritik gebrochen. Blogs wie die „Notizen“ des promovierten österreichischen Literaturwissenschaftlers Christian Köllerer (koellerer.net) zeigen: Es gibt genug Qualität, man muss sie nur suchen."
(5. Januar 2013)

Aktuell in Arbeit

Tweets