Wolfgang Hagen Medienvergessenheit. Über Gedächtnis und Erinnerung in massenmedial orientierten Netzwerken. Vor einigen Jahren haben Jan und Aleida Assmanns einen ihrer Texte zum „kulturellen Gedächtnis“ in dem hoffnungsfrohen, fast schon trotzig klingenden Schlusssatz münden lassen: „Solange wir den Tod nicht abschaffen können, wird es deshalb das kulturelle Gedächtnis geben, auch unter den Bedingungen der digitalisierten Mediengesellschaft“ (Assmann 2005, 28). Die folgenden Überlegungen wollen dem nachgehen. Die Assmanns unterscheiden, kurz gesagt, das „kommunikative Gedächtnis“ (das unsere Lebenszeit und höchstens noch zwei weitere Generationen umfasst) von einem „kulturellen Gedächtnis“, in welchem schriftlose wie auch schriftmächtige Kulturen ihre Ursprungs- und Erhaltungsmythen tradieren. Genauer genommen zerfällt das „kommunikative“(28) in ein „verkörpertes“, nur unsere Lebenszeit betreffendes, und ein „vernetztes“(29), also auch unsere Nachkommen und Freunde betreffendes Gedächtnis. Schriftlose Kulturen zelebrieren Feste und Kulte, in denen sich ihr Kulturelles Gedächtnis stets wieder neu artikuliert; die Schrift- und Buchkulturen haben überdies, um der überbordenden Flut ihrer Erinnerungsdokumente Struktur zu geben, die Differenz von „Kanon“ und „Archiv“ eingeführt, zwischen denen das „Kulturelle Gedächtnis“ in stets sich erneuernden Akten von Erinnern und Vergessen oszilliert. Allerdings bleibt in der Moderne diese Differenz weitgehend ungelöst und prekär, weil mit jeder neuen Kanonisierung („Die 100 Bücher der Weltliteratur!“, "Die 50 besten Sinfonien") des kulturellen Stoffes eine neue Phase der Vergessenheit (des Verfalls oder der Vernichtung) droht. Die folgenden Überlegungen operieren mit einem Gedächtnisbegriff, der nicht so sehr von Gedächtnisinhalten ausgeht. Ein soziales Gedächtnissystem, dessen historische Diskussion hier im Focus steht, beschreibt nicht die Erinnerungen selbst, sondern die Prozeduren und Strukturen, die zu Erinnerungen 1 oder eben zum Vergessen führen. Pointiert zugespitzt lauten meine Fragen: Haben die Massenmedien die Ausbildung des Kulturelles Gedächtnis gefördert? Eröffnen sich durch das Internet und seine digitalen Technologien neue, vielleicht sogar „bessere“ Perspektiven? - Im ersten Teil diskutiere ich zwei konträre Argumentationen zur Gedächtnisfunktion des Internets, die beide von dem rasanten Aufschwung dieses Mediums geprägt sind und zwei diametral entgegengesetzte Imperative thematisieren: „Delete“ versus „Recall!“. Im zweiten Teil erinnere ich an die klassische Differenz zwischen „Gedächtnis“ und „Erinnerung“, die in der Platonischen Schriftkritik entfaltet wurde und bereits den Hintergrund des „kanonischen“ Dilemmas im Assmannschen Kulturgedächtnis ausleuchtet. Der Dritte Teil untersucht die Folgen der von der (Bevölkerungs- und) Medien-Evolution/Expansion des 19ten und 20ten Jahrhunderts getriebenen seriellen Aktualitätsstruktur des massenmedialen Sozialgedächtnisses. Der vierte Teil geht auf den ersten zurück und diskutiert skizzenhaft die bislang erkennbaren Strukturchancen eines sozialen und kulturellen Gedächtnisses in digital-medialen Netzwerktopologien. I. „Delete“ oder „Total Recall“? Selten wurde über das Nicht-Vergessen-Können eines Mediums so intensiv diskutiert wie im Fall des Internet um die Jahrzehntwende 2010. Es geht dabei unter anderem um die 400 Millionen MitgliederInnen des „sozialen Netzwerks“ „Facebook“. Die wenigsten kümmern sich um Datenschutz und übersehen, dass „Facebook“ in der Regel über ihre Bilder und Dokumente urheberrechtlich verfügt und nicht sie selbst. Viktor Meyer-Schönberger beschreibt in seinem jüngsten Buch „Delete: The Virtue of Forgetting in the Digital Age“ die zum Teil verheerenden Konsequenzen. „Do we want a future that is forever unforgiving because it is unforgetting?” (2009, 6) fragt Mayer-Schönberger. Allen voran steht die Firma Google im Visier, die bekanntlich alle Daten hortet, derer sie habhaft werden kann, auch die etwa 200 Millionen Suchabfragen ihrer User pro Tag. „By cleverly combining login data, cookies, and IP addresses, Google is able to connect search queries to a particular individual across time - and with impressive precision” (2). Auch wenn Google inzwischen erklärt, die entsprechenden Daten nach einiger Zeit zu löschen, bleibt Schönberger einer solchen Kultur des Unvergessens gegenüber skeptisch. „Since the beginning of time (…) forgetting has been the norm and remembering the exception. (…) Today, with the help of widespread technology, forgetting has become the exception, and remembering the default” (2). Alles, was wir übers Internet erledigen, bleibt potentiell gespeichert; alle Kontodispositionen werden erfasst; unsere Handys 2 orten unsere Standorte und Bewegungen; unsere TV- und Online-Provider speichern Verbindungsinformationen; Marketingfirmen kaufen die Daten und verdichten sie. In England sind 4,2 Millionen Überwachungskameras aktiv; wann werden sie mit automatischen Gesichtserkennungs-Algorithmen ausgestattet sein? Schönbergers Fazit: „My suggestion is an expiration date for information to confront us with the finiteness of memory, and to prompt us to understand (and appreciate) that information also has a lifespan” (15). Was ist der Vorschlag? Beim Speichern einer Datei soll künftig technisch die Eingabe eines Löschdatum erzwungen werden. Angesichts der wuchtigen Dimension einer globalisierten Vergessensontologie, die Schoenberger in seinem Buch aufspannt, - eine eher dürftige Pointe. Das ontologische Momentum an der Löschzwang-Idee offenbart sich überdies sofort: Gilt das Löschdatum auch für die Kopie der Datei oder wie erneuert es sich in einem solchen Fall? Erwirken Änderungen an der Datei ein neues Löschdatum? Alles läuft auf die Frage heraus: Was 'ist' eine Datei unter gedächtnistheoretischen Aspekten? Ist sie eine Entität bedeutender Inhalte oder nur ein Algorithmus möglicher Bedeutungen (also ein Computer in nuce; vgl. Wirth 1983). Alt-Blogger Joseph Daniel Lasica hatte es schon 1998, in der Frühphase des World Wide Web, prophezeit: „The Net never forgets“. Allerdings ging es dem ehemaligen Tageszeitungs-Redakteur weniger um den Ewigkeitsbestand nicht gelöschter Daten als vielmehr um den Zusammenbruch der „Gatekeeper“-Funktion seines Berufsstandes. „Our political opinions, prejudices, religious beliefs, sexual tastes and personal quirks -- are all becoming part of an immense, organic media soup that is congealing into a permanent public record“ (Lasica 1998). Es war nämlich schon vor der Jahrtausendwende deutlich, dass das Internet über seine schnellen Upload-Funktionen von Bild, Ton oder Text Millionen „Gatewatcher“ auf den Plan ruft, die über „Blogs“, „News-Feeds“ oder andere „Tubes“ nicht nur gelegentlich schneller informieren als amtliche Nachrichtenagenturen, sondern vor allem die Zahl 'nachrichtenfähiger' Informationen um ein Vielfaches erhöhen (Bruns 2008, 4). Den Tageszeitungen, die ohnehin von den jüngeren Generationen immer schwächer genutzt werden, aber auch den sonstigen journalistischen Medien (Radio, TV) hat das eine existentielle Herausforderung beschert. Vor dem Horizont dieses Funktionswandels mutiert der ehemals radikal-liberale Slogan der New York Times – „All the news that’s fit to print“ - zur altväterlichen Zensurgebärde. „Menschen, früher einmal bekannt als ‚das Publikum’“(Rosen 2006), vollführen im Netz „zufällige Akte des Journalismus“ (Lasica 2003, 4), während der klassische Journalismus auf die Rolle des begleitenden Kommentators reduziert wird, der annotiert und orientiert, und so vom „Watchdog“ zum „Guidedog“ mutiert (Bardoel 2001, 94). 3 Alles dies erscheint als eine Folge der wachsenden Quantität der von Computern gespeicherten Informationen, die das Internet für jeden User so bereithält, dass er sie jederzeit ergänzen oder korrigieren kann. Prinzipiell sind diese Daten in der Tat unverfallbar („because it lacks the noise problem“(57), wie Mayer Schönberger sagt). Wenn man nur darauf achtet, dass die physikalischen Träger stetig erneuert werden, sind digitale Informationen in „ewigen Datensätzen“ (Bienert 1998, 149ff) gerahmt. Statt einem verordneten Vergessen solchen Daten eine „digitale Unsterblichkeit“ (Bell 2001, 1) zuzuschreiben und mit ihnen sogar die Vision einer "Zwei-WegeUnsterblichkeit" (Bell 2009, 154) von real existierenden Menschen zu konstruieren, wie es Gordon Bell, einer der führenden Köpfe der „MicrosoftResearch“ Abteilung in Redmond, vorschlägt, markiert den Kontrapunkt in der Debatte um Vergessen versus Erinnerung im Internet: „We see hints that at least some aspects of a person could be expressed as a program that interacts with future generations. It is (…) possible to make a compelling avatar of that person. This avatar can 'live forever' in a virtual world“ (Bell 2001, 2). Zum einem solchen Avatar des unendlichem Lebens hat sich Gordon Bell gleich selbst erklärt. Mit Geldern von Microsoft Research gründete er 2001 „MyLiveBits“ (Bell 2002) und „lebt“ seither in lückenloser Selbstaufzeichnung seiner selbst mittels digitaler Maschinen. „We have entered an era of virtually unlimited storage, enabling lifetime storage of most of what one sees and hears, along with many new data source such as user logs and sensor data“ (Bell 2003). Wo immer er sich bewegt, was immer er sieht oder hört, wird in Bild und Ton aufgezeichnet. Jede E-Mail, die er schreibt oder erhält, jede Web-Site, die er anschaut, jeder Spaziergang, jede Besorgung, jede Autofahrt, alles wird gescant, mitgeschnitten und abgespeichert. „Retaining every conversation a person has ever heard requires less than a terabyte (for adequate quality)“ (Bell 2003). Ein Lebensalter von 83 Jahren unterstellt würde der vollständige ‘Scan’ aller gelesenen und geschriebenen Bücher, Reports, Papers, Emails, Web-Seiten, aller gehörten Musiken (in MP3Format), aller selbst gemachten und von seiner „SenseCam“ automatisch geschossenen Photos etwa 200 Terabyte Daten erzeugen (Gemmel 2006). In „Total Recall: How the E-Memory Revolution will Change Everything” (2009) stellt Bell mit seinem Assistenten Jim Gemmel einige Fragen zusammen, die mit diesem auf absolute Unvergesslichkeit angelegten Vorhaben verbunden sind: Kann man die Daten auch noch in fünfzig Jahren lesen (Datenformatkompatibilität)? Wie können wir später noch private von beruflichen Daten trennen? Was sind ‚die Wahrheiten’ über uns selbst und wer interpretiert sie? Was ist mit dem Datenschutz der umgebenden Personen? Können die „life-log“-Daten auch vor Gericht verwendet werden? Gewichtige Fragen, die Bell zwar stellt, aber nicht beantwortet. Wer über die Daten 4 verfügen kann und wie solche Verfügungen wiederum kontrolliert werden könnten, ergibt sich für ihn aus der Sache: „The recording equipment is not controlled by a single central authority, but by millions of individuals and private entities“ (Bell 2009, 14). Gordon Bells “MyLifeBits”-Projekt stellt sich ausdrücklich in die Nachfolge der ‘Extended Memory’-Vision („Memex“) von Vannavar Bush aus dem Jahre 1945. „A memex is a device in which an individual stores all his books, records, and communications, and which is mechanized so that it may be consulted with exceeding speed and flexibility" (Bush 1945, 10). Es handelt sich bei Bushs Vison bekanntermaßen um eine gedankliche Vorform des Desktop-PC oder Laptop von heute. „On the top of the memex is a transparent platen. On this are placed longhand notes, photographs, memoranda, all sort of things” (10). Aber anders als Bells megalomane Datenbank aller je wahrgenommenen oder artikulierten Äußerungen ist Bushs Maschine ein Hilfsmittel für das Denken. Sie soll das wissenschaftliche Arbeiten erleichtern und beschleunigen. „One cannot hope thus to equal the speed and flexibility with which the mind follows an associative trail, but it should be possible to beat the mind decisively in regard to the permanence and clarity of the items resurrected from storage” (10). Bushs gedanklichem „Memex“ ging es allein und nur um die Ressourcen wissenschaftlicher Arbeit („What are the scientists to do next?“), um das Verknüpfen von Bibliotheken, Fotoarchiven, Nachschlagewerken; ich komme darauf zurück. Eine multidimensionale Live-Log-Datei war sein Thema nicht. Indem sich Bell aber darauf beruft (Gemmel 2002), will er auf die Erfüllung einer Prophetie verweisen. Ein „Memex“-Gerät, also einen Gedächtnis-Extender, verwende heute schließlich jeder, der mit einem PC arbeitet. Daraus zieht Bell seinen technodeterministischen Argumentationsschwung: „I am a technologist, not a Luddite, so I’ll leave abstract discussions about whether we should turn back the clock to others. Total Recall is inevitable regardless of such discussions” (Bell 2009, 159) – “Total Recall, like the automobile, is rejected only at the price of giving up great advantages” (174). Weder ein Datensatz, der uns in lebenslanger Paranoia verfolgt, noch einer, der uns ewiges Leben beschert, können Gegenstand gedächtnistheoretischer Reflexion sein. Ein Gedächtnis ist nicht durch seine Inhalte und deren Umfang definierbar, also nicht dadurch, dass Alles unvergessen bleibt oder Alles vergessen gemacht wird. Mayer-Schönberger wie auch Gordon Bells Forschergruppe bei Microsoft unterscheiden nicht einmal zwischen einem kommunikativen Einzelgedächtnis und dem kulturellen oder sozialen Gedächtnis einer Zivilisation oder Gesellschaft. Sie setzen zudem Vergessen mit Löschung und Erinnerung mit Totalpräsenz gleich, statt Gedächtnis als Konstruktion und damit das Vergessen als notwendige Bedingung des Erinnerns 5 zu verstehen. Auf die fragwürdige Linearität ihrer Argumentation komme ich im letzten Abschnitt dieser Arbeit zurück. Im folgenden möchte ich zunächst einen Blick auf die Mediengeschichte des Vergessens werfen, die Mayer Schönberger so pointiert: „Since the beginning of time, for us humans, forgetting has been the norm and remembering the exception. (…) Today, with the help of widespread technology, forgetting has become the exception, and remembering the defaul.“ (Mayer-Schönberger 2009, 2). Ist „Vergessen“ tatsächlich die Norm oder gar das Normativ in den Anfängen unserer Zivilisation? II. Platos Schriftvergessenheit Die Schriftkultur der modernen westlichen Kulturen (und auch des Internet) geht auf gut fünfeinhalb tausend Jahre alte Inskriptionen zurück, deren Semasiographie noch heute weitgehend gut verständlich ist. Zwischen dem 12ten und 8ten vorchristlichen Jahrhundert entwickelte sich darüber hinaus das zu seiner Zeit konkurrenzlose lexigrafische Medium des griechischen Vokalalphabets, das – aus welchen Gründen auch immer – „von Anfang an zur Niederschrift von mündlicher Dichtung diente“ (Powell 2006, 29). Die unter dieser Perspektive wichtigsten abendländischen Gründungstexte sind die homerischen Epen, auf deren Schrift-System, von den 'Vorsokratikern' an, alle ‚westliche’ Wissenschaft beruht. Nicht nur sind Ilias und Odyssee ihrerseits Gesänge, die auch jenseits ihrer Aufschreibung deutlich machen, dass Erinnerung und nicht Vergessen die „Anfänge“ markieren. Ihre Fixierung in sprachaufzeichnenden Buchstaben repräsentiert darüber hinaus die erste große zusammenhängende Anwendung eines phonetischen Schriftsystems überhaupt (Powell 2003). In der Kulturwissenschaft gelten sie weitgehend unwidersprochen als ein erster „vollständiger, unverkürzter Bericht einer undokumentierten Kultur" (Havelock 1978, 8). Nur das griechische Schriftsystem war in der Lage, den erzähltechnischen Erinnerungsformaten der oralen Poetiken gerecht zu werden, indem es sie zugleich befestigte. „Die Notwendigkeit, den ausgeprägten Rhythmus zu bewahren, hat den Erfinder offenbar dazu inspiriert, Zeichen für Vokale vorzusehen und die revolutionäre Regel zu formulieren, dass die eine Gruppe der Zeichen, die wir heute Konsonanten nennen, jeweils von Vertretern der anderen Gruppe, der Vokale, begleitet sein muss. Diese einfache Regel zog die Grenze zwischen Ost und West, mit der wir noch heute leben, und hat im gleichen Zug den Irrglauben begründet, dem die Bewohner des Westens verfielen, dass gesprochene Sprache aus Phonemen bestehe und dass der Zweck einer Schrift die Aufzeichnung der gesprochenen Sprache sei“ (Powell 2006, 29). Vergessen 6 und Erinnerung erhalten durch dieses (und damit auch in diesem) Medium eine neue Dimension und differentielle Erweiterung. Ob Irrglauben oder Kontingenz: Mit der Verbreitung der alphabetischen Schrift kommt außerhalb des Gehirns oder des Zwerchfells („Phrene“), wo Homer den Sitz des Gedächtnisses und des Bewusstseins angesiedelt hatte, ein weiterer Ort des Gedächtnisses ins Spiel, nämlich im Geschriebenen, in welchem sich Sprache auf eine besondere Weise aufbewahren lässt. Es hat keinerlei Bezug zur Anwesenheit eines Sprechenden mehr, löst ihren Zeitbezug auf und richtet sich an Niemanden. Paradoxerweise entsteht zeitgleich mit der vokalalphabetischen Schrift (und im Widerstreit mit ihr) das System der Rhetorik, als ein ortsungebundenes Ordnungssystem oraler Weltdarstellungen, das mit seinen Regeln der Trennung von Sein und Schein, fiktionalen und realen Dingen sowie den kategorialen Strategien der Simulation und Überredung mit Recht ein soziales Gedächtnissystem genannt werden kann (Esposito 2005). Für die kommenden fast zweieinhalb Jahrtausende wird es die Rhetorik sein, die die Schriftsysteme der Buchkultur für sekundär erklärt (obwohl sie von ihnen abhängt) und den Kodexformaten, Bibliotheken und Katalogen ihre kategorialen Schemata aufprägt. Aber Sokrates schreibt nicht. Für ihm sind Inhalt, Gedanken und Haltung des Philosophierenden stets an einen gegebenen Ort gebunden und müssen mit in einem „Kairos“, dem ‚richtigen’ Augenblick, übereinstimmen. Dagegen erklärt er die Schrift, die Sprache von Anwesenheit und Zeit abtrennt, für ein Skandalon. Indirekt erfahren wir so, dass es unter den Rhetorikern seiner Zeit offenbar schon üblich war, Reden vorab aufzuschreiben, um sie dann auswendig zu lernen. „Ist sie aber einmal geschrieben, so schweift auch überall jede Rede gleichermaßen unter denen umher, die sie verstehen, und unter denen, für die sie sich nicht gehört, und versteht nicht, zu wem sie reden soll und zu wem nicht“ (Plato 1990, 181). Es kommt zu der weiteren Paradoxie, dass die Platonische Verschriftung der Sokratischen Lehre die erste Fundamentalkritik an der Schrift artikuliert, welche ihrerseits als Platonische Philosophie allein in Schriftform existiert. Mit ihr wird somit ein sehr spezielles kulturelles Gedächtnis etabliert, das fortan in der Differenz von Gedächtnis und Erinnerung oszillieren wird. Es ist eine Philosophie, die nicht zugleich daran erinnern kann, dass sie von den Orten und des Zeiten des Denkens spricht und doch nur in der Unzeitlichkeit der Schrift sich artikuliert. Diese Oszillation findet sich wieder in Platos eigener Version von der Entstehung der Schrift. Um zu erklären, woher die Schrift stammt, erfindet er einen nicht existenten ägyptischen Gott „Theuth“, der die Schrift erfunden haben soll, um das Vergessen zu befördern. „Diese Erfindung wird der Seele der Lernenden vor allem Vergessenheit (Lethe) einflößen, weil sie ihr Gedächtnis (Mneme) vernachlässigen. Denn sie werden sie im Vertrauen auf die Schrift sich nur von außen 7 vermittels fremder Zeichen erinnern, nicht aber innerlich durch sich selbst und unmittelbar. Nicht also für das Gedächtnis (Mneme), sondern nur für die Erinnerung (Hypomnesis) hast du ein Mittel erfunden“ (180). Die vorsokratische Antike ging davon aus, dass das Gedächtnis im Bauch, unterhalb des Brustkorbs angesiedelt ist. So kann man verstehen, wozu ein lautes Aufsagen von Homer-Versen gut ist, mit dem die Pythagoreer allabendlich ihr Zwerchfell trainierten (Marciano 2007a, 135). Diogenes erläutert, dass deshalb auch, bevor man etwas erinnere, ein leichter Druck im Brustkorb entstehe (Marciano 2007b, 281). Wie soll ein Schriftsystem eine solche Organfunktion stützen, wenn nicht über den Umweg der Rhetorik? So ergibt sich aus Platons Bemerkungen zur Schrift ein weiterer lehrreicher Fall für die Mediengeschichte. Medien, wie am Beispiel der Schrift in Griechenland zu sehen, werden nicht „erfunden“, außer von erfundenen Göttern. Sie werden nicht konstruiert oder gebaut wie Brücken oder Tempel. Powell weist darauf hin, dass sich die Experimente zur skripturalen Repräsentation von vokaler Sprache über 700 Jahre hingezogen haben müssen (Powell 2003, 106ff). Als Plato seinen Phaidros schrieb (um 380 v.C.), war das vokalalphabetische Schriftsystem erst einige hundert Jahre in Verbreitung. Es sollte aber, wie wir heute wissen, mehr als zwei Jahrtausende – und das Hinzutreten einiger weiterer Übertragungsmedien (Buchdruck, Computer) – dauern, bis die Rolle und Funktion der Schrift für das Verständnis von Sprache und Wissenschaft besser verstanden werden konnte. Korreliert man die Medienevolution mit Bevölkerungswachstum, -zahl und –dichte (die Medienevolution korreliert mit dem Gradienten des Weltbevölkerungs-Wachstums sehr gut), dann befand sich, angesichts der dünnen Besiedelung Griechenlands, auch nach vier Jahrhunderten das Schriftsystem immer noch in den Anfängen. In dieser Frühphase entsteht zugleich die „Redekunst“ – also eine durch die vokalalphabetische Schrift gleichermaßen unterstützte wie bedrohte Disziplin. Alle Neuen Medien, solange sie noch nicht als „natürlich“ etabliert und ihre Konzepte noch im Fluss sind, „stellen den mythischen Charakter und die ritualisierten Konventionen existierender Medien in Frage und definieren ihren eigenen Ort innerhalb einer neuen perzeptiven und semiotischen Ökonomie, die sie transformieren helfen“ (*Gitelman 2003, XII). Das gilt, wie Lisa Gitelmann betont, nicht nur für das Internet, sondern ebenso für andere Medien-Innovationen zuvor. Bei dem Entstehen neuer Medien werden also beide Seiten, das Neue wie das Alte, einer Redefinition unterzogen. Schon wenige hundert Jahre nach der Verbreitung der Schrift, kann Plato festhalten: Mit dem phonetischen Schriftsystem entsteht eine Art von „Hypo-Mneme“, ein Hyper-Gedächtnis, das ebenso viel zum Vergessen beitragen wird (zum Beispiel der Redefähigkeit aus dem „Bauch“ heraus), wie zur Verwissenschaftlichung der Welterkenntnis. Letz8 tere wird von Platon erstmals kanonisiert in Form der Gründung einer „Akademie“ (387 v. Chr. kauft Plato den Oliven-Hain des „Akademos“ im Nordwesten Athens) als deren Lehrgrundlage Platon Dialoge schreibt. Seine sorgfältig in Schrift gesetzte Kritik an der Schrift mag als ein erstes Beispiel der paradoxalen Schriftvergessenheit der mit Plato begründeten abendländischen Philosophie gelten. Das phonetische Schriftsystem ist zwar die Voraussetzung der abendländischen Wissenschaft und Literatur, aber seine Wirkung auf ihre Formationen blieb über fast zwei Jahrtausende implizit und unausgemacht. Erst in der zweiten Hälfte des 20ten Jahrhunderts hat beispielsweise Jacques Derrida in der Philosophiegeschichte von Platon bis Heidegger explizit die logozentristische Verkennung der Schriftlichkeit markiert und damit zugleich die Schrift- und die Stimmvergessenheit des abendländischen Denkens angemahnt (Derrida 1974). Wenn nämlich Medien einmal in die semiotische Ökonomie sozialer Kommunikationen und Transaktionen störungsfrei eingebaut sind, geht ihre historische Ambivalenz verloren und sie selbst werden zu einer unmittelbaren und unteilbaren Gegenwartsfunktion der Welt, die sich durch sie mitteilen lässt. Am Beispiel des Gutenbergschen Buchdrucks hat Michael Giesecke deutlich beschrieben, dass im Sinne einer Ursachenlogik der Buchdruck für die Bildung der Nationalstaaten Europas nicht verantwortlich ist. Gleichwohl aber wäre ohne die Standardisierungskraft und Zirkulationsmächtigkeit dieses neuen Mediums (also seine Gegenwartsfunktionen) der „rasche Aufstieg des Nationalbewusstseins“ in Europa nicht zu erklären (Giesecke 1991, 388). Die „Utopie des deutschen Vaterlandes“ ist schon deswegen von der medialen Gegenwartsfunktion des Buchdrucks geleitet, weil eben diese Utopie „gerade für die Autoren und Drucker handlungsleitend und orientierungsrelevant gewesen ist“ (389). Dass sich im Mediengebrauch implizit Motive geltend machen, die sich selbstreferentiell auf das Medium beziehen und es damit invisibilisieren (wer will schon zugeben, dass er nur des Bücherschreibens wegen Bücher schreibt), geht in der Gegenwartsfunktion des Mediums unter. Übrig bleibt die Verbreitung einer (qua Buchdruck neu standardisierten Hoch-) Sprache, hinter der sich eine Nation versammelt. „Media (so often referred to portentously as the media) tend to erase their own historical contexts” (Gitelman, 2003, XIV). Sind sie im umfassenden sozialen Gebrauch, treten Medien in den Zustand ihrer eigenen Vergessenheit. Ihr Status wandelt sich von der Option einer Anwendung (man könnte Bücher schreiben, es aber auch lassen) in ein Gegenwartsapriori (nur wer Bücher schreibt, nimmt am Leben der Nation, Wissenschaft, Literatur, Politik, Elite etc. teil). Die Funktion des Mediums Buchdruck als Wandlungs-, Aufzeichnungs- oder Übertragungssystem wird zugunsten einer durch sie vermittelten Gegenwart ausgeblendet. 9 Elena Esposito hat jüngst in einem systemtheoretischen Entwurf eine historische orientierte Evolution der Strukturen sozialer Gedächtnisse vorgelegt (2005). Dabei ordnet sie der voralphabetischen Schrift ein "divinatorisches" Gedächtnis zu, der alphabetischen Schrift ein "rhetorisches", dem Buchdruck und den elektronischen Medien ein "kulturelles" und schließlich den InternetMedien ein "prozedurales" Gedächtnis (42ff). Ohne dass ich hier auf die komplexen Argumentationen Espositos näher eingehen kann, sei angemerkt, dass Jan Assmann wohl zu Recht auf die "Einlinigkeit" einer systemisch evolutionären Gedächtnistheorie hinweist, die die "Anachronismen", die "Ungleichzeitigkeit des Gleichzeitigen, das Gestern im Heute" und damit "die vielschichtige Komplexität" (Assmann 2005a, 414) kultureller Gedächtsnisformationen zu sehr glattbügelt und verwischt. Doch auch wenn Esposito nicht immer mit letzter begrifflicher Präzision operiert, ihrer Koppelung von Medien und sozialen Gedächtnisstrukturen stimme ich zu. Auch die von ihr gefundenen Verbindungslinien zwischen Vokalalphabet und Rhetorik sowie zwischen Computernetzen und Prozeduralität der modernen Gedächtnisformationen fördern wichtige Einsichten zu Tage, an die meine Überlegungen Anschluss nehmen. Allerdings bleibt der Begriff der Kultur zu eng gefasst, dessen selbstreflexive Seite in der Avantgarde der Moderne Esposito völlig übersieht (Esposito 2005, 304; vg. Hagen 2010). Auch Espositos Begriff der Massenmedien bleibt zu unbestimmt, weil sie hier die evolutionistisch verkürzte Variante ihres Lehrers Niklas Luhmann allzu eklektisch übernimmt. III. Gegenwartsvergessenheit Ihre Geschichte zeigt: Medien haben die Eigenschaft, in ihrer Entstehungsphase Auffälligkeiten und 'Unruhe' zu erzeugen, in ihrem Regelbetrieb aber völlig unauffällig und nahezu unsichtbar zu werden. Letzteres nenne ich vereinfacht ihre Gegenwartsfunktion. Noch deutlicher als beim Buchdruck tritt sie bei den „Massenmedien“ der Neuzeit und Moderne zutage. Was allerdings unter den Begriff „Massenmedium“ fällt, ist gerade in Zeiten des Internet klärungsbedürftig. Schon am Ende der letzten, Vor-Internet-Epoche, zu Anfang der 1990er Jahre, hatte Klaus Merten auf die Unsicherheit verwiesen, die im Begriff des Massenmediums liegt, insofern in Sonderheit „das Buch bis heute nicht als eigentliches Massenmedium gilt“ (Merten 1994, 151). Allerdings, von seiner Kommunikationsstruktur her besehen, also "eigentlich", gehört es das gedruckte Buch sehr wohl dazu. Woher also die Einschränkung? Zur Erinnerung: Niklas Luhmanns Definition der Massenmedien lautet, dass „Interaktion (…) durch Zwischenschaltung von Technik ausgeschlossen“ ist und in ihnen „keine Interaktion unter Anwesenden zwi10 schen Sender und Empfängern stattfinden kann“ (1996, 11). Massenmedial sind also keine Theatervorführungen, Volksreden oder Telefonate. In den letztgenannten Formaten ist nämlich die so genannte „doppelte Kontingenz“ der Kommunikation ungestört wirksam, die die gegenseitige Erwartung der Beteiligten beschreibt (jeder hat eine Erwartung, was der andere wohl sagen wird, und weiss, dass auch der andere die gleiche hat, sozusagen eine erwartende „Erwartungserwartung“ (Baecker 2005, 85ff)). Massenmedien unterliegen definitionsgemäss nicht der doppelten Kontingenz einer Kommunikation unter Anwesenden, was auch für Bücher und ihre AutorInnen gilt, die beim Schreiben die Erwartungen ihrer späteren Leser nicht korrigieren können. Bücher haben deshalb auch nicht eo ipso eine 'eingebaute' Gedächtnisstruktur. Verschwinden sie beispielsweise von dem Ort, an dem ein Katalog sie lokalisiert (oder weiss niemand mehr die rhetorische Regel, diesen Katalog zu 'lesen'), sind sie verloren. Gleichwohl ist der Begriff des Massenmedien, wie Luhmann ihn fasst, zu eng definiert. Das luhmannsche Kriterium der unverbundenen Abwesenheit der Kommunikanden ist ein notwendiges, aber nicht hinreichendes Kriterium für Massenmedien. Es bedarf der Erweiterung um eine Art 'Zugriffsordnung', so wie sie beispielsweise von Rudolf Stoeber als definiens der Tageszeitung beschreibt: „Aktualität, Periodizität, Publizität und Universalität“ (Stoeber 2005, 61). So präzisiert beginnt die Ära der Massenmedien nicht mit der GutenbergBibel von 1454, sondern etwa Anfang des 17ten Jahrhunderts mit den „Avisen“, „Relationen“ („Relation aller Fürnemmen und gedenckwürdigen Historien“, 1604) oder eben „Zeitungen“, von denen die ersten nach Ende des Dreißigjähriges Krieges auf tägliches Erscheinen umstellen (Leipziger „Einkommende Zeitungen“, 1660) (73). In den vier Jahrhunderten seither ist das Gedächtnis für das verblasst, was 'Zeitung' einmal hieß. Johann Christoph Adelungs „Grammatisch-kritischem Wörterbuch der Hochdeutschen Mundart“ – 1793 – kann noch daran erinnern: „1. Die Witterung; eine längst veraltete Bedeutung, in welcher das Wort noch Apost. 14, 17. in einigen Ausgaben der Deutschen Bibel vorkommt. 2. Eine Nachricht von einer geschehenen Begebenheit; (…) 'Bald ich viel neuer Zeitung erfar', Hans Sachs. 'Eine gute Zeitung bekommen', besser, Nachricht. 3. Eine periodische, gedruckte oder geschriebene Nachricht von den von Zeit zu Zeit vorgefallenen Begebenheiten“ (Adelung 1801, 1680). Die periodische oder serielle Gegenwartsfunktion der Zeitung ist von Beginn an Programm. Bei Kasper Stieler heisst es schon 1695: „Das Wort: Zeitungen: kommet von der Zeit / darinnen man lebet / her / und kan beschrieben werden / daß sie Benachrichtigungen seyn / von den Händeln / welche zu unserer gegenwärtigen Zeit in der Welt vorgehen / dahero sie auch Avisen / als gleichsam Anweisungen genennet werden“ (Stieler 1695, 25). 11 So 'alt' wie es scheint sind diese Zeilen nicht. ChefredakteurInnen heutiger Massenmedien, ob Fernsehen, Hörfunk oder Print, führen sie nur zu gern im Munde: „Zu förderst muß dasjenige / was in die Zeitungen kommt / Neue seyn“ (29). Seit der Renaissance, in Sonderheit nach dem Dreißigjährigen Krieg, stellen die Handelsleute in den Städten, die Kaufleute und unternehmerischen „Gentlemen“ immer mehr fest, „dass die traditionelle Abwertung von Neuheit als Störfaktor und Ausnahme keine Gültigkeit mehr hat und tendier[en] dazu, das Neue gegenüber dem Alten vorzuziehen. Diese Haltung kann als Reaktion auf die Feststellung der wachsenden Schwierigkeit gewertet werden, das Neue, das auf unkontrollierbare Weise in allen Bereichen diffundiert, im Rahmen der verfügbaren Bezüge (…) einzuordnen“ (Esposito 2004, 97). Zweieinhalb Jahrhunderte später, als allein in Deutschland fast 4000 Tageszeitungen erscheinen (Stoeber 2005, 160), viele davon mit mehrfachen Ausgaben am Tag, also in der absoluten Hochphase der gedruckten Massenmedien, bekommt diese Neuigkeitssucht des Zeitungswesens philosophische Dignität und ihren Namen. Ende des 19ten Jahrhunderts führt Wilhelm Wundt den Begriff der Aktualität in die Philosophie ein und bringt ihn auf die Formel: „So viel Aktualität, so viel Realität“ (Wundt 1886, 395). Ähnlich wie Ferdinand Tönnies ist auch Wundt im zeitgenössischen Kontext der Willensbegriffe Schopenhauers so tief gefangen, dass uns viele seiner Termini heute fremd erscheinen. Sein Aktualitätsbegriff bildet die Voraussetzung für den strikt empirischen Ansatz von Wundts psychologischer Grundannahme, „daß Psychisches nur aus Psychischem wahrhaft begriffen werden kann“ (Wundt 1906, 523). Psychologie im Sinne Wundts kann nur autopoietisch, d.h. also durch sich selbst begründet werden, wenn z. B. empirische Messungen hypothetischer Annahmen unter Laborbedingungen stabile Ergebnisse erbringen. Man könnte ergänzen: Und so kann auch Publizistisches nur autopoietisch aus Publizistischem begriffen werden; Journalisten schreiben eben wie Journalisten schreiben (Weber 2000). Weniger als Philosoph denn mehr als einer der Begründer der experimentellen Psychologie ist Wilhelm Wundt heute noch in Erinnerung, beispielsweise als Lehrer Ferdinand Saussures oder Hugo Münsterbergs. Weniger geläufig ist seine große zeitgenössische Autorität als einer der letzten großen Systemphilosophen des 19ten Jahrhunderts (ein meist ungenannt bleibender Antipode Husserls und des frühen Heidegger). Man erkennt schnell, Wundts „Aktualitätslehre“ hatte vor allem das Ziel, alle ontologischen Annahmen über das Psychische oder die Seele überflüssig zu machen. Vergleichbar der heutigen Systemtheorie gilt auch für Wundt, dass von den 'inneren' Mechanismen des Bewusstseins oder der 'Seele' nichts gewusst werden kann und nichts gewusst werden muss. Wundts Psychologie hält sich, um es mit Luhmanns Worten zu sagen, strikt „an die Ebene der faktisch aktu12 alisierten Operationen“ (Luhmann 1988, 885). Wundt erläutert das mit folgenden Worten: Der Satz - „so viel Aktualität, so viel Realität“ - „schließt zugleich die Forderung in sich, (…) das wirkliche Geschehen nach allen ihm selbst immanenten Kräften abzuschätzen. Diese immanenten Kräfte der Geschichte sind aber die seelischen Motive, die in den Gemeinschaften wie in den Einzelnen lebendig sind, und die sich stetig und in fortwährender Wechselwirkung mit den äußeren Lebensbedingungen verändern" (Wundt 1907, 221). Mit dieser fundamentalen wundtschen Abwehr aller Geschichtsontologie sind wir bei einer neuen Disziplin namens "Zeitungswissenschaft" angekommen, die wohl nicht zufällig ebenfalls in Leipzig begründet wird. Dort eröffnet Karl Bücher 1916 das erste gleichnamige deutsche Institut, die Geburtsstätte der deutschen Publizistik. Neben der Ausdifferenzierung der klassischen Rechts-, Wirtschafts- und Politiksysteme werden nun auch die Massenmedien in der Ausbildung einer eigenen Fachrichtung gewissermaßen ‚selbstbewusst’ und entwickeln sich ab Ende des 19ten Jahrhunderts zu einer hoch ausdifferenzierten Beobachtungs- und Gedächtnis-Instanz der Gesellschaft. Massenmedien sind das einzige Funktionssystem, das die Gesellschaft – teils im Namen einer unterstellten „öffentlichen Meinung“, teils auf eigene Rechnung – als Ganze zu beobachten beansprucht. Andere Möglichkeiten ihrer Gesamt-Beschreibung haben moderne Gesellschaften nicht. Natürlich versuchen die Massenmedien damit auch, sich das Kulturelle Gedächtnis einzuverleiben. Denn das, was jetzt „Gesellschaft“ heißt, die Semantik ihrer Selbstbezüge, kann nicht mehr als Platonische Weisheitslehre rhetorisch tradiert werden, als Bildungsroman beschrieben oder als transzendentale Übereinstimmung in gemeinsamen Lebenswelten Verabredung finden. Es artikuliert sich nur noch in den Formaten der Massenmedien. „Jeden Morgen und jeden Abend senkt sich unausweichlich das Netz der Nachrichten auf die Erde nieder und legt fest, was gewesen ist und was man zu gewärtigen hat. Einige Ereignisse ereignen sich von selbst, und die Gesellschaft ist turbulent genug, dass immer etwas geschieht. Andere werden für die Massenmedien produziert. Dabei kann vor allem die Äußerung einer Meinung als ein Ereignis behandelt werden, so dass die Medien ihr Material reflexiv in sich selbst eintreten lassen können“ (Luhmann 1997, 1097). Schon in der Hochphase der Printmedien, mehr als noch, seit 1920 der Hörfunk, um 1930 die Kino-Wochenschauen und um 1950 das Fernsehen hinzutreten, gilt: Alles, was beschrieben, berichtet, gezeigt oder bebildert wird, schnurrt vor dem Horizont einer behaupteten Aktualität auf eine Gegenwart zusammen, die ein tendenziell immer dichteres, selbstähnliches Muster zeigt. Die massenmedial erzeugte Gegenwart war gestern eine andere als heute und wird morgen wieder eine andere sein, und zwar ganz genau – 13 dieselbe. Aktualität zieht Vergangenheit, Gegenwart und Zukunft in eine neue, aktuale Dimension zusammen. Im Lichte der gegenwärtigen Aktualität erscheint jede vergangene inaktuell. Darin liegt, zweifellos, ein spezifisches Moment von Freiheit, wie Henri Bergson und vor allem Gilles Deleuze es für ihren Begriff der „lebendigen Gegenwart“ (Deleuze 1992, 100) zu Recht reklamieren. Das gilt, so gesehen, auch für die Gegenwart der Massenmedien. Das Freiheitsmoment ihrer selbst erzeugten Gegenwart liegt darin, dass sie alles Vergangene zur Gegenwart kontrahiert, und damit allein schon vom Druck falscher Traditionsbehauptungen befreit. Entfaltete massenmediale Systeme pflegen keine Tradition, nicht einmal die ihrer selbst (was wäre denn auch an "50 Jahre Bild" die Neuigkeit?). Die massenmediale Gegenwartskonstitution amnestiert von allen Zwängen der Vergangenheit oder bindenden Erwartungen an die Zukunft. Die selbst erzeugte Gegenwart der Massenmedien schließt eines aus, nämlich den Bezug und die Reflexion auf ihre eigene Gegenwart. Das ist ihr Paradox. „Die einzige Möglichkeit, den laufenden Augenblick (der nicht Gegenstand der Reflexion sein kann) zu berücksichtigen, ist, die Beschreibung ständig zu verändern. Die Verbindlichkeit der Beschreibungen beruht auf ihrer Instabilität, in der sozialen wie in der zeitlichen Dimension. Aber gerade deshalb sind sie ausreichend flexibel und mehrdeutig für die Bedürfnisse einer komplexen Gesellschaft wie die funktional differenzierte Gesellschaft“ (Esposito 1999, 56). Massenmedien können durch die permanente Reaktualisierung von Aktualität gleichermaßen Komplexität erhöhen als auch reduzieren; dabei erzeugen sie eine Gegenwart, in der sie vergessen machen, dass sie allein durch sie selbst erzeugt ist. Solange sich die Menschheit so dramatisch vermehrt und mit der „auf dem Erdball zu findenden Biomasse“ auch die „die Menge der kommunikativen Ereignisse zugenommen hat“, bleibt empirisch evident, dass solche „Mengensteigerungen dieser Art nur durch Differenzierungen möglich sind“ (Luhmann 1997, 416) und deshalb der Bedarf an Nachrichten über das stets „Neueste“ nicht versiegt. Die Vermehrung der Menschheit (1830 1 Milliarde; 2000 6 Milliarden) ist der empirische Treiber des ungeheuer dynamischen und bislang unaufhaltsamen Zugs, der in der Gegenwartsvergessenheit der Massenmedien steckt; der alle Iterationen und Kontraktionen, alle Transaktionen und Rotationen ihrer Gegenwartserzeugungen immer wieder in die monomanische Singularität ihrer selbst hineintreibt und versinken lässt. Hinzu kommt, dass dieser massenmediale Zug zur Amnestie der Gegenwart in sich selbst "allotechnische Süchte" (Ronell 1994, 45) zu induzieren in der Lage ist und, sozusagen im Rückspiegel der Biomassenexpansion eine „Pleonexie“ (Bolz 2002, 138), eine unstillbar gangsterhafter Gier nach 'mehr' erzeugt. Das ist ihr zweites, sozusagen performatives Paradox. Statt sich nämlich, wie es mit logischen Paradoxien 14 möglich wäre, im Vollzug aufzulösen, zieht das ‚Begehren nach mehr’ und die Süchte nach dem ‚Anderen’ in der Technik den Schirm des Vergessens vor der Gegenwart ihrer Unerfüllbarkeit nur noch fester zu. Die Vergessenheit der Gegenwart jedoch, die die Massenmedien konstituieren, tut gleich doppelt das, was Vergessenheit im Wortsinne meint. Durch die Iteration permanenter Aktualität bringt sie das je durch Aktualität Überschriebene in Vergessenheit, das seinerseits bereits Vergessenes überschrieben hatte. So vollziehen sie also eine „oblivio“ und eine „amnestia“ zugleich. Allerdings kann man eine Amnestie nicht noch einmal amnestieren. Schon die Amnestie selbst deckt nichts auf, sondern entlässt nur ins Vergessen. Sie befreit nicht von Schuld, mit der sie den Schuldigen ja gerade laufen lässt. Mit Vergebung hat sie nichts zu tun, sondern nur mit dem Teil der Vergebung, der ‚Tilgung’ heißt. Alles andere bleibt, wie es ist. Nichts liegt also der massenmedialen Gegenwartsvergessenheit näher, als eine längst vergangene Schuld zu aktualisieren, also eine Schuld, die heute aktuell nicht mehr sühnbar, weil längst verjährt ist oder weil deren Akteure in der Mehrzahl nicht mehr leben. Eine längst vergangenen Schuld aber zu aktualisieren und sie ins diffuse Nichts der Folgenlosigkeit zu entlassen, passt in die Struktur der impliziten Gegenwartsamnestierung der Massenmedien am besten, die vor allem die Gegenwart, das Jetzt und hier, Akteure wie ihre ZuschauerInnen, von Schuld freisprechen wollen. In diesem Trend wird ein schon benanntes Symptom noch einmal deutlich, nämlich das Symptom der Unfähigkeit der Massenmedien, über sich selbst zu reflektieren und ihren Ort innerhalb der Gesellschaft in Bezug auf das, was sie berichten, zu markieren. „Die Massenmedien sind in diesem Sinne das Gedächtnis der modernen Gesellschaft, ein auf Verbindungen eher als auf Inhalte, auf Variabilität eher als auf Stabilität begründetes Gedächtnis. In diesem Fall ist es mehr als in jedem anderen deutlich, dass die Funktion des Gedächtnisses (die Massenmedien mit ihrer Obsession für Neuigkeiten) mehr das Vergessen als das Erinnern ist. Die Massenmedien sind ein riesiger und enorm wirksamer Apparat des Vergessens, und sie können sich nicht daran erinnern“ (Esposito 1999, 56f). IV. Erinnerung und Vergessen im Internet In den letzten beiden Jahrhunderten haben sich die Massenmedien etabliert als auf Aktualität bezogene Systeme der Zeitungen und der elektromagnetischen Rundfunktechnik. Sie bilden ein durch rekursive Aktualisierung strukturiertes Gedächtnis einer auf Funktionalisierung umgestellten modernen Gesellschaft. Das Gedächtnis der Massenmedien produziert, wie gesagt, Erinnerung und Vergessen in einem höchst instabilen Gleichgewicht. Weil 15 ihre Institutionen das aber unsichtbar machen, und alles Neue je für neu erklären, greifen ihre Archivare immer wieder ins Leere. Ein massenmediales Programm kann man nicht archivieren so wie es ist. Außer, man würde den kompletten Prozess der Sendung selbst, Minute für Minute, so wie sie gelaufen ist, in einen Datenspeicher ablegen. Pures Abspeichern von Sendeprozessen aber wäre wiederum keine Archivierung, weil der Kontext fehlt, aus dem heraus ein Sendeprozess einmal verständlich war. Aber, ganz im Sinne Gordon Bells gefragt: Könnte man den Kontext einer Sendung, noch besser den einen ganzen Lebens, und dessen Kontext noch einmal, nicht doch abspeichern, in den unbegrenzten Datenspeicher-Wolken des Internet? Welche Kapazitäten hat das Gedächtnis des Internet? Sein Status als Massenmedium ist fraglich. Für das Buch trifft nicht zu, dass es „Aktualität, Periodizität, Publizität und Universalität“ besitzt. Für das Internet aber gilt nicht einmal, dass bei seinen Transaktionen zwischen Sender und Empfänger „keine Interaktion unter Anwesenden“ stattfindet. Positiv gesagt, jede Internet-Verbindung, was immer sie auch beinhalten mag (Email, WWW, File-Transfer, etc), besteht in einer Punkt-zu-Punkt-Verbindung zwischen einem ‚Sender’ und einem ‚Empfänger’, wie beim Telefonat oder Fax. Allerdings sind an beiden Enden nunmehr keine „trivialen Maschinen“ (Foerster 2004, 56) mehr im Einsatz (wie ein Telefonhörer z.B., den ein Mensch abhebt), sondern Rechnerprogramme. In jeder Internetverbindung kommunizieren Computer – mit oder ohne menschliche Bedienung – über komplexe Protokolle miteinander. Ob man in einem soziologisch strengen Sinn hier überhaupt von „Kommunikation“ sprechen kann, ist fraglich. Von doppelter Kontingenz oder einer „Erwartungserwartung“ kann jedenfalls keine Rede sein. Ein Computer, der einem Menschen antwortet, erwartet nichts von ihm. Dennoch haben wir den Eindruck, dass auf der anderen Seite eine Intelligenz agiert, die unsere Erwartungen zu kennen scheint. „Obwohl produzierte und programmierte Maschinen, arbeiten solche Computer in einer Weise, die für Bewusstsein und für Kommunikation intransparent bleibt - und trotzdem über strukturelle Kopplungen auf Bewusstsein und Kommunikation einwirkt. Sie sind streng genommen unsichtbare Maschinen“ (Luhmann 1997, 152). Wenn eine Internet-Verbindung existiert, „kommunizieren“ unsichtbare Maschinen (z.B. über die sieben vereinbarten ProtokollSchichten des 'Open Systems Interconnection Reference Model'(OSI)) und automatisierte Agenten miteinander. Der 'User' selbst ist kein Agent, sondern modifiziert (wenn er kein Programmierer ist und Agenten programmiert) lediglich die 'Interfaces' seiner Anfragen und Beobachtungen. Tritt ein Fehler auf, so muss der „nicht funktionierende Computer (…) nicht verstanden, sondern repariert werden“ (Esposito 1999, 58). 16 Was allerdings weiterhin zu verstehen bliebe, wäre, dass, so lange der Computer läuft und zu keinem erfolgreichen Halt gekommen ist, niemand beweisen kann, dass ein Computer fehlerfrei arbeitet. Als der Mathematiker Alan Turing diesen berühmten Beweis erbrachte, gab es noch keine Computer. Turing entwickelte ihren logischen Aufbau mittels Papier, Bleistift und Radiergummi (1937). Seit aber solche 'Turing-Maschinen', assembliert aus Myriaden von Integrierten Schaltung im Nanometer-Format, realiter existieren, die jeden berechenbaren Algorithmus gigahertzschnell erledigen, sind wir von einer hyperkomplexen Welt darstellender (weil problemlösender) und zugleich unsichtbarer Maschinen umgeben. Für sie aber gilt ebenfalls der Turing-Beweis. Alles ist ‚richtig’ nur so lange es läuft; denn es gibt keine Maschine, die beweisen könnte, ‚dass’ es richtig läuft. Nie auszuschließen sind deshalb algorithmische Fehler, die beinhalten, dass Computer zwar laufen, aber anders als gedacht („Pentium Bug“, 1994 (Pratt 1995)). Das Internet ist eine Ansammlung von Milliarden verkoppelter Computerrechner, von deren Funktionsweise (und Fehlerfreiheit) ein normaler „User“ nichts weiß. Wer einen Internet-PC bedient, kann und muss nicht wissen, was auf der anderen Seite passiert. Was wahrgenommen wird, ist nicht Gegenwart für jeden, sondern lediglich eine Präsenz für den einzelnen 'User'. Anders als bei den Massenmedien ist, was die Generierung von Inhalten betrifft, im Internet - abgesehen von speziellen „Streaming“-Formaten - nichts 'für alle'. In der Regel gilt: Niemand anderes wird sehen, was ich derzeit in meinem Browser sehe. Internet-Nutzung, ob mobil oder stationär, ist informelle Kommunikation. Dennoch erwarten wir, dass, anders bei den Erwartungserwartungen informeller Kommunikation, andere User gleichermaßen sehen könnten, was wir sehen. Im Transaktionsakt der Nutzung ist aber tatsächlich nur ein kontingenter Netzinhalt präsent, nicht jedoch seine Gegenwart. Die paradoxe Gegenwartsauflösung der Massenmedien setzt sich hier in neuen Formen fort. Während bei den elektronischen Massenmedien Radio und Fernsehen in den Anfangsjahren jede Programm-Präsentation für alle, auch für die Produzenten selbst, Gegenwart - heute sagen wir: "live" - war (das Radio nimmt eigene Sendung partiell erst ab den 1930er, das Fernsehen erst seit den späten 1950er Jahren auf), muss im Internet alles (vereinfacht gesagt) gespeichert sein. Abgesehen von der Telefonie via IP, den Streams und „Internet Relay Chats“ gibt in der Internet-Nutzung kein "live" und kein „Jetzt“, das im Sinne Wilhelm Wundts „soviel Aktualität wie Realität“ hätte. Internetnutzung addiert sich zwar aus Transaktionen informeller Kommunikation, die aber keineswegs implizit auch so verstanden werden. Alles ist ja irgendwie öffentlich und auch privat zugleich. Unformalisierte und unformatierte Öffentlichkeiten, die nur privat und informell genutzt werden können, 17 sind das eigentlich Neue am Internet. Öffentliche Nutzung oder 'public viewing' kennt das Internet nicht; vielleicht sind gerade deshalb diese öffentlichen Zurschaustellungen erst seit mit Internet (wieder) in Mode gekommen (Gemeinsames Radiohören/Fernsehen gab es jeweils in den Anfangsjahren). Was nun die informell besuchten Webseiten betrifft, so sind sie ja unmittelbar danach nicht gleich schon wieder verschwunden. Andere Nutzer können sie gleichermaßen finden. Aufgrund dieser Erwartung ist es sinnvoll, dem Internet, seinen Funktionen und seinen Inhalten eine massenmediale Orientierung zuzuschreiben. Mehr aber nicht. Denn weder die Gegenwart eines „Live“ noch die „Masse“ des Angebots oder ihrer Nutzung stellen strukturbildende Momente des Mediums dar. Internet-Computer, so viele es auch sein mögen, bilden keine Masse, sondern ein Netzwerk. Sie bilden kein Massen-, sondern ein Netzwerkmedium. Genauer ein Netzwerk aus Netzwerken, daher der Name. Vom Verständnis seiner Struktur hängt wesentlich ab, wie die Chancen für die Erreichbarkeit seiner Inhalte einzuschätzen sind und was es insofern mit seinem Gedächtnis auf sich hat. Das Internet ist nicht stern- oder kreisförmig geschlossen, sondern komplex vermascht wie die Textur eines Strickpullovers schier endlosen Ausmaßes. Es besteht aus Knoten und Verbindungen, die inzwischen über den gesamten Erdball verteilt sind. An auslaufenden Enden, aber auch in seiner Mitte, können sich an jeden Knoten neue Knoten anlagern. Trotz dieser immensen Ausdehnung hängen alle Knoten zusammen und bilden ein dynamisches und prinzipiell unabgeschlossenes Leitungssystem. Informatiker sprechen von einem „gerichteten Multigraphen“, wobei die Webseiten „Knoten“ und die Links zu den Webseiten „gerichtete Kanten“ repräsentieren, die je zwei Knoten in jeweils einer Richtung („gerichtet“) verbinden. Wie genau die Konfiguration des gesamten Internet zu einem gegebenen Zeitpunkt aussieht, wie viele Sub-Netze mit ihren Routern, Switches, Bridges, Gateways, Server-Clustern, Servern und Client-PCs zu einem Zeitpunkt „t“ aktiv sind, kann niemand sagen. Das Internet, von zwei Milliarden Menschen genutzt (WIUPS (2009)), hat keine Zentrale. Neuere Studien sagen, dass Woche für Woche acht Prozent Webseiten mehr hinzukommen und 80 Prozent aller Webseiten keine längere Lebenszeit als ein Jahr haben (Olston 2010, 199). Das aber gilt nur für ihre technische Identität (Datum, Uhrzeit, Größe) und muss über Inhalte nichts besagen. Umgekehrt ist das Internet gerade technisch außerordentlich robust. Das Protokoll, mit dem die Daten im Netz hin und her bewegt werden, garantiert, dass, selbst wenn Teile des Netzes physikalisch außer Betrieb gesetzt würden, die verbliebenen Teile operabel blieben. April 2010 veröffentlichte das Suchmaschinen-Projekt „Majestic-SEO“ die Zahl von 1,7 Billionen indizierten Web-Seiten im Internet (Majestic (2010)). Damit wurde eine entsprechende Zahl einer Google18 Veröffentlichung aus 2009 bestätigt und übertroffen. Stimmen die Angaben, dann entfielen auf jeden Erdbewohner 243 Web-Seiten. 1000 Menschen hätten 53 Jahre rund um die Uhr damit zu tun, jeweils eine Sekunde lang eine jeweils neue Webseite anzuschauen. Jede Sekunde kämen fast 23 Tausend neue Webseiten hinzu. In weniger als zwanzig Jahren nach der Einführung des Internet ist die Zahl der heute existierenden Internet-Webseiten bereits fünfzig mal höher als die Zahl der Buchseiten, die seit der Einführung des Buchdrucks hergestellt wurden (Man rechnet mit etwa weltweit 135 Millionen existierenden Büchern; jedes mit 250 Seiten berechnet, ergibt 33,8 Milliarden Seiten...) So immens diese Zahlen auch wirken, sie kommen an die Frage nach dem Gedächtnis des Internet noch nicht heran. Außer vielleicht mit dem Hinweis, dass es an technischer Kapazität nicht mangelt. Zum ersten Mal in der Geschichte der Medien ist das Trägermaterial für die Aufzeichnung von Daten kein knappes Gut mehr, sondern im Überfluss vorhanden. Aber, man vergesse nicht: Auch die schiere Zahl von 100 Milliarden Neuronen im menschlichen Gedächtnisorgan (die „im Mittel etwa 10 000 synaptische Kontakte [bilden], so daß man auf etwa 1 000 000 000 000 000 Synapsen kommt.“(Singer 2004)) sagt noch nichts darüber, ob der Mensch ein gutes Gedächtnis hat und wie es funktioniert. Rein rechnerisch wären im Durchschnitt nur vier Schritte nötig, um zwei beliebige Neuronen zu verkoppeln und damit Assoziationen mit und in jeder beliebigen Gehirnregion zu ermöglichen. Aber die Annahme einer derart dichten internen Vernetzung der Neuronen trifft offenbar nur für ausgewählte Regionen des Hirns zu (Song 2005). Zudem ist die Frage, wie genau das Gehirn assoziativ Inhalte aktualisiert und dafür andere überschreibt, noch weitgehend ungeklärt. Was als Analogie bleibt, ist der Umstand, dass das Internet einem riesigen Lager an ständig in Veränderung befindlichen Knotenpunkten = Webseiten = Informationen gleicht. Im Unterschied zum Gehirn-Neuron kann eine Webseite dabei sogar ohne jede weitere Verbindung existieren. Die meisten Webseiten haben zwar, nach Tim Berners-Lees Definition, eine „Hypertext-Struktur“ (2000, 5), auf die Links von („Backlinks“) und von der Links auf andere Seiten zeigen („Forward-Links“). Aber im Sonderfall muss das nicht so sein. Eine Webseite kann ein paar Zeilen Text bieten ohne jeden Verweis auf andere oder von anderen. Sie ist dann nur durch eine direkte Adresse aufrufbar. Es gibt genug davon („This Site is under construction“). Im Gehirn wäre das wohl unmöglich, denn Neuronen haben keine Adresse. Spätestens seit Charles Sherringtons Forschungen zu Ende des 19ten Jahrhunderts gilt, dass das Neuron in seiner Ordnungsstruktur definiert ist durch synaptische „Assoziations“Bindungen (Sherrington 1906). Eine Webseite dagegen hat in der Ordnungsstruktur des Internet eine „Domäne“, die durch eine numerisch eineindeutige 19 Adresse definiert ist (Kahn 1999, 12). „Portale“ oder „Homepages“ wären durchaus, ohne jede weitere Assoziationsleistung, durch ein schlichtes (aber sehr umständliches) Aufzählen der endlichen gut 4 Milliarden InternetAdressen erreichbar. Aufzählen aber ist keine Erinnerungsleistung, sondern eine mathematische Funktion. Die Struktur des Internetgedächtnisses wird nicht durch die interne Adressstruktur des Netzes repräsentiert. Sie ist zwar das technische definiens und gibt jedem User und jeder Webseite eine zum Nutzungszeitpunkt eineindeutige Registerzahl. Gedächtnistheoretisch ist aber das belanglos. Wie Vannavar Bush, der schon zitierte Chef der Rüstungsforscher der USA im II. Weltkrieg, resümierend feststellte: „The human mind does not work that way. It operates by association“ (Bush 1945, 9). Halten wir zunächst fest, dass, Anders als Gordon Bell es behauptet, von Vannavar Bushs Memex keineswegs die Tradition einer „Total Recall“ Linearaufschreibung eines "Life-Logs" ausgeht. Was von ihr ausgeht ist vielmehr die Konstruktion des Internet. In der Konzeption seiner "Memex"-Maschine ging Bush vom Assoziations-Paradigma der zeitgenössischen Hirnforschung aus, gab ihm aber eine völlig neue Wendung. “The investigator is staggered by the findings and conclusions of thousands of other workers - conclusions which he cannot find time to grasp” (2). Bushs erfindet „Memex“ überhaupt nur, weil er eine der größten Schwachstellen beheben will, die er als Chef der US-Rüstungsforschung im Rückblick auf den eben zu Ende gegangenen Weltkrieg ausfindig gemacht hatte, nämlich die Langsamkeit und Schwerfälligkeit des wissenschaftlicher Ergebnisumsatzes in der herkömmlichen Ordnung der Bücher, Zeitschriften und Bibliotheken. Bushs Ziel war es, einer schon damals unbeherrschbaren Wissensflut und damit einem Wissensvergessen Herr zu werden. Alle Quellen des wissenschaftlichen Wissens sollten stattdessen neu angeordnet werden, nämlich nach der Methode: „as we may think“. Mit seinem Aufsatztitel bezieht sich Bush auf einen impliziten Plot der Kybernetik, der neuen Episteme seiner Zeit. Einer ihrer Gründungstexte war zwei Jahre zuvor erschienen, nämlich McCullochs und Pitts Versuch, die Speicherfunktionen des Gehirns in einem rekursiven mathematischen „Calculus“ zu beschreiben (McCulloch 2004). Bush folgert, dass nach solchen Modellen auch der Bau neuer medialer Gedächtnis-Apparaturen erfolgen sollte. „Bush thought that the creation of arbitrary associations between individual records was the basis of memory, so he wanted a ‘mem(ory-)ex’, or ‘Memex’ instead of index" (Buckland 1992, 286). Wenn auch, wie neuere Studien zeigen, der kybernetische Logikkalkül die neurologische Grundlagenforschung eher in die Irre gelenkt als befördert hat (Kay 2000), so bleibt doch unbestreitbar, dass das Paradigma der Mathematisierung assoziativer Gehirnfunktionen in einer lückenlosen Kette von Vannavar Bush über Dough Engelbarth (1962; u.a. Erfinder der Computer-“Maus“ mit Bezug auf Bush) und 20 Ted Nelson (1987; Schöpfer des Begriffs „Hypertext“ mit Bezug auf Engelbarth) zu Tim Berners-Lees Arbeiten (mit Bezug auf Nelson) führt, dem wir die Architektur unseres heutigen WWW verdanken. Berners-Lee entwickelte 1990 am CERN das grundlegende Protokoll für die Vermittlung und Darstellung von Webseiten, das „Hypertext Transfer Protocol“ (http), das im Verein mit der Skriptsprache „HTML“ die Basis des Internet-Erfolges gelegt hat. „A ‘web’ of notes with links (like references) between them is far more useful than a fixed hierarchical system" (Berners-Lee 1990, 5). Gegen die Wissensfluten und das Vergessen entwickelten KybernetikVisionäre seit den 1940er Jahren in den USA Konzepte von „Links“ oder „Hyperlinks“ vor dem Horizont eines Logikkalküls der Gehirnassoziation. Am Ende, im Rückblick auf seine Entwicklung der heutigen Internetstandards sagt Berners-Lee: “Hypertext” [is] human-readable information linked together in an unconstrained way“ (Berners-Lee 1990, 10). Hypertext macht Alles mit Allem verknüpfbar. Die verbindenden Glieder, "Links" genannt, bilden sehr schnell eine kontingente Ordnungsstruktur; denn es genügt, dass sie irgendeiner signifikanten Assoziationslogik folgen (inkl. Kausalität, Metapher, Metonymie, Ethymologie, Alliteration etc.). Ted Nelson wusste sehr gut, dass er mit diesem Konzept der Verlinkung von Allem mit Allem die Textstruktur des Literarischen, und mit ihr einen zutiefst romantischen Plot focussierte. „At the kernel of the hypertext concept lie ideas of affiliation, correspondence, and resonance. In this, as Nelson has argued from the start, hypertext is nothing more than an extension of what literature has always been" (Moulthrop 2003, 697). Ja mehr noch, hinter der HypertextPhilosophie steckt ein zudem politischer, egalitaristischer und liberalistischer Zug, vielleicht sogar eine Alles mit Alles verlinkende Paranoia im Sinne Thomas Pynchons: „the realization that everything is connected, everything in the Creation - not yet blindingly one, but at least connected” (Pynchon 1973, 820). Nelsons Hypertext-Credo fasst all dies in einem weiteren Neologismus namens „Populitism“ zusammen, einer Kombination aus Elitismus und Populismus. In einer Alles mit Allem verlinkten Welt entstehe ein „neuer Populitismus, der das tiefere Verstehen von Wenigen am Ende den Vielen verfügbar machen kann“ (Nelson 1990, 6). Diese antielitäre, antiautoritäre und antihierarchische Utopie eines kontingent verlinkten Netzes ist natürlich auch ein Kind der Studentenrevolten der 1960er Jahre. Aus all dem ist das Internet hervorgegangen. Nachdem nun das Internet da ist, und zwar in einem gigantischen, weltumspannenden Graph von mehr als Tausend Milliarden Seiten, auf die unabzählbar viele Links zeigen, - wie steht es um seine Gedächtnisstruktur, um Vergessen und Erinnern im 'Netz'? Eine erste Antwort liegt in der Zahl der Klicks (= Links), die es braucht, eine Webseite zu erreichen. Ist sie „weit“ (= 21 viele Links) entfernt, droht ihr Vergessen, liegt sie nur wenige Klicks parat, wird sie leicht erinnert. Das sind die einfachsten Regeln. Wie aber lässt sich allgemein klären, welche Seiten ‚weit weg’ sind und welche ‚nahe bei’? Oder sind alle Seiten gleich ‚nahe bei’ bzw. ‚weit weg’? Antworten geben könnte ein spezielles Gesetz der großen Zahl („PoissonVerteilung“), das in der Graphentheorie gilt. “Random graph theory predicts that if we assign social links randomly, we end up with an extremely democratic society, where all of us are average and very few deviate from the norm to be extremely social or utterly asocial types” (Barabási 2003, 22). Nur, - diese Voraussetzung einer idealen Graphentheorie, die zugleich Voraussetzung der egalitaristischen Utopien Nelsons und Engelbarts war, trifft in der Internet-Realität nicht zu. “In real networks linking is never random. Instead, popularity is attractive. Webpages with more links are more likely to be linked to again, highly connected actors are more often considered for new roles, highly cited papers are more likely to be cited again, connectors make more new friends. (…) At the end of the day, however, only a few of our fellow gamblers walk away richer“ (21f). Die Links auf Webseiten im Internet sind nicht gleich verteilt, das ist die Diagnose aller Studien, die bisher empirische Erkundungen unternommen haben. Vielmehr zerfällt das Web vermutlich sogar in mehrere Zentren, die relativ inhomogene Bereiche darstellen und teilweise völlig gegeneinander verschlossen sind. Außerdem hat dieser Graph zahlreiche Ranken, die im Nichts enden (Broder 2000). Was wir über das WEB wissen, sagen uns keine mathematischen Vorhersagen, sondern allein die Ergebnisse von Suchmaschinen. Suchmaschinen sind Computer-Roboter, die das WEB rund um die Uhr durchwühlen. Sie heißen „Crawler“, „Spider“ oder „Robots“ und sind unsichtbare Agenten-Maschinen, die nur in den (für normale User unzugänglichen) Logfiles der WEB-Server ihre Spuren hinterlassen. Sie werden von den (neben „Google“, „Yahoo“, „Ask“ und „Bing“) rund eintausend Suchmaschinenfirmen (IDSE 2010) betrieben, die das WEB indizieren, um Stoff für die Antworten ihrer NutzerInnen aufzubereiten. Crawler sammeln Texte, Bilder, Audio und Video-Material auf die unterschiedlichste Weise, indizieren die Seiten, auf denen sie all dies gefunden haben und bedienen ein hochkomplexes System von „Sortern“, „Barrells“, „Lexicons“, „Doc-Indices“ und „Repositories“, aus denen die Suchmaschinen in Sekundenbruchteilen ihre Antwort zusammenstellt. Diese Maschinen und ihre Ergebnisse bilden die 'Oberfläche' des Internet, das selbst keine Oberfläche hat. Drei Viertel aller NutzerInnen des WEB verwenden Suchmaschinen (Vaughan 2007, 888). Das Suchen im Internet ist die zentrale Gedächtnisleistung des Mediums. Mit einer Archivsuche herkömmlicher Art hat sie nichts zu tun. Elena Esposito: "Das Archiv ermöglicht Vergessen unter der Bedingung, dass man die 22 Zeichen in Erinnerung behält, die im Katalog zusammengefasst sind (...). Dagegen geht man (im Internet; W.H.) durch die Computertechniken der Organisation der Daten zu einem virtuellen Gedächtnis über (...). Das statische Modell der Aufbewahrung von Daten wird durch das dynamische Modell der Konstruktion von Daten ersetzt, die ausgehend von den Befehlen des Anwenders nach und nach erzeugt werden (...). Die 'search engines' wie Lycos, Alta Vista, Hot Bot usw. sind Datenverarbeitungsmaschinen, die Informationen als ihren Gegenstand produzieren — und zwar nicht, weil sie sich an Informationen erinnern, sondern weil sie diese auf der Basis der Befehle des Anwenders, die in jedem einzelnen Fall einen einzigartigen Suchpfad und damit eine neue Gedächtnisstruktur generieren, jedes Mal neu konstituieren" (Esposito 2005, 357). Die Beschreibung ist zutreffend, aber nicht vollständig. Richtig ist: Das Internet ist nicht so sehr deswegen kein Massenmedium ist, weil jeder 'User' auf informelle Weise mitmachen darf, sondern weil es sich jedem Nutzer anders darstellt. Es gibt keine formalisierbare Darstellungsstruktur für das Internet, es gibt keinen Internet-Katalog. Als Gedächtnis existiert es nicht einmal virtuell (denn dann hätte man immerhin eine fiktive Vorstellung von seinem Umfang), sondern nur potentiell und operational. Damit es aber als ein reales, operatives Gedächtnis fungieren kann, müssen Operationen einer Suchmaschine aktiviert werden. Es gibt das Internet nur, sofern es durch Suchmaschinen erreichbar ist. Für ein soziales Gedächtnis existent sind dabei nur die Seiten des "Visible" oder "Surface Web". Demgegenüber steht ein unbekannter Teil des Internet, das unter dem Namen "Deep Web" firmiert und solche Seiten umfasst, die passwortgeschützt sind oder Formulareingaben verlangen und/oder auf Datenbanken verweisen (Li 2010). So sind in Deutschland beispielsweise alle großen Bibliotheksverbünde online recherchierbar - und damit die Titel von 30 bis 50 Millionen Büchern. Aber wie solche Bibliografien sind auch Myriaden weiterer Datensätze ungezählter Web-Datenbanken durch eine Suchmaschinen-Abfrage direkt nicht erreichbar. Durchsuchbare Web-Seiten entstehen mit ihren Inhalten erst auf Anfrage. Immer wieder findet sich in der Forschung die (allerdings faktisch unüberprüfbare) Angabe, das "Tiefe Netz" sei bis zu 500 mal größer als das sichtbare (He 2007, 94). Wie auch immer, für eine Gedächtnisfunktion (jenseits klassischer Katalog- oder Datenbankabfragen) bleibt es verloren. Das (sichtbare) Internet existiert für jede Suchabfrage 'anders'. Suchmaschinen vollziehen, wie Elena Esposito anmerkt, prozedurale Operationen und liefern Ergebnisse, die zuvor "noch nie gedacht worden sind" (358). Suchmaschinen denken nicht. In ihren kontingenten und unvordenklichen Ergebnissen kommt die Kontingenz einer informellen Anfrage de facto zurück und alles kommt darauf an, dass der oder die Anfragende den Kontext 23 seiner Anfrage in den Ergebnissen wieder findet, und zugleich offen genug ist, seinen Kontext jederzeit zu wechseln. Es ist aber nicht nur die prozedurale Informalität, die für des Struktur des Internet-Gedächtnisses prägend ist. Was hinzukommt (aber von Esposito unbeachtet bleibt), ist die Struktur der Gewichtung, die jeder Antwortliste durch die Suchmaschine aufgeprägt wird. Jede einzelne Seite, die im Zuge eines Suchvorgangs gefunden wird, erhält vor ihrer Anzeige von der Suchmaschine ein Bedeutungsgewicht, das mit der Anfrage selbst nichts zu tun hat. Diese Gewichtung bestimmt die Reihenfolge der Suchergebnisse und damit ihre innere Bedeutungsstruktur. Gefundenen Seiten werden von Suchmaschinen bekanntlich durch eine Liste präsentiert, an deren Spitze das am meisten erwartete und insofern semantisch wertvollste Ergebnis steht. Die Maschine simuliert damit eine Erwartungserwartung, und zwar so, als wüsste sie, dass wir erwarten, dass sie weiss, was für uns das Wichtigste ist. Das aber kann sie nicht wissen. Maschinen kennen keine Erwartungserwartung, denn sie können nicht reflektieren. Durch welche Operationen des aus Computern gemachten Internetgedächtnisses kann diese Simulation dennoch gelingen? Damit eine Suchanfrage von einer Maschine beantwortet werden kann, sind zwei Voraussetzungen nötig: das Netz mit all seinen erreichbaren Seiten muss vollständig indiziert und jede einzelne muss 'bewertet' worden sein. Für diesen Zweck arbeitet „Google“ beispielsweise mit einer Farm aus hundert Tausenden von weltweit verstreuten Servern verschiedenen Typs, die durch ein eigenes schnelles Netz mit einander verbunden sind. Diese Suchroboter, die in riesigen Datenbanken das Netz indizieren, erzeugen ihrerseits vermutlich 40% des weltweiten Internet-Verkehrs (Yuan 2002) und in vielen WEBSeiten-Logfiles entsprechend viele, oft schwer identifizierbare ‚Besuchseinträge’ (die aber nicht als 'Besuchserfolg' verrechnet werden dürfen...). Man kann solche Suchroboter von seinen WEB-Seiten fernhalten, aber dann würden diese Seiten nicht mehr indiziert und wären fürs Gedächtnis verloren. Nur die wenigsten Such-Roboter indizieren Text- oder Bildinhalte einer Seite, also das, was ein User sucht. Weit mehr "Robots" und "Crawler" stürzen sie sich auf die Links und damit den „Wert“ einer Seite. Rang, Wert, Bedeutung und Geltung einer Seite werden durch allein die Zahl und das Gewicht der Links ermittelt, die auf die Seite zeigen. Diese „Backlinks“ sind die zentrale Währung im Netz. Die 'Popularität' einer Seite kommt nicht dadurch zustande, dass man ermittelt, wie viele User oder reale Menschen eine Seite nutzen. Vielmehr wird Popularität, Wert und Bedeutung aus ihren Position in der Graphenstruktur des Internet rein algorithmisch errechnet, ohne das ein menschlicher Verstand weiter Einfluss nähme. Die Zeiten, in denen die Suchmaschine Yahoo sich einen großen Stab an RedakteurInnen hielt, ein WEB-Seiten-Anbieter unter entsprechenden Rubri24 ken („Arts and Humanities“, „Education“, „Society and Culture“ etc.) sein Angebot anmelden konnte, die Redaktion eine kritische Bewertung und eine entsprechende Ausgabe von WEB-Seiten in Rubriken vornahm, die dieser Bewertung entsprach, - diese Zeiten sind längst vorbei. Seit dem Zerplatzen der sogenannten „Dot-Com-Blase“ (um die Jahrtausendwende) kann sich auch ein so milliardenschwerer Weltkonzern wie Yahoo diesen Aufwand nicht mehr leisten. An diese Zeiten erinnert einmal mehr das voluminöse „Archive.Org“, das Brewster Kahle seit 1996 unter dem Titel „Creating a Library Of Alexandria for the Digital Age“ aufbaut (Kahle 2004). Seine sogenannte „Way-Back“-Maschine hat zum Ziel, an alte Zeiten und Zustände im Netz dadurch zu erinnern, dass die Seiten, sowie sie vor zehn und 15 Jahren einmal waren, aufbewahrt werden. So finden sich im Archive.Org zwar noch alte Seiten von Yahoo aus 1996 mit den entsprechenden Redaktionsrubriken. Multimillionär Kahle hat in seinem lobenswerten Projekt zwar schon 150 Milliarden Web-Seiten gespeichert, aber über die Eingangs-Seiten geht das selten hinaus; kein einziger der zahllosen Links der frühesten „WayBack“-Yahoo-Seite aus 1996 funktioniert noch. Modelle wie die Yahoo-Redaktion vor der Dot-Com-Krise, Kahles "WayBack"-Maschine oder Gordon Bells "MyLifeBits" scheitern, weil sie auf das epistemologisch falsche Gedächtnismodell setzen und das Internet mit einem linearen Archiv verwechseln. Das Web hat keine erlernbare kategoriale Struktur, nach der man seine Inhalte vergessen und wieder aufsuchen könnte. Für die Gedächtnisstruktur des Web zählen nicht einmal die Inhalte einer Seite, sondern allein ihre Links auf andere und die Links auf sie selbst. Die komplexe Dynamik eines solchen Graphen kann ein starres und hierarchisches Kopien-Archiv, wie es Kahles „Way-Back“-Maschine darstellt, nicht erreichen und Gordon Bells megalomane MyLifeBit Seiten sind nicht durch Links verbunden, sondern durch die schlichte Linearität der Chronologie. Was heute das Internet und sein Gedächtnis beherrscht, ist der“PageRank“-Algorithmus, den die beiden Studenten (und späteren Google-Gründer) Sergey Brin und Lawrence Page 1998 an der StanfordUniversität entwickelt haben (Brin 1998); er gilt für Google und alle andere großen Suchmaschinen wie Yahoo oder Ask. Bereits zur Studentenzeit von Prin und Page Ende der 1990er Jahre war unübersehbar, dass das Netz ohne Suchmaschinen wertlos wäre. Die damals üblichen zufälligen Darstellungen von Suchergebnissen aber führten zu absolut kontingenten und deshalb unbrauchbaren Ergebnissen. Die Devise der beiden Studenten lautete: “Bringing Order to the Web”. „Anyone who has used a search engine recently, can readily testify that the completeness of the index is not the only factor in the quality of search results. ‘Junk results’ often wash out any results that a user is interested in“ (Brin 1998, 2). Brin und Lawrence suchten und fanden einen 25 Weg, der einerseits den Wert der gefundenen Dokumente ausweist, andererseits aber jegliche Redaktion mit menschlichen Augen überflüssig macht. Ihr Algorithmus ist sehr ausgefeilt und stark rekursiv, so dass er in Klarschrift weniger gut verständlich ist als in seiner mathematischen Formelzeile. Er besagt, dass eine Webseite (A) nur so viel Wert hat, wie der Wert der Webseiten (B, C, ...), die auf sie verlinkt sind. Da sich der Wert der ‚Wert vergebenden’ „Backlink“-Webseiten (B, C, ...) nach der gleichen Formel errechnet, ist klar, welche rekursive Komplexität und zeitliche Oszillation die Berechnung des Wertes einer einzigen WEB-Seite bedeutet. Da Brin/Lawrence mit diesem Verfahren Bezüge auslesen, die erwarten lassen, dass sie von Menschen (mutmaßlich) sinnvoll gesetzt wurden, liest ihr Algorithmus also ‚menschengemachten’ Sinn zumindest indirekt aus. Wenn eine Webseite bspw. einen Link enthält, der von Yahoo kommt, so ist dieser Link deshalb viel Wert, weil so viele Seiten auf Yahoo verlinken, und Yahoo damit in den Augen derer, die Yahoo 'kennen' und darauf verlinken, 'wertvoll' ist. Links auf Webseiten sind aber mjndestens so volatil wie die Seiten selbst. Deshalb müssen die Suchmaschinen-Crawler bereits x-mal ‚gecrawlte’ Web-Seiten immer wieder neu durchsuchen, um den ihren „PageRank“ aufzufrischen. Der so ermittelte Rangwert einer Seite hat dann die besagten Folgen für ihre Darstellung im Suchmaschinen-Ergebnis: Wird nach einem Text-String gesucht, so werden alle Seiten, die diesen String enthalten, nach ihrem „PageRank“ absteigend in die Antwortliste gestellt. Man stelle sich beispielsweise die Suche nach „Hotel Miami“ vor. Aber welches Hotel in Miami hätte nicht Interesse, an die erste Stelle der Suchliste zu gelangen (ohne dafür zu bezahlen)? Ist also das Gedächtnis des Internet manipulierbar und kann es seine Manipulationen reflektieren? Der „PageRank“-Algorithmus steht epistemologisch in der Tradition der klassischen Soziometrie des zwanzigsten Jahrhunderts, die ihrerseits in der radikal antimetaphysischen Tradition der empirischen Sozialforschung eines Paul F. Lazarsfeld zu verorten wäre. Prin/Lawrence schließen in ihrer Arbeit konkret an soziometrische Studien über Cliquenstrukturen aus den 1950er Jahren an (Hubbell 1965) und erweitern diesen Ansatz um bibliometrische Studien über das akademische Zitieren. „Academic citation literature has been applied to the web, largely by counting citations or backlinks to a given page. This gives some approximation of a page's importance or quality. PageRank extends this idea by not counting links from all pages equally, and by normalizing by the number of links on a page” (Brin 1998, 3). Diese starke Orientierung an akademischen Zitierweisen offenbart zugleich das Problem der PageRank-Philosophie. Um im Beispiel zu bleiben: Brin/Lawrence bewerten das Zitiert-Werden eines Buches durch ein Buch, das seinerseits sehr oft zitiert wird (beispielsweise ein Lehrbuch) höher als das Zitiert26 Werden durch ein seinerseits noch unbekanntes und wenig zitiertes Buch. Mit diesem Verfahren kommen WEB-Seiten an die vorderen Plätze, die sich gegenseitig stark zitieren, zum Mainstream einer Forschungsrichtung gehören und diesen Mainstream dadurch noch bekräftigen. Die PageRank-Philosophie hat insofern zwei verzerrende Effekte. Wer im WEB sucht, um das Gedächtnis aufzufrischen, wird in den Erinnerungen bestärkt, die ohnehin eher bekannt sind und in den Erinnerungen geschwächt, auf die weniger Bezüge existieren. „Only about 15 percent of Webpages offer links to opposing viewpoints” (Barabási 2003, 170). Statt einer Gegenmeinung wird das bereits gut Verlinkte präsentiert. So werden in vielen Themenfeldern die Hauptmeinungen gestärkt, aber eventuelle Brückenfunktionen zu übergeordneten Kontextualisierungen geschwächt. Mit „PageRank“ vernetzte Strukturen sind deshalb in ihrer Tendenz autoritär, nur dass hier die vernetzende „Soziabilität“ „zum Ersatz für Autorität“ wird. „Daraus folgt, dass dichte soziale Umgebungen, die durch Übereinstimmung zusammengehalten werden, unpopuläre Information, die in den schwachen Bindungen an ihren Peripherien enthalten sind, oft übergehen“ (Metahaven 2009, 210). Die Gefahr zunehmender Segregation und sozialer Fragmentierung in solchen Informationssystemen sind nicht von der Hand zu weisen. Hinzukommt, dass durch algorithmische Automaten ermittelte „PageRanks“ durch algorithmische Automaten ebenso gut getäuscht werden können. „Search Engine Optimization“ heißt hier das Stichwort. Zahllose Firmen sind hier weltweit im Einsatz. Für 199 Dollar monatlich bieten sie bspw. die (halb-)automatische Verfertigung von Webseiten an, in denen nicht Nützliches steht, außer soviel, dass es reicht, neue „Backlinks“ auf ein gewünschtes Angebot im Netz zu fabrizieren. Ziel der Übung ist es, mehr Backlinks und damit eine bessere Position in einer Suchantwortliste zu bekommen. Und das geht so: „A professional journalist will create a 450-550 worded article, and optimize it with the desired keywords. Next, we spin it into over 1,000 unique articles … essentially takes multiple copies … changes the content around … we can put up to two links at any time … We can "rotate" the links to ensure any amount of URLs get seen in article directories at random- it's up to you!” (CPR 2010). Diese Verfahren können zwar wieder in die Algorithmen der WEB-Crawler eingearbeitet und dadurch detektiert werden. Dennoch folgt aus dem gegebenen Beispiel, dass man nie sicher sein kann, ob ein PageRanking einer bestimmten Seite durch rein algorithmische Konstruktionen zustande gekommen ist oder durch die realen Spuren einer in Links gegossenen menschlichen Absicht. Mit einem Wort: Noch nie hat es in der Geschichte einen so umfassenden medialen Speicher für die Aufbewahrung kulturellen Wissens gegeben wie ihn das Internet bietet. Es ist ein Speicher, an dessen Belegung nicht exklusi27 ve Wissensinstitutionen, Unterhaltungsformate, Agenturen und andere formelle „Gatekeeper“ allein beteiligt sind. Aufs Ganze gesehen sind formale Institutionen oder Firmen nicht einmal vorrangig aktiv, weil das massenmedial orientierte Netz viel stärker durch informelle Nutzung geprägt und damit auch durch informelle Zuarbeit gespeist wird, nämlich immerhin im Verhältnis von 99 passiven NutzerInnen zu einem aktiven, wie Jacob Nielsen herausgefunden hat (2006). Die rhizomartige und epidemische Belegung dieses weltweiten Daten-Speichers erfolgt durch soziale Transaktionen völlig neuen Typs, an dem eine sehr große Zahl von AkteurInnen beteiligt ist. Wikipedia, das inzwischen unbestritten beste Konversationslexikon, das es je gab, ist mit seinen Hunderttausenden von Autoren nur ein Beispiel. Das Internet kann also durchaus als ein neuer kultureller Speicher angesehen werden im Sinne Aleida und Jan Assmanns. Es enthält das klassische kulturelle Erbe schon deshalb, weil alle Institutionen (Museen, Universitäten, Bibliotheken, Archive etc.), die es bisher verwalten, ihre Aktivitäten auf das Internet ausgedehnt haben. Auch existiert im Internet-Gedächtnis eine gleichsam 'eingebaute' Kanonik des PageRankings. Bei jeder Abfrage ergibt sich ein ein Kanon gespeicherter Informationen. Allerdings sind die Funktionen von Gedächtnis und Erinnerung in diesem Medium stark volatil, d.h. sie sind in einem steten Fluss von Erneuerung, Überschreibung und Verlust. Erinnerung und Gedächtnis im Internet sind ausschließlich assoziativ organisiert. Assoziativität und Volitalität schließen die Bildung eines statischen, in sich geschlossenen Kanons aus. „Hypertext (Un)does the Canon“ meinte schon Ted Nelson. Das Internet löst einerseits alle kanonischen Hierarchisierungen auf und ersetzt sie durch die Kanonik neuer netzstruktureller Formate, nämlich durch „Stile“, „Disziplinen“, „Rhetoriken“ und „Regime“, wie sie niemand besser als Harrison C. White beschrieben hat (2008). Das Internet zerfällt in Regionen, die durch keine fixen Strukturen gekennzeichnet sind, außen solchen, die sie in einer Art selbstreferentiellen Eigenwertlogik zusammenziehen. Diese durch „PageRank“-Effekte sich bündelnde Themen-Globen könnte man ebenso als Kanonisierungen interpretieren. Allerdings sind sie flüchtig wie ein Schwarm. Alle Theorien jedenfalls, die auf das Internet mit linearen Konzepten losgehen, wie Gordon Bells „Total Recall“ oder Meyer-Schönbergers „Delete“, verkennen seine Struktur völlig. Dennoch bleibt auch fürs Internet der Satz der Assmanns gültig, dass, „solange wir den Tod nicht abschaffen können“, das „kulturelle Gedächtnis“ „auch unter den Bedingungen der digitalisierten Mediengesellschaft“ fortbesteht. Nur wird dieses kulturelle Gedächtnis in der Internet-Welt, was seine Kanons betrifft, durch die neuen Strukturen des Medienvergessens stärker und schwächer zugleich. Vier abschließende Bemerkungen: (1) Soziale Gedächtnisse sind medienbasiert und überlagern sich historisch. Das heißt: Mit dem Internetgedächtnis 28 verschwindet das rhetorische Gedächtnis der Buchkultur keineswegs und auch nicht das massenmediale. Letztere verlieren lediglich ihren jeweiligen Alleinstellungsansprüche. (2) Das heraufziehende neue soziale Gedächtnis der Computernetzgesellschaft basiert auf der Formatierung informeller und volatiler Netzkommunikation, die durch Pagerank gesteuerte konformistische Verdichtungen und randständige Ausschließungen gekennzeichnet ist. Aber (3): Dieses neue Gedächtnis ist programmierbar und kann insofern über sich reflektieren; anders als bei den Massenmedien zerstört die Aufdeckung von Manipulationen nicht die Struktur des Internet-Gedächtnisses, sondern stärkt sie. Deshalb müsste - aus meiner Sicht - (4) der PageRank- um einen SearchRank-Algorithmus erweitert werden, der schwach verlinkte Seiten durch ihre Suchaufrufe im Seitenwert hebt. Was aber bedeuten würde, dass Google und alle anderen Suchmaschinen-Firmen zur Offenlegung der Statistik ihrer eigenen Suchabfragen verpflichtet werden müssten. Die wichtigste Leistung eines Gedächtnisses, also auch eines sozial-medialen, besteht nämlich nicht so sehr im Antworten, sondern viel mehr im Fragen. Literatur Adelung (1801): Grammatisch-kritisches Wörterbuch Bd. 4, Leipzig: Breitkopf. Assmann, Jan (2005): Der Begriff des kulturellen Gedächtnisses. In: Dreier, Thomas u.a., Kulturelles Gedächtnis im 21. Jahrhundert. Karlsruhe 2005, 21-34. Assmann, Jan (2005a): Nachwort. In: Esposito 2005, 400-414. Baecker, Dirk (2005): Form und Formen der Kommunikation. Frankfurt am Main:Suhrkamp. Barabási, Albert-László (2003): Linked, New York: Plume. Bardoel, Jo / Deuze, Mark (2001): Network Journalism - Converging Competencies of Old and New Media Professionals. Australian Journalism Review, Vol. 23, (3), 91-103. Bell, Gordon / Gray, Jim (2001): Digital Immortality. Communications Of The ACM, Vol. 44, No. 3, March. Bell, Gordon u.a. (2002): MyLifeBits - Fulfilling the Memex Vision. ACM Multimedia 2002, December 1-6. Bell, Gordon / Gemmell, Jim (2003): Living with a Lifetime Store. Microsoft Research Paper, https://research.microsoft.com/pubs/64164/uem2003.pdf [20.04.2010]. Bell, C. Gordon (2009): Total Recall: How the E-Memory Revolution Will Change Everything, New York, N.Y. : Dutton. Berners-Lee, Tim (1990): Information Management - A Proposal, CERN March 1989, May. 29 Berners-Lee, Tim (2000): Weaving the WEB - The Original Design And Ultimate Destiny Of The World Wide Web By Its Inventor. Toronto:Harper 2000. Bienert, Peter (1998): Information und Kommunikation, Berlin (u.a.):Springer. Bolz, Norbert (2002): Das konsumistische Manifest. München:Fink, 2002. Brin, Sergey / Page, Lawrence (1998): The Anatomy of a Large-Scale Hypertextual Web Search Engine. Computer Networks and ISDN Systems, Volume 30 (1-7), April, 107 – 117. Broder, Andrei u.a. (2000): Graph Structure in the Web, Ninth International World Wide Web Conference, Elsevier, Amsterdam, Netherlands, May, 309-320. Bruns, Axel (2008): News Blogs and Citizen Journalism - New Directions for eJournalism. In: Prasad, Kiran: E-Journalism - New Directions in Electronic News Media. New Delhi:BR Publishing. Buckland, Michael K.: Emanuel Goldberg (1992): Electronic Document Retrieval and Vannevar Bush's Memex. Journal of the American Society for Information Science 43, no. 4, May 1992, 284-294. Bush, Vannevar (1945): As We May Think, The Atlantic Monthly, July. CPR (2010): CheckPageRank.net - http://www.checkpageranking.com [20.04.2010].t Deleuze, Gilles (1992): Differenz und Wiederholung. München:Fink. Derrida, Jacques (1974): Grammatologie. Frankfurt:Suhrkamp. Engelbart, D. C. (1962): Augmenting Human Intellect: A Conceptual Framework, Stanford Research Institute Menlo Park, California. Esposito, Elena (1999): Internet-Rhetorik und Gedächtnis der Gesellschaft. In: Huber, Jörg u.a.: Konstruktionen Sichtbarkeiten - Interventionen. Wien:Springer, 47-60. Esposito, Elena (2004): Die Verbindlichkeit des Vorübergehenden. Frankfurt am Main:Suhrkamp. Esposito, Elena (2005): Soziales Vergessen : Formen und Medien des Gedächtnisses der Gesellschaft, Frankfurt am Main : Suhrkamp. Foerster, Heinz von: Erinnerungen an die Macy-Konferenzen. In: Pias, Claus: Cybernetics - Kybernetik, Vol. 2, Zürich:Diaphanes 2004, 43-64. Gemmell, Jim / Bell, Gordon / Lueder, Roger / Drucker, Steven / Wong, Curtis (2002): "MyLifeBits: Fulfilling the Memex Vision." ACM Multimedia '02, Juan-les-Pins, France, December 1-6, 235-38. Gemmell, Jim / Bell, Gordon / Lueder, Roger (2006): MyLifeBits - A Personal Database for Everything. Microsoft Bay Area Research Center MSR-TR-2006-23, Feb. 20. Giesecke, Michael (1991): Der Buchdruck in der frühen Neuzeit. Frankfurt am Main:Suhrkamp. Gitelman, Lisa (2003): New Media, 1740 - 1915, Cambridge:MIT Press. Hagen, Wolfgang (2010): Vielfältige Angelegenheit - Wie viel und welche Kultur kann der Hörfunk bieten? In: epd medien Nr. 10 10.02.2010 Havelock, Eric A. (1978): The Alphabetization of Homer. In: Havelock, Eric A. u.a.: Communication Arts in the Ancient World. New York, 3-21. He, Bin (2007): Accessing the Deep Web: A Survey. Communications of the ACM, 50 (2), 94-101. 30 Hubbell, Charles H. (1965): An input-output approach to clique identification, Sociometry 28, clique identification, Sociometry 28. IDSE (2010): International Directory of Search Engines, http://www.searchenginecolossus.com/ - [20.04.2010]. Li, Yingjun u.a. (2010): Domain-Independent Classification for Deep Web Interfaces. In: Chen, Lei u.a.: Web-Age Information Management, Berlin u.a.:Springer, 453458. Kahle, Brewster (2004): A Conversation with Brewster Kahle. Queue Vol. 2, No. 4. Kahn, Robert E. u.a. (1999): What Is The Internet (and What Makes It Work). December. Kay, Lily E. (2000): Who Wrote the Book of Life? A History of the Genetic Code. Stanford, Calif. : Stanford Univ. Press. Lasica, J.D. (1998): The Net Never Forgets. SALON, Salon Media Group, Nov. 1998. www.salon.com/21st/feature/1998/11/25feature.html/Lasica/1998/4712LasicaTheNet neverForgets [20.04.2010]. Lasica, J.D. (2003): Blogs and Journalism Need Each Other, Nieman Reports. Luhmann, Niklas (1988): Wie ist Bewußtsein an Kommunikation beteiligt? In: Gumbrecht, Hans Ulrich u.a.: Materialität der Kommunikation. Frankfurt/M.:Suhrkamp, 884–905. Luhmann, Niklas (1996): Die Realität der Massenmedien. Opladen 1996. Luhmann, Niklas (1997): Die Gesellschaft der Gesellschaft. 2 Bde. Frankfurt am Main:Suhrkamp. Majestic (2010): https://www.majesticseo.com/ News vom 21. April. Marciano, Gemelli Mily (2007a): Die Vorsokratiker Band 1, Düsseldorf: Artemis & Winkler. Marciano, Gemelli Mily (2007b): Die Vorsokratiker Bd. 3, Düsseldorf: Artemis & Winkler 2007. Mayer-Schoenberger, Viktor (2009): Delete - The Virtue of Forgetting in the Digital Age. Princeton University Press. McCulloch, Warren S. u.a. (2004): A Logical Calculus Of The Ideas Immanent In Nervous Activity. In: Pias, Claus: Cybernetics – Kybernetik, Vol. 2, Zürich (u.a.):Diaphanes, 313-326. Merten, Klaus (1994): Evolution der Kommunikation. In: Ders u.a.: Die Wirklichkeit der Medien. Opladen:Westdeutscher Verlag 1994, 141-162. Metahaven, NN (2009): Periphere Kräfte. Zur Relevanz von Marginalität in Netzwerken. In: Becker, Konrad: Deep Search - Politik des Suchens jenseits von Google, Innsbruck (u.a.):StudienVerlag. Moulthrop, Stuart (2003): You Want a Revolution? Hypertext and the Laws of Media. In: Wardrip-Fruin, Noah u.a.: The New Media Reader, Cambridge: MIT Press 2003, 692-704. Nelson, Theodor Holm (1987): Literary machines, South Bend: The Distributers. Nelson, Theodor Holm (1990): How Hypertext (Un)does the Canon. - Paper delivered at the Modern Language Association Convention, Chicago, December 28. Nielsen, Jacob (2006): Participation Inequality: Encouraging More Users to Contribute, 31 Noelle-Neumann, Elisabeth u.a. (1996): Alle, nicht jeder. Einführung in die Methoden der Demoskopie. München:DTV. Olston , Christopher u.a. (2010): Web Crawling, Foundations and Trends in Information Retrieval Vol. 4, No. 3 (2010) 175–246. Plato (1990): Phaidros. In: Ders. Werke in 8 Bänden, griechisch und deutsch, Bd. 5, Darmstadt : Wiss. Buchges. Powell, Barry (2003): Writing and the Origins of Greek Literature. Cambridge. Powell, Barry (2006): Das Alphabet in Theorie und Geschichte. In: Ernst, Wolfgang: Die Geburt des Vokalalphabets aus dem Geist der Poesie. München:Fink, 15-30. Pynchon, Thomas (1973): Gravitys Rainbow. New York: Viking. Ronell, Avital (1994): Drogenkriege. Literatur, Abhängigkeit, Manie. Frankfurt. Rosen, Jay (2006): The People Formerly Known as the Audience. In: PressThink: Ghost of Democracy in the Media Machine. http://journalism.nyu.edu/pubzone/weblogs/pressthink/2006/06/27/ppl_frmr.html [20.04.2010]. Sherrington, Charles S. (1906): The Integrative Action Of The Nervous System, New Haven:Yale University Press 1906. Singer, Wolf (2004): Das Gehirn ist ein wunderbares Organ, Frankfurter Allgemeine Zeitung, 25. November, 40. Song, Sen (2005): Highly Nonrandom Features of Synaptic Connectivity in Local Cortical Circuits. In: journal.pbio.0030068 2005, www.plosbiology.org/article/info:doi/10.1371/journal.pbio [20.04.2010]. Stieler, Kaspar u.a. (1695): Zeitungs Lust und Nutz. Vollständiger Neudruck der Originalausgabe von 1695, Bremen 1969. Stoeber, Rudolf (2005): Deutsche Pressegeschichte - Von den Anfängen bis zur Gegenwart. Konstanz:UVK-Verl.-Ges. Turing, Alan (1937): On Computable Numbers With an Application to the Entscheidungsproblem, London. Pratt, Vaughan (1995): Anatomy of the Pentium Bug, Dept. of Computer Science, Stanford University, Stanford. Vaughan, Liwen (2007): Equal Representation by Search Engines? In: Journal of Computer-Mediated Communication 12, 888–909. Weber, Stefan (2000): Was steuert Journalismus? Ein System zwischen Selbstreferenz und Fremdsteuerung. Konstanz : UVK-Medien. White, Harrison C. (2008): Identity and Control : How Social Formations Emerge. Princeton: Princeton Univ. Press. Wirth, Niklaus (1983): Algorithmen und Datenstrukturen. Stuttgart: Teubner. WIUPS (2009): World Internet Usage And Population Statistics, 31.12., http://www.internetworldstats.com/stats.htm [20.04.2010]. Wundt, Wilhelm (1886): Ethik. Eine Untersuchung der Tatsachen und Gesetze des Sittlichen Lebens, Stuttgart:Enke. Wundt, Wilhelm (1906): Theorie der Sinneswahrnehmung, Leipzig:Voss. Wundt, Wilhelm (1907): System der Philosophie Bd. 2, Leipzig:Engelmann 1907. 32 Yuan, X. u.a. (2002): An Efficient Scheme to Remove-Crawler Traffic from the Internet. International Conference on Computer Communications, Miami. 33