RUPRECHT-KARLS-UNIVERSITÄT HEIDELBERG PHILOSOPHISCH-HISTORISCHE FAKULTÄT SEMINAR FÜR MITTLERE UND NEUERE GESCHICHTE Die Geschichte des Internet Probleme der Netzentwicklung und Nutzungsdebatten ARBEIT ZUR ERLANGUNG DES GRADES EINES MAGISTER ARTIUM vorgelegt bei Prof. Dr. Clemens Zimmermann von Thomas Diehl Friedrich-Ebert-Anlage 47 69117 Heidelberg Inhaltsverzeichnis 1. Die Geschichte des Internet - ein Thema für Historiker 1 2. Das experimentelle ARPANET 13 2.1. Die ARPA im gesamtgesellschaftlichen Kontext 16 2.2. Die IPTO und weitere Akteure des ARPANET 20 2.2.1. Licklider, Engelbart und Taylor - Computernutzung 24 2.2.2. Kleinrock, Baran und Davies - Netzwerktechnologie 28 2.2.3. Forschungseinrichtungen und Privatunternehmen 32 2.2.4. NWG und RFC 37 2.3. Die Realisierung des ARPANET 38 2.4. Die Nutzung des Netzwerks 41 2.5. ICCC 72 - die erste öffentliche Demonstration 43 3. Das heterogene ARPANET 45 3.1. Neue Netze und Kahns „internet problem“ 48 3.1.1. Das CATENET-Projekt 51 3.1.2. Internet-Protokolle 52 3.1.3. Umstrukturierung des Entwicklungsprozesses 55 3.2. E-Mails im ARPANET 57 3.2.1. Das Netzwerk als Kommunikationsmittel 60 3.2.2. Mailing-Listen 62 3.2.3. MSGGroup und die angemessene Nutzung des ARPANET 63 3.3. Öffentliche Hand vs. Privatwirtschaft 69 4. Matrix – „a more or less coherent system“ 72 4.1. Das Internet als Netz von Netzwerken 76 4.1.1. MILNET - der Rückzug der Militärs 79 4.1.2. NSFNET - der neue Backbone 80 4.1.3. Internetentwicklung in Europa 86 4.1.4. Zentrale Organisationen im dezentralen Netz 89 4.2. USENET - „Poor man’s ARPANET” 92 4.2.1. Newsgroups im Internet 97 4.3. Neue Anwendungen für neue Nutzer 98 4.3.1. WWW - „Internet’s killer-app[lication]“ 101 4.4. Kommerzialisierung und Privatisierung 104 4.4.1. Kommerzielle Online-Dienste 108 4.4.2. Durchsetzung in Europa und den USA 110 4.4.3. Das Internet und traditionelle Medien 115 4.5. Globale „Internet-Connectivity“? 118 5. Das Erbe der Vergangenheit und die Aufgaben der Zukunft 120 Literaturverzeichnis 133 Abkürzungsverzeichnis 148 Anhang A. http://www.ucla.edu 151 Anhang A.1. Internet Explorer 151 Anhang A.2. NeoTrace 151 Anhang B. MIDS: Internet, UUCP, Bitnet, FidoNet to July 1998 152 Anhang C. GVU’s WWW User Survey 153 Anhang D. W3B-Umfragen 154 Anhang E. Distribution by Topleveldomain (Januar 2000) 155 1. Die Geschichte des Internet - ein Thema für Historiker Um es vorwegzunehmen: Das Alter des Internet wird meist unterschätzt. Die Volljährigkeit hat es längst erreicht und direkte Entwicklungslinien lassen sich bis weit in die 60er Jahre zurückverfolgen. Es ist zu einem Symbol für Modernität und dem Hoffnungsträger der Informationsgesellschaft avanciert, trotz des „für die Computerbranche nahezu biblischen Alters“.1 Andere Arbeiten zeigen Zusammenhänge auf, die weiter zurückreichen. Tom Stondages „Victorian Internet“ beschreibt z.B. die Geschichte der „On-Line Pioneers“ des 19. Jahrhunderts und weist auf erstaunliche Parallelen mit dem revolutionären Medium Telegraphie hin. Damals wie heute waren mit den radikalen Innovationen2 Ängste, Hoffnungen, anfängliche Skepsis und Euphorie verbunden. Es kam zu zwischenmenschlichen Begegnungen, sogar Hochzeiten, über die Netze, die eine unübersichtliche geographische Struktur auf lokaler, nationaler sowie internationaler Ebene aufwiesen und deren Betreiber eine schwer zu überblickende Mischung aus Privatwirtschaft und öffentlicher Hand bildeten.3 Ein komparativer, vergleichender Ansatz mit heute traditionellen, etablierten oder wieder vergangenen Kommunikationssystemen wie der Telegraphie wäre aufschlussreich, kann im Rahmen dieser Arbeit aber nicht geleistet werden. Was bleibt ist die Beschränkung auf ein einzelnes Medium, eine Einzelstudie. Die meisten Autoren sind sich einig über die herausragende Relevanz bzw. das gesellschaftsverändernde Potential der neuen Technologie. Wir sind demnach Zeitzeugen eines epochalen Wandels, erleben den Übergang von der Industrie- zur Informationsgesellschaft. Bolz untergliedert die gesamte Geschichte nach Medien und stellt das nahe „Ende der Gutenberg-Galaxis“ fest, den Niedergang des neuzeitlichen Buches. Die „Hypermedien“ sollen nicht nur Kommunikationsformen verändern, sondern die gesamte Welt neu konstituieren.4 Die digitale „Telepolis“ ersetzt in Visionen die Funktion der Städte bzw. Metropolen als wirtschaftliches und kulturelles Zentrum.5 Selbst Arbeiten, die „dem Medium Internet mit kritischer Aufgeschlossenheit begegnen“,6 wie Stefan Münkers „Mythos Internet“, stellen fest, dass es wie „kaum eine andere zeitgenössische technologische Entwicklung [...] die ebenso grundlegenden wie weitreichenden Veränderungen [repräsentiert], welche die digitale Revolution für die gesellschaftlichen Kommunikationsverhältnisse bedeutet“.7 Massive gesellschaftliche Veränderungen im Zusammenhang mit der Einführung der Telegraphie sind hinreichend untersucht.8 Wie ist aber die tatsächliche, 1 Borchers, 128. Wittke definiert das Begriffspaar radikale vs. inkrementelle Innovation. Vgl. Wittke, 97. 3 Vgl. Stondage, passim. Weitere Parallelen sind z.B. die Bemühungen um einheitliche, internationale Übertragungsstandards oder der militärische Kontext in der Frühphase. Vgl. Haase, passim und Reindl, 45f.. 4 Vgl. Bolz, 76f.. 5 Vgl. Rötzer, 7-11. Rötzer vermischt (vorschnell) die Begriffe Virtual Reality und Internet. 6 Münker, 12. 7 Münker, 7. 8 Zu nennen wäre z.B. die generelle Beschleunigung der Kommunikation und die daraus resultierende 2 1 aktuelle Bedeutung des Internet zu bewerten? Das jeweils neueste Kommunikationsmedium in der Geschichte der Menschheit war in einer „heißen“ Anfangsphase „Gegenstand von Träumen und Wünschen, Projektionen und Mythen“.9 Der Rausch der anfänglichen Begeisterung ist zu Beginn des neuen Jahrtausends bereits verflogen. Die astronomischen Aktienwerte der Internetunternehmen haben Kurskorrekturen erfahren, es kam zu Firmenpleiten und an den Börsen macht sich fast schon ‚Katerstimmung’ breit. Der Markt beginnt pragmatischer an das Thema heranzugehen. Es wird Zeit, sich nüchtern mit dem Internet zu beschäftigen, das vor wenigen Jahren scheinbar aus dem Nichts auftauchte und über die Gesellschaft hereinbrach. Schon die Beschreibung des Untersuchungsgegenstandes bereitet Probleme - „a nontrivial task“,10 bemerkte Robert Kahn, eine der zentralen Figuren für die technische Entwicklung des Internet, bereits 1972 über ein Netzwerk, das lediglich 30 Rechner umfasste und von wenigen hundert Personen genutzt wurde. „Technik und Netztopologie des Internet erzeugen ein bislang ungekanntes Maß an Komplexität und Unübersichtlichkeit. Nutzungsvariabilität und Entwicklungsschnelligkeit sowie grenzüberschreitende Ausbreitung [...] machen das Internet schwer zugänglich für nationale Regelungs- und Gesetzesinitiativen”.11 Büllings Aussage bezieht sich zwar primär auf die „Steuerungsresistenz“, eines der derzeit drängendsten Probleme, gilt aber ebenso für eine historische Auseinandersetzung mit dem Thema. Eine Kenntnis des Untersuchungsgegenstandes ist dennoch unverzichtbar. John Quarterman, der bedeutende Kartograph der Netzwelt, fasste 1996 gängige Assoziationen zusammen: „We often mention the Internet, and in the press you read about the Internet as the prototype of the Information Highway; as a research tool; as open for business; as not ready for prime time; as a place your children might communicate with (pick one) a. strangers, b. teachers, c. pornographers, d. other children, e. their parents; as bigger than Poland; as smaller than Chicago; as a place to surf; as the biggest hype since Woodstock; as a competitive business tool; as the newest thing since sliced bread”.12 Dass das Internet ein Kommunikationsmittel darstellt, dürfte jedenfalls unumstritten sein. Jede Form der Verständigung ist auf Regeln, Normen bzw. gemeinsame Standards angewiesen. Dies gilt sowohl für direkte verbale und schriftliche Kommunikation, als auch für komplexe Mediensysteme. Sprache besteht aus Zeichen, die sich nach Saussure aus „signifié“ (Zeicheninhalt) und „signifiant“ (Zeichenform) sowie deren wechselseitiger Beziehung konstituieren. Ohne relativ beständige Konventionen (Grammatik usw.) kann der Internationalisierung der Wirtschaft. Vgl. Ahvenainen, passim und Walter, passim. 9 Debatin, 481. Platon bewertete z.B. die Einführung der Schriftlichkeit ambivalent. Vgl. ebd.. 10 RFC 0371. 11 Bülling, 41. 12 RFC 1935. 2 Bedeutungsgehalt des „signifiant“ nicht erschlossen werden.13 Bei sekundären und tertiären Medien findet die Kommunikation zudem technisch mediatisiert statt. In der zuletzt genannten Kategorie, wozu das Internet zählt, benötigen sowohl Empfänger als auch Sender eine entsprechende Ausstattung.14 Die über diese Medien stattfindende Kommunikation kann modellhaft in zwei Ebenen (Technik und Inhalt) aufgeteilt werden, die verhältnismäßig unabhängig koexistieren und dennoch beide den Kommunikationsprozess determinieren.15 Gutenbergs Innovation wurde erst durch soziale Mechanismen zum Kommunikationsmittel, exemplifiziert Kubicek. Ohne Regeln bzw. Konventionen zur Entschlüsselung der Mitteilungen, Vertriebswege, Produzenten von Inhalten u.ä. hätte die Druckerpresse nie ein Flugblatt oder Buch hergestellt. Der Buchdruck schuf die technische Grundlage für eine massenhafte Verbreitung des geschriebenen Wortes und schränkte trotz der Vielfalt an heutigen Printmedien die Nutzungsmöglichkeiten ein.16 Interaktion im Sinne einer bidirektionalen Kommunikation ist aufgrund der Technik nur begrenzt und generell nicht in Echtzeit möglich. Bei Zeitungen hat sie sich in Form von Leserbriefen etabliert, bei Büchern nicht. Medienentwicklung ist ein sozialer Prozess, der nicht auf technische Eigengesetzlichkeiten reduziert werden kann, von ihnen aber mitbestimmt wird. Die vorliegende Arbeit orientiert sich an beiden Ebenen der Kommunikation. Was geschieht, wenn man z.B. die WWW-Seite (World Wide Web) der Universität von Kalifornien in Los Angeles (UCLA) aufruft, an der bereits 1969 der Rechner eines großräumigen Netzwerks installiert wurde? Für den durchschnittlichen Internetnutzer verschwindet die Komplexität des Vorgangs hinter dem Fenster des Browsers, dem Programm von Netscape oder Microsoft zur Anzeige der Seiten des Web, der Mensch/Internet-Schnittstelle mit dem derzeit höchsten Verbreitungsgrad. Man tippt die URL17 der Universität – http://www.ucla.edu – in die Adresszeile und nach einer mehr oder weniger langen Wartezeit erscheint die Seite auf dem Bildschirm.18 Welchen Weg die Dateien zwischen heimischem Client und kalifornischem Server19 zurücklegten, bleibt im Verborgenen, lässt sich aber rekonstruieren.20 Insgesamt passierten sie zweiundzwanzig Knoten21 und 7 Netzwerke.22 Zuerst musste mit dem privaten PC über ein Modem 23 13 Vgl. Linke, 30-34. Vgl. Halbach, Einleitung, 30f.. 15 Vgl. Fiske, 35. 16 Vgl. Kubicek, Massenmedium, 219f.. 17 URL ist die Abkürzung von Uniform Ressource Locator, das Adressierungskonzept des WWW. Vgl. Voets, 544. 18 Vgl. Anhang A.1.. 19 Mit Hilfe der Client-Server-Architektur wird die Rolle der einzelnen Rechner in einem Netzwerk beschrieben. Vereinfacht ausgedrückt stellt der Server einen Dienst bereit, der von dem Client abgerufen werden kann. Dieses Prinzip wird auch in lokalen Netzwerken eingesetzt, weshalb man das „Internet auch als die größte Client-Server-Installation der Welt“ bezeichnen könnte. Vgl. Alpar, 23f.. 20 Für das Beispiel wurde das Programm NeoTrace verwendet, das kostenlos im Internet angeboten wird (http://www.neotrace.com). 21 Ein Knoten (engl. node) kann folgendermaßen definiert werden: „a computer directly connected to a net14 3 und das analoge Telefonnetz eine Verbindung mit dem Internet hergestellt werden. Als Provider24 wurde die Universität Heidelberg gewählt, die einen für Studenten kostenlosen Zugang anbietet.25 Der erste Internetrechner ist folglich dem Netz der Universität zugeordnet. Mit dem vierten Host wird das zweite Netzwerk auf dem Weg nach Kaliforniern passiert: BelWü (Baden-Württembergs extended LAN), ein regionales Datennetz, das die wissenschaftlichen Einrichtungen des Bundeslandes miteinander verbindet.26 Schon der nächste Knoten gehört dem deutschen Wissenschaftsnetz WiN an, das vom Verein zur Förderung eines Deutschen Forschungsnetzes e.V. (DFN-Verein) betrieben wird, der mehr als 300 Mitglieder aus Politik, privater Forschung und Wissenschaft auf sich vereint.27 DANTE Ltd., die Betreiberorganisation des folgenden Netzwerks (TEN-155), weist eine ähnliche Zusammensetzung auf. Das vollständig von der öffentlichen Hand finanzierte Non-Profit-Unternehmen koordiniert die Infrastruktur zur Verbindung von 16 nationalen und einem regionalen Forschungsnetz in ganz Europa.28 An diesen europäischen Backbone29 schließt sich mit dem elften Knoten das Abilene Network an, auf dem die Daten den Atlantik überqueren. Abilene ist ein Projekt der US-amerikanischen University Corporation for Advanced Internet Development (UCAID), die auch das Projekt „Internet 2“ unterstützt. UCAID umfasst annähernd 150 Mitglieder aus dem Bereich der staatlichen Hochschulen und privaten Forschungseinrichtungen.30 Bevor die Datenpakete schließlich die UCLA erreichen, passieren sie noch das regionale Netzwerk CalREN2 (California Research and Education Network), das von CENIC (Corporation for Education Network Initiatives in California) initiiert wurde, in der wiederum Organisationen aus der öffentlichen und privatwirtschaftlichen Forschung kooperieren.31 Der UCLA-Server ist schließlich wie der Ausgangspunkt in Heidelberg in ein inneruniversitäres Netzwerk eingebunden. Das Beispiel illustriert die Komplexität der Infrastruktur und die diffizile Konstellation der Akteure, die am Aufbau bzw. Betrieb der Netzwerke, dem Angebot von Inhalten und Zugängen beteiligt sind. Die Aufschlüsselung des Begriffs Internet („International Network“) work’s communication lines; often performs switching [die Vermittlung der Dateien im Netzwerk]“. Davon zu unterscheiden ist ein Host: „time-sharing computer (used by people not the network)“. Vgl. Abbate, 151f.. 22 Vgl. Anhang A.2.. 23 Ein Modem („modulation/demodulation“) übersetzt digitale Informationen in akustische Signale um deren Transport über analoge Telefonleitungen zu ermöglichen. Beim Empfang werden die akustischen Signale digitalisiert. Vgl. Abbate, 153. 24 Provider bezeichnet in diesem Fall den Anbieter eines Internetzugangs. Vgl. Voets, 415. 25 Die anfallenden Kosten entstehen durch die Gebühren („Citygespräche“) der Deutschen Telekom für die Verbindung zum Rechner der Universität. Dies führt zu der absurden Situation, dass der in diesem Fall kostenlose Internetzugang über die Hochschule Anfang 2000 teurer ist als die Angebote kommerzieller Provider wie z.B. Commundo mit 2,9Pf./min. (Vgl. http://www.commundo.de). 26 Vgl. http://www.belwue.de/info/belwue.html. 27 Vgl. http://www.dfn.de und Kapitel 4.1.3.. 28 Vgl. http://www.dante.net und Kapitel 4.1.3.. 29 Mit Backbone werden Netze bezeichnet, die eigenständige, regional begrenzte Netzwerke über eine leistungsfähige Infrastruktur verbinden und so eine effektive und wirtschaftliche Kommunikation ermöglichen. Vgl. Voets, 43. 30 Vgl. http://www.ucaid.de/abliene und Kapitel 4.4.. 31 Vgl. http://www.calren2.net. 4 trägt zur Verschleierung der tatsächlichen Situation bei, impliziert sie doch eine Homogenität, die es nicht gibt.32 Nach Informationen von Merit umfasste das schwer greifbare Gebilde bereits 1995 mehr als 50.000 Einzelnetzwerke.33 Zuverlässige, aktuelle Zahlen liegen nicht vor. Angesichts des Wachstums der letzten Jahre ist aber davon auszugehen, dass es inzwischen mehrere Hunderttausend sind. Jedes dieser Netzwerke ist für den Betrieb selbst verantwortlich, d.h. vergibt Zugriffsrechte, muss die Finanzierung sichern und stellt Regeln für die Nutzung auf.34 Dies gilt für supranationale Backbones ebenso wie für Projekte auf lokaler Ebene. Es gibt bis heute keine zentralen Betreibergesellschaften, wie beispielsweise bei den nationalen Telefonnetzen Europas bis vor wenigen Jahren.35 Die tatsächliche Situation ist weitaus komplexer als in dem Beispiel. Sowohl Provider (Universität Heidelberg) als auch Server (UCLA) sind dem universitären Bereich zugeordnet, was die verhältnismäßig homogene Akteurskonstellation und nichtrepräsentative Dominanz der öffentlichen Hand erklärt. Die Zusammensetzung ergibt ein anderes Bild, nimmt man das WWW-Angebot eines gewinnorientierten Unternehmens und den Internetzugang eines kommerziellen Providers in Anspruch.36 Zusammengehalten wird das komplizierte Gebilde autonomer, heterogener Netzwerke der unterschiedlichsten Größe und Orientierung (kommerziell, universitär, usw.) von TCP/IP (Transmission Control Protocol / Internet Protocol), dem „‚Grundgesetz’ der Netzwelt“, 37 sine qua non des Internet und Kernelement gängiger Definitionen. Das ECON PC-Lexikon erläutert den Begriff z.B. folgendermaßen: „Internationaler Verbund von Netzwerken und Rechnern, der über das TCP/IP-Protokoll den Austausch zwischen den unterschiedlichsten Rechnerplattformen ermöglicht. Strenggenommen existiert das I. nicht als System ständiger Verbindungen, sondern besteht aus Vereinbarungen über Kommunikationswege und –umwege“.38 Auf diesem Fundament basieren weitere Protokolle, d.h. Regelsysteme auf Softwareebene, die Anwendungen bzw. Dienste konstituieren. WWW und EMail zählen zu den derzeit beliebtesten und bekanntesten. Telnet, FTP, und Newsgroups, die im weiteren Verlauf der Arbeit noch detaillierter behandelt werden, sind davon zu unterscheiden und bieten jeweils spezifische Möglichkeiten. „Die Trennschärfe zwischen den Anwendungen löst sich für den Netznutzer [...] auf“39 – aus den Browsern, originär für die Seiten des WWW bestimmt, haben sich mächtige Programme mit umfassender Funktio32 Treffender wäre eigentlich lat. inter (=zwischen) sowie der Plural. Vgl. Merit Network Information Center, Networks. Tatsächlich waren es mehr als 50.000, da sich Merit nur auf den Bereich des NSFNET bezieht. Vgl. Kapitel 4.4.. 34 Vgl. z.B. das komplexe Regelwerk der Universität Heidelberg: http://web.urz.uni-heidelberg.de/AllgemeinInfo/Ordnungen/vbo.html. 35 Es gibt aber Organisationen, die sich mit der technischen Weiterentwicklung bzw. der Etablierung von Standards beschäftigen und die Vergabe der Domain-Adressen organisieren. Die Organisationen werden in Kapitel 4.1.4. behandelt. 36 Die privatwirtschaftlichen Elemente bilden aber den jüngsten Bereich des Konglomerats, sodass die Akteure treffend charakterisiert sind, betrachtet man den gesamten Entwicklungszeitraum. 37 Hofmann. 38 Voets, 261. 39 Bülling, 152. 33 5 nalität entwickelt. Dieser Komfort spricht für einen fortgeschrittenen Entwicklungsstand. „Wenn Prognosen über die weitere Entwicklung gemacht [...] werden, sollte dies differenziert für unterschiedliche Dienste geschehen“,40 fordert Kubicek. Nico Rost klärt die Zusammenhänge technisch und unterscheidet, das theoretische Modell der ISO für Netzwerke simplifizierend, zwischen verschiedenen Schichten. Eine physikalische Schicht, die sich aus einzelnen Computer- und Telefonnetzen (sowie anderen Trägermedien) zusammensetzt und auf der die Protokollschicht des Internet (TCP/IP) aufbaut; diese bildet wiederum die Basis für eine Anwendungsschicht, d.h. die verschiedenen o.g. Dienste, aus denen sich neue Formen der Vernetzung ergeben.41 WWW oder USENET werden bei dieser Betrachtung zu virtuellen Netzwerken. Ist das Internet lediglich im technischen Sinne ein Medium, dass den Transport von Daten realisiert oder ist es ein „Hypermedium“, das unterschiedlichste Kommunikationsmöglichkeiten auf sich vereint? Wie die Antwort auch ausfallen mag, es bleibt die Notwendigkeit zu einer nach Diensten differenzierten Auseinandersetzung mit dem Thema, vor allem bei einer retrospektiven Herangehensweise. Die Trennlinien waren während der ersten Jahrzehnte durch jeweils unterschiedliche Programme (Mensch/Internet-Schnittstellen) klar zu erkennen und verwischten sich erst in den letzten Jahren. Für eine Umdeutung des Netzwerks zu einem erst individuell genutzten, später gruppenbezogenen Kommunikationsmittel mussten zuvor die technischen Grundlagen geschaffen werden. Insofern ist die Geschichte des Internet auch eine Geschichte der Protokolle bzw. Protokollentwicklung. Dennoch muss stets zwischen technischen (Kommunikations-)Möglichkeiten und sozial etablierter Praxis unterschieden werden. Die Komplexität des Untersuchungsgegenstandes hat die deutsche Forschungslandschaft nicht davon abgehalten, sich intensiv mit dem Thema auseinander zu setzen. Seit 1995 wurde über das Internet in Geistes- und Sozialwissenschaften viel geschrieben: Markus Bickenbach und Harun Maye näherten sich dem Thema über einen linguistischen Ansatz und untersuchten die „Metaphern“.42 Jeanette Hofmann und andere beschrieben den „Kulturraum Internet“ aus ethnographischer Perspektive.43 Volker Leib sowie Raymund Werle konzentrierten sich auf die „Rolle der staatlichen Akteure“.44 Rainer Kuhlen, Thomas Zittel sowie Otfried Jarren untersuchten das Potential und die Bedeutung des Mediums für die politische Kommunikation.45 Psychologische Studien beschäftigten sich mit 40 Kubicek, Massenmedium, 232. Vgl. Rost, 20f.. In Anlehnung an Ingo Braun könnte man das Internet als „großtechnisches System 2. Ordnung“ bezeichnen, da es selbst auf großtechnischen Systemen basiert. Vgl. Braun, 483ff.. Die einzelnen Dienste wären demnach Systeme der 3. oder 4. Ordnung. Diese Hierachisierung führt nicht weiter. 42 Vgl. Bickenbach, passim. 43 Vgl. Hofmann, passim. 44 Vgl. Leib, passim und Werle, Wissenschaftsnetz, passim. 45 Vgl. Kuhlen, passim; Zittel, passim und Jarren, passim. Das Potential der Vernetzung für die politische Partizipation und die Informationsgesellschaft im Allgemeinen wurde schon 1984 von Otto Ulrich erörtert. Damals stand an Stelle des Internet noch der Begriff „Telemat“. Vgl. Ulrich, passim. 41 6 den Motiven der Onlinenutzung46 und Gerhard Vowe sowie Eli Noam stellten die Frage nach der „Regulierbarkeit“.47 Die Vielfalt der Ansätze macht eine umfassende Charakterisierung der Forschungssituation nahezu unmöglich. Im Folgenden sollen vor allem die Ansätze der Soziologie und Medien- bzw. Kommunikationswissenschaften berücksichtigt werden. In beiden Disziplinen findet eine breite Auseinandersetzung mit dem Internet und verwandten Themen statt. Die Soziologie untersucht nicht nur den Ist-Zustand der „Cybersociety“ und deren Auswirkungen auf die zukünftige Gesellschaft.48 Die in diesem Fachbereich beheimatete Techniksoziologie hat komplexe Modelle für die Entwicklung und das Verständnis von Technik bzw. technischen Systemen hervorgebracht, die bei der Untersuchung des Netzaufbaus hilfreich sein können. Der von Frank Thomas herangezogene Ansatz zur Beschreibung des großtechnischen Systems Telefon ist prinzipiell auf das Internet anwendbar. Er versteht die Netzinfrastruktur als eine Gesamtheit von Gegenständen, Prozessen und Verfahren einschließlich der Rahmendbedingungen, welche die Erzeugung, Ausbreitung, Anwendung und Unterhaltung dieser Technik ermöglichen. Das Internet als großtechnisches System setzt sich demnach aus Elementen materieller (technische Artefakte), kultureller (Werte, Wissen) und sozialer Natur (Institutionen, Verbände, Normen) zusammen, wobei den zuletzt genannten durch die Fähigkeit zu zielgerichtetem Handeln eine zentrale Bedeutung zukommt. Ihr Handlungsspielraum wird durch die materiellen und kulturellen Elemente des Systems mitbestimmt, nicht aber eindeutig festgelegt.49 Damit kommt zum Ausdruck, dass auch die Infrastruktur des Internet mehr ist als eine Ansammlung von untereinander verbundenen Rechnern, die den Transport von Daten ermöglichen. Bei der erbrachten Leistung großtechnischer Systeme kann nach Thomas zwischen Primär- und Sekundärfunktionen unterschieden werden. Das Telefonsystem z.B. ist primär ein Mittel zur interaktiven Übertragung von akustischen Signalen. Über Sekundärfunktionen, wie z.B. Notruftelefone, wird die Technik sozial gestaltet.50 Der Ansatz ist interessant, da er die Komplexität großtechnischer Systeme erklärt, die sich eben nicht auf technische Artefakte reduzieren lässt. Für die vorliegende Arbeit ist er aber zu statisch. In der sozialwissenschaftlichen Technikforschung ist es Konsens, die Genese der „technische[n] Artefakte und Systeme [...] als Resultate von gesellschaftlich-polititschen Entscheidungsprozessen und Akteur- bzw. Interessenkonstellationen“51 zu verstehen. Auch die Entwicklung ist demnach ein sozialer Prozess. Wie er konkret abläuft, wird in ver- 46 Vgl. Grüne, passim. Vgl. Noam, passim und Vowe, passim. 48 Vgl. z.B. Bühl, passim. 49 Vgl. Thomas, 19-23. 50 Vgl. Thomas, 23-26. 51 Hellige, 187. 47 7 schiedenen Ansätzen erklärt. Das „Closure-Konzept“ der Sozialkonstruktivisten geht z.B. von einer Schlüsselentscheidung in der Frühphase aus, welche die gesamte Entwicklung prägt und in späteren Phasen nur noch schwer verändert werden kann.52 Ähnlich aufgebaut ist Jörg Meyer-Stamers Konzept der „technologischen Korridore“ oder „Pfadabhängigkeiten“, mit dem er versucht zu erklären, weshalb sich das Internet gegenüber alternativen Technologien durchsetzte. Er geht zwar nicht mehr von einer einmaligen Schließung in der Frühphase aus, der weitere Entscheidungsspielraum der Akteure ist aber durch technische, politische und ökonomische Rationalitätserwägungen eingeschränkt, wenn auch nicht eindeutig determiniert, was dazu führt, dass inkrementelle Lösungen bei der Weiterentwicklung bevorzugt werden. Die Anzahl möglicher Alternativen wird im zeitlichen Verlauf geringer, sodass sich der eingeschlagene Pfad oder Korridor zunehmend verengt und die Entwicklung schließlich linear verläuft.53 Das Evolutionsmodell, mit dem Volker Schneider die Anpassung alternativer Konzepte (z.B. Btx) an das Internet erklärt, fasst hingegen den technologischen Wandel als einen Prozess auf, der über die Grundmuster Variation und Selektion beschrieben werden kann. Aufgrund der Weiterentwicklung vorhandener Formen entstehen immer komplexere Gebilde, die sich fortlaufend an technisch und institutionell variable Umwelten anpassen müssen. Der technische Fortschritt verläuft demnach analog zur biologischen Evolution nicht linear, sondern weist Stagnationsphasen, Entwicklungseinbrüche und –sprünge auf.54 Das Beispiel der QWERTZ-Tastur gilt als Beweis, dass auch ineffiziente Formen überleben können, der Evolutionsprozess folglich nicht eindeutig von der technischen Logik bestimmt ist.55 Die Ansätze der Soziologie beanspruchen die Funktionsweise großtechnischer Systeme oder den Prozess der Technikgenese im Allgemeinen zu erklären. Ob man damit der historischen Komplexität und den spezifischen Unterschieden gerecht wird, kann angezweifelt werden. Festzuhalten bleibt die generelle Bedeutung des Faktors Mensch bzw. der Gesellschaft für Betrieb und Prägung großtechnischer Systeme sowie den Prozess der Innovation und Weiterentwicklung. Dominiert wird die Auseinandersetzung mit dem Internet bisher von den Kommunikationsund Medienwissenschaften, die sich hauptsächlich mit dessen Nutzung, weniger mit dem Aufbau der Infrastruktur beschäftigen. Ausgangspunkt ist häufig Gerhard Maletzkes Definition der Massenkommunikation von 1963: „Unter Massenkommunikation verstehen wir jene Form der Kommunikation, bei der Aussagen öffentlich (also ohne begrenzte und per- 52 Vgl. Weyer, 24f.. Vgl. Meyer-Stamer, 139-141. 54 Vgl. Schneider, 133-135. 55 Die QWERTZ-Systematik sollte ein Verhacken der Typenarme bei mechanischen Schreibmaschinen verhindern. Schon in den 30er Jahren wurden alternative Anordnungen entwickelt, die eine höhere Schreibgeschwindigkeit erlaubten, sich aber nicht durchsetzen konnten. Vgl. Werle, Wissenschaftsnetz. 53 8 sonell definierte Empfängerschaft), durch technische Verbreitungsmittel (Medien), indirekt (also bei räumlicher oder zeitlicher oder raumzeitlicher Distanz zwischen den Kommunikationspartnern) und einseitig (also ohne Rollenwechsel zwischen Aussagendem und Aufnehmenden) an ein disperses Publikum (im soeben erläuterten Sinne) vermittelt werden“.56 Die Dichotomie Massen- vs. Individualkommunikation, der auch eine juristische bzw. verfassungsrechtliche Bedeutung zukommt,57 scheint den Kommunikationsraum Internet nicht adäquat zu erfassen. „Von den Attributen der Definition Maletzkes – öffentlich, einseitig, an ein disperses Publikum gerichtet – lässt sich das des technischen [...] präzisieren, alle anderen Abgrenzungen gelten [...] nur noch für einen Teil dessen, was an Information durch den elektronisch mediatisierten Informationsraum fließt“.58 Ähnlich urteilte 1995 Joachim Höflich: „Zwar wurde immer wieder festgestellt, daß sich [...] die Grenzen zwischen Massen- und Individualkommunikation auflösen [...], doch wohl zum ersten Mal wird dies konkret nachvollziehbar“.59 Das Phänomen gruppenbezogener Kommunikation in Newsgroups, IRC oder MailingListen wird mit Maletzkes Schema tatsächlich nicht mehr erfasst. Die starre Zweiteilung von „Empfänger“ und „Sender“, „Galerie“ und „Arena“ oder „Rezipient“ und „Kommunikator“ widerspricht der Möglichkeit zu bidirektionaler Kommunikation. Lutz Goertz schlägt das Begriffspaar „organisierender Beteiligter“ und „Beteiligter“ vor, das andeuten soll, dass beide „zumindest theoretisch auf einer Stufe stehen können“.60 Die vorliegende Arbeit verwendet, trotz der teilweise berechtigten Kritik Marschalls,61 den Begriff „Nutzer“ (engl. „User“), womit jedoch noch kein hierarchiefreier Kommunikationsraum konstruiert werden soll. Herbert Kubiceks Einteilung der Dienste in eine Matrix aus neun Feldern mit einem, wenigen sowie vielen (prinzipiell allen) Teilnehmern der Kommunikation auf beiden Seiten,62 ist zwar berechtigt und sinnvoll, löst das Problem an sich aber nicht. Sind wir am „Ende der Massenkommunikation“,63 endlich auf dem Weg zu den „Media Activa“?64 Ähnliche Visionen waren mit der Einführung der offenen Kanäle im Rahmen des Kabelfernsehens und dem Btx-Projekt der Bundespost, den heute weitgehend irrelevanten „Neuen Medien“ der 80er Jahre, verbunden. Sie haben sich nicht erfüllt.65 Die Fragenstellungen „Wird Online Alltagsmedium?“66 oder „Das Internet auf dem Weg zum Massenmedium?“67 markieren den anderen Endpunkt dieser kommunikationswissen56 Maletzke, 32. Vgl. Hoffmann-Riem, 387-389. 58 Krotz, 450. 59 Höflich, Publikum, 518. 60 Goertz, 484. 61 Vgl. Marschall, 155. 62 Vgl. Kubicek, Massenmedium, 232. 63 Hoffmann-Riem, 382. 64 Schmid, Media, 518. 65 Vgl. Schmid, Media, 520-525. 66 Eimeren, 1999, 401. 67 Kubicek, Massenmedium, 213. 57 9 schaftlichen Auseinandersetzung. Wolfgang Hoffmann-Riem und Thomas Vesting weisen in diesem Zusammenhang auf ein Defizit von Malezkes Definition hin, die hauptsächlich die Seite der Rezeption berücksichtigt. Heute etablierte Massenmedien weisen aber charakteristische, komplexe Produktionsformen auf.68 „Techniken bedürfen der Vergesellschaftung und werden erst dann zum publizistischen Medium, wenn sie über die Funktion eines technischen Vermittlungssystems hinaus in einen spezifisch institutionalisierten Handlungskontext eingebunden sind“.69 Herbert Kubicek meint dasselbe und spricht von „Medien 2. Ordnung“. Massenmedien unterscheiden sich demnach von anderen Medien durch eine ausdifferenzierte, technische und kognitive Infrastruktur, wozu die „vollständige Einbettung in die Alltagsroutinen der Nutzen“70 ebenso zählt wie am Beispiel der Zeitung ein „sozioökonomisches System aus Korrespondenten, Presseagenturen, Redaktionen, Anzeigenannahmestellen und Kiosken“.71 Ist das Internet auf dem Weg zu einem publizistischen Medium (2. Ordnung)? „Die Geschichte der Massenkommunikation hat gelehrt, daß die Funktionen der einzelnen Medien keinesfalls absolut konstant sind, daß sie vielmehr von der jeweiligen Gesamtkonstellation aller vorhandenen Medien abhängen und sich mit dieser Konstellation wandeln und verschieben“.72 Die von Maletzke angesprochenen Interdependenzen können nicht umfassend untersucht werden und sind während der ersten Jahrzehnte ohnehin zu vernachlässigen. Dass sich das Aufkommen eines neuen Mediums auf den Konsum traditioneller Medien auswirkt, ist offensichtlich, sofern sich das Zeitbudget der Bevölkerung nicht grundlegend verändert. Das „Rieplsche Gesetz“ der Kommunikationswissenschaften, das von einer grundsätzlichen Komplementarität der Medienentwicklung ausgeht, ist trotz aller Kritik im Detail bis heute nicht widerlegt73 und relativiert vorschnelle Prognosen über zukünftige Konvergenz fachimmanent. Schon die Definition des Internet als eigenständiges Medium bedeutet letztendlich die Abkehr von einer umfassenden Verschmelzungstheorie.74 Wesentlich ist Maletzkes Hinweis auf die funktionelle Wandelbarkeit, denn sie verdeutlicht, dass der Zusammenhang eines Mediums mit der zugrundeliegenden Technik nicht überstrapaziert werden sollte. In Ungarn war das Telefon im 19. Jahrhundert auch ein „Broadcasting“-Medium zur Übertragung von Nachrichten und Musik. Das Radio wurde anfangs dagegen interaktiv genutzt.75 Technisches Potential und aktuelle Nutzungspraktiken lassen nur bedingt Prognosen über die weitere Entwicklung zu. Betrachtet man das Internet in seiner Gesamtheit als Medium, so ist dessen kurze 68 Vgl. Hoffmann-Riem, 386. Neverla, 30. 70 Kubicek, Massenmedium, 227. 71 Ebd., 219. 72 Maletzke, 183. 73 Vgl. Schäfers, 95f.. 74 Vgl. Hickethier, 150. 75 Vgl. Kubicek, Massenmedium, 221. 69 10 Geschichte selbst das beste Beispiel für einen konstanten funktionalen Wandel. Sowohl Techniksoziologie (Technikfolgenforschung) als auch Medien- bzw. Kommunikationswissenschaften sind häufig prospektiv angelegt, was den theorielastigen, teilweise spekulativen Charakter erklärt. „Die Bilder des medialen Epochenwandels leben davon, daß sie Zukünftiges versprechen, auf die Phantasie der Leser setzen [...]“.76 Bei historischen Arbeiten, per se retrospektiv, besteht diese Gefahr nicht. Die Vorgehensweise von Irene Neverla ist charakteristisch für die bisherige, meist ahistorische Auseinandersetzung der deutschen Wissenschaft: Die Vergangenheit des Internet wird von der Autorin trotz des vielversprechenden Titels „Zur sozialen Konstruktion des Netzmediums“ in drei Sätzen abgehandelt,77 ehe sie sich dem Potential und den damit verbundenen Defiziten der Kommunikationswissenschaften zuwendet. „Die gegenwärtige wissenschaftliche und öffentliche Auseinandersetzung um die Entwicklung von Medien bedarf dringend der Historisierung“,78 fordert Anja Schäfers in demselben Sammelband und empfiehlt: „Diese historische Analyse sollte sich bemühen, den Entwicklungsprozess von Kommunikationstechnologien in all seiner Komplexität zu begreifen“.79 Vorstellungen von einem ziel- und sinngerichteten, linearen historischen Prozess sind inzwischen „im Säurebad kritischer Geschichtswissenschaft aufgelöst worden“.80 Einheitsstiftendes Element bleibt nach Lothar Gall der Bezug auf den Menschen, den es als Einzelwesen oder in der Vielfalt an Interaktionsformen besser zu verstehen gelte. Definitive, universalisierbare oder gesetzmäßige Ergebnisse seien nicht zu erwarten.81 „Der Geschichtswissenschaft geht es darum, Einsichten über die Vergangenheit zu gewinnen, die in ihrer Vieldimensionalität und Widersprüchlichkeit der Entwicklung der menschlichen Gesellschaft nahekommen“. 82 Bei einer historischen Auseinandersetzung mit Medien bzw. Massenkommunikationsmitteln, deren Bedeutung für die menschliche Interaktion im 19. und 20. Jahrhundert offensichtlich ist, ergibt sich eine Vielzahl von möglichen Perspektiven, die Wulf Halbach in einer Überblicksdarstellung als „Erzählung von sozialen, materialen und wissenschaftlichingenieurstechnischen Anteilen sowie von Medienkompetenz, ökonomischen Nutzungschancen und politischen Manipulationsinteressen“83 zusammenfasst. Das Internet ist ein Thema für Historiker und wenn sich nur ein Teil der Prognosen über die weitere Entwicklung bewahrheitet, wird sich die Geschichtswissenschaft in Zukunft noch häufiger und intensiver damit auseinandersetzen. Die vorliegende Arbeit soll sich dem Thema jenseits linearer Entwicklungsmodelle, Gesetzmäßigkeiten oder prognosti- 76 Hickethier, 148. Vgl. Neverla, 17. 78 Schäfers, 102. 79 Schäfers, 104. 80 Gall, 4. 81 Vgl. Gall, 14f.. 82 Schäfers, 100. 83 Halbach, Einleitung, 48. 77 11 zierter epochaler Bedeutung nähern und versucht in einer möglichst detaillierten Betrachtung der Komplexität des Prozesses gerecht zu werden. Eine umfassende Herangehensweise, wie sie Halbach und Schäfers fordern, kann in einer einzelnen Arbeit nicht geleistet werden. Etablierte mediengeschichtliche Instrumentarien, wie z.B. die Rezeptions- oder Programmforschung, scheiden bei einer (historischen) Betrachtung des Internet aufgrund der Quellenlage, den Kommunikationstechniken sowie dem Entwicklungsstand weitgehend aus. Zwei Themenbereiche sollen eingehender behandelt werden: Wie vollzog sich der Netzaufbau und welche Nutzungsmöglichkeiten oder –praktiken haben sich entwickelt bzw. prägten die Kommunikation in dem jeweiligen Zeitraum. Die Sekundärliteratur untergliedert die Entwicklung in unterschiedliche Phasen. Der Wirtschaftsinformatiker Paul Alpar, der in seinem Buch weit mehr abhandelt als die „Kommerzielle Nutzung des Internet“, unterscheidet zwischen Experimentierphase (bis 1983), Skalierungsphase (bis 1992) und einer daran anschließenden dritten Phase der universellen und globalen Anwendungen. 84 Janet Abbates Dissertation differenziert zwischen einer Ära der Innovation (bis 1972) und des Wachstums sowie Technologietransfers (bis 1988). Die daran anschließende dritte Phase, charakterisiert durch eine politische und öffentliche Auseinandersetzung, wird nur noch am Rande behandelt.85 Die vorliegende Arbeit ist ebenfalls in drei Abschnitte untergliedert. Wie bei Abbate endet der erste Abschnitt, eine Phase der radikalen Innovation, 1972. In diesen Zeitraum fällt die Umdeutung der Nutzungsmöglichkeiten des Computers und der Aufbau eines ersten Netzwerks. Im zweiten Abschnitt kann die neue Technologie als Kommunikationsmittel genutzt werden. Die radikale Innovation stabilisiert sich, regt Folgeprojekte an und lässt schließlich die Idee einer Vernetzung von Netzwerken aufkommen. In den frühen 80er Jahren, zu Beginn des dritten Abschnitts, gewinnt die Entwicklung an Dynamik und das Wachstum der Netzwerke beginnt exponentiell zu verlaufen. Neue Kommunikationstechniken lassen nun prinzipiell eine massenmediale Nutzung zu und auch außerhalb computerwissenschaftlicher Labors entsteht der Bedarf sich zu vernetzen. Das Internet formiert sich in diesem Jahrzehnt, setzt sich allmählich gegen Alternativen durch und dominiert schließlich den Kommunikationsraum. Die Untergliederung eines historischen Prozesses ist generell problematisch. Zum einen impliziert sie eine Homogenität in einzelnen Abschnitten, die der dynamischen Entwicklung meist nicht gerecht wird. Zum anderen besteht die Gefahr, dass Einzelereignissen eine zu große Bedeutung beigemessen wird. Die vorgenommene Einteilung sollte deshalb nicht statisch interpretiert werden. Die Übergänge verlaufen fließend und innerhalb jedes Abschnitts sind kontinuierliche Veränderungen feststellbar. Das Hauptaugenmerk soll auf 84 85 Vgl. Alpar, 15-19. Vgl. Abbate, 144-147. 12 den Zeitraum bis Anfang der 90er Jahre gerichtet werden. Die daran anschließende Umgestaltung ist aber zu massiv um ausgelassen zu werden und könnte ebenso als Beginn eines neuen Abschnittes interpretiert werden. Aufgrund des gewählten Schwerpunkts und der Dynamik des Prozesses muss die Darstellung in diesem Zeitraum selektiv bleiben. Die für die Entwicklungen relevanten Akteure sollen identifiziert sowie charakterisiert werden. Vor allem das Engagement von Privatwirtschaft und öffentlicher Hand wird eingehender betrachtet. Ein Blick in die Nutzungsgeschichte der Infrastruktur ermöglicht eine aufgeklärtere Beurteilung des Internet als Medium und der damit verbunden Hoffnungen. Lassen sich historische Anknüpfungspunkte finden, die auf neue, interaktive bzw. bidirektionale Kommunikationspraktiken schließen lassen? Das Internet „schreibt seine eigene Geschichte und dokumentiert diese auf erstaunlich transparente Weise in seinen Strukturen und Funktionen, [...] wobei die relevanten ‚Dokumente’ als Metadaten in diesem und durch diesen Verbund archiviert sind“.86 Viele zeitgenössische, technische Dokumente, Diskussionsbeiträge in Mailing-Listen oder offizielle Mitteilungen an die Nutzer der Netzwerke sind in digitaler Form auf verschiedenen Servern archiviert und frei zugänglich. Lücken gibt es vor allem in den 60er und 70er Jahren, als die Akteure die Folgen ihres Experiments noch nicht abschätzen konnten und digitale Speichermedien mit immensen Kosten verbunden waren.87 Insgesamt ergibt sich eine interessante, ambivalente Quellenlage. Einerseits ist ein detaillierter Einblick in die Entwicklungen möglich und aufgrund der digitalen Archivierung die Bearbeitung deutlich vereinfacht. Andererseits bereiten fehlenden Seitenangaben und die Gefahr, dass Inhalte geändert bzw. anders adressiert werden, Probleme mit der akademisch etablierten Zitierweise. Die Selektionsanforderungen sind hoch, entfallen doch bei vielen Internetseiten Kontrollmechanismen, die mit wissenschaftlichen Printmedien vergleichbar wären. Eine genaue Prüfung des Urhebers ist unabdingbar. 2. Das experimentelle ARPANET Auch bei einer Einzelstudie stellt sich die Frage nach einem geeigneten Anknüpfungspunkt. Rheingold weist auf das technische Fundament der computervermittelten Kommunikation hin, deren Prinzip darauf beruht, dass „zwei ursprünglich unabhängige Technologien miteinander verbunden werden. Es hat Milliarden von Dollar gekostet und Jahrzehnte gedauert, bis Preiswerte PCs entwickelt waren. Es hat Milliarden von Dollar gekostet und mehr als ein Jahrhundert gedauert, bis das weltweite Telekommunikationsnetz verkabelt war“.88 Telefonsystem und Rechner sind wesentliche Voraussetzungen des heutigen 86 Halbach, Netzwerke, 280f.. Ein Teil der Quellen ist nur über persönliche Kontakte zu erhalten. Sie konnten bei der vorliegenden Arbeit nicht berücksichtigt werden. 88 Rheingold, 16. 87 13 Internet. Muss folglich auch bei einem nicht-komparativen, deskriptiven Ansatz ein Untersuchungszeitraum von mehr als 100 Jahren behandelt werden? Hans-Jürgen Teuteberg und Cornelius Neutsch haben sich dieser Herausforderung gestellt, gingen noch einen Schritt weiter und beschrieben in ihrem Sammelband „Vom Flügeltelegraphen zum Internet“ die gesamte „Geschichte der modernen Telekommunikation“.89 Teuteberg selbst widmete sich in dem Buch auf mehr als 100 Seiten den „Strukturmerkmale[n] multimedialer Revolutionierung von Wirtschaft, Gesellschaft und Kultur an der Wende zum 21. Jahrhundert“. Ihm bleiben weniger als 10 Seiten, das „Internet als neues Nervenzentrum der Informationsgesellschaft“ zu untersuchen.90 Ein solch umfassender Ansatz läuft Gefahr oberflächlich zu bleiben, denn es hat ebenfalls Milliarden von Dollar gekostet und Jahrzehnte gedauert, aus den beiden Technologien Telefonsystem und Computer das komplexe Gebilde Internet zu formen. In den Publikationen der deutschen Forschung, dominiert von Medien- und Kommunikationswissenschaften, bei weitgehender Abstinenz der Geschichtswissenschaft,91 werden die Entwicklungen der 60er und 70er Jahre in wenigen Sätzen abgehandelt. Teutebergs Aussage ist charakteristisch für die vorherrschende Tendenz. Er betrachtet die Frühphase fokussiert auf den Kontext des Kalten Krieges und führt die Entstehung darauf zurück, dass „Militärstrategen im Pentagon [...] nach einem gegnerischen Atomschlag mit großer Zerstörungskraft ein weiterhin funktionierendes Nachrichtensystem haben wollte[n]“.92 Die Akteurskonstellation wird auf das US-amerikanische Verteidigungsministerium beschränkt, womit sich die Reduktion der Zielsetzung auf ein militärisches Kommunikationsmittel erklären lässt. Die amerikanische Forschungsliteratur erlaubt ein differenzierteres Bild. Es ist ein Verdienst von Michael und Ronda Haubens93 Arbeit „The Netizens and the wonderful world of the Net: an anthology“ die Bedeutung der Nutzenden zu betonen.94 Sie 89 Vgl. Teuteberg, Geschichte, passim. Vgl. Teuteberg, Strukturmerkmale, passim. 91 Die deutsche Geschichtswissenschaft beschäftigte sich bisher hauptsächlich mit den aktuellen Nutzungsmöglichkeiten des Internet, nicht mit dessen Historie. In den einschlägigen Fachzeitschriften findet man folgende Arbeiten: Mittag, J. und Sahle, P: Geschichte und Computer im Internet – Informationsgewinnung zwischen Chaos und Ordnung, in: HSR 21/2 (1996), S. 126-132; Schröder, Thomas: Historisch Relevante Ressourcen in Internet und WorldWideWeb. Angebot, Bewertung und Ausblick, in: VjhZG 44/2 (1996), S. 465477; Assam, Bernhard: Digitale Edition im Internet, oder: Hätte Ranke einen Scanner benutzt?, in: HSR 21/4 (1996), S. 136-139; Jensk, Stuart: Das Internet und die universitäre Lehre: Spielzeug, Werkzeug oder Teufelszeug? Erfahrungsbericht aus der Sicht eines Studenten, in: GWU 49 (1998), S. 30; Uhde, Karsten: Urkunden im Internet – Neue Präsentationsformen alter Archivalien, in: AfD 45 (1999), S. 441; Imfeld, Klaus u.a.: Eine raum-zeitliche Datenbank für den Schweizer Kanton Bern im Internet, in: HSR 20/3 (1995), S. 102-133. Auch Christian von Ditfurths Buch mit dem vielversprechenden Titel „Internet für Historiker“ beschränkt sich auf die Nutzungsmöglichkeiten. Vgl. Ditfurth, passim. Einen Schritt weiter scheinen die Psychologen zu sein. In Batinics „Internet für Psychologen” ist der zwar knappe, aber dennoch aufschlussreiche Beitrag „Die Geschichte des Netzes: ein historischer Abriß“ von Jochen Musch aufgenommen. Vgl. Musch, passim. 92 Teuteberg, Strukturmerkmale, 317. 93 Bei den Haubens handelt es sich um Mutter und Sohn. Vgl. Rosenzweig, 1544. 94 Die Arbeit der Haubens ist in Analogie zu Rheingolds Buch stellenweise tendenziell. Bei beiden ist eine starke Affinität zum Untersuchungsgegenstand zu erkennen. Rheingold spricht seinen ambivalenten Ansatz deutlich an: „Ich bin Teil der Geschichte, die ich beschreibe, und spreche sowohl als Informant wie als skepti90 14 untersuchen zwar vor allem das Usenet der 80er Jahre, es lässt sich aber bereits für die 60er Jahre eine aktive Szene von Computer- und Netzwerknutzern nachweisen, die sich selbst die Bezeichnung Hacker gab.95 „Linke Kulturpessimisten betonen in der Regel die militärischen Ursprünge des Netz-Mediums, Euphoriker zitieren dagegen die unorthodoxen ‚Hacker’-Wurzeln“,96 lautet das überspitzte Resümee von Anja Schäfers. Arthur Norberg und Judy O’Neill konzentrieren sich in ihrer 1996 veröffentlichten Studie „Transforming in Computer Technologie. Information Processing for the Pentagon 1962 – 1986“97 auf die Leistungen der Advanced Research Projects Agency (ARPA) bzw. deren Abteilung für Computerentwicklung Information Processing Techniques Office (IPTO). Für sie ist das Internet ein Verdienst der (militärischen) Bürokratie bzw. deren Managementkonzept. Die aufwendig recherchierte Veröffentlichung der amerikanischen Journalisten Katie Hafner und Matthew Lyon thematisiert hauptsächlich die Leistungen der an dem Projekt beteiligten Forscher und Ingenieure - ein Ansatz, der kritisiert wurde, da dadurch „den Ursprüngen eines Mediums und den Absichten von Erfindern zuviel Bedeutung zugemessen“98 werde. Reduziert man die Perspektive auf diesen Aspekt und stellt Medienentwicklung als lineare ‚Erfolgsstory’ dar, so ist der Einwurf sicherlich berechtigt, wenn auch wenig spektakulär. Brian Reid, ein früher Internetnutzer, schrieb bereits 1979: „We technologists have always played a supporting role in history, but never a determining role [...]. Though it always infuriates and saddens us, the ultimate application of our wonderful inventions is determined by numerous and usually unpredictable social forces”.99 Dennoch spielen Forscher, Erfinder und Ingenieure in der Frühphase radikaler Innovationen eine wesentliche Rolle, mobilisieren mit Nutzungsvisionen weitere Akteure und schaffen Alternativen zu inkrementellen Lösungsvorschlägen.100 Wurde bei Teuteberg und anderen der militärische Zusammenhang überstrapaziert, so müssen sich Hafner und Lyon den Vorwurf gefallen lassen, diesen Aspekt herunterzuspielen. Ihre stark biographisch ausgelegte Arbeit neigt dazu, die beteiligten Informatiker bzw. Ingenieure und deren Leistungen zu überhöhen, denen fast schon ‚magische’ Fähigkeiten zugewiesen werden.101 scher Sozialwissenschaftler“. Rheingold, 29. 95 Der Begriff Hacker ist auf den ersten Blick überraschend, hat er doch heute eine negative Konnotation und weckt die Assoziation eines computerbegabten Menschen, der in fremde Rechnersysteme eindringt, um dort Informationen zu stehlen bzw. den Datenbestand zu beschädigen. Diese Personen werden als „Cracker“ bezeichnet. Hacker wird als Auszeichnung verstanden, die begabte Programmierer beschreibt: „I am a hacker. That is to say, I enjoy playing with computers -- working with, learning about, and writing clever computer programs. I am not a cracker; I don't make a practice of breaking computer security”. Vgl. Raymond. 96 Schäfers, 105. 97 Vgl. Norberg, passim. Die Studie wurde im Auftrag des Pentagon verfasst und von dem letzten Direktor der IPTO angeregt, was Zweifel an der Unvoreingenommenheit der Autoren aufkommen lässt. Vgl. Norberg, vii. 98 Schäfers, 105. 99 MSGGroup # 0844. 100 Vgl. Weyer, 35-40. 101 Der englische Originaltitel „Where Wizards Stay Up Late: The Origins of the Internet“ verweist deutlich auf diese Grundtendenz. Die deutschen Übersetzung „Arpa Kadabra oder die Geschichte des Internet“ deutet diesen Aspekt nur noch an. Gewidmet ist das Buch J.C.R. Licklider. Vgl. Hafner, passim. 15 Die Akteurskonstellation ist damit erheblich weiter gefasst. „Wizards, Bureaucrats, Warriors, and Hackers“102 waren an der Entwicklung des Internet beteiligt und sollen in den folgenden Kapiteln berücksichtigt werden. Ihr Handlungsspielraum war vor allem in den ersten Jahren abhängig von der Forschungs- und Militärpolitik sowie der gesamtgesellschaftlichen Situation. Die Hippie- bzw. Antikriegsbewegung erfasste Ende der 60er Jahre auch die amerikanischen Universitäten, an denen die Forschung zu dem Projekt durchgeführt wurde. Der amerikanische Kongress musste das Budget der ARPA bewilligen, was die Akteure einem Legitimationsdruck aussetzte. Die ersten zaghaften ‚Vernetzungsexperimente’ gehen in die 50er Jahre zurück, als erstmals Terminals an Großrechner angeschlossen wurden, die auch weit entfernt stehen konnten. 1958 begann die American Telephone and Telegraph Company (AT&T) Modems zu verkaufen, die einen Datentransport über normale Telefonleitungen ermöglichten.103 Das erste verteilte Computernetzwerk, das auf der für das Internet grundlegenden Technologie des „Packet-Switching“ basierte und sich über einen ganzen Kontinent erstreckte, wurde aber erst 1969 im Auftrag der ARPA in den USA installiert. An das ARPANET wurden später weitere Netzwerke angeschlossen und es etablierte sich die Bezeichnung Internet für dieses Konglomerat. Das Netzwerk der ARPA bildet somit die Keimzelle, weshalb die vorliegende Arbeit mit diesem Projekt beginnen soll. 2.1. Die ARPA im gesamtgesellschaftlichen Kontext Die Gründung der ARPA fiel in die Zeit des Kalten Krieges, der nach dem Aufbau der Bündnisse bzw. Blöcke (NATO: April 1949, Warschauer Pakt: Mai 1955) zu einer Aufrüstung beider Kontrahenten führte. Die Rüstungsausgaben der USA betrugen in den 50er Jahren bis zu 11% des Bruttosozialprodukts.104 Gleichzeitig verlor die Forschungs- und Technologieentwicklung auf amerikanischer Seite etwas von dem Schwung, den sie vom „Stimulans des 2. Weltkrieges“105 erhalten hatte. Der Kongress gründete zwar 1950 die National Science Foundation (NSF), die in den späten 80er Jahren eine zentrale Rolle bei der Internetentwicklung übernehmen sollte, die Erfolge der Stiftung waren in diesem Jahrzehnt allerdings eher begrenzt, was auf ein knappes Budget von maximal 15 Millionen Dollar p.a. zurückzuführen ist.106 Einen Sonderfall bildete die Förderung der Computerforschung. 75 bis 80% der Kosten wurden von der amerikanischen Bundesregierung bzw. deren Militärbehörden getragen und private Forschungseinrichtungen der Computerindustrie konnten sich stets auf eine starke Nachfrage des Militärs verlassen. Die massive 102 Der Titel von Rosenzweigs Artikel in der American Historical Review. Die sternförmigen ‚Netzwerke’ der 50er Jahre verbanden noch keine Computer, sondern ermöglichten lediglich den Zugriff auf einen (entfernten) Zentralrechner. Vgl. Abbate, 21. 104 Vgl. Krakau, 222. 105 Sauter, 485. 106 Vgl. Sauter, 448ff. und 492ff.. 103 16 Regierungsunterstützung setzte die europäischen Märkte unter Druck und war mitverantwortlich für eine amerikanische Hegemonie in diesem Bereich.107 Die allgemeine Forschungssituation sollte sich grundlegend ändern, als die Sowjetunion am 4. Oktober 1957 einen ersten Satelliten in die Erdumlaufbahn schickte. Das russische Prestigeobjekt Sputnik verdeutlichte den USA, dass ihr technologischer Vorsprung vom sozialistischen Kontrahenten aufgeholt worden war und weckte die Befürchtung, dass der Gegner nun auch in der Lage sei, transkontinentale (mit Atomwaffen bestückte) Raketen zu konstruieren. Bereits am 20. November desselben Jahres verkündete Verteidigungsminister McElroy vor dem Kongress die Gründung einer zentralen Behörde für militärische Forschung, die dem Office of the Secretary of Defense zugeteilt werden sollte und deren Direktoren mit einer uneingeschränkten Vollmacht bei der Auftrags- bzw. Mittelvergabe ausgestattet würden, um die vom Director of Defense Research and Engineering vorgegebenen Forschungsziele zu realisieren. Die bürokratischen und politischen Zwänge sollten auf ein Minimum reduziert werden.108 Präsident Dwight D. Eisenhower (1953-1961) und McElroy versprachen sich von der Behörde unter anderem eine Beendigung der Rivalitäten von Navy, Marine und Air Force bei der Vergabe von Forschungs- bzw. Entwicklungsgeldern. Die Vertreter des militärischen Establishments in den verschiedenen Waffengattungen versuchten anfangs die Gründung zu verhindern oder zumindest die Befugnisse der Behörde einzuschränken, da sie nicht bereit waren, die Entscheidungen über zukünftige Militärforschungsvorhaben abzugeben. Anfang 1958 wurde der ARPA vom Kongress eine Erstausstattung von 520 Millionen Dollar sowie ein Etat von 2 Milliarden Dollar bewilligt. Die ca. 70 Mitarbeiter erhielten die Oberaufsicht über das amerikanische Weltraumprogramm und die strategische Raketenforschung. In der Praxis sollten sie vor allem eingehende Anträge für Forschungsgelder prüfen und die Zusammenarbeit mit den zahlreichen Vertragspartnern überwachen, selbst also keine Forschung betreiben.109 Diese Aufgabenteilung ist charakteristisch für die amerikanische Wissenschaftsförderung. Obwohl die Bundesregierung der größte Geldgeber ist, werden die Projekte in der Regel von Universitäten oder gemeinnützigen Forschungsinstitutionen ausgeführt, die sich einer direkten Kontrolle des Staates entziehen.110 Als nur knapp ein halbes Jahr später die National Aeronautics and Space Administration (NASA) gegründet wurde, verlor die ARPA ihr Hauptbetätigungsfeld und einen Großteil des Budgets, blieb aber weiterhin dem Department of Defense (DoD) untergeordnet. Der jungen Behörde verblieben lediglich 150 Millionen Dollar p.a. und es mussten neue Auf- 107 Vgl. Rosenzweig, 1538. Vgl. Abbate, 75. 109 Vgl. Hafner, 14-24. 110 Vgl. Wheatley, 588. 108 17 gaben gefunden werden, um der drohenden Auflösung zu entgehen. Man entschied sich Grundlagenforschung zu betreiben, Forschungsvorhaben mit zwar ungewissen Erfolgsaussichten aber hohem potentiellen Nutzen.111 In die Zeit der Präsidentschaft von John F. Kennedy (1961-1963) fällt ein strategischer Dogmenwechsel der Abschreckungspolitik. Bis zu diesem Zeitpunkt hatte Eisenhowers Strategie der „massiven Vergeltung“ gegolten, wonach jede Gefährdung der amerikanischen Sicherheit mit der Androhung von massiven Atomschlägen beantwortet werden sollte. Trotz Einsparungen beim Militärpersonal konnte damit an der Abschreckungspolitik festgehalten werden. Kennedy, der bei seinem Wahlkampf von 1960 öffentlichkeitswirksam einen „missile gab“, d.h. eine amerikanische Unterlegenheit hinsichtlich der Raketentechnik, behauptet hatte, wollte mit der Strategie der „flexiblen Antwort“ die Glaubwürdigkeit der Abschreckung erhöhen, indem die amerikanische Politik die Initiative und Beweglichkeit zurückerhielt.112 Bei der Besetzung der ARPA-Führungspositionen zeichnete sich in den frühen 60er Jahren ebenfalls ein Wechsel ab. Brigadegeneral Austin W. Betts war der letzte ARPA-Direktor, der aus rein militärischen Zusammenhängen zu der Behörde gestoßen war. Ihm folgte 1961 mit Jack P. Ruina ein erster Wissenschaftler in dieser Funktion.113 Nach dem Tod von Kennedy profitierte die ARPA von einer Initiative des demokratischen Präsidenten Lyndon B. Johnson (1963-1969), der die Förderung von Grundlagenforschung in den Universitäten durch Regierungsbehörden unterstützte. Zwei Drittel der universitären Ausgaben in den USA wurden von Behörden des Bundesstaates getragen. Es sollten „creative centers of excellence“ verteilt über die ganze Nation entstehen, in denen keine Limitierung der Forschungsziele stattfindet: „Under this policy more support will be provided under terms which give the university and the investigator wider scope for inquiry, as contrasted with highly specific, narrowly defined projects“.114 Dennoch wurde das Budget der ARPA während seiner Präsidentschaft gekürzt.115 Unter der Regierung Johnson verdoppelten sich die Sozialausgaben des Bundes, was zu Verbesserungen des Erziehungswesens, der Krankenversorgung und Wohnungspolitik führte. Überschattet wurden die innenpolitischen Leistungen durch den Ausbruch des Vietnamkriegs (1964-1973).116 Er war ein entscheidender Faktor bei der politischen und kulturellen Fragmentierung der amerikanischen Mittelschicht seit Mitte der 60er Jahre. Die heterogene Hippiebewegung, die sich an der Westküste um das Epizentrum San Franzisko entwickelte, schockierte die Generation ihrer Eltern mit Drogenexperimenten, sexu- 111 Vgl. Hafner, 14-25. Vgl. Krakau, 223. Kennedy erhöhte 1962 die Militärausgaben um 20%. Vgl. Berg, 202. 113 Vgl. Hafner, 25f.. 114 Johnson, zitiert nach Abbate, 76. 115 Vgl. Norberg, 22 und Abbildung 1, Kapitel 2.2.. 116 Vgl. Sauter, 489ff.. Kennedys Mitschuld an diesem Konflikt kann hier nicht erörtert werden. 112 18 eller Promiskuität und neuen Lebens- bzw. Umgangsformen. Diese Form des Protests wurde von einer kleinen Minderheit getragen, deren gesellschaftliche Relevanz allerdings nicht unterschätzt werden sollte. Die ‚sexuelle Revolution’ hinterließ ihre Spuren in sämtlichen westlichen Industrienationen. Neben Emanzipationsbewegungen, die für die Rechte der Frauen eintraten und den Kampf gegen Rassismus aufnahmen, fokussierte sich der Protest der studentischen Jugend auf den Vietnamkrieg. Es wird geschätzt, dass sich bis zu 500.000 der Wehrpflicht entzogen, indem sie Einberufungsbefehle verbrannten oder ins Ausland flüchteten. Die US-amerikanische Studentenbewegung in den 60er Jahren war in der Regel weder linksradikal noch militant, setzte aber auf unkonventionelle Protestformen.117 Die ARPA war als öffentlich geförderte Behörde stets den Richtlinien der nationalen Politik verpflichtet. Die Direktoren mussten den Kongress in jährlich stattfindenden Anhörungen über den Stand der Arbeiten informieren. Obwohl die Forschung an der Computerentwicklung nur einen kleinen Teil des Budgets ausmachte, nutzte man die Ergebnisse als „marketing tool“ vor dem Kongress.118 Ende der 60er Jahre begann die Politik, eine engere Orientierung der Forschungsunterstützung durch das DoD an konkreten militärischen Bedürfnissen zu fordern. 1969 passierte z.B. das „Mansfield Amendment“ den Kongress, das Kontrollorgan der Exekutive im politischen System der USA:119 „None of the funds authorized to be appropriated by this Act [military reauthorization bill] may be used to carry out any research project or study unless such project or study has a direct or apparent relationship to a specific military function or operation”.120 Die Behörde musste folglich stets militärische oder ökonomische Gründe für die Forschungsprojekte angeben. John S. Foster, Director of Defense Research and Engineering, versicherte 1968 dem Senat: „The research done in the Department of Defense is not done for the sake of research. Research is done to provide a technological base, the knowledge and trained people, and the weapons needed for national security. No one in DoD does research just for the sake of doing research”.121 Waren diese Aussagen nur vorgeschoben oder tatsächlich zutreffend? Jeannette Abbate urteilt jedenfalls: „ARPAs concern for defense applications and cost savings was genuine, but the agency’s disavowal of basic research was more rhetorical than real“.122 Teile des amerikanischen Kongresses hätten Abbates Einschätzung mit Sicherheit zugestimmt. 117 Vgl. Berg, 204-206. Vgl. Norberg, 62f.. 119 Vgl. Shell, 377. 120 Zitiert nach Norberg, 36. 121 U.S. Congress 1968. Zitiert nach Abbate, 77. 122 Abbate, 77. 118 19 2.2. Die IPTO und weitere Akteure des ARPANET 1962 wechselte der Psychologe und ehemalige Harvard-Professor J.C.R. Licklider auf Wunsch des ARPA-Direktors Ruina von Bold, Beranek & Newman (BBN) zu der Militärbehörde. Er sollte ein neues verhaltenswissenschaftliches Programm leiten sowie die Forschung der Abteilung Command and Control betreuen. In dieser Abteilung wurde 1962 nur ein einziger Auftrag bearbeitet, der an die System Development Corporation (SDC) vergeben worden war. Dem neuen Mitarbeiter war es zu verdanken, dass sich die Computerforschung von dem engen militärischen Kontext löste und „Time Sharing“-Experimenten123 bzw. interaktiver Computernutzung zuwand, was sich auch an der Umbenennung der Abteilung in Information Processing Techniques Office (IPTO) ablesen lässt, deren erster Direktor Licklider wurde.124 Der Psychologe stellte den Kontakt zu Informatikern in Stanford, Berkeley, der Universität von Kalifornien in Los Angeles (UCLA) sowie dem Massachusetts Institute of Technologie (MIT) her, an die von diesem Zeitpunkt an ein Großteil der Computerforschungs-Verträge vergeben wurde.125 Die Entwicklung von „Time Sharing“-Systemen bedeutete nicht nur die Möglichkeit zur Einsparung von Kosten. Durch den Zugriff verschiedener Personen auf einen Rechner kam es nach Rheingold zur Bildung von Gemeinschaften um die zentralen Mainframes. Bald entdeckten die Nutzer neue Kommunikationstechniken, indem sie Nachrichten für andere auf frei zugänglichen Bereichen des Zentralcomputers hinterließen und damit einen Vorläufer der E-Mails bzw. Mailboxsysteme kreierten.126 Als Licklider 1964 die ARPA verließ, wählte er seinen Kollegen Ivan Sutherland zum Nachfolger127 - ein Verfahren, dass durchaus typisch für die Vorgehensweise der IPTOMitarbeiter war. „ARPA recruited most of its IPTO directors and project managers from university and industrial researchers. IPTO directors came to the agency with expertise in computer science, and kept in touch with colleagues by touring research centers to evaluate the progress of programs, learn about new research ideas, and recruit promising researchers, often including their own successors”.128 Es entwickelte sich ein engmaschiges soziales Netzwerk, das auf persönlichen Bekanntschaften, teilweise auch Freundschaften, beruhte und das - über die Behörde hinaus auch die späteren Vertragspartner an den Forschungseinrichtungen umfasste. Lawrence Roberts von der IPTO, Leonard Kleinrock von der UCLA, Frank Heart und Robert Kahn „Time Sharing“-Betriebssysteme erlauben mehreren Benutzern über verschiedene Terminals den Zugriff auf einen Rechner. Vgl. Abbate, 154. Mit einer solchen Technik können also Ressourcen eingespart bzw. effektiver genutzt werden. Das „Time Sharing“-Konzept wurde nicht von Licklider, sondern von McCarthy und anderen am MIT entwickelt. Vgl. Norberg, 89. 124 Vgl. Hafner, 30-45. 125 Vgl. Salus, Casting, 7. 126 Vgl. Rheingold, 96. 127 Vgl. Hafner, 45. 128 Abbate, 65. 123 20 von BBN (Lickliders Arbeitsplatz vor seinem Wechsel zur ARPA) hatten ihre akademischen Titel am MIT erworben. Roberts, Kleinrock und die meisten Ingenieure des BBNTeams hatten dort im Lincoln Laboratory gearbeitet. Howard Frank und Kleinrock kannten sich seit der gemeinsamen Lehrtätigkeit in Berkeley.129 Studenten, die an den Programmen der IPTO am MIT, der UCLA und anderen Einrichtungen beteiligt waren, stellten den Großteil der jungen Wissenschaftler, die von den wachsenden computerwissenschaftlichen Fakultäten an den amerikanischen Hochschulen rekrutiert wurden.130 Das soziale Netzwerk dehnte sich damit auf die nächste Generation aus. Begünstigt wurde dieser Prozess durch die geringe Größe des jungen Forschungszweiges. Werle fasst die für ein DoD-finanziertes Projekt überraschende Sozialstruktur treffen zusammen: „Die Gruppe [der am ARPANET beteiligten Personen] war [...] eingebettet in eine Kontrollstruktur, die durchaus als hierarchisch bezeichnet werden kann. Es blieben ihr aber genügend Raum und ausrechende finanzielle Mittel zum Experimentieren. Ein Netzwerk von Personen agierte im Schutz der Hierarchie“.131 1965 wechselte Robert Taylor von der NASA zur IPTO und wurde ein Jahr später Sutherlands Nachfolger. Er schlug Charles Herzfeld, dem damaligen ARPA-Direktor, die Vernetzung der Computerzentren vor, die bei der Behörde unter Vertrag standen. Ihm wurden 1967 500.000 Dollar für die ersten Arbeiten zu einem experimentellen Netzwerk mit 4 Knoten bewilligt.132 In einem Interview von 1989 erinnert sich Taylor an das Gespräch: „When I convinced Charlie Herzfeld [...] that I wanted to start the ARPANET, and he had to take money away from some other part of the ARPA to get this thing off the ground, he didn’t specifically ask me for a defense rational“.133 Taylor konnte Lawrence Roberts für das Projekt gewinnen, der bereits 1966 zwei Computer über eine Telefonleitung verbunden hatte und 1969 der vierte IPTO-Direktor werden sollte. Roberts ist einer der ‚Väter’ des Internet, die heute entschieden eine militärische Zielsetzung bestreiten. Man wollte lediglich ein effektives Netzwerk aufbauen, das Argument eines Atomschlags sei erst später hinzugekommen, da es sich bei der Bewilligung neuer Forschungsgelder als nützlich erwies.134 Der Anteil der IPTO am Gesamtbudget der ARPA war zwar verhältnismäßig gering, stieg aber kontinuierlich an. Abbildung 1 verdeutlicht, dass sich die finanzielle Ausstattung trotz massiver Budgetkürzungen der Behörde Ende der 60er Jahre auch in absoluten Zahlen erhöhte. 129 Vgl. Abbate, 66f.. Vgl. Norberg, 140f.. 131 Werle, Selbstorganisation, 502. 132 Vgl. Abbate, 38f.. 133 Taylor 1989 in einem Interview mit William Aspray vom Charles Babbage Institute. Zitiert nach Abbate, 78. Die umfangreiche „DARPA/IPTO Oral History Collection“ der Universität von Minnesota ist leider nicht frei zugänglich (http://www.cbi.umn.edu/darpa/darpaoh.htm). 134 Vgl. Borchers, 129. Es gab tatsächlich keine ‚Mütter’ des ARPANET. 130 21 Abb. 1. ARPA/IPTO-Budget zwischen 1963 und 1984. 135 Auf zwei Treffen mit den Forschern unter IPTO-Vertrag im April und November 1967 wurde der Plan zum Ausbau des Netzwerkes konkretisiert. Auf dem ersten Treffen in Ann Arbor brachte Wesley Clark, der Licklider in den 50er Jahren am Lincoln Laboratory mit der Computertechnologie bekannt gemacht hatte,136 die Idee ein, vor jeden der Mainframes einen sogenannten Interface Message Processor (IMP) zu schalten. Auf diese Weise sollte ein Subnetz aus homogenen Rechnern entstehen, das die Inkompatibilitätsprobleme der heterogenen Computerplattformen an den unterschiedlichen Standorten lösen konnte.137 Das ARPANET war von Beginn an so konzipiert, dass Rechner jedes Herstellers in das Netzwerk integriert werden konnten.138 Auf dem zweiten Treffen im November vergab Roberts einen ersten ARPA-Vertrag an das SRI (Stanford Research Institute) in Palo Alto, mit der Zielsetzung, „design and specification of a computer network“ zu untersuchen, was hauptsächlich von Elmer Shapiro bewerkstelligt wurde. Er fasste seine Ergebnisse unter dem Titel „A Study of Computer Network Design Parameters“ zusammmen, die später als Arbeitsgrundlage für die IMP-Software dienten. Die anderen, bisher durchgeführten Arbeiten waren über bestehende Projekte abgewickelt worden, was einer Zusatzleistung der Beteiligten gleichkam.139 Ob diese auf einem besonderen Engagement oder einer allgemeinen Verpflichtung gegenüber der ARPA gründete, bleibt unklar. Bis zu diesem Zeitpunkt war weder die Idee des „PacketSwitching“ oder eines verteilten Netzwerkes in das Projekt eingeflossen, noch wurden 135 Norberg, 22. Vgl. Hafner, 37f.. 137 Vgl. Salus, Casting, 20ff.. Die Großrechner verfügten über ein jeweils spezifisches Betriebssystem und unterschiedliche Programmiersprachen, sodass eine ‚Verständigung’ der Rechner tatsächlich ein massives Problem darstellte. Der Vorschlag eines IMP-Subnetzes wurde realisiert. Zum besseren Verständnis kann die Karte mit den ersten 4 Knoten des ARPANET in Abbildung 4, Kapitel 2.3. betrachtet werden. 138 An dem Grundsatz der Plattform-Unabhängigkeit wird bis heute im Internet festgehalten. Die Seiten des WWW lassen sich z.B. unabhängig vom Betriebssystem oder Rechnerhersteller betrachten. 139 Vgl. Salus, Casting, 25ff. und Hauben, Behind The Net. Shapiros Bericht ist unveröffentlicht. Staatliche Einrichtungen unterstützen in den USA die Forschung durch einmalige Geldzuweisungen (grant) oder die Vergabe von Forschungsaufträgen (contract). Vgl. Wheatley, 589. Bei der ARPA war das zuletzt genannte Vorgehen üblich. 136 22 konkrete Nutzungsvorstellungen formuliert.140 Im März 1968 berichtete Robert Taylor dem neuen ARPA-Direktor Eberhardt Rechtin über die Fortschritte und legte Larry Roberts „Program Plan“ mit dem Titel „Resource Sharing [sic] Computer Network“ vor.141 Der BBN Completion Report142 bezieht sich auf dieses Papier und berichtet, die dort genannte Zielsetzung sei: „to develop experience in interconnecting computers and to improve and increase computer research productivity through resource sharing. Technical needs in scientific and military environments were cited as justification“.143 Nun mussten Vertragspartner gefunden werden, die in der Lage waren das Netzwerk zu realisieren. Die IPTO verschickte im Juli 1968 eine Ausschreibung für die Konstruktion von Hard- und Software der IMPs unter dem Titel Request for Quotation (RFQ) an mehr als 140 potentielle Interessenten, von denen jedoch nur ca. 12 ein Angebot abgaben. Den Zuschlag bekam Anfang 1969 das kleine Unternehmen BBN – IBM, Control Data Corporation (CDC) und andere Großunternehmen der damaligen Computerindustrie hatten kein Angebot abgegeben, da sie das Projekt für nicht realisierbar hielten. Die Auftragsvergabe an BBN war dennoch überraschend.144 Die Installation der Leitungen wurde im September 1968, ebenfalls nach einer Ausschreibung, an den amerikanischen Telekommunikationsgiganten AT&T vergeben.145 Die restlichen Verträge wurden Institutionen bzw. Personen zugeteilt, die bereits in Kontakt zur ARPA standen oder an den bisherigen Arbeiten beteiligt waren. Leonard Kleinrock146 von der UCLA sollte theoretische Modelle erstellen und die Leistung des Netzwerks überwachen (Network Measurement Center). Das Labor von Engelbart147 am SRI bekam die Aufgabe eines Network Information Centers (NIC) zugeteilt, was eine online verfügbare Datenbank mit Verzeichnissen über das Personal an den verschiedenen Hoststandorten, ein Archiv mit relevanten Dokumenten und das Angebot von Informationen über die Ressourcen des Netzwerks umfasste. Die in Network Working Group (NWG) umbenannte Versammlung von Vertretern der ARPA-Computerzentren, hauptsächlich Studenten, sollte sich mit der Entwicklung der Software für die Kommunikation zwischen den Hosts befassen (Anwendungen bzw. Dienste sowie das grundlegende Netzwerkprotokoll) und gleichzeitig ein Forum anbieten, um über gewonnene Erfahrung und Experi- 140 Vgl. RFC 1000. Vgl. Salus, Casting, 26f. und Hauben, Behind the Net. 142 Der „ARPANET Completion Report DRAFT“ wurde 1977 von BBN erstellt und wäre eine interessante Quelle für die Frühphase des ARPANET. Er ist jedoch nie publiziert worden, sodass auf Auszüge in anderen Arbeiten zurückgegriffen werden muss. Auch Larry Roberts „Program Plan“ ist unveröffentlicht. 143 BBN Completion Report, zitiert nach Salus, Casting, 26. 144 Vgl. Hafner, 92-94 und 132. 145 Vgl. Hafner, 132. 146 Kleinrock hatte sich bereits in seiner Dissertation von 1962 mit analytischen Modellen zur Netzwerktechnologie auseinandergesetzt. Vgl. Kapitel 2.2.2.. 147 Engelbart forschte in den 60er Jahren am sog. oN Line System (NLS). Vgl. Kapitel 2.2.1.. 141 23 mente zu diskutieren.148 Die Software zur Anbindung der Hosts an die IMPs war abhängig von dem jeweiligen Computersystem und sollte deshalb von den Programmieren vor Ort entwickelt werden. Diese Entscheidung war bedeutend, denn „ARPA’s assigning of responsibilities made the academic computer science community an active part of the ARPANET development team”.149 Der Aufbau des Netzwerks war schon zu Beginn dezentral angelegt. Die am ARPANET beteiligten Akteure sind nur unvollständig charakterisiert, wenn man sie auf die „Strategen des Pentagon“ reduziert. Es hatte sich ein relativ komplexes Gefüge von individuellen Akteuren und Institutionen gebildet, wobei das DoD als Finanzier einen zweifellos wichtigen Beitrag leistete. Die Vergabe von Forschungsaufträgen fiel aber in den Aufgabenbereich der ARPA, deren Direktoren nur wenig Einfluss auf die IPTO ausübten. Die IPTO wiederum betreute bzw. koordinierte die Arbeiten an den Forschungsinstituten und Universitäten. Auch die Grundlagen für eine aktive Beteiligung der Nutzenden wurden bereits vor der Realisierung gelegt. Auffällig ist die Dominanz von Akteuren aus dem öffentlichen Bereich. Abgesehen von AT&T und BBN, deren Beiträge von der IPTO angeregt sowie finanziert wurden, war die private Wirtschaft an dem Projekt ARPANET in dieser Phase nicht beteiligt. 2.2.1. Licklider, Engelbart und Taylor - Computernutzung Man konnte auf theoretische Vorleistungen zurückgreifen, wozu eine Umdeutung der Nutzungsmöglichkeiten von Computern zählt. Hier sollen die Arbeiten von Licklider, Engelbart und Licklider/Taylor berücksichtigt werden,150 denen durch die enge Verzahnung mit dem Projekt eine besondere Bedeutung zukommt. Licklider dokumentierte in dem viel beachteten Aufsatz „Man-Computer Symbiosis“ von 1960, der auf seiner Forschung zu „Time Sharing“-Systemen bei BBN in den späten 50er Jahren basierte,151 weitreichende Vorstellungen über die zukünftige Computernutzung: „Man-computer symbiosis is an expected development in cooperative interaction between men and electronic computers. It will involve very close coupling between the human and the electronic members of the partnership. The main aims are 1) to let computers facilitate formulative thinking as they now facilitate the solution of formulated problems, and 2) to enable men and computers to cooperate in making decisions and controlling complex situations without inflexible dependence on predetermined programs”.152 In den ersten Jahren sollte durch die Symbiose eine der wichtigsten Ressourcen eingespart werden: Zeit. Später würde der menschliche Verstand durch eine enge Kopplung an 148 Salus, Casting, 26f. und Abbate, 48f.. Alexander McKenzie in einem Interview von 1993. Zitiert nach Hauben, Behind the Net. 150 Paul A. Mayer hat in seinem Buch neben diesen Autoren auch Arbeiten von Vannevar Bush, Alan M. Turing, Ted Nelson, Alan Kay und Adele Goldberg abgedruckt. Vgl. Mayer, 23-138. 151 Vgl. Digital Equipment Corporation, Preface. 152 Licklider, Symbiosis, 1. 149 24 den Computer eine bisher unbekannte Leistungssteigerung erfahren.153 Im Vergleich zu der Computernutzung in den 50er Jahren waren diese Vorstellungen visionär. „Present-day computers are designed primarily to solve preformulated problems or to process data according to predetermined procedures“.154 Um diese - hauptsächlich arithmetischen - Aufgaben zu bewältigen, musste ein menschlicher „Operator“ Maschinen in der Größe eines Zimmers bedienen, wobei die Ein- und Ausgabe von Informationen oder Programmen nur über Lochkarten möglich war (Batch-Processing) und zu großen Zeitverzögerungen führte.155 Auch der Netzwerkgedanke wird in „Man-Computer Symbiosis“ angesprochen. „It seems reasonable to envision, for a time 10 or 15 years hence, a ‘thinking Center’ […]. The picture readily enlarges itself into a network of such centers, connected to one another by wide-band communication lines […]”.156 Diese Einschätzung macht Licklider jedoch nicht zu einem Pazifisten. Hafner und Lyon behandelten seinen Aufsatz auf einer rein intellektuellen Ebene,157 berücksichtigen aber nicht, dass der Autor selbst auf eine mögliche militärische Nutzung hinweist bzw. die Untauglichkeit der bisherigen Technologie aufzeigt: „Imagine trying, for example, to direct a battle with the aid of a computer on such a schedule as this. You formulate your problem today. Tomorrow you spend with a programmer. Next week the computer devotes 5 minutes to assembling your program and 47 seconds to calculating the answer to your problem. You get a sheet of paper 20 feet long, full of numbers that, instead of providing a final solution, only suggest a tactic that should be explored by simulation. Obviously, the battle would be over before the second step in its planning was begun”.158 In einem Memo von 1963 an die Computerzentren unter ARPA-Vertrag bezeichnete Licklider in seiner Funktion als IPTO-Direktor die Informatiker als seine „Members and Affiliates of the Intergalatic Computer Network“. In diesen leider nicht mehr verfügbaren Papieren wird erstmals die Vernetzung der ARPA-Computerzentren anvisiert.159 „Lick had a strong feeling that the computer was a communication device not an arithmetic aid“.160 Douglas Engelbart begann Ende 1959 am SRI die Forschung am Programm zur Steigerung des menschlichen Intellekts, das bis 1968 unter seiner Leitung fortgeführt wurde. Anfangs basierte es auf einem Vertrag der Air Force, bis 1966 ARPA und NASA die Finanzierung übernahmen.161 Der Forschungsplan „Augmented Human Intellect Program“ vom März 1962 ähnelt Lickliders Artikel, den Engelbart in seinem Literaturverzeichnis 153 Vgl. ebd., 2-6. Ebd., 3. 155 Walitsch, 233ff.. Der Ausdruck Großrechner kann durchaus auch auf den Preis bezogen werden. Mit dem PDP1, dem ersten „Minicomputer“, kam 1961 ein Rechner auf den Markt, der erstmals weniger als eine Million Dollar kostete. Vgl. ebd., 236. 156 Licklider, Symbiosis, 8. 157 Vgl. Hafner, 40f.. 158 Licklider, Symbiosis, 4. 159 Vgl. Salus, Casting, 7. 160 Salus, Casting, 7. 161 Das Sloan Project der Stanford University hat auf der MouseSite viele Arbeiten Engelbarts archiviert. 154 25 angibt.162 Die Leistungsfähigkeit des menschlichen Intellekts sollte durch technologische Hilfen (Computer) und eine optimierte Herangehensweise der Subjekte an intellektuelle Probleme erhöht werden. „For this application, the stereotype of the computer as only a mathematical instrument is too limiting […]. Our aim is to give help in manipulating any of the concepts that the individual usefully symbolizes in his work, of which mathematical concepts constitute only a limited portion in most real-life instances”.163 Wie zuvor Licklider deutet Engelbart den ‚Rechenknecht’ zu einer effektiven, flexiblen Erweiterung der menschlichen Fähigkeiten um. Er beschreibt detailliert den Plan für die weitere Vorgehensweise. Die beabsichtigte Hard- und Softwareentwicklung soll nicht im Einzelnen dargelegt werden, es deutet sich aber bereits in dieser Phase die Idee einer Hypertextstruktur an. In „Study Of The Development Of Human Intellect Augmentation Techniques. Final Report” - 1968 für die NASA erstellt - wird unter anderem das Konzept eines „oN Line Systems“ (NLS) vorgestellt. „We are concentrating fully upon becoming able to do all of our daily work on line”.164 Vergleichbar mit einer Bibliothek sollten so alle relevanten Unterlagen verfügbar sein und dadurch die interne Kommunikation der Laborgemeinschaft optimiert werden. Die Dokumentation sollte eine „dynamic and plastic structure“ erhalten, die kontinuierlich weiterentwickelt wird und über den jeweils aktuellen Stand der Arbeit informiert.165 Abb. 2. Engelbarts „Maus“-Patent von 1967.166 Engelbarts Beitrag wird häufig unterschätzt. Tim Berners Lee, der 1990/91 am europäischen Labor für Teilchenphysik (CERN) in der Nähe von Genf das World Wide Web (WWW) entwickelte, stellt einen Zusammenhang seiner Ergebnisse mit der Forschung 162 Vgl. Engelbart, Augmented, 17. Engelbart, Augmented, 2. 164 Engelbart, Final. 165 Vgl. ebd.. 166 Engelbart, Patent. 163 26 Engelbarts in den 60er Jahren her.167 Die bei dem „Human Intellect Augmentation“-Programm entwickelte experimentelle Maus zur Verbesserung der Mensch-Computer-Interaktion ist inzwischen zu einem alltäglichen Arbeitsgerät geworden. Die Abbildung in Engelbarts U.S. Patent – eingereicht am 21.7.1967 - nimmt den Aufbau von Computerarbeitsplätzen vorweg, wie er sich in den 80er Jahren etablierte. Im April 1968 veröffentlichte IPTO-Direktor Taylor gemeinsam mit seinem Vorgänger Licklider den Artikel „The Computer as a Communication Device“, der deutlich auf das kommunikative Potential der Technologie hinweist: „In a few years, men will be able to communicate more effectively through a machine than face to face […]. And we believe that we are entering a technological age in which we will be able to interact with the richness of living information - not merely in the passive way that we have become accustomed to using books and libraries, but as active participants in an ongoing process, bringing something to it through our interaction with it, and not simply receiving something from it by our connection to it […]. Creative, interactive communication requires a plastic or moldable medium that can be modeled, a dynamic medium in which premises will flow into consequences, and above all a common medium that can be contributed to and experimented with by all. Such a medium is at hand - the programmed digital computer. Its presence can change the nature and value of communication even more profoundly than did the printing press and the picture tube, for, as we shall show, a well-programmed computer can provide direct access both to informational resources and to the processes for making use of the resources”.168 Als der Artikel erschien, gab es lediglich ein halbes Dutzend Forschungsgemeinschaften, die auf interaktive Computer zugreifen konnten, wie die Autoren erklären. Die Entwicklung der angestrebten Systeme sei aber ein komplexer Vorgang, der eine Koordination der Arbeiten erfordere. „[…] now the move is on to interconnect the separate communities and thereby transform them into, let us call it, a supercommunity“.169 Es folgt eine detaillierte Beschreibung des ARPANET, ohne sich explizit auf dieses Projekt zu beziehen. Wesentlich ist der Gedanke einer Kommunikation zwischen Menschen über das Netzwerk. Die Folgen für die Gesellschaft werden ambivalent eingeschätzt: „For the society, the impact will be good or bad, depending mainly on the question: Will ‘to be on line’ be a privilege or a right? If only a favored segment of the population gets a chance to enjoy the advantage of intelligence amplification, the network may exaggerate the discontinuity in the spectrum of intellectual opportunity. On the other hand, if the network idea should prove to do for education what a few have envisioned in hope, if not in concrete detailed plan, and if all minds should prove to be responsive, surely the boon to humankind would be beyond measure”.170 Obwohl Licklider und Taylor in entscheidenden Positionen an dem Projekt beteiligt waren, sollten ihre Ansichten nicht generalisiert werden. Die Frage nach den Auswirkungen der Vernetzung auf die Gesellschaft wurde erst in den 80er Jahren im Zusammenhang mit den Projekten der nationalen Telekommunikationsunternehmen (Btx in Deutschland, TE167 Vgl. Berners-Lee, 18. Licklider und Taylor, 21f.. 169 Ebd., 32. 170 Ebd., 40. 168 27 LETEL in Frankreich, etc.) aktuell. In den 90er Jahren wurde sie für das Internet wiederentdeckt und bleibt bis heute ungelöst. 2.2.2. Kleinrock, Baran und Davies - Netzwerktechnologie Auch hinsichtlich der Netzwerktechnologie konnte man auf Ergebnisse der Forschung zurückgreifen. Auf die Anfänge der Terminal-‚Netzwerke’ wurde bereits hingewiesen. Baran, Davies und Kleinrock beschäftigten sich vor der Realisierung des ARPANET explizit mit der „Packet-Switching“-Technologie. Leonard Kleinrocks Dissertation, die er zwischen 1959 und 1962 am Lincoln Laboratory des MIT erstellte und 1964 in Buchform unter dem Titel „Communication Nets: Stochastic Message Flow and Delay“ veröffentlichte, beschäftigte sich theoretisch mit der Leistung von Kommunikationsnetzwerken. Erstmals tauchte der Gedanke auf, Botschaften bzw. Dateien aufzuteilen, um die Auslastung der Kommunikationskanäle zu optimieren.171 Die Arbeit von Paul Baran wurde in seinem Buch zitiert, nicht jedoch in der Dissertation. Kleinrock erklärte später, dass weder Barans noch Davies’ Arbeiten 1962 veröffentlicht waren.172 „In this work, he [Kleinrock] developed the basic principles of packet switching, thus providing the fundamental underpinnings for that technology. These principles […] continue to provide a basis for today's Internet technology. Kleinrock is arguably the world's leading authority and researcher in the field of computer network modelling, analysis and design and a father of the Internet”.173 Mit diesen Worten charakterisiert der Forscher inzwischen seinen Beitrag in einer kurzen Darstellung der Ereignisse.174 Paul Baran untersuchte 1962 im Auftrag der Air Force bei der RAND Corporation die Möglichkeit einer angriffssicheren Kommunikationsstruktur. RAND (Research and Development) – ein unabhängiges Forschungsinstitut - war 1946 als gemeinnütziger Verein gegründet worden, der sein Einkommen hauptsächlich aus Aufträgen der Bundesregierung bzw. der Air Force bestritt.175 Seit der Gründung wurde an einer angriffssicheren Kommunikationsinfrastruktur geforscht. Baran war jedoch der erste, der das Problem mit Hilfe von Computertechnologie lösen wollte.176 Peter H. Salus vermutet einen Zusammenhang mit einem Anschlag auf das amerikanische Militär im Mai 1961. Eine Gruppe von Saboteuren mit dem Namen „American Republican Army“ zerstörte in Utah drei Relais-Stationen, was zu Kommunikationsproblemen 171 Vgl. Norberg, 171 und Hafner, 81. Vgl. Salus, Casting, 51. 173 Kleinrock. 174 Wie viele der frühen Protagonisten, hat auch Kleinrock nicht an den finanziellen Möglichkeiten des Internet in den 90er Jahren partizipiert und es drängt sich der Verdacht auf, dass dies durch Prestige kompensiert werden soll. 175 Vgl. Wheatley, 597. 176 Vgl. Hafner, 64. 172 28 geführt hatte.177 Die Kuba-Krise vom Oktober 1962, bei der die Welt tatsächlich einer atomaren Katastrophe nahe war,178 ließ die bereits 1958 befürchtete Bedrohung durch russische Raketen realer erscheinen. Barans theoretische Arbeiten nahmen vieles vom Aufbau des ARPANET vorweg. Unabhängig von Kleinrock entwickelte er das Konzept des „Packet-Switching“179 und die Idee eines verteilten Computernetzwerks, das ohne zentrale Knoten auskommt. Dateien werden demnach in kleine Pakete aufgeteilt, die selbständig und potentiell auf unterschiedlichen Routen den Weg zum Zielrechner finden. Bei zentralisierten bzw. dezentralisierten Netzwerken, könnte das gesamte System durch den Ausfall weniger (zentraler) Knoten oder Kabelverbindungen empfindlich getroffen werden, wie Abbildung 3, ein Karte aus Barans abschließenden Berichten von 1964, verdeutlicht. Abb. 3. Barans Netzwerkkonzeption von 1964. 180 In „On Distributed Communications“ ist die militärische Zielsetzung offensichtlich: „We will soon be living in an era in which we cannot guarantee survivability of any single point. However, we can still design systems in which system destruction requires the enemy to pay the price of destroying n of n stations. If n is made sufficiently large, it can be shown that highly survivable system structures can be built-even in the thermonuclear era. In order to build such networks and systems we will have to use a large number of elements […]. In order to build a network with the survivability properties […], we must use a switching scheme able to find any possible path that might exist after heavy damage. The routing doctrine should find the shortest possible path […]”.181 Barans Nutzungsvision, geprägt von der Logik des Kalten Krieges, scheint die Eingangs 177 Vgl. Salus, Casting, 5f.. Vgl. Krakau, 227. 179 Baran verwendet anstelle von „packets“ den Begriff „blocks“. 180 Baran. 181 Baran. Insgesamt handelte es sich um dreizehn Berichte, wovon elf 1964 unter dem Titel „On Distributed Communications“ veröffentlicht wurden und zwei aus Gründen der Geheimhaltung unter Verschluss gehalten wurden. Für die vorliegende Arbeit wurde die WWW-Version der RAND-Corporation verwendet. 178 29 zitierte Aussage Teutebergs zu bestätigen. Tatsächlich blieb seine Arbeit aber in einer theoretischen Phase stecken und erreichte die Verantwortlichen der ARPA nur auf Umwegen. AT&T bestritt die Verletzlichkeit des Kommunikationssystems und verweigerte trotz finanzieller Zusagen der Air Force die Zusammenarbeit, sodass sich Baran 1965 schließlich anderen Aufgaben zuwand.182 Ein drittes Projekt beschäftigte sich vor dem ARPANET mit der neuen Technologie. An den National Physical Laboratories (NPL) in London wurde bereits 1968 – ein gutes Jahr bevor die ersten Knoten in den USA installiert waren – ein Netzwerk in Betrieb genommen, in dem Daten verteilt auf Pakete verschickt wurden.183 Donald W. Davies und Roger Scantlebury hatten bereits in den frühen 60er Jahren begonnen an dem Projekt zu arbeiten. Als Davies sein Konzept im März 1965 erstmals der Öffentlichkeit vorstellte, machte ihn Arthur Lewellyn, ein Mitarbeiter des Pentagon, auf das Projekt der RAND Corporation aufmerksam. Kleinrock, Baran und die Forscher der NPL waren unabhängig voneinander zu ähnlichen Ergebnissen gekommen.184 Im Gegensatz zum später realisierten ARPANET war das NPL Data Network jedoch lokal begrenzt und bestand nur aus einem einzigen Knoten. Vinton Cerf bezeichnete es später als „the first LAN [Local Area Network]“.185 Es wies erstaunliche Parallelen zu Barans Ansatz auf, unterschied sich aber hinsichtlich der Motivation. Militärische Überlegungen spielten bei dem Londoner Projekt keine Rolle. Davies und Scantlebury hatten sich für das „Packet-Switching“ entschieden, da sie ein leistungsfähiges, vor allem aber ökonomisches Netzwerk aufbauen wollten. Davies hatte durch Tests im Vorfeld festgestellt, dass bei einer permanenten Verbindung die potentielle Übertragungskapazität der Leitungen nur zu einem geringen Prozentsatz genutzt wurde.186 Im Zusammenhang mit dem Netzwerk der NPL wurden erstmals die Begriffe „Packet-Switching“ und „Protocol“ verwendet.187 Im Oktober 1967 lernte Larry Roberts das neue Konzept kennen. Auf dem ACM Symposium on Operating Systems Principles in Tennessee berichtete Scantlebury über das NPL-Projekt.188 Sein Bericht machte Roberts auf die Arbeit der RAND aufmerksam. Nachdem er von dem Treffen zurückgekehrt war, las er erstmals Barans „On Distributed Communications“ und seit Ende 1967 traf sich der Forscher von RAND mit den Beteiligten des ARPANET. In einem Interview erklärte Roberts später: „suddenly I learned how to route packets. So we talked to Paul [Baran] and used all of his concepts and put together the 182 Vgl. Hafner, 72-75. Vgl. Quarterman, 141f.. 184 Vgl. Campbell-Kelly, 226. 185 Vgl. Salus, Casting, 22-25. 186 Vgl. Hafner, 76f. und Campbell-Kelly, 225ff.. 187 Vgl. Campbell-Kelly, 226. 188 Vgl. Salus, Casting, 23f.. 183 30 [ARPANET] proposal”.189 Im Juni 1968 beschrieb Roberts das geplante Netzwerk als „demonstration of the distributed [sic] network“.190 Barans Forschung bildete hinsichtlich der konsequenten Orientierung an militärischen Bedürfnissen die Ausnahme. Bei den Arbeiten von Davies/Scantlebury und Kleinrock stand dieser Aspekt nicht im Fordergrund. Auch die Motivation der ARPA-Verantwortlichen war vielschichtiger. Tatsächlich sprachen verschiedene Gründe dafür, das Projekt nach dem Prinzip der Paketvermittlung aufzubauen. Die bereits gewonnenen, theoretischen Erkenntnisse bzw. Modelle konnten bei dieser Gelegenheit erstmals an einem Prototyp getestet werden, der sich über einen ganzen Kontinent erstreckte. Für ein Interesse an Grundlagenforschung spricht auch die Tatsache, dass „the precise usage of the ARPANET was not spelled in advance“.191 Die Ansätze von Kleinrock, Davies und Baran versprachen große Stabilität, da sie den Ausfall von Knoten bzw. Leitungen kompensieren konnten, was bei dem damaligen Stand der Computerentwicklung von großer Bedeutung war. Der störungsfreie Betrieb eines Rechners über 24 Stunden am Tag und 7 Tage in der Woche war in den 60er Jahren eine gewagte Vorstellung – meist mussten sie für mehrere Stunden in der Woche zu Wartungszwecken abgeschaltet werden.192 Zudem sprachen ökonomische Gründe für ein Netzwerk im Allgemeinen und die „Packet-Switching“-Technologie im Besonderen. Die Aufteilung der Daten in einzelne Pakete ermöglichte eine effizientere Nutzung der Leitungskapazitäten als das bisher übliche „Circuit-Switching“. Dass man bei der IPTO die anfallenden Kosten in der Planung berücksichtigte, belegt die Mitschrift Engelbarts von einem Treffen der Forscher unter ARPA-Vertrag im Oktober 1967. Roberts hatte dort den finanziellen Aufwand für verschiedene Leitungstypen vorgestellt und schließlich die wirtschaftlichste Lösung vorgeschlagen.193 Das Netzwerk bot die Möglichkeit einer effizienteren Nutzung der Hard- bzw. Softwareressourcen an den verschiedenen Standorten: ein „Ressource Sharing“-Netzwerk als Weiterentwicklung des Grundprinzips der „Time Sharing“-Systeme. Jedes neue Projekt kostete die IPTO zwischen fünfhunderttausend und drei Millionen Dollar, abhängig von dem verwendeten Computer und der Anzahl der geförderten Mitarbeiter. Zudem musste entsprechende Software entwickelt werden – in den 60er Jahren waren Programme bzw. Betriebssysteme Unikate, die für einen spezifischen Computer entwickelt wurden.194 Über ein Netzwerk war es möglich auch von der Westküste auf einen Rechner des MIT zuzugreifen und damit dessen Ressourcen zu nutzen. 189 Zitiert nach Norberg, 166. Salus, Casting, 24. 191 RFC 1000. 192 Vgl. Hafner, 92. 193 Vgl. Engelbart, Report. 194 Vgl. Hafner, 50f.. 190 31 Die Idee zum Aufbau des ARPANET entstand in einer für die Behörde schwierigen finanziellen Situation. Sie hatte ein Drittel ihres Budgets verloren, was Kostenreduzierung zu einem hochaktuellen Thema machte.195 Für die Nutzungsmöglichkeit des „Resource Sharing“ wurden später die ersten Protokolle entwickelt. Auch der Aufbau des später realisierten Netzwerks spricht gegen die These eines Kommunikationssystems, das atomare Angriffe überstehen sollte: „[...] the ARPANET was ‚survivable’ from the beginning, although its modes of connectivity and number of alternate paths were insufficient to survive even a modest nuclear attack“.196 Die Motivation zum Aufbau des ARPANET war vielschichtig und kann nicht, wie in der deutschen Forschungsliteratur üblich, auf militärische Überlegungen reduziert werden. 2.2.3. Forschungseinrichtungen und Privatunternehmen Bisher wurden hauptsächlich individuelle Akteure des ARPANET behandelt. Sie spielten bei der Vergabe der Verträge eine große Rolle - die Personen ihrerseits waren aber eingebunden in Institutionen. Der Beitrag von AT&T war nur gering und die Vergabe des Auftrags zur Verlegung der Leitungen alles andere als eine Überraschung. Im Gegensatz zur europäischen Situation war AT&T kein staatlicher Monopolbetrieb sondern ein Privatunternehmen, was jedoch nicht bedeutet, dass es einem freien Wettbewerb ausgesetzt gewesen wäre. Der Konzern dominierte die US-Telekommunikationsbranche in allen Produktsparten fast vollständig. Unter dem Dach von AT&T waren die Bell Laboratories für Forschung und Entwicklung zuständig, Western Electric für die Produktion der Telekommunikationsausrüstung, der Mutterkonzern selbst für den Betrieb der Fernverbindungen und die lokalen Bell Operating Companies für die Verwaltung der örtlichen Anschlüsse und die Vermittlung der Gespräche. Auf allen Bereichen wurde ein Marktanteil zwischen 70 und über 95 Prozent erreicht.197 Das Justizministerium hatte seit 1912 bei der Kartellbehörde mehrfach die marktbeherrschende Stellung des Konzerns angeklagt. 1934 erließ der Kongress den „Communication Act“, der AT&T den Status eines öffentlichen Infrastrukturbetriebs einräumte, woraus die Verpflichtung zu einer Versorgung der Allgemeinheit entstand. Gleichzeitig wurde mit der Federal Communications Commission (FCC) eine Kontrollbehörde etabliert. 1954 verpflichtete sich das Unternehmen auf Druck des Justizministeriums in keinem Bereich außerhalb des Fernmeldewesens tätig zu werden. 1967, kurz vor der Installation des ARPANET, verfügte die FCC, dass auch Geräte anderer Hersteller an das Telefonnetz der 195 Vgl. Abbildung 1, Kapitel 2.2.. Alex McKenzie. Zitiert Salus, Myth. McKenzie arbeitete von 1967 bis 1976 bei BBN. Vgl. ebd.. 197 Vgl. Luyken, 394. 196 32 AT&T angeschlossen werden durften.198 Keine dieser Maßnahmen konnte die Dominanz brechen. Die Entscheidung von 1954 sollte den Konzern von anderen Geschäftsbereichen ausschließen, was AT&T u.a. durch Absprachen mit dem Computergiganten IBM (International Business Machines Corp.) umging, gegen den 1969 eine Antitrust-Klage der Regierung angestrengt wurde. Im selben Jahr ließ die FFC vermehrt Mitbewerber auf dem Telekommunikationssektor zu, wovon die meisten jedoch nie die Gewinnzone erreichten und bald wieder aufgeben mussten.199 An AT&T führte einfach kein Weg vorbei. Mit einem großen Engagement des Konzerns konnte die IPTO nicht rechnen. Schon bei Barans Projekt Anfang der 60er Jahre hatten die Verantwortlichen von AT&T wenig Kooperationsbereitschaft gezeigt. Man hielt „Packet-Switching“ während der 60er Jahre für nicht realisierbar und setzte auf das traditionelle, leitungsvermittelnde (Bell-)System.200 AT&T stellte schließlich herkömmliche Telefonleitungen mit einer Übertragungskapazität von 50 Kilobit pro Sekunde (Kbps) zur Verfügung,201 womit sich das Unternehmen auf ureigenem Terrain befand. Der Beitrag am ARPANET war ein normaler Geschäftsvorgang, der durch einen Vertrag der Regierungsbehörde finanziert wurde.202 BBN war mit der Konstruktion und Programmierung der IMPs beauftragt worden, was den größten Anteil des gesamten Budgets ausmachte. Die Auftragsvergabe war überraschend. Larry Roberts hatte das Unternehmen über das Projekt informiert, bevor die Ausschreibung veröffentlicht wurde, was einen Zeitvorteil verschaffte, den BBN nutzte um ein ausgereiftes Angebot abzugeben.203 Die Entwicklung der Spezialrechner wurde von Frank Heart geleitet, der den Anteil seines Unternehmens gerne höher bewertet sehen würde: „Wir haben das Internet bei BBN überhaupt realisiert. Es ist wie mit Einstein. Der erzählt etwas von e=mc² und die Leute vom Alamos Project bauen die Bombe“.204 1969 wurde die Zusammenarbeit mit BBN intensiviert: Das Unternehmen sollte ein Network Control Center (NCC) betreiben, dessen Aufgabenbereich die Überwachung der Netzwerkleistung und Hilfestellung bei Problemfällen umfasste.205 BBN entschied sich bei der Hardwareentwicklung mit dem Unternehmen Honeywell zusammenzuarbeiten, das ebenfalls in der Nähe von Boston ansässig war und mit dem 516-Minicomputer einen verhältnismäßig preisgünstigen Rechner produzierte, der sich als Basis für die IMPs anbot.206 198 Vgl. Luyken, 394f.. Vgl. Luyken, 396f.. 200 Vgl. Hafner, 72ff.. 201 Vgl. Salus, Casting, 61 und 63. Ein Vergleich mit dem derzeitigen G-WiN Projekt des DFN-Vereins verdeutlicht die Leistungssteigerung der Übertragungskapazitäten. Der auf Glasfasertechnologie basierende deutsche Backbone verfügt über eine Übertragungskapazität von 2,5 Gigabit pro Sekunde (Gbps). Vgl. http://www.dfn.de/win/gwin/ueberblick/. Dies entspricht einer Leistungssteigerung um mehr als das 50.000fache im Vergleich zu den ersten Leitungen des ARPANET. 202 Die ARPA mietete die Leitungen. Vgl. Norberg, 167. 203 Vgl. Norberg, 167f.. 204 Heart in einem Interview mit Reuters. Zitiert nach Borchers, 129. 205 Vgl. Norberg, 173f.. 206 Der Begriff Minicomputer soll nicht täuschen. Ein Honeywell 516 hatte die Größe eines Kühlschranks und wog ca. 400 Kilogramm. In der von Frank Heart bevorzugten Robustversion war er zudem noch von einem 199 33 Für BBN war die Beteiligung ein finanzieller Erfolg. Das kleine Unternehmen expandierte und konnte sich Anfang der 70er Jahre einen neuen Firmensitz leisten.207 Die Aufträge der Regierung machten bis zu 80% des Umsatzes aus. Man ließ sich die Mitwirkung am ARPANET teuer bezahlen, zu teuer nach Ansicht der Bundesregierung, die 1980 ein Verfahren gegen BBN wegen manipulierter Stundenzettel anstrengte. Der Vorwurf lautete, dass bei den Aufträgen zwischen 1972 und 1980 vorsätzlich zuviel berechnet worden sei. Man einigte sich schließlich auf einen Vergleich, wonach das Unternehmen 700.000 Dollar zurückbezahlen musste und verurteilte zwei leitende Angestellte zu einer Bewährungsstrafe samt Geldbuße in Höhe von 20.000 Dollar.208 Eine wichtige Rolle spielten Forschungseinrichtungen und Universitäten. Kleinrock, Engelbart und Licklider waren keine akademischen ‚Einzelkämpfer’. Der Umfang ihrer Forschungsvorhaben und die damit verbundenen Kosten erforderten Teamarbeit in Laborgemeinschaften, denen auch Studenten und Doktoranden angehörten. Es wäre jedoch falsch von einem traditionellen Universitätsbetrieb auszugehen, dessen Zielsetzung sich an rein wissenschaftlichen Kriterien orientiert. Das MIT stellte die Elite der damaligen Computerwissenschaft dar, gleichzeitig war es der größte Vertragspartner des Pentagon in der akademischen Welt und somit ein Teil des ‚militärisch-industriellen Komplexes’.209 Die Gründung des Lincoln Laboratory am MIT basierte auf einem Vertrag der Air Force, der die Forschung am SAGE (Semi Automatic Ground Environment) Projekt initiierte. Auf einem zentralen Rechner sollten die Bilder der über die ganzen USA verteilten Radarstationen zur Überwachung des Luftraums ausgewertet werden – ein kontinentales, zentralisiertes Netzwerk.210 Auch IBM profitierte mit einem großzügigen Vertrag von dem „Billion Dollar Projekt“, das bereits vor seiner Fertigstellung 1961 überholt war.211 Licklider schrieb 1978 über die Bedeutung von SAGE: „military command and control and military communications are prime network applications. [...] both interactive computing and networking had their origins in the SAGE system”.212 MIT, UCLA oder SRI waren jedoch keine militärischen Institutionen, in denen abgeschirmt von der Öffentlichkeit an Geheimprojekten gearbeitet werden konnte, sondern Universitäten bzw. Hochschulen. In einem Gespräch mit Peter H. Salus beschrieb Kleinrock seine Laborgemeinschaft an der UCLA: „I had a team of about 40 people driving to get the first node up. Crocker was head of the software effort, and Postel and Cerf worked under Crocker. We had a number massiven, grauen Stahlmantel umgeben. Vgl. Hafner, 174. 207 Vgl. Hafner, 200f.. Die Architektur des Gebäudes ähnelte einer Festung, was Hafner und Lyon auf befürchtete Auseinandersetzungen mit der Antikriegsbewegung zurückführen. 208 Vgl. Hafner, 307f.. BBN profitierte bei dem in den 70er Jahren aufgebauten TELENET auch von dem gewonnenen Know-how. In Kapitel 3.3. wird dieser Aspekt detaillierter behandelt. 209 Vgl. Rosenzweig, 1541. 210 Vgl. Wildes, 283. 211 Vgl. Rosenzweig, 1540. 212 Licklider und Vezza, 1335. 34 of segments, including analytic, design, implementation, measurement, etc. Those three (along with some other software aces) were interesting to supervise, since, as with all hackers, they were very independent, and always pressing me for more resources (e.g., equipment, staff, travel money, software, etc.). They were a delight to work with – full of ideas (some brilliant some flawed) – and the experience was exciting for all of us”.213 Kleinrocks Beschreibung aus einer zeitlichen Distanz von mehr als 20 Jahren mag die Situation idealisieren, demonstriert aber wie engmaschig und beständig das soziale Netzwerk der Protagonisten war, die häufig über Jahrzehnte bei der Entwicklung des Projekts mitwirkten. Jon Postel sollte später unter anderem im Internet Activities Board (IAB) eine entscheidende Rolle spielen und über einen Zeitraum von 28 Jahren die sog. RFCs editieren.214 Vinton Cerf entwickelte zusammen mit Robert Kahn 1974 die Urform von TCP/IP215 und auch der Name Stephan Crocker wird in dieser Arbeit noch häufiger fallen. Alle waren zu diesem Zeitpunkt Studenten bzw. Doktoranden, standen (noch) außerhalb des etablierten Zirkels der akademisch institutionalisierten Wissensproduktion, waren aber in zentralen Funktionen an dem Projekt beteiligt. Kleinrocks Aussage deutet an, dass sich an den Hoststandorten Gemeinschaften gebildet hatten, auch wenn die kommunikativen Möglichkeiten des technischen Mediums erst noch entwickelt werden mussten. Im Zusammenhang mit der Antikriegsbewegung Ende der 60er Jahre kam es an den Universitäten zu Protesten gegen Forschung im Auftrag des DoD. Es ist unwahrscheinlich, dass die Laborgemeinschaften von diesen Entwicklungen vollständig abgeschirmt waren. Am MIT zirkulierte im Dezember 1968 ein Papier von 50 Fakultätsmitgliedern, in dem das Misstrauen deutlich zum Ausdruck kam. „Misuse of scientific and technical knowledge presents a major threat to the existence of mankind. Through its actions in Vietnam our government has shaken our confidence in its ability to make wise and human decisions”.216 Das Papier führte zur Gründung der „Union of Concerned Scientists”, die eine Debatte über DoD-finanzierte, akademische Forschung anregte. In Stanford kam es im April 1969 zu massiven Protesten der Studentenbewegung, bei denen eine Beendigung der Forschung auf dem Gebiet der chemischen Kriegsführung und Aufstandsbekämpfung thematisiert wurde. 8000 Studenten und Fakultätsmitglieder forderten die Protestierenden dazu auf, die Forschung am Stanforder Campus zu beobachten.217 An der Universität von Illinois plante die ARPA ursprünglich einen neuen, leistungsfähigen Rechner der Burroughs Corporation zu installieren. Protestierende Studenten vermuteten einen Zusammenhang mit Luftangriffen des Militärs in Vietnam, sodass die Verantwortlichen der Universität befürchteten, die Sicherheit des Projekts nicht garantieren zu kön213 Salus, Casting, 53. Vgl. Quarterman, 184 und RFC 2555. 215 Vgl. Kapitel 3.1.2.. 216 Zitiert nach Rosenzweig, 1541. 217 Vgl. ebd.. 214 35 nen. Man entschied sich für die NASA als alternativen Standort.218 Im September und Oktober 1969 wurden die ersten Knoten des ARPANET installiert - die Planungen zu diesen Standorten waren während der politischen Proteste in vollem Gange. MIT, Stanford, BBN und andere Einrichtungen bildeten auch die Keimzelle der ‚HackerKultur’. Der Jargon-File, eine interessante Quelle für deren Selbstverständnis, sieht seine Ursprünge in den Laborgemeinschaften um die Großrechner dieser Forschungseinrichtungen: „The original Jargon File was a collection of hacker jargon from technical cultures including the MIT AI Lab, the Stanford AI lab (SAIL), and others of the old ARPANET AI/LISP/PDP-10 communities including Bolt, Beranek and Newman (BBN), Carnegie-Mellon University (CMU), and Worcester Polytechnic Institute (WPI). The Jargon File [...] was begun by Raphael Finkel at Stanford in 1975 […]. Some terms in it date back considerably earlier (frob and some senses of moby, for instance, go back to the Tech Model Railroad Club at MIT and are believed to date at least back to the early 1960s)”.219 Die Hackerbewegung am MIT war eine weitgehend unpolitische, „autistisch ins ‚Hacken’ versunkene[n] Gruppe”,220 die sich nach Wagner und Kubicek bis in die 50er Jahre zurückverfolgen lässt. Dennoch kam es mit dieser Subkultur, die sich der Idee des „free sharing of information“ verpflichtet sah, zu Interessenskonflikten. Richard Stallmann, ein Programmierer vom MIT AI Lab führte z.B. einen „guerrilla war“ gegen die Passwörter auf dem System des Instituts, woraufhin Verantwortliche des DoD androhten, den Rechner vom späteren ARPANET abzutrennen, da sie Sicherheitslücken befürchteten.221 Von den MIT-Hackern unterschied sich die Szene in Kalifornien. Die Hippie- und Antikriegsbewegung um das Epizentrum San Franzisko war zwar meist technikfeindlich eingestellt, es gab aber Kontakte zu Hackern aus dem Umfeld von Stanford und Xerox’ PARC (Palo Alto Research Center). Viele lernten sich an der „Midpeninsula Free University“ kennen, die als Gegenveranstaltung zum traditionellen Schul- und Universitätsbetrieb konzipiert war. An ihr ‚lehrten’ neben LSD-Papst Timothy Leary auch etliche Computerexperten von der Westküste.222 Unter ihnen war Lickliders Freund John McCarthy, der am MIT und in Stanford im Auftrag der Air Force bzw. ARPA Forschung zur Künstlichen Intelligenz (KI) und „Time Sharing“-Systemen betrieb223 und bereits 1961 das „computer utility model“ entworfen hatte, wonach Rechenzentren als „information utilities“ - vergleichbar mit öffentlichen Bibliotheken – fungieren sollten, indem sie Programme und Informationen 218 Vgl. Hafner, 270f.. Raymond. Erklärung der Abkürzungen: AI = Artificial Intelligence (Künstliche Intelligenz), LISP = LISt Processing language (von John McCarthy in den 50er Jahren für die AI entwickelte Programmiersprache), PDP-10 = Programmed Data Processor model 10 (Einer der ersten Rechner, die für den „Time Sharing“Betrieb geeignet waren). Vgl. ebd.. 220 Wagner, 205. 221 Vgl. Rosenzweig, 1542. 222 Vgl. Wagner, 205f.. 223 Vgl. Hafner, 98 und 249 sowie Norberg, 89. 219 36 kostenlos zur Verfügung stellten.224 Die Mischung aus politischem Idealismus und Technikbegeisterung dieser Hacker ließ eine neue Jugendkultur entstehen. Bereits Ende der 60er Jahre zog die „People’s Computer Company“ mit einem gespendeten DEC-Minicomputer über das Land, um vor allem an Schulen die „Computer Literacy“ zu verbreiten.225 Die Kontakte der Bewegungen mit den hauptsächlich universitären Laborgemeinschaften, die an den ARPA-Projekten arbeiteten, müssten im Einzelnen noch nachgewiesen werden. Hafner und Lyon berichten z.B. von Severo Ornstein, der bei BBN an der Hardwareentwicklung beteiligt war. Er trug einen Anstecker mit der Aufschrift RESIST und einem Ω, dem bei Elektroingenieuren damals üblichen Symbol der Antikriegsbewegung, den er auch bei Besprechungen im Pentagon nicht ablegte.226 Ein anderes Beispiel ist Jon Postel, über den Vinton Cerf schrieb: „Bearded and sandaled, Jon was our resident hippie-patriarch at UCLA“.227 Es ist anzunehmen, dass die Vorstellungen der Hacker, Hippies und Kriegsgegner die Atmosphäre in den Labors mitprägten. Spätestens seit den Ereignissen Anfang 1969 am MIT wussten die Verantwortlichen der ARPA, dass ihre Forschung von einer kritischen Öffentlichkeit beobachtet wurde. 2.2.4. NWG und RFC Unter den Akteuren des ARPANET war die NWG die unkonventionellste Gruppierung. Im Oktober 1968 nahm sie die Arbeit auf.228 Stephen D. Crocker, ein Gründungsmitglied, beschrieb 1987 die Arbeit der informellen Gruppe in der ersten Zeit ihres Bestehens: „The procurement of the ARPANET was initiated in the summer of 1968 --Remember Vietnam, flower children, etc? […] The first few [NWG-]meetings were quite tenuous. We had no official charter. Most of us were graduate students and we expected that a professional crew would show up eventually to take over the problems we were dealing with. […] after a particularly delightful meeting in Utah [März 1969], it became clear to us that we had better start writing down our discussions. We had accumulated a few notes […] and we decided to put them together in a set of notes. I remember having great fear that we would offend whomever the official protocol designers were, and I spent a sleepless night composing humble words for our notes. The basic ground rules were that anyone could say anything and that nothing was official. And to emphasize the point, I labeled the notes ‘Request for Comments’”.229 Crockers Einleitung konstruiert einen Zusammenhang des ARPANET bzw. der NWG mit der Hippie- und Antikriegsbewegung. Da er selbst aktiv an dem Prozess beteiligt war und seine Aussage knapp zwanzig Jahre nach den beschriebenen Ereignissen veröffentlicht wurde, besteht die Gefahr einer nachträglichen Umdeutung. Ein personeller oder ideeller 224 Vgl. Wagner, 204. Vgl. Wagner, 206. 226 Vgl. Hafner, 130. 227 RFC 2468. Fotos von Postel stützen die Charakterisierung Cerfs. 228 Vgl. Salus, Casting, 29. 229 RFC 1000. 225 37 Zusammenhang kann nicht umfassend untersucht werden. Die Arbeitsweise und Zusammensetzung der Gruppe lässt sich aber nachvollziehen. Die „Documentation Conventions” vom April 1969 verdeutlichen den unkonventionellen, basisdemokratischen Ansatz: „Documentation of the NWG’s effort is through notes such as this. Notes may be produced at any site by anybody and included in this series […]. Philosophical positions without examples or other specifics, specific suggestions or implementation techniques without introductory or background explication, and explicit questions without any attempted answers are all acceptable. The minimum length for a NWG note [RFC] is one sentence”.230 Auch die von Crocker angeführte Überraschung der NWG-Mitglieder, dass ausgerechnet ihnen die verantwortungsvolle Aufgabe der Softwareentwicklung (Netzwerkprotokoll und Anwendungen für die Host-Host-Kommunikation) übertragen wurde, ist plausibel. Als die ersten „Documentation Conventions“ veröffentlich wurden, setzte sich die NWG aus fünf graduierten Studenten zusammen – professionelle Programmierer oder Angehörige des computerwissenschaftlichen Establishments der Universitäten fehlten.231 Aus diesem Zusammenhang entstand die Tradition der Request for Comments (RFC), die sich bis heute fortsetzt und über die noch immer neue Protokolle eingeführt werden. Bis April 2000 wurden bereits mehr als 2800 dieser Dokumente veröffentlicht, die sich zwar meist mit technischen Standards bzw. Protokollen beschäftigen,232 durchaus aber auch Beiträge zu allgemeineren Themen enthalten.233 Sämtliche RFCs sind datiert und mit dem Namen des Verfassers versehen, sodass sie eine interessante Quelle abgeben. Der größte Teil ist überliefert und auf verschiedenen Servern online verfügbar. 2.3. Die Realisierung des ARPANET Wesentlich für den Aufbau des Netzwerks waren die Fortschritte von BBN bei der Konstruktion der IMPs. Das Unternehmen hatte am Neujahrstag 1969 den Auftrag erhalten und sollte bis September desselben Jahres die ersten Rechner liefern.234 Trotz erheblicher Probleme traf IMP Nummer 1 pünktlich am 30. August 1969 an der UCLA ein. Dieser Standort war wegen Kleinrocks Interesse an der Evaluation der Netzwerkleistung gewählt worden, auf das sich sein ARPA-Vertrag für das Network Measurement Center (NMC) zurückführen lässt.235 Am ersten Oktober erhielt das SRI als zweiter Hoststandort einen IMP. In Palo Alto und 230 RFC 0003. Steve Carr aus Utah, Jeff Rulifson und Bill Duvall vom SRI sowie Steve Crocker und Gerard Deloche von der UCLA. Vgl. RFC 0003. Die Mitgliederzahl sollte sich jedoch bald erhöhen. 232 Vgl. Network Working Group, RFC-Index. 233 Es etablierte sich z.B. eine Tradition von dichtenden ARPANET-Pionieren, deren lyrischen ‚Werke’ über RFCs tradiert werden. Covills „ARPAWOCKY“ (RFC 0527), Kleinrocks „ODE TO A QUEUE“ oder Cerfs „ROSENCRANTZ AND ETHERNET“ (beide RFC 1121) sind Beispiele für diesen Brauch. 234 In dem Buch von Hafner und Lyon wird die Arbeit bei BBN ausführlich beschrieben. Vgl. Hafner, 95-121 und 143-157. 235 Der Jahresetat betrug 200.000 Dollar. Vgl. Hafner, 161. 231 38 Los Angeles wurde die Software zur Anbindung der Mainframes rasch entwickelt, sodass eine erste Verbindung zwischen zwei Hosts des ARPANET aufgebaut werden konnte. Nach einigen Startproblemen236 und mehreren Testbotschaften kam Larry Roberts am 21. November 1969 in Kleinrocks Labor nach Kalifornien und verfolgte die erste Telnet-Verbindung (Telecommunication Network Protocol) mit dem Rechner am 500 Kilometer entfernten SRI. Im November und Dezember folgten die Universitäten von Kalifornien in Santa Barbara (UCSB) und Utah.237 Ende des Jahres 1969 bestand das ARPANET aus 4 Knoten mit jeweils unterschiedlichen Großrechnern. Abb. 4. Die ersten Knoten des ARPANET.238 Die Kreise auf der frühen ARPANET-Karte in Abbildung 4 bezeichnen die IMP-Standorte und die Quadrate die dazugehörigen Hosts bzw. entsprechenden Mainframes. Das Konzept des verteilten Netzwerks wurde nicht konsequent realisiert. Ein Ausfall des IMP am SRI oder der Leitung zwischen SRI und der Universität von Utah hätte die zuletzt genannte Einrichtung vom restlichen Netzwerk abgetrennt. „The contract called for four IMPs to be delivered to UCLA, SRI, UCSB and the University of Utah [...]. Options existed for additional nodes if the first experiments were succesfull”.239 Die Experimente waren erfolgreich, sodass man den Vertrag mit BBN verlängerte. Da das Unternehmen inzwischen Erfahrung mit den Spezialrechnern hatte, ging der wei236 Bereits am 10. Oktober wurde erstmals versucht eine Telnet-Verbindung aufzubauen. Kleinrock wollte von Los Angeles aus auf den Mainframe in Engelbarts Labor zugreifen. Über eine traditionelle Telefonverbindung wurde er informiert, was auf dem Rechner des SRI ankam. Das Kennwort lautete L O G I N und bereits beim G stürzte der Computer ab. Vgl. Kleinrock. 237 Vgl. Salus, Casting, 55f.. 238 Es handelt sich um eine der frühesten Karten des ARPANET, deren Urheber allerdings nicht mehr geklärt werden kann. Sie wurde Peter H. Salus von Alex McKenzie zur Verfügung gestellt, der sie in sein Buch aufnahm. Vgl. Salus, Casting, 56. 239 RFC 1000. 39 tere Ausbau zügig voran. Abbildung 5 illustriert die Verteilung der Standorte im September 1971. Das Netzwerk war zwei Jahre nach der Installation der ersten IMPs auf insgesamt 18 Hosts angewachsen und jeder Knoten mit mindestens zwei weiteren verknüpft. Die mit einem eingekreisten T gekennzeichneten Standorte verfügten über sog. Terminal Interface Message Processors (TIPs), eine Weiterentwicklung der IMPs durch BBN. An die herkömmlichen Modelle konnten maximal vier Hosts angeschlossen werden. Ein TIP wurde von bis zu 64 Terminals gleichzeitig angesteuert, ohne einen weiteren Rechner zu benötigen, was den potentiellen Nutzerkreis erheblich erweiterte und auf Personen ausdehnte, die keinen Zugang zu den Großrechnern hatten.240 Abb. 5. Geographische Karte des ARPANET im September 1971. 241 Die erste Verbindung von Ost- zu Westküste wurde im April 1970 realisiert, als IMP Nummer 5 bei BBN installiert und über eine provisorische Leitung mit der UCLA verbunden wurde. Im Juli 1970 ersetzte AT&T das Provisorium durch die damals üblichen Leitungen. BBN war damit direkt mit der RAND Corporation verknüpft und konnte das geplante NCC umsetzen. Kurz darauf folgte die zweite Verbindung über den Kontinent zwischen MIT und der Universität von Utah.242 Die Wahl der ersten Knoten folgte zum einen der inneren Logik des Netzwerks, indem diejenigen Standorte zuerst integriert wurden, die für den Betrieb bzw. die Weiterentwicklung wichtig waren. Zum anderen ist das 240 Vgl. Hafner, 204f.. Die Karte wurde für den „BBN Completion Report“ erstellt. Hier wurde der Abdruck von Peter H. Salus verwendet. Vgl. Salus, Casting, 64. Die Standorte im Einzelnen: University of California at Los Angeles (UCLA); Stanford Research Institute (SRI); University of California at Santa Barbara (UCSB); University of Utah (UTAH); zwei Standorte bei Bolt, Beranek,and Newman (BBN); Massachusetts Institute of Technology (MIT); Rand Corporation (RAND); Systems Development Corporation (SDC); Harvard University (HARVARD); Lincoln Laboratory, MIT (LINCOLN); Stanford University (STANFORD); University of Illinois (ILLINOIS); Case Western Reserve (CASE); Carnegie-Mellon University (CMU); Ames Research Center, NASA (AMES), Mitre Corporation (MITRE) und Burroughs Corporation (BURROUGHS). Vgl. Hafner, 204 und 270 sowie Zakon. 242 Vgl. Salus, Casting, 59-65. 241 40 Prinzip des „Resource Sharing“ zu erkennen, da hauptsächlich die von der Behörde finanzierten Computerzentren vernetzt wurden. 2.4. Die Nutzung des Netzwerks Die Nutzungsmöglichkeiten waren aufgrund fehlender Protokolle anfangs beschränkt. Als das ARPANET noch aus vier Knoten bestand, gab es lediglich ein provisorisches „Network Control Program“, das später zum „Network Control Protocol“ (NCP) weiterentwickelt wurde, und Telnet.243 Die Provisorien ermöglichten den Zugriff auf einen entfernten Rechner, auf dem Programme ausgeführt werden konnten. Prinzipiell reduzierte man dadurch den Client-Rechner auf einen Terminal, d.h. strenggenommen fand noch keine Kommunikation zwischen gleichberechtigten Computern statt. Obwohl NCP bereits im Dezember 1970 entwickelt war, wurde es erst über das Jahr 1972 vollständig implementiert.244 Im März 1971 übte Steve Crocker, Vorsitzender der NWG, Druck auf die Entwickler aus und forderte eine rasche Implementierung von NCP und Telnet.245 Erst im Juli 1972 folgte eine ausgereifte Version von FTP, „a protocol for file transfer between HOSTs (including terminal IMPs [TIPs]), on the ARPA Computer Network (ARPANET). The primary function of FTP is to transfer files efficiently and reliably among HOSTs […]. The objectives of FTP are 1) to promote sharing of files (computer programs and/or data), 2) to encourage indirect or implicit (via programs) use of remote computers, 3) to shield a user from variations in file storage systems among HOSTs, and 4) to transfer data reliably and efficiently. FTP, though usable directly by user at a terminal, is designed mainly for use by programs“.246 Diesem RFC von Bhushan war eine mehrmonatige Entwicklungsarbeit – mit abschließendem Workshop-Wochenende Mitte April 1972 - vorangegangen, die sich über die RFCs 309, 308, 265, 264, 238, 172, 171 und 114 zurückverfolgen lässt.247 Das standardisierte FTP bedeutete eine fundamentale Erleichterung bzw. Erweiterung der Nutzungsmöglichkeiten. Die bisherigen Lösungen für einen Dateitransport waren nicht für alle Host-Standorte geeignet und erforderten genaue Kenntnisse über das jeweilige Dateisystem. „I never dreamed these notes [RFCs] would distributed through the very medium we were discussing in these notes”,248 berichtet Stephan Crocker über seine Anfangszeit bei der NWG. Der Vertrieb wurde über den herkömmlichen Postweg abgewickelt. RFC 95 vom Februar 1971 trägt z.B. den Titel „Distribution of NWG/RFCs Through the NIC“, was einen Vertrieb über den Server des SRI vermuten lässt. In Unterpunkt 4 des Papiers betont Crocker jedoch: „All mailing should be airmail or first class, depending upon distance”. Die 243 Vgl. Salus, Casting, 42. NCP ist der Vorläufer von TCP/IP. Vgl. Leiner, 103. 245 Vgl. RFC 0111. 246 RFC 0354. 247 Vgl. Network Working Group, RFC-Index. 248 RFC 1000. 244 41 daran anschließende „mailing list” umfasst 27 Postanschriften und Telefonnummern.249 Das ARPANET war weder als Kommunikationsmittel geplant, noch wurde es zu Beginn so genutzt. Die zuerst entwickelten Dienste (FTP und Telnet) eigneten sich hauptsächlich zum „Resource Sharing“. Die Technologie des Netzwerks musste erst noch ‚umgenutzt’ werden, um tatsächlich eine Kommunikation zwischen Menschen herzustellen. Hafner und Lyon nennen Zahlen für die quantitative Nutzung im Herbst 1971. Demnach wurden 675.000 Datenpakete pro Tag transportiert, was einer Auslastung von ca. 2% der potentiellen Kapazität von 30 Millionen Paketen täglich entspricht.250 Vinton Cerf musste für Belastungstests im Auftrag des NMC Anfang Mai 1972 künstlichen Datenverkehr erzeugen um seine Messungen überhaupt durchführen zu können.251 Ende 1973 bezifferte McKenzie vom NCC das tägliche Datenvolumen auf über 3,6 Millionen Pakete.252 Stimmen die Angaben von Hafner und Lyon, so ist ein deutlicher Anstieg in diesem Zeitraum zu erkennen, obwohl das Netzwerk noch immer weit von seiner maximalen Auslastung entfernt war. Die Zahl der Standorte stieg von 18 auf 41, was die Zunahme weiter relativiert.253 Dennoch bleibt ein Anstieg pro Host auf ca. 240% des Niveaus vom Herbst 1971, der auf ein verändertes Nutzungsverhalten bzw. gestiegenes Interesse schließen lässt. McKenzie schätzte im Januar 1971 die Größe der ARPANET-„community“ auf 2000 Mitglieder, verteilt auf 14 Hosts.254 Diese Zahl scheint hochgegriffen, ergibt sich dadurch doch ein Durchschnitt von ca. 140 Personen an jedem Standort. Die Nutzung war von Beginn an streng limitiert: Lediglich ein exklusiver Zirkel von Personen, die an den ARPAProjekten beteiligt waren, hatte Zugriff. Larry Robberts machte dies bereits auf einem Treffen am 9. und 10. Oktober 1967 im Pentagon den Vertragspartnern klar, die sich an dem Netzwerkprojekt beteiligen wollten. Engelbart notierte, dass jeder Host die Anfragen nach einem Zugang prüfen solle, um sicherzustellen, dass ein Bezug zu den ARPA-Projekten bestehe. Zudem müsse jeder Standort gewährleisten, dass nur berechtigte Nutzer über das Netzwerk Zugang zu den Dateien und Programmen ihres Servers erhielten.255 RFC 602 von 1973 belegt, dass diese Vorschriften teilweise nicht mit der gewünschten Sorgfalt umgesetzt wurden. McKency berichtet von drei „dangerous security violations“ innerhalb weniger Wochen, vermutet aber, dass nur ein kleiner Teil der Vergehen entdeckt werde. Zwei Hosts seien zum Absturz gebracht worden und auf einem dritten System hätten zwei Studenten einer Highschool in Los Angeles die Passwörter geknackt. Verantwortlich seien die jeweiligen Standorte. Häufig würden Passwörter gewählt, die 249 Vgl. RFC 0095. Vgl. Hafner, 209. 251 Vgl. RFC 0334. 252 Im November 1973 wurden täglich 3,65 Millionen Pakete transportiert. Vgl. RFC 0601. McKenzie erhob diese Zahlen bei BBN für das NCC und veröffentlichte sie seit Juli 1972 (RFC 0378) monatlich. Leider stehen die betreffenden RFCs vor RFC 0601 nicht zur Verfügung. Vgl. Network Working Group. 253 Vgl. RFC 0601. 254 Vgl. Salus, Casting, 57. 255 Vgl. Engelbart, Report. 250 42 leicht zu erahnen seien, wie z.B. der eigene Name oder die Initialen. Die Telefonnummern der TIPs, über die ein anonymer Zugang möglich war, würden eilig an die Wand gekritzelt und damit veröffentlicht. Er mahnte die Standorte zu einer konsequenteren Umsetzung der Sicherheitsbestimmungen.256 Den strengen ARPANET Zugangsbestimmungen stand eine liberale Haltung hinsichtlich der inhaltlichen Nutzung und der Informationspolitik über die Netzwerktechnologie gegenüber. Es gab keine Vorschriften über Inhalte und schon auf den Konferenzen der American Federation of Information Processing Societies (AFIPS) 1970 und 1972 wurde die Computerfachwelt über den Stand des Projekts informiert.257 2.5. ICCC 72 - die erste öffentliche Demonstration Die erste öffentliche Demonstration des ARPANET sollte anlässlich der International Conference on Computer Communication (ICCC) vom 24. bis 26. Oktober 1972 im Hilton Hotel von Washington stattfinden. Robert Kahn, der von Larry Roberts mit der Organisation beauftragt wurde, definierte in RFC 371 vom 12. 7. 1972 die Zielsetzung: „I am organizing a computer communication network demonstration to run in parallel with the sessions. This demonstration will provide attendees with the opportunity to gain first hand experience in the use of a computer network. The theme of the demonstration will be on the value of computer communication networks […]. I am hoping to present a broad sampling of computer based resources that will provide attendees with some perspective on the utility of computer communication networks”.258 Im Hilton sollte ein TIP installiert und mit dem ARPANET verbunden werden, auf den Interessenten über einen der mehr als 40 Terminals von verschiedenen Herstellern selbst zugreifen sollten. „A significant amount of preparation by ourselves, the NIC, and others is being devoted to making it convenient for naive users to sit down at a terminal and effectively use ‘selected’ resources without assistance. This involves the generation of ‘explicit’ documentation in easy to understand terms -- a non-trivial task. However, we hope this effort will also be useful for other application in the long run”.259 Die von Robert Kahn geforderte Dokumentation – eines der frühsten ausführlichen Handbücher für Nutzende in der Geschichte des Internet260 – umfasste schließlich 62 Seiten und wurde unter dem Titel „Scenarios for using the ARPANET at the International Conference On Computer Communication“ verteilt.261 Abschließend forderte Kahn die ‚Netz- 256 Vgl. RFC 0602. Vgl. Norberg, 177. 258 RFC 0371. 259 Ebd.. 260 Die Bedeutung von einführenden Handbüchern für die Nutzenden wurde durchaus erkannt. Die Arbeiten waren jedoch in der Regel auf den jeweiligen Hoststandort zugeschnitten. Seit Juli 1971 wurden die „Network participants“ dazu aufgerufen, Kopien von ihren „basic manuals or handbooks“ an das NIC zu schicken, das die weitere Distribution organisieren wollte. Vgl. RFC 0185. Ein Experiment an der UCSB mit 14 graduierten Studenten hatte Anfang 1972 unter anderem ergeben, dass trotz eines zweiwöchigen Einführungsseminars zum Gebrauch des Netzwerks weiterhin Bedarf an Handbüchern bestand. Vgl. RFC 0302. 261 Vgl. Salus, Casting, 72f.. Leider steht die Dokumentation nicht mehr zur Verfügung. Salus beschränkt sich 257 43 werk-Gemeinschaft’ zur Mithilfe bei den weiteren Vorbereitungen auf: „We need the help of sites in the network community to pitch in and lend a hand. This is a large undertaking and much too big to be pulled off without a large commitment in time and energy between now and October. Many of you are already active in planning for ICCC. For those of you who may not yet be involved, someone will be contacting or will have contacted your technical liaison in the next few days. We hope you will join us in this effort”.262 „ARPA except for Bob [Robert Kahn] does not seem to have set up any budget for this show except what their contractors are essentially willing to give as part of their ongoing research”,263 präzisiert Richard Watson in RFC 372 vom selben Tag. Er berichtet über vage Zusagen von verschiedenen Hoststandorten: Kleinrock wollte Programme zur Leistungsmessung des Netzwerks vorstellen und Vezza sowie Kahn vom MIT eine Möglichkeit zum Ausdrucken des Bildschirminhalts. Aus Utah, Stanford, RAND und anderen Standorten war bis zu diesem Zeitpunkt lediglich eine generelle Bereitschaft signalisiert worden.264 Die schließlich realisierte Demonstration erlaubt einen detaillierteren Einblick in das inhaltliche Angebot bzw. die bisherigen Nutzungsmöglichkeiten. Die UCLA loggte sich in Los Angeles ein, um von dort aus eine Datei von einem Server in Bosten herunterzuladen, die dann im Hilton ausgedruckt wurde. Das MIT präsentierte einen kleinen Roboter, der von einem Rechner aus über einfache Befehle gesteuert werden konnte. Außerdem gab es ein Schachprogramm, ein interaktives Quiz und verschiedene Spiele. Den größten Praxisbezug hatte wahrscheinlich die Demonstration eines Systems zur Überwachung des Luftraums, bei dem ein Rechner die Beobachtung eines Flugzeugs einem andern übergab, sobald es eine geographische Grenze überschritt.265 Die Dialogprogramme vom MIT und SRI waren die vielleicht originellsten Beiträge. Das Programm PARRY mimte einen virtuellen Psychotiker, der auf Fragen mit vorgefertigten Antworten reagierte. Sein Pendant vom MIT war „the doctor“, der aus eingegebenen Wörtern neue Fragen bildete. Beide Programme sollten eine möglichst lebensechte Kommunikation vortäuschen.266 Man wollte mit der Demonstration die Nützlichkeit bzw. den Wert von Computernetzwerken aufzeigen und präsentierte hauptsächlich unterhaltsame Spielereien. Es gab bis zu diesem Zeitpunkt kaum konkrete Nutzungsmöglichkeiten oder Angebote. Das ARPANET befand sich 1972 noch in einer experimentellen Phase. Dennoch wurde die Veranstaltung als Erfolg gewertet. Während der dreitägigen Konferenz betrug das Datenvolumen pro in seinem Buch auf den Abdruck der Titelseite. 262 RFC 0371. 263 RFC 0372. 264 Vgl. ebd.. 265 Wahrscheinlich war diese Demonstration ein ‚Abfallprodukt’ des SAGE-Projekts. 266 Vgl. Haffner, 215-220. Beide Programme wurden kurz vor der Demonstration über das ARPANET miteinander verbunden. Das Ergebnis dieses bizarren Dialogs ist bei Hafner und Lyon nachzulesen. Vgl. ebd., 219f.. 44 Host und Tag ca. 88.000 Pakete267 - ein Niveau, das selbst die Durchschnittswerte Ende 1973 übertraf. Damit wurde die Demonstration zu einem ersten Belastungstest, der den ARPA-Forschern und der internationalen Fachöffentlichkeit268 bewies, dass das experimentelle, über einen ganzen Kontinent verteilte „Packet-Switching“-Netzwerk auch in der Praxis funktionierte. McKenzie hob in einem Gespräch mit Salus zwei Aspekte hervor, die die Bedeutung der Konferenz für die weitere Entwicklung erklären: „First, it convinced a lot of people that packet networking was real. They came to scoff and they went away believers […]. Second, the organizational meeting of the International Network Working Group (INWG) took place at ICCC 72. It was the first time representatives of the ARPANET, the British National Physical Laboratory (NPL) networking group, and the French CYCLADES project had been together in one room. By the end of ICCC 72 there was INWG and Vint Cerf was elected/appointed Chairperson”.269 3. Das heterogene ARPANET Nach der ersten öffentlichen Demonstration wuchs das Netzwerk der ARPA in den 70er Jahren kontinuierlich weiter. Im August 1981 umfasste es 216 Hosts, was einem monatlichen Zuwachs von durchschnittlich 1,5 Rechnern entspricht. Der Prozess verlief in diesem Zeitraum noch weitgehend linear. 250 200 150 100 50 0 Dez 80 Dez 79 Dez 78 Dez 77 Dez 76 Dez 75 Dez 74 Dez 73 Dez 72 Dez 71 Dez 70 Dez 69 ARPANET-Hosts Abb. 5. Wachstum des ARPANET zwischen 1969 und 1980. 270 1975 wurde der Betrieb umorganisiert. Die ARPA, 1972 umbenannt in DARPA (Defense Advanced Research Projects Agency), gab die Zuständigkeit für Verwaltung und Ausbau des Netzwerks an die Defense Communications Agency (DCA) ab. Von nun an entschied 267 Vgl. Salus, Casting, 70. Vinton Cerf nennt einige Namen der ICCC-Teilnehmer: „At that conference a collection of people convened: Donald Davies from the UK, National Physical Laboratory, who had been doing work on packet switching concurrent with DARPA; Remi Despres who was involved with the French Reseau Communication par Paquet (RCP) and later Transpac, their commercial X.25 network; Larry Roberts and Barry Wessler, both of whom later joined and led BBN's Telenet; Gesualdo LeMoli, an Italian network researcher; Kjell Samuelson from the Swedish Royal Institute; John Wedlake from British Telecom; Peter Kirstein from University College London; Louis Pouzin who led the Cyclades/Cigale packet network research program at the Institute Recherche d'Informatique et d'Automatique (IRIA, now INRIA, in France). Roger Scantlebury from NPL with Donald Davies may also have been in attendance. Alex McKenzie from BBN almost certainly was there”. Vgl. Cerf. 269 Zitiert nach Salus, Casting, 70f.. Die Arbeiten an dem französischen, experimentellen Netzwerk CYCLADES begannen 1972. Vgl. Quarterman, 148. Das Projekt wird in Kapitel 3.1. behandelt. 270 Das Diagramm wurde anhand der Informationen von Hobbes’ Internet Timeline erstellt. Vgl. Zakon. Die vertikalen Linien deuten die Messpunkte an. 268 45 diese Behörde über die Installation neuer Standorte oder Leitungen. Der Vertrag mit BBN wurde verlängert.271 Dass sich die Forschungsbehörde dieser Aufgabe entzog und sie einer Kommunikationsbehörde übertrug, deutet an, dass sich der Charakter des Netzwerks gewandelt hatte. Bestand die Funktion des ARPANET bis 1972 hauptsächlich in seiner Eigenschaft als Forschungsgegenstand, wie die Auslastungszahlen und Nutzungsmöglichkeiten belegten, so hatte sich aus dem Prototyp im Verlauf der 70er Jahre ein nützliches Werkzeug entwickelt.272 Die DARPA selbst verlagerte bereits in den frühen 70er Jahren den Forschungsschwerpunkt auf alternative Trägermedien, was darauf hinweist, dass man die Entwicklung im wesentlichen für abgeschlossen hielt.273 An der Verteilung der Knoten lässt sich ein ambivalenter Charakter des Netzwerks ablesen. Die knapp 200 Standorte bildeten 1980 ein Netz über die gesamten USA, das an Ost- und Westküste besonders engmaschig wurde, wie Abbildung 6 illustriert. In Hawaii, London und Norwegen waren erstmals Rechner integriert, die außerhalb des nordamerikanischen Kontinents standen. Abb. 6. Geographische Karte des ARPANET im Oktober 1980.274 Weiterhin stellten staatliche Bildungseinrichtungen einen hohen Prozentsatz. Zu den bereits genannten Hochschulen aus den ersten Jahren waren weitere hinzugekommen: University of Texas at Austin (TEXAS), New York University (NYU), University of Southern 271 Vgl. Hafner, 278f.. Worauf sich die neue Attraktivität gründete, wird im weiteren Verlauf der Arbeit dargelegt. 273 Die Projekte mit alternativen Trägermedien werden in Kapitel 3.1. behandelt. 274 Die Karte wurde dem „Atlas of Cyberspaces” entnommen. Vgl. Dodge. Pluribus IMPs/TIPs waren die dritte bzw. vierte Generation der Netzwerkrechner. Seit 1975 produzierte BBN diese Weiterentwicklungen der IMPs/TIPs, bei denen Rechner von Lockheed mit einem „flexible multiprocessor“ als Grundlage dienten. Vgl. Salus, Casting, 36f.. C/30 bezeichnet IMPs der fünften Generation. In ANEWS-01 berichtet Major Joseph Haughney über die Weiterentwicklung, die seit 1980 von BBN angeboten wurde. Vgl. ANEWS-01. Die Satellitenverbindungen nach England, Norwegen und Hawaii werden in Kapitel 3.1. behandelt. Die Anzahl der Standorte weicht von den Hosts ab, da pro IMP meist mehr als ein Host betrieben wurde. 272 46 California (USC), Information Science Institute (ISI) der USC, etc.. Auch Privatunternehmen, die Labors mit einem ähnlichen Forschungsschwerpunkt unterhielten, hatten weiterhin Zugang. Neue Hosts waren u.a. bei der Computer Corporation of America (CCA), Xerox und der Digital Equipment Corporation (DEC) installiert worden.275 Im Unterschied zu den frühen 70er Jahren hatte jedoch die Bürokratie das Netz für sich entdeckt. Pentagon, National Security Agency (NSA), National Bureau of Standards (NBS) und DARPA betrieben selbst keine computerwissenschaftliche Forschung – sie nutzten das Netzwerk für andere Zwecke. Noch entschiedener wuchs die Präsenz des Militärs bzw. dessen Forschungseinrichtungen. Nun verfügte auch das Defense Communications Engineering Center (DCEC), Naval Research Laboratory (NRL), Air Force Weapons Laboratory (AFWL), Rome Air Development Center (RADC), White Sands Missile Range (WSMR), der U.S. Army Yuma Proving Ground (YUMA), U.S. Army Aberdeen Proving Ground (Aberdeen) und die Naval Postgraduate School (NPS) über einen ARPANET-Rechner. Bei diesen Standorten lässt sich zumindest ein Zusammenhang mit dem Gedanken der Teilung von teuren Computerressourcen für Informatiker vermuten. Die DCA ließ aber auch Knoten am Maxwell-Gunter Air Force Base Complex (GUNTER), der Eglin Air Force Base (EGLIN), Robins Air Force Base (ROBINS), Scott Air Force Base (SCOTT), Wright-Patterson Air Force Base (WPAFB) und dem Army Fort Bragg (BRAGG) installieren. Nachdem das ARPANET jahrelang nahezu ausschließlich Computerwissenschaftlern an Universitäten und privaten Forschungseinrichtungen vorbehalten war, wurde es seit Mitte der 70er Jahre zu einem hohen Prozentsatz von der staatlichen Bürokratie und dem Militär genutzt. Die heterogene Zusammensetzung der Standorte und ambivalente Nutzung des Netzwerks – Prototyp zu Versuchszwecken vs. zunehmend bedeutendes Werkzeug – lässt Spannungen vermuten. Einerseits testete man weiterhin neue Programme und Protokolle oder lotete die Belastbarkeitsgrenzen des Systems aus. Andererseits wurde ein stabiler Betrieb gewünscht. Prinzipien der Geheimhaltung konkurrierten mit dem Ideal der freien Forschung an Universitäten und dem Grundsatz eines Teils der Netznutzer, wonach Informationen generell frei zugänglich sein müssten. Bis Anfang der 80er Jahre blieben diese Probleme ungelöst und die Nutzenden des ARPANET mussten sich mit dem ambivalenten Charakter des Netzwerks arrangieren. 275 Die Standorte der Rechner des ARPANET sind in der Sekundärliteratur an keiner Stelle systematisch erfasst. Das Faible der Protagonisten für Abkürzungen macht eine vollständige Rekonstruktion nahezu unmöglich. Die hier vorgenommenen Aufschlüsselungen sind hauptsächlich Edwards’ „The Closed World“ und diversen Seiten des amerikanischen Militärs im WWW entnommen. Auch in zeitgenössischen Dokumenten befinden sich vereinzelt Hinweise. Meist werden dort aber die selben Akronyme verwendet. Die folgende Aufzählung erhebt keinen Anspruch auf Vollständigkeit, sondern versucht lediglich die Verteilung der Standorte zu charakterisieren. 47 3.1. Neue Netze und Kahns „internet problem“ Nach ICCC 72 wurde auch in anderen Ländern mit dem Aufbau von Forschungsnetzen begonnen.276 Die Entwicklung verlief in diesem Jahrzehnt noch zu zaghaft um von einem Netzwerk-Boom zu sprechen. Das ARPANET blieb das technisch ausgereifteste und größte (Hostzahl und geographische Ausdehnung) Projekt seiner Zeit. Dennoch lässt sich ein grundsätzliches Interesse an der neuen Technologie feststellen. In Europa wurde (abgesehen von dem britischen NPL Data Network) in den frühen 70er Jahren vor allem in Frankreich geforscht. Zwischen 1972 und 1975 realisierte man das CYCLADES-Projekt, wobei die Informatiker Louis Pouzin und Herbert Zimmermann eine wesentliche Rolle spielten. Finanziert und initiiert wurde das Netzwerk von der Delegation à l’Informatique der französischen Regierung, die eine Möglichkeit zur Erforschung der Technologie anhand eines Prototyps schaffen wollte und Kostenreduzierung durch Ressourcenteilung anvisierte. Mit der Umsetzung des Plans wurde das Institut de Recherche d’Informatique et d’Automatique (IRIA) betraut, das die Arbeit an den im Land verteilten Forschungseinrichtungen koordinierte. Wie das ARPANET war es „an object of research and a plattform for other research”.277 Die Parallelen bei Organisation und Intention sind offensichtlich. Auch hinsichtlich der Technik gab es Gemeinsamkeiten. Dem IMP-Subnetz des ARPANET entsprach CIGALE und auch bei dem französischen Projekt wurden zuerst Anwendungen entwickelt, die bezüglich ihrer Funktionalität Telnet und FTP entsprachen.278 Die Ähnlichkeit entstand nicht zufällig. Pouzin hatte Ende der 60er Jahre mehrere Monate die Arbeit bei BBN verfolgt und bezog sich 1973 ausdrücklich auf die Vorleistungen des ARPANET und NPL Data Network.279 Im November 1973 wurde das Netzwerk mit drei Hosts und einem Rechner für die Paketvermittlung erstmals der Öffentlichkeit vorgestellt. Als das Projekt 1981 auslief war es auf 20 Hosts angewachsen.280 CYCLADES war aber mehr als eine Kopie des amerikanischen Modells. Die in Frankreich eingesetzten Protokolle bildeten die Grundlage des später entwickelten ISO-OSI Modells - ein Ansatz, der im „protocol war“281 mit der Lösung des ARPANET konkurrieren sollte.282 Mitte der 70er Jahre wurden weitere Forschungsnetze installiert. In Deutschland setzten die Bemühungen 1974 am Hahn-Meitner Institut (HMI) in Berlin ein, woraus die experimentellen Netzwerke HMI-NET 1 (1974-76) und HMI-NET 2 (1976-79) hervorgingen. 1976 folgte das BERNET (Berlin Network), das die Technische Universität, die Freie Uni276 Aus Platzgründen werden nur europäische Projekte berücksichtigt. Eine ähnliche Entwicklung gab es in den 70er Jahren auch in Japan. 277 Quarterman, 148. 278 Vgl. Quarterman, 148f.. 279 Vgl. Salus, Casting, 86f.. 280 Vgl. Quarterman, 149-151. 281 Salus, Casting, 117. 282 Vgl. Salus, Casting, 87. 48 versität, das Konrad-Zuse-Zentrum für Informationstechnik und die Bundesanstalt für Materialprüfung miteinander vernetzte.283 In Großbritannien forschte die Post und nahm 1975 EPSS (Experimental Packet-Switching Service) in Betrieb. In den ersten Veröffentlichungen zu EPSS zitierten die Autoren unter anderem Barans „On Distributed Communications“. Auf dem Projekt der britischen Post basierte das 1976 installierte SERCNET des Science and Engineering Research Council (SERC), über das die Rechner verschiedener Labors und Universitäten in England verbunden waren.284 Auch die Europäische Wirtschaftsgemeinschaft investierte in ein ehrgeiziges, supranationales Projekt. Nach dreijähriger Forschungstätigkeit wurden 1976 die ersten Hosts installiert. Im April 1978 präsentierte man das European Informatics Network (EIN) an fünf über den Kontinent verteilten Standorten. EIN konnte sich nicht durchsetzen und wuchs nie über die bereits zu Beginn installierten Knoten hinaus.285 Insgesamt setzte die Entwicklung in Europa (abgesehen von dem frühen NPL Experiment) mit einer deutlichen, charakteristischen Verspätung ein und blieb weit hinter der Bedeutung des amerikanischen Vorbilds zurück. Wie in den USA dominierten Akteure aus öffentlich finanzierten Bereichen den Netzaufbau. DARPA bzw. IPTO förderten neben dem hauseigenen Projekt unter der Leitung von Lawrence Roberts (1969-1973) ein Experiment der Universität von Hawaii. Die Telefonleitungen auf diesen Inseln waren wegen zu großer Störgeräusche ungeeignet für den Transport von Daten – es musste ein alternatives Trägermedium gefunden werden. Über Radiowellen war schließlich der Zugriff von Terminals, die über die Inseln verteilt installiert wurden, auf den Zentralcomputer der Universität möglich.286 Anlässlich der AFIPS-Konferenz von 1970, auf der auch über den Entwicklungsstand des ARPANET informiert wurde, präsentierte Norman Abramson von der Universität von Hawaii das „ALOHA System“ erstmals der Fachöffentlichkeit.287 Robert Kahn, der 1972 von BBN zur DARPA gewechselt war, um die Aktivitäten zur drahtlosen Paketvermittlung zu koordinieren,288 wollte mit einem weiteren Projekt, dem experimentellen Packet Radio Network (PRNET), die Erkenntnisse der bisherigen Forschung an militärische Bedürfnisse anpassen. Es war geplant, dass kleine, mobile Rechner in einem großflächigen Operationsgebiet über Funkverbindungen auf ein Netzwerk zugreifen könnten, das dem verteilten Design des ARPANET entsprach. An verschiedenen Standorten der Bay Area von San Francisco wurden die ersten Knoten des PRNET realisiert. Technische Probleme und explodierende Kosten führten jedoch dazu, dass es 283 Vgl. Salus, Casting, 88 und Quarterman, 147. Vgl. Salus, Casting, 88f. und Quarterman, 142f.. 285 Vgl. Salus, Casting, 89-91 und Quarterman, 152. 286 Vgl. Norberg, 180. 287 Vgl. Salus, Casting, 75. 288 Vgl. Hafner, 260-262. 284 49 nach wenigen Jahren eingestellt wurde.289 Ebenfalls 1972 initiierte der neue DARPA-Mitarbeiter ein Projekt zur Einbindung europäischer Standorte. Die teuren und störanfälligen Transatlantikleitungen verhinderten die Installation eines Festnetzes. Die Funktechnologie als Trägermedium schied wegen ihrer geringen Reichweite aus, die Relaisstationen im Abstand von wenigen Kilometern nötig machte. Um den pazifischen Raum und Europa mit den USA zu vernetzen musste eine alternative Lösung entwickelt werden.290 Für Satelliten, eine Technologie, die sich selbst noch in der Entwicklungsphase befand, waren Ozeane kein Hindernis. Bei den Planungen zum Atlantic Satellite Network (SATNET) entschied sich die Behörde gegen militärische Erdtrabanten und verhandelte stattdessen mit der International Telecommunications Satellite Organization (Intelsat). Intelsat verfügte über das fortgeschrittenste Projekt der jungen Branche und bot seit Februar 1973 ein kommerzielles Kommunikationssystem an.291 Im Mai diesen Jahres wurde eine erste experimentelle Verbindung des ARPANET nach Hawaii installiert und im September folgten Knoten in London und Norwegen. 1975 wurde schließlich das externe SATNET in Betrieb genommen, das bis 1989 Einrichtungen in den USA, England, Norwegen, Italien und Deutschland vernetzte.292 Die Entwicklung neuer Trägermedien für „Packet-Switching“-Netzwerke blieb nicht die einzige Folge des SATNET und PRNET. Wesentlicher war die Entscheidung, beide mit dem APANET zu verbinden, das seine Funktionstüchtigkeit bereits in der Praxis bewiesen hatte. Vinton Cerf berichtet von einem Treffen mit Kahn: „Shortly after I went to Stanford [November 1972], Bob Kahn told me about a project he had […], a packet radio project. This was to get a mobile networking environment going. There was also work on a packet satellite system, which was a consequence of work that had been done at the University of Hawaii, based on the ALOHA-Net […]. Bob Kahn described the packet radio and satellite systems, and the internet problem, which was to get host computers to communicate across multiple packet networks without knowing the network technology underneath”.293 Es ist erstaunlich, dass der Gedanke zur weiteren Vernetzung erst im Zusammenhang mit SATNET und PRNET entstand. Die INWG, der u.a. Vertreter des NPL Data Network, des ARPANET und des französischen CYCLADES-Projekts angehörten, war bereits auf der ICCC im Oktober 1972 gegründet worden. Da Vinton Cerf selbst Vorsitzender dieser Organisation war, besteht jedoch kein Grund an seiner oben zitierten Darstellung zu zweifeln. Die Initiative zum Aufbau eines Netzwerks von Netzwerken kam von der IPTO. 289 Vgl. Norberg, 180. Vgl. Hafner, 262f.. 291 Vgl. Norberg, 181f.. 292 Vgl. Salus, Casting, 79f.. Die Verbindung nach London wurde in den RFCs bekannt gegeben: „London node is now up“, verkündete Adrian Stokes Anfang Oktober 1973. Vgl. RFC 0588. 293 Cerf. 290 50 3.1.1. Das CATENET-Projekt Das neue Projekt mit dem Arbeitstitel CATENET (Concatenated Network)294 brachte ähnliche Probleme mit sich wie der Aufbau des ARPANET Ende der 60er Jahre. War man damals mit unterschiedlichen Zentralcomputern konfrontiert, die Inkompatibilitätsprobleme mit sich brachten, so galt dasselbe nun für die unterschiedlichen Netzwerke. Das im ARPANET eingesetzte NCP nutzte andere Paketgrößen und Übertragungsgeschwindigkeiten als die Protokolle des SATNET, PRNET und der europäischen Projekte. Eine Homogenisierung wäre die technisch einfachste Lösung gewesen. Ende 1972 definierte Robert Kahn die Konzeption der CATENET-Architektur, die vier Grundprinzipien umfasste: „• Each distinct network had to stand on its own, and no internal changes could be required of any such network before being connected to the Internet. • Communications would be on a best-effort basis. If a packet didn’t make it to the final destination, it would quickly be retransmitted from the source. • Black boxes [...] would be used to connect the networks. No information would be retained [...] about individual flows of packets passing through them, keeping them simple and avoiding complicated adaptation and recovery from various failure modes. • There would be no global control at the operations level”.295 Wie die Konstrukteure des ARPANET Ende der 60er Jahre wählte Robert Kahn eine offene Architektur. Das Metanetzwerk sollte heterogene Projekte integrieren, ohne dass diese ihre interne Struktur (Soft- und Hardware) anpassen mussten. Jedes der Einzelnetzwerke sollte für den Betrieb selbst verantwortlich sein, d.h. von einem zentralen Kontrollorgan wurde abgesehen. Stabilität und Funktionalität waren unverzichtbar. Kahn initiierte das „Internet Program“ der IPTO und konnte Vinton Cerf für die detaillierte Ausarbeitung gewinnen.296 Cerf hatte als NWG-Mitglied aktiv an der Entwicklung des ARPANET-Protokolls NCP mitgewirkt und verfügte wegen seines Postens als Vorsitzender der INWG über ausgezeichnete internationale Kontakte. Abbildung 7 illustriert den Aufbau des CATENET. In Analogie zu den IMPs des ARPANET wurde vor jedes Netzwerk ein Gateway (G) geschaltet, das die Daten zwischen den Netzen austauschte. Für die einzelnen Netzwerke sollten sich die Gateways nicht von gewöhnlichen Hosts (H) unterscheiden. In einem RFC wurden diese Rechner später in Anlehnung an den römischen „god of gateways“ treffend als „Janus-Host“ bezeichnet.297 Um eine Kommunikation über die Grenzen eines Netzwerks hinaus zu ermöglichen, musste noch eine gemeinsame Basis entwickelt werden. Das bisherige Host-to-Host-Protokoll Vgl. Hafner, 264. In IEN 048 berichtet Cerf über den Ursprung des Begriffs: „The term ‚catenet’ was introduced by L. Pouzin in 1974 in his early paper on packet network interconnection. The U.S. DARPA research project on this subject has adopted the term to mean roughly, the collection of packet networks which are connected together’”. IEN 048. Die Begriffe CATENET und ARPA-Internet wurden in den 70er Jahren parallel verwendet. In den 80er Jahren setzte sich dafür die Bezeichnung Internet allgemein durch. 295 Leiner, 103f.. 296 Vgl. Leiner, 104. 297 Vgl. RFC 0875. 294 51 Abb. 7. Cerfs Skizze des CATENET.298 NCP war auf das ARPANET zugeschnitten und eignete sich nicht für diese Aufgabe. Ursprünglich sollte es vom Transmission Control Protocol (TCP) abgelöst werden.299 1977 wurde Kahns Konzept in einem Experiment erstmals umgesetzt: „The earliest demonstration of the triple network Internet was in July 1977 […]. Traffic passed from the mobile unit on the Packet Radio network [PRNET] across the ARPANET over an internal point-to-point satellite link to University College London, and then back through the SATNET into the ARPANET again, and then across the ARPANET to the USC Information Sciences Institute […]. So the packets were travelling 94,000 miles round trip, as opposed to what would have been an 800-mile round trip directly on the ARPANET. We didn't lose a bit!”.300 3.1.2. Internet-Protokolle Vinton Cerf beschrieb in „How the Internet Came to Be“ die Entstehungsgeschichte der Protokolle TCP/IP, die noch heute die Basis des Internet bilden. Nachdem Robert Kahn den Anstoß gegeben hatte, veranstaltete Cerf, der einen Lehrstuhl für Computerwissenschaften und Elektrotechnik in Stanford angenommen hatte, eine Reihe von Seminaren, um mit Studenten und Gästen der Universität an dem Problem zu arbeiten.301 Das Ergebnis wurde auf einem Treffen der INWG im September 1973 diskutiert und im Mai 1974 veröffentlichten Cerf und Kahn einen ersten Entwurf in Fachzeitschriften. Ende desselben Jahres wurde TCP in Stanford, London und bei BBN zu Versuchszwecken implementiert.302 298 Cerfs Skizze ist bei Hafner und Lyon abgedruckt. Vgl. Hafner, 265. Die Ziffer 1822 über dem ARPANET bezieht sich auf den BBN Report No. 1822 vom Mai 1969 mit dem Titel „Interface Message Processor: Specifications for the Interconnection of a Host and an IMP“. Das Dokument wurde mehrfach überarbeitet und war für mehr als eine Dekade „the Bible of networking“. Vgl. Salus, Casting, 36. Die Angaben PR und SAT in den Kästchen deuten an, dass die Einzelnetzwerke ihre bisherigen Protokolle behalten sollten. 299 Vgl. Hafner, 265f.. 300 Cerf. 301 Cerf nennt Carl Sunshine, Richard Karp, Judy Estrin, Yogen Dalal, Jim Mathis, Darryl Rubin, Ron Crane, John Shoch, Bob Metcalfe, Gerard Lelann, Dag Belsnes, Kuninobu Tanno und Jim Warren. Viele von ihnen hatten später leitende Positionen bei Xerox, Apple, Microsoft und anderen Unternehmen. „Thinking about computer networking problems has had a powerful influence on careers”. Vgl. Cerf. 302 Vgl. Cerf. 52 Die Entwicklung war von Beginn an arbeitsteilig, öffentlich und international. Sowohl bei der INWG als auch den Studenten in Stanford waren Vertreter der europäischen Netzwerke involviert. Kahn und Cerf diskutierten das Protokoll häufig mit Vertretern des CYCLADES-Projekts und des NPL Data Network.303 Im Dezember 1974 veröffentlichten Vinton Cerf, Yogen Dalal und Carl Sunshine (beide arbeiteten in seinem Labor in Stanford) erstmals ein RFC zum Thema TCP: „Specification of Internet Transmission Control Program“.304 Der Begriff Internet fällt damit zum ersten Mal in diesen Dokumenten. Im Juni 1978 wurde die Funktionalität auf das Protokollset TCP/IP verteilt.305 Vereinfacht dargestellt trennt TCP Dateien in einzelne Pakete auf und organisiert den Versand. Die Pakete werden durchnummeriert und erhalten eine Prüfsumme, um die Vollständigkeit am Zielort sicher zu stellen. IP steckt sie anschließend in einen ‚Briefumschlag’ mit Adressinformationen.306 Im Dezember 1979 wurden sie zum offiziellen Internetstandard des DoD erklärt,307 den man einen Monat später den Nutzern des ARPANET in zwei RFCs mitteilte.308 Mitte 1980 kündigte Postel schließlich ein neues Protokollhandbuch an: „The internet family of protocols is replacing the old ARPANET protocols. To this end an Internet Protocol Handbook will be prepared by the Network Information Center. This Handbook is tentatively planned to be available at the end of 1980“.309 Die Protokollentwicklung war damit im wesentlichen abgeschlossen. Die Entstehung war jedoch nicht so harmonisch verlaufen wie bisher dargestellt. Netzwerke, die auf „Packet-Switching“-Technologie basierten, gab es Mitte der 70er Jahre auch außerhalb des Einflussgebiets der DARPA. 1976 veröffentlichte das Consultative Committee for International Telegraphy and Telephony (CCITT), eine Organisation, die sich hauptsächlich aus nationalen Telefongesellschaften zusammensetzte, mit X.25 ein erstes ‚Konkurrenzprodukt’. Das neue Protokoll wurde heftig kritisiert und konnte sich nicht durchsetzen.310 Ein Manko war das Adressierungskonzept, das für jedes Land maximal 10 Netzwerke vorsah. TCP ermöglichte bereits in der ersten Version von 1974 die Integration von 256 Netzwerken und erhöhte diese Zahl Anfang der 80er Jahre auf mehrere Millionen. Abbate führt die knappe Kalkulation bei X.25 auf die Dominanz der weitgehend staatlich monopolisierten Telekommunikationsgesellschaften zurück, die davon ausgingen, dass in Analogie zum Telefonnetz prinzipiell ein öffentliches Projekt pro Land aus- 303 Vgl. Hafner, 266ff.. RFC 0675. Einleitend danken die Autoren zahlreichen Personen für ihre Mitarbeit. 305 Vgl. IEN 40 und 41. 306 Vgl. IEN 123 und 124. Die Funktionalität von IP wird in diesen Dokumenten tatsächlich mit „envelopes“ illustriert. 307 Vgl. IEN 123 und 124. 308 Vgl. RFC 0760 und 0761. 309 RFC 0774. Im April 1976 war das erste „ARPANET Protcol Handbook“ erschienen. Ein Buch mit über 300 Seiten, das die wesentlichen Protokolle des ARPANET dokumentierte, bis auf die Spezifikationen des BBN Report No. 1822, der selbst für das umfassende „ARPANET Protocol Handbook“ zu mächtig war. 310 Vgl. Salus, Casting, 110-112. 304 53 reichen würde.311 Ende der 70er Jahre versuchte die International Organization for Standardization (ISO) einen allgemeingültigen Standard für die künftige Kommunikationsinfrastruktur zu definieren und veröffentlichte mehrere Versionen von OSI (Open System Interconnection). Das abstrakte Modell war wesentlich komplexer aufgebaut und auch die Herangehensweise der Organisation unterschied sich von der TCP/IP-Entwicklung. John Quarterman bemerkte in einem Gespräch mit Peter Salus: „OSI specified before implementation. So specification took forever and implementation never really happened, except for bits and pieces. In addition, heavy government backing (by the EC – now the EU – and various national governments) led some OSI participants to attempt to substitute the official authority for technical capability. OSI and IP started at about the same time (1977). OSI wandered off into the weeds and IP won the race. Those governments that backed OSI bet on the wrong horse”.312 Die Auseinandersetzungen entwickelten sich Ende der 70er und Anfang der 80er Jahre zu einem regelrechten „protocol war“.313 Die Akteure des ARPANET, die TCP seit 1974 in der Praxis getestet und dessen Funktionstüchtigkeit bewiesen hatten, waren nicht bereit sich von der ISO und deren Bürokratie einen Standard diktieren zu lassen, der lediglich aus einem abstrakten, theoretischen Modell bestand. Die ISO hingegen setzte bereits seit den 40er Jahren internationale Standards für alles Mögliche und ging davon aus, dass sich ihr Vorschlag durchsetzen würde.314 Bei Salus und Quarterman klingt die kompromisslose Haltung dieser Zeit noch nach. Danny Cohen versuchte in einem „Plea for Peace“ die Diskussion in vernünftige Bahnen zu lenken: „This is an attempt to stop a war […]. Like all the religious wars of the past, logic is not the decisive tool. Power is. This holy war is not the first one, and probably will not be the last one either. Our communication world may split according to the language used. A certain book […] has an interesting story about a similar phenomenon, the Tower of Babel”.315 Cohens Mahnung blieb eine Ausnahme im „protocol war“. Erst nachdem TCP/IP vollständig implementiert war und sich endgültig als Internet-Standard durchgesetzt hatte, ging man kompromissbereiter an die Sache heran: „The Internet has become a test bed for development of other protocols. Since there was no lower level OSI infrastructure available, Marshall Rose proposed [1987] that the Internet could be used to try out X.400 and X.500 […] so there was a conscious decision to help higher-level OSI protocols to be deployed in live environments before the lower-level protocols were available”.316 Auch wenn sich der Ansatz der ISO nicht in einer konkreten Form für das Internet durchsetzen konnte, scheiterte er nicht vollständig. OSI/ISO ist heute allgemein anerkannt als 311 Vgl. Abbate, 130-133. Salus, Casting, 123. 313 Salus, Casting, 117. 314 Vgl. Hafner, 292. 315 IEN 137. 316 Cerf. 312 54 theoretisches Modell, „das die Kommunikation zwischen Rechnern bzw. Stationen in einem Netzwerk beschreibt und dabei sieben verschiedene Schichten der Kommunikation darstellt“.317 Unbeeindruckt von den Auseinandersetzungen und bestärkt durch den DoD-Standard wurde im November 1981 der „NCP/TCP Transition Plan“ veröffentlicht: „The time has come to put these protocols [TCP/IP] into use in the operational ARPANET, and extend the logical connectivity of the ARPANET hosts to include hosts in other networks participating in the ARPA Internet”.318 Die einzelnen Standorte sollten mit der Umstellung spätestens am 1.1.1982 beginnen. Ende 1982 folgte die letzte Aufforderung: „If you have NOT implemented TCP/IP, the end of the world is near! ***** 1 Jan 1983 is the cutover date, folks! *****”.319 Ebenfalls 1983 entwickelten Programmierer der UCB (University of California at Berkeley) mit finanzieller Unterstützung der DARPA eine neue Generation des an Universitäten noch heute weit verbreiteten Betriebssystems Unix. In dem neuen Berkley-Unix war TCP/IP bereits integriert, was dessen Verbreitung an den Hochschulen entscheidend vorantrieb.320 3.1.3. Umstrukturierung des Entwicklungsprozesses Ein ARPANET Newsletter (ANEWS) des Network Managers der DCA begleitete die Umstellung. Zwischen Juli 1980 und April 1983 wurden 24 dieser Dokumente über das NIC an die Kontaktpersonen der einzelnen Hoststandorte (Technical Liaisons) verschickt.321 Anfangs erstellte vor allem Major Joseph Haughney von der Air Force die Beiträge. Als er Ende 1981 seinen Posten aufgab um zivile Aufgaben zu übernehmen, wurde er von Major Glynn Parker, der derselben Waffengattung angehörte, abgelöst.322 Regelmäßig informierte die DCA in den ANEWS über Weiterentwicklungen der Hardware und Seminarangebote zur geplanten TCP/IP Umstellung. Die Publikation wurde aber auch genutzt, um die Technical Liaisons an ihre Kontrollpflichten zu erinnern.323 Für die TCP/IP-Entwicklung bzw. die Fortschritte des internationalen Vernetzungsprojekts beschlossen die Akteure des „Internet Program“ ebenfalls eine neue Serie mit Dokumentationen. Die RFCs sollten sich auf Beiträge mit einem direkten Bezug zum ARPANET beschränken. Zwischen März 1977 und September 1982 wurden insgesamt 204 Dokumente mit dem Titel Internet Experiment Notes (IEN) veröffentlicht. Nach 1982 erschienen wieder alle relevanten Informationen als RFC.324 317 Voets, 378. RFC 0801. 319 ANEWS-16. 320 Vgl. Rheingold, 109. 321 Vgl. US Defense Communications Agency (DCA), ARPANET Newsletter (ANEWS 1980 – 1983). 322 Vgl. ANEWS-08. 323 Vgl. Kapitel 3.2.1.. 324 Vgl. Postel, Internet Experiment Notes (1980-1983). 318 55 Der anfangs personal geprägte Entwicklungsprozess begann sich zu institutionalisieren. Noch während Cerfs Vorsitz bei der INWG wurden Kontakte zur International Federation of Information Processing (IFIP) aufgebaut und 1974 erfolgte die vollständige organisatorische Einbindung. Die INWG wurde zur ersten Arbeitsgruppe des Technical Committee 6 (WG 6.1) der IFIP, deren Themengebiet computervermittelte Kommunikation war. 325 1979 folgte die Gründung des Internet Configuration Control Board (ICCC): „In the early stages of the Internet research program, only a few researchers worked to develop and test versions of the internet protocols. Over time, the size of this activity increased until, in 1979, it was necessary to form an informal committee to guide the technical evolution of the protocol suite. This group was called the Internet Configuration Control Board (ICCB) and was established by Dr. Vinton Cerf who was then the DARPA program manager for the effort. Dr. David C. Clark of the Laboratory for Computer Science at Massachusetts Institute of Technology was named the chairman of this committee”.326 Zusammenfassend lässt sich seit Mitte der 70er Jahre eine massive Umstrukturierung feststellen. Der Entwicklungsprozess wurde institutionalisiert und internationalisiert, wobei die DARPA über Kahns „Internet Program“ die technische Weiterentwicklung des Projekts zwar weiterhin entscheidend vorantrieb, gleichzeitig aber einen Teil der bisherigen Dominanz abgab. Die Verwaltung des ARPANET fiel in den Aufgabenbereich der DCA und die WG 6.1 der IFIP entzog sich einer direkten Kontrolle durch die DoD-Behörde. 30 25 Zuwachs an RFCs pro Monat 20 15 Zuwachs an RFCs pro Monat im Jahresdurchschnitt 10 5 Mrz 83 Mrz 82 Mrz 81 Mrz 80 Mrz 79 Mrz 78 Mrz 77 Mrz 76 Mrz 75 Mrz 74 Mrz 73 Mrz 72 Mrz 71 Mrz 70 Mrz 69 0 Abb. 8. Erscheinungshäufigkeit der RFCs zwischen 1969 und 1983. 327 Eine Folge des Prozesses war ein Bedeutungsrückgang der RFCs. Jahrelang waren sie das ‚Zentralorgan’ des ARPANET gewesen – Dokumente, die Standards auf informellem Weg durchsetzten. Das Diagramm in Abbildung 8 zeigt einen deutlichen Einschnitt in der Erscheinungshäufigkeit seit 1974. Zwischen 1971 und 1974, als sich das Augenmerk der Forscher auf die Entwicklung des ARPANET und seiner Protokolle konzentrierte, erschienen durchschnittlich mehr als 10 RFCs pro Monat. Nach 1974 wurde nicht einmal mehr 50 Prozent dieses Niveaus erreicht. Zwischen RFC 675 von Dezember 1974 und der Erklärung von TCP/IP zum Standard des 325 Vgl. Salus, Casting, 102-104 und Quarterman, 200. RFC 1160. 327 Die Daten für dieses Diagramm wurden dem RFC-Index entnommen. Vgl. Network Working Group. 326 56 DoD in den RFCs 760 und 761 von Januar 1980 wurde kein einziger Beitrag über das neue Netzwerkprotokoll veröffentlicht. Der leichte Anstieg 1983 hing mit der Umstellung der ARPANET-Rechner zusammen. D. Smallberg berichtete Anfang diesen Jahres in der RFC-Subserie „Who talks TCP?“ regelmäßig über die Fortschritte.328 Teilweise lässt sich die reduzierte Erscheinungshäufigkeit mit dem Entstehen der IENs, ANEWs und anderer alternativer Publikationen erklären. Die Bildung spezieller Institutionen spielte jedenfalls eine wesentliche Rolle. Dort wurde das internationale Vernetzungsprojekt diskutiert und den Nutzern des ARPANET nur noch die Ergebnisse mitgeteilt.329 Noch 1977 hatte Jon Postel verkündet: „To my knowledge no arpanet protocol at any level has been stamped as official by ARPA”.330 Abgesehen von NCP findet sich tatsächlich kein Hinweis auf offizielle Standards.331 Im April 1983 sollte sich die Situation grundlegend ändern. Jon Postel veröffentlichte erstmals ein RFC mit dem Titel „Official protocols“. 332 Das Dokument enthielt eine Liste mit Protokollen, die verschiedenen Kategorien zugeordnet waren. Diejenigen der Kategorie „required“ mussten implementiert werden. Von diesem Zeitpunkt an wurde regelmäßig über offizielle Protokolle informiert. Der Charakter des ARPANET hatte sich durch das Wachstum, die zunehmend heterogene Struktur der Nutzenden und das Managementkonzept der DCA in den späten 70er Jahren gewandelt. 1980 wies die Kommunikationsbehörde die Technical Liaisons ausdrücklich auf den neuen Ansatz hin: „When the network was small, a decentralized management approach was established due to the nature of the network and the small community of users. This promoted flexibility and synergy in network use. Now [Juli 1980] that the network has grown to over 66 nodes and an estimated four to five thousand users, flexibility must be tempered with management control to prevent waste and misuse”.333 3.2. E-Mails im ARPANET Innerhalb weniger Jahre hatte sich das experimentelle ARPANET zu einem nützlichen Werkzeug entwickelt, das auch von der Bürokratie geschätzt wurde. Ursprünglich war ein „Resource Sharing“-Netzwerk anvisiert, wofür die IPTO die ersten Protokolle entwickeln ließ. Die NWG, zuständig für diese Aufgabe, hielt sich an die Vorgaben: „It was clear we needed to support remote login for interactive use -- later known as Telnet -- and we 328 Vgl. Network Working Group. Seit Mitte der 70er Jahre entstanden neben den bereits aufgeführten Organisationen Mailing-Listen. Die MSGGroup war z.B. an der Entwicklung der E-Mails beteiligt. Vgl. Kapitel 3.2.2.. 330 MSGGroup # 0561. 331 Auch bei dem „offiziellen“ Protokoll NCP wurden die Nutzenden einbezogen. In RFC 0053 definiert Steve Crocker den „Official Protocol Mechanism“. Demnach wurden betreffende Protokolle spezifiziert und allen Hosts zugänglich gemacht. Anschließend konnten bis zu einem gewissen Stichtag Verbesserungsvorschläge eingereicht werden. Sollte sich ein Vorschlag bei den Nutzenden durchsetzen, so entschieden die Verantwortlichen der ARPA, ob er umgesetzt werden sollte. Vgl. RFC 0053. Ohne ein standardisiertes Host-to-HostProtokoll wäre ein Netzwerkbetrieb nicht möglich. 332 RFC 0840. 333 ANEWS-01. 329 57 needed to move files from machine to machine [FTP]“,334 erläuterte Stephen Crocker. Für die Welt außerhalb der computerwissenschaftlichen Forschungslabors war eine derartige Nutzung zu diesem Zeitpunkt jedoch abwegig. 1973 hatte sich das Datenvolumen pro Host im Vergleich zum Vorjahr dennoch mehr als verdoppelt.335 Worauf gründete die plötzliche Attraktivität? Während sich die Forschungsbehörde auf Experimente mit alternativen Trägermedien und die internationale Vernetzung konzentrierte, drang mit den E-Mails eine Kommunikationstechnik in das Netzwerk, die auf „Time Sharing“-Systemen schon in den 60er Jahre intensiv genutzt wurde. Arthur Norberg und Judy O’Neill deuten an, dass diese Nutzungsmöglichkeit bei den Planungen der DARPA keine Rolle gespielt hatte: „The use of the ARPANET began to have an unexpected consequence. […] electronic mail had not been a motivating factor for the development of the network. However it later became an important part of the ARPANET’s usefulness”.336 Um es deutlicher zu formulieren: Die Entwicklung der Protokolle und Software für elektronische Post wurde nicht von der DARPA oder IPTO beauftragt und in offiziellen Stellungnahmen der Behörde wurde das Thema bis 1976 ausgeklammert.337 Der Entwicklungsprozess illustriert den entscheidenden Beitrag engagierter Nutzer sowie den problematischen Zusammenhang zwischen den mit einer Innovation verbundenen Visionen und der später sozial etablierten Praxis. Die ersten E-Mail Experimente wurden bereits 1971 von Roy Tomlinson bei BBN durchgeführt. Er passte ein zweiteiliges Programmset, SENDMSG (für das Versenden von Nachrichten) und READMAIL (zum Lesen), das ursprünglich für „Time Sharing“-Systeme entwickelt worden war, an die Umgebung des ARPANET an und nutzte die Funktionalität von FTP als Basis.338 Das Protokoll zum Austausch von Dateien, von dem sich die Entwickler eine bessere Auslastung der Ressourcen versprachen, wurde mit Tomlinsons Programm umfunktioniert. Das Netzwerk ermöglichte nun eine Kommunikation zwischen Menschen, was sich auch im Adressierungskonzept niederschlug. Tomlinson hatte den Einfall, vor die Adresse des jeweiligen Rechners den Empfänger der Nachricht einzufügen und die beiden Angaben durch das Sonderzeichen @ abzutrennen (user@host).339 Noch im selben Jahr entstand eine lebhafte Diskussion über eigenständige E-Mail-Protokolle, die sich in den RFCs nachvollziehen lässt. Richard W. Watson vom SRI schlug im Juli 1971 ein Mail Box Protocol vor, dass dem NIC die Distribution von Nachrichten und Dokumenten ermöglichen sollte.340 Alex McKenzie bezog sich im September desselben 334 RFC 1000. Vgl. Kapitel 2.4.. 336 Norberg, 178. 337 Vgl. Hardy, Ian. 338 Vgl. ebd.. 339 Vgl. Hafner, 227f. und Hardy, Ian. 340 Vgl. RFC 0196. 335 58 Jahres auf diesen Vorschlag und machte auf Probleme mit den TIPs aufmerksam, die er aber für überwindbar hielt.341 In RFC 278 vom November 1971 wird von einem Treffen des „file transfer committee“ berichtet, auf dem das Mail Box Protocol diskutiert wurde. Man bestätigte den potentiellen Nutzen und machte einige Verbesserungsvorschläge.342 Im Februar 1973 sollte schließlich ein Treffen am SRI stattfinden. Michael Kudlick beschrieb die Problematik: „There are already several subsystems existing on the Network whose function is to send and receive mail. The principal problem is to coordinate and extend these subsystems [...]”.343 Es hatten sich verschiedene, alternative Systeme entwickelt, die in der Praxis funktionierten. Nun galt es sie zu verbessern und vor allem ein allgemein gültiges Format zu etablieren. Die von Kudlick beschriebene Situation war eine direkte Folge des dezentralen, informellen und wenig koordinierten Prozesses. Im März berichtete er über die Ergebnisse des Treffens, wonach eine E-Mail unter anderem mit folgenden, standardisierten Angaben versehen werden sollte: „To (user@host)“, „From (return-address)“, „Author“, „Title (i.e. subject)“, „Text (text of the message)“. 344 Nur wenige Tage später veröffentlichte James E. White einen Verbesserungsvorschlag des NIC: Es sollte die Eingabe von mehreren Empfängeradressen für eine Nachricht möglich sein, da das Zentrum plane die Distribution eines Journals über das Netz zu organisieren.345 Ohne es zu beabsichtigen war damit die Grundlage zur Bildung von Mailing-Listen geschaffen. Die Entwicklung der technischen Voraussetzungen für eine verhältnismäßig komfortable Nutzung des ARPANET als individuelles Kommunikationsmittel war 1973 im wesentlichen abgeschlossen. Nach weiteren Ergänzungen, die nicht im einzelnen dargelegt werden sollen, folgte im Mai 1977 der Versuch einen „Computermail-Putsch“346 durchzuführen. Ken Pogran, John Vittal und andere hatten ihren Vorschlag mit „Proposed Official Standard for the Format of ARPA Network Messages“ betitelt, was die bereits sechs Jahre andauernde Diskussion beenden sollte.347 Jon Postel reagierte damals noch schroff auf den Vorstoß: „The officialness of standards is always a question at every level of protocol. To my knowledge no arpanet protocol at any level has been stamped as official by ARPA. The question of official protocols brings up the question of who are the officials anyway? Why should this collection of computer research organizations take orders from anybody? It is clear that it is in everyones interest to work together and cooperate to evolve the best system we can. Perhaps there is too much emphasis on official and not enough emphasis on best specification so far. I prefer to view the situation as a kind of step by step evolution [...]. To make a big point of officialness about one step may make it very hard to take the next step”.348 341 Vgl. RFC 0224. Vgl. RFC 0278. 343 RFC 0453. 344 Vgl. RFC 0469. 345 Vgl. RFC 0479. 346 Hafner, 241. 347 Vgl. RFC 0724. 348 MSGGroup # 561. 342 59 In der überarbeiteten Version vermieden die Autoren das umstrittene Wort „official“ und setzten de facto einen Standard, der für lange Zeit seine Gültigkeit behielt.349 Das Beispiel zeigt anschaulich die Vorgehensweise bei der Softwareentwicklung des ARPANET vor der Umstrukturierung Ende der 70er Jahre. Es wurden Programme bzw. Protokolle geschrieben und in der Praxis getestet. Bewiesen sie ihre Funktionstüchtigkeit und fanden sie genug Anwender, so konnten sie sich gegen Alternativen durchsetzen und dauerhaft etablieren – vor der Umstellung auf TCP/IP, bei der die DCA die Standards diktierte, gab es kein Gremium, das den Entscheidungsprozess zentralisiert hätte. 3.2.1. Das Netzwerk als Kommunikationsmittel Stephan J. Lukasik, der im Januar 1971 DARPA-Direktor Eberhardt Rechtin abgelöst hatte, und bis 1974 im Amt blieb,350 förderte nach Angaben von Larry Roberts die unerwartete Entwicklung der Netzwerknutzenden: „Steve Lukasik decided it was a great thing, and he made everybody in ARPA use it. So all these managers of ballistic missile technology, who didn’t know what a computer was, had to start using electronic mail”.351 Licklider und Vezza berichten ebenfalls vom Faible des DARPA-Direktors für elektronische Post und seinem Engagement, die behördeninterne Kommunikation und den Kontakt mit den Vertragspartnern auf diesem Weg abzuwickeln.352 Lukasik unterstütze die Einbettung der neuen Kommunikationstechnik in den Alltag und seit Mitte der 70er Jahre förderte die Behörde auch die technische Weiterentwicklung, wie Raymond Panko 1977 darlegte: „Before 1975, most computer mail development on the ARPANET was informal and was often bootlegged onto other projects or written in users' spare time. But the value of computer mail had become obvious to ARPA by the beginning of 1975. ARPA […] had begun to use computer mail for its bread and butter communications, and had become aware that a relatively mature communication medium was becoming available. After 1975, ARPA took a more active role in computer mail, forming two groups [MSGGroup und Header-People] that were to help devise network standards for mail systems”.353 Eine von Lukasik beauftragte Studie ergab, dass bereits 1973 drei Viertel des gesamten Datenverkehrs aus E-Mails bestand.354 „By 1975, the ARPANET directory listed well over one thousand people who had network electronic mail address”.355 Das Netz hatte eine erste, breit genutzte Anwendung. Es wurde nicht nur dienstliche Korrespondenz auf diesem Weg verschickt, zunehmend transportierten die Leitungen private Nachrichten und 349 Vgl. RFC 0733. In Unterpunkt V. wird als Beispiel für eine korrekt adressierte E-Mail der Name Alfred E. Neuman, der ‚Held’ des MAD-(Comic)Magazins, verwendet. Vgl. ebd.. 350 Vgl. Norberg, 8. 351 Larry Roberts in einem Interview von 1988. Zitiert nach Abbate, 84. 352 Vgl. Licklider und Vezza, 1344. 353 MSGGroup # 0456. 354 Vgl. Hafner, 230. 355 Norberg, 178. 60 Gerüchten zufolge wurden in Nordkalifornien Anfang der 70er Jahre sogar Drogengeschäfte über das ARPANET abgewickelt.356 Auch wenn das Netz bereits in den frühen 70er Jahren zu einem hohen Prozentsatz zu Kommunikationszwecken genutzt wurde, betonten die Verantwortlichen weiterhin die Bedeutung des „Resource Sharing“. Eine intern durchgeführte Studie, die dem Kongress vorgelegt wurde, ergab, dass 1973 Betriebskosten in Höhe von 2 Millionen Dollar angefallen seien, durch die Nutzung der verteilten Ressourcen aber Einsparungen von 6 Millionen Dollar möglich gewesen wären.357 Erst nachträglich wurde erkannt, dass die Entwicklung eines Kommunikationsmittels diesem Konzept entgegenkam. „The sharing of information is the most important type of resource sharing".358 In den 60er Jahren hatten Licklider und andere „Resource Sharing“, trotz weitreichender Vorstellungen über die neue Technologie, lediglich technisch interpretiert. Die Flut der eintreffenden E-Mails wurde für manche bald zu einem Problem. Jon Postel schlug bereits im November 1975 mit RFC 706 „On the Junk Mail Problem” die Entwicklung von Filtern vor. „It would be useful for a Host to be able to decline messages from sources it believes are misbehaving or are simply annoying”.359 Die Einbettung der neuen Technologie war rasch vollzogen und steigerte die Attraktivität des Netzes. „ARPANET users came to rely on email in their day-to-day activities, and the availability of email attracted new users to the network“.360 Die Ausbreitung wurde von Faktoren gefördert, die noch heute zutreffend sind: E-Mails sind schneller als der herkömmliche Postweg („snail mail“361) und billiger als Telefonate über weite Distanzen. Sie kommen auf jeden Fall an, unabhängig ob der Empfänger gerade anwesend ist oder nicht, und können flexibel beantwortet werden. Zudem wurde weniger Wert auf die formale Ausgestaltung gelegt, betonten Vezza und Licklider 1978: „One of the advantages of the message system over letter mail was that, in an ARPANET message, one could write tersely and type imperfectly, even to an older person in a superior position and even to a person one did not know very well, and the recipient took no offense. The formality and perfection that most people expect in a typed letter did not become associated with network messages, probably because the network was so much faster, so much more like the telephone”.362 Liest man die Beiträge der Mailing-Listen, so erhält man einen Eindruck von dieser neuen, weniger formellen Kommunikationskultur der 70er Jahre. Obwohl das ARPANET (abgesehen von Teilen der militärischen Bürokratie) weiterhin Angehörigen der Universität vorbehalten war - folglich ein hohes Bildungsniveau vorausgesetzt werden kann - zeugen zahl- 356 Vgl. Hafner, 223. Vgl. Abbate, 80f.. 358 Vgl. Licklider und Vezza, 1330. 359 RFC 0706. 360 Abbate, 84. 361 Raymond. 362 Licklider und Vezza, 1331. 357 61 reiche Tipp- und Grammatikfehler von einem laxen Umgang mit den formalen Regeln der Sprache. Professionell wurden E-Mails sowohl vom akademischen als auch militärischen Teil genutzt. Computerwissenschaftler begannen die Distribution ihrer Beiträge über das Netzwerk zu organisieren, wobei die neue Kommunikationstechnik als Basis für ein „virtual journal“ fungierte, das eine schnellere Ausbreitung der Ergebnisse erlaubte als die bisherigen (Print-)Medien der Wissenschaft.363 Der U.S. Army Material Development and Readiness Report berichtete 1977, dass sich E-Mails positiv auf die Abwicklung ihrer Geschäfte ausgewirkt hätten. Die Kommunikation sei durch die neuen Möglichkeiten deutlicht verbessert worden.364 Neben diesen objektiven Vorteilen begünstigte ein grundsätzliches Interesse an der Materie die rasche Ausbreitung im ARPANET und wirkte sich zugleich auf die thematische Ausgestaltung der Kommunikation aus: „Things have not changed much. Most [ARPANET] e-mail concerned the interests of its users (as it does today). The difference was that for most of the people with access to e-mail, the word 'computer' figured prominently in their resume. Topics ranged from bug reports and meeting announcements to recipes for pretzels”.365 3.2.2. Mailing-Listen Die thematische Ausgestaltung der individuellen Kommunikation (einschließlich der Bedeutung von Brezelrezepten) lässt sich im Einzelnen nicht mehr rekonstruieren. Seit 1975 begannen sich aber Mailing-Listen zu bestimmten Themen auszubreiten. Sie machten von der Möglichkeit Gebrauch, Nachrichten an verschiedene Empfänger gleichzeitig zu schicken. Ähnlich wie bei Zeitschriftenabonnements lässt sich ein Teilnehmer von dem Verwalter der entsprechenden Liste in einen Verteiler aufnehmen. Nach diesem Verteiler werden hinzukommende Artikel bzw. Beiträge an die Abonnenten verschickt.366 Die WINE-TASTER boten ein Forum für Weinfreunde und die SF-Lovers widmeten sich der Sciencefiction-Literatur. Bei den NETWORK-HACKERS war Programmierung das zentrale Thema und das HUMAN-NET untersuchte den menschlichen Faktor in Netzwerken und Computerwissenschaften.367 Welchen Stellenwert Mailing-Listen für die 363 Vgl. Roistacher, 18. Vgl. Norberg, 195. 365 Tomlinson in einem Interview von April 1996. Zitiert nach Hardy, Ian. Bei den „bug reports“ handelt es sich nicht um Berichte über Insekten. Def. bug = „An unwanted and unintended property of a program or piece of hardware, esp. one that causes it to malfunction”. Vgl. Raymond. 366 Vgl. Hosenfeld, 112f.. 367 Vgl. Hauben, Evolution. Die Beiträge dieser Mailing-Listen stehen nicht mehr vollständig zur Verfügung. Von den WINE-TASTERS und NETWORK-HACKERS sind keine Dateien verfügbar. Die 1980 von Saul Jaffe gegründete SF-Lovers-List ist noch heute im WWW aktiv und gestattet über ein Archiv einen Eindruck über die Beiträge der 80er Jahre. Da sich die Auseinandersetzungen aber tatsächlich nur mit Sciencefiction beschäftigten, sind sie für die vorliegende Arbeit weniger interessant. Vgl. Jaffe. Die Mails des HUMAN-NET, sowie die Beiträge von 21 weiteren Listen, die auch im USENET veröffentlicht wurden, sind für den Zeitraum von Mai 1981 bis Mai 1982 archiviert. Vgl. Jones, USENET und Digest. Diese Selektion macht eine angemessene Untersuchung unmöglich. 364 62 Kommunikation eines Teils der ARPANET-Nutzenden einnahmen, lässt sich an der Bewertung im Jargon-File nachvollziehen. „Mailing lists are one of the primary forms of hacker interaction, along with Usenet. They predate Usenet, having originated with the first UUCP and ARPANET connections. They are often used for private information-sharing [...]. Though some of these maintain almost purely technical content [...], others (like the `sf-lovers' list maintained for many years by Saul Jaffe) are recreational, and many are purely social”.368 Nachdem die Leitungen des ARPANET anfangs kaum Daten transportierten, kam es gegen Ende der 70er Jahre zu ersten Engpässen. Bernie Cosell, der bei BBN an der IMPSoftware gearbeitet hatte,369 berichtet, dass es in diesem Zusammenhang zu Differenzen mit den Verantwortlichen der Behörde kam: „ARPA was fairly liberal [...], but they did occasionally put their foot down. The ‘mailing list’ problem happened with SF-Lovers, about the first really large-scale mailing list. BUT...unlike HUMAN-NETs, SF-LOVERS could show *NO* legitimate reason for using ‘ARPA bandwidth’ and so actually got shut down for a couple of months”.370 3.2.3. MSGGroup und die angemessene Nutzung des ARPANET Die früheste Mailing-Liste des ARPANET war die von Steve Walker - Programmmanager der DARPA bei der IPTO - initiierte MSGGroup.371 Er beschrieb in einer Nachricht vom Juni 1975 die Zielsetzung des Experiments: „My reason for seeking to establish a group of people concerned with message processing was (and remains) to develop a sense of what is mandatory, what is nice and what is not desirable in message services. We have had a lot of experience with lots of services and should be able to collect our thoughts on the matter. My goal at present was not to establish ‘another committee’ but to see if a dialog can develop over the net […]. To the ‘newcomers’ incase you haven't already sensed it, this whole thing is a new attempt, there is no background except for a few messages sent around this week […]. I hope from all this to develop a long term strategy for where message services should go on the ARPAnet and indeed in the DoD. Let's have at it”.372 In einer zweiten Nachricht vom selben Tag erklärte sich Dave Farber bereit, die Verwaltung der Liste zu übernehmen.373 Er war verantwortlich für die Distribution der E-Mails und versah sie teilweise mit Kommentaren, wobei er bald Unterstützung von Einar Stefferud erhielt. Etwa 70 Personen tauschten sich über die Liste aus,374 die bis 1986 fortgeführt wurde und schließlich mehr als 2600 E-Mails umfasste. Thematisch beschäftigten sich die teilweise hitzig geführten Debatten in der Anfangszeit vor allem mit der Weiterentwicklung 368 Raymond. USENET und UUCP werden in den Kapiteln 4. und 4.2. behandelt. Vgl. Hafner, 110-112. 370 Bernie Cosell im Januar 1993. Zitiert nach Hauben, Evolution. 371 Vgl. Hafner, 237. Die Beiträge der MSGGroup sind vollständig archiviert. Vgl. Farber. 372 MSGGroup # 002. 373 Vgl. MSGGroup # 003. 374 Raymond Panko nennt diese Zahl für das Jahr 1977. Vgl. MSGGroup # 0474. 369 63 der Software für E-Mails.375 Bereits in den ersten Beiträgen deutete sich die Bereitschaft zu heftigen verbalen Auseinandersetzungen an, die den Diskussionsstil zeitweise prägen sollte. Zwei Themenbereiche, die einen Einblick in die Arbeitsweise der Gruppe ermöglichen und darüber hinaus zu Auseinandersetzungen über Grundfragen der Kommunikation im ARPANET führten, sollen eingehender betrachtet werden: Die Finger- und Quasardebatte. Die Diskussion um das Fingerprogramm wurde am 23. Februar 1979 von Dave Farber in die MSGGroup getragen. Er veröffentlichte insgesamt fünf E-Mails einer internen Auseinandersetzung an der Carnegie Mellon Universität (CMU), die für die von ihm verwaltete Mailing-Liste von großem Interesse seien. Mit dem Fingerprogramm war es möglich zu erfahren, wann ein beliebiger Nutzer des ARPANET das letzte mal online war bzw. seine E-Mails abgerufen hatte. Um die Privatsphäre zu schützen, hatte Ivor Durham das Programm umgeschrieben, sodass man selbst bestimmen konnte, ob diese Informationen Finger zugänglich waren oder nicht. Die Grundeinstellungen des neuen Programms blockierten Finger. Für Durham war der Schutz der Privatsphäre von grundlegender Bedeutung. „The issues of privacy in such a medium are of paramount importance. I would really like to be assured that others share and actively support the individual rights position. If not, its time our community stood back to examine its attitudes and wonder why the general public doesn't trust computers!”.376 Schon an der CMU hatte Duhrams Vorstoß geteilte Reaktionen ausgelöst. Während manche sein Vorgehen begrüßten, empfanden es andere als paranoid und belegten ihn mit Begriffen wie „spineless, socially irresponsible, petty politician and other less printable descriptions“.377 Die Änderung des Programms wurde als Verstoß gegen die freie und offene Atmosphäre bzw. das Gemeinschaftsgefühl der ARPANET-Nutzenden gewertet. „I find myself angry that you implement something […] without considering the (more important) social ramifications. If we as computer scientists continue to punt such issues to second place, who the hell is going to take responsibility for them?”.378 Aus der Änderung des Finger-Programms war gleich zu Beginn eine Diskussion über die grundsätzliche Frage entbrannt, ob das Interesse der wissenschaftlichen Netzwerk-Gemeinschaft höher zu werten sei als der individuelle Schutz der Privatsphäre. Noch am selben Tag wurden vier weitere E-Mails verschickt, die sich mit der FingerProblematik auseinander setzten. Am darauf folgenden Samstag waren es bereits zwanzig.379 Die Fronten verliefen parallel zur CMU-internen Diskussion: „paranoid bureauc- 375 Vgl. Farber. MSGGroup # 0794. 377 MSGGroup # 0794. 378 MSGGroup # 0794. 379 Vgl. Farber. 376 64 rats“380 gegen „unthinking technologists“.381 Anfang März wand sich die MSGGroup wieder anderen Themen zu. In knapp einer Woche waren 74 E-Mails zum Thema Finger und Privatsphäre über den Verteiler der Mailing-Liste verschickt worden. Auf eine emotional geprägte Phase der gegenseitigen Beschimpfung folgten etliche konstruktive Vorschläge, die soziale und technische Faktoren berücksichtigten. Letztendlich verlief die Debatte aber ergebnislos.382 Bei den HEADER-PEOPLE, einer unmoderierten Liste aus dem Umfeld des MIT, die sich ebenfalls mit dem Thema E-Mail auseinander setzte, waren gegenseitige Beschimpfungen alltäglich. Das „Flaming“383 war dort so massiv, dass man „Unterwäsche aus Asbest“ tragen musste, wie ein Teilnehmer später erklärte.384 Für die MSGGroup war das Ausmaß der getippten Beleidigungen ungewöhnlich. „All I can say is ‘What flames!!!’ I'm not sure I would have started if I had known the volume. I suspect that for many the issues of ‘PRIVACY’ and ‘FREE DISTRIBUTION OF KNOWLEDGE’ take on religious proportions. I believe in both strongly, placing PRIVACY in first place”.385 Diese Form der Streitkultur wurde unterschiedlich bewertet. Einzelne Teilnehmer zogen es vor die Mailing-Liste zu verlassen. „I've seen enough trash over the privacy issue to annoy me beyond my current level of endurance. I've wasted time drafting two replies, and am mightily sick of the whole discussion. I leave you with this word of warning: there is a real world out there, whether you want it there or not, and it likes and values privacy”.386 Andere schätzten den Unterhaltungswert der gegenseitigen Beschimpfungen. „I enjoy reading, and occasionally participating in, group flaming over issues such as this”,387 gab z.B. Rich Zellich offen zu. Die Tradition des „Flaming“ im ARPANET wurde von den Spezifika der Kommunikation über das Netzwerk gefördert. Die Auseinandersetzungen in den Mailing-Listen der 70er Jahre blieben im Vergleich zu den Attacken im Usenet der 80er Jahre moderat. Der ARPANET-Zugang war noch immer limitiert, was dazu führte, dass die soziale Zusammensetzung dieser Diskussionszirkel vergleichsweise homogen war: Angehörige der Computerwissenschaften, die aufgrund ihrer Tätigkeit häufig in persönlichem Kontakt standen.388 380 MSGGroup # 0795. MSGGroup # 0796. 382 Vgl. Farber. 383 „Flame (at MIT, orig. from the phrase `flaming asshole') = 1. vi. To post an email message intended to insult and provoke. 2. vi. To speak incessantly and/or rabidly on some relatively uninteresting subject or with a patently ridiculous attitude. 3. vt. Either of senses 1 or 2, directed with hostility at a particular person or people. 4. n. An instance of flaming. When a discussion degenerates into useless controversy, one might tell the participants ‘Now you're just flaming’ or ‘Stop all that flamage!’ to try to get them to cool down (so to speak). The term may have been independently invented at several different places. It has been reported from MIT, Carleton College and RPI (among many other places) from as far back as 1969, and from the University of Virginia in the early 1960s”. Raymond. 384 Vgl. Hafner, 255. 385 MSGGroup # 0829. 386 MSGGroup # 0840. 387 MSGGroup # 0812. 388 Vgl. Hardy, Ian. 381 65 „The closed community of the ARPANET and its research orientation yield a situation different from what could be expected outside”.389 Erst mit der weiteren Ausbreitung des Netzwerks stieg die Anonymität auf ein Niveau, das formale, soziale Regeln erforderte. Bei den Mailing-Listen konnte zudem der Verwalter eingreifen, wenn eine Diskussion seiner Ansicht nach zu heftig wurde. Weniger emotional, aber von derselben grundlegenden Bedeutung, war die Debatte um den Domestic Android II (DA II). Philip Karlton, Student der CMU, berichtete im Mai 1977 von dem Produkt des Unternehmens Quasar Industries: ein Roboter, der eine erstaunliche Bandbreite von Fähigkeiten aufwies. Nach Angaben des Herstellers konnte das Multitalent mit dem sagenhaften Preis von 4000 Dollar Konversation betreiben, den Kindern Französisch beibringen und grundlegende Aufgaben des Haushalts erledigen.390 Die CMU betrieb seit 1970 im Auftrag der DARPA Grundlagenforschung zur KI,391 weshalb sich ein Team von Studenten verpflichtet sah den Schwindel aufzudecken. Auf einer Demonstration in Pittsburgh enttarnten sie die Funktionsweise des DA II: der Roboter wurde von einem Mann aus dem Publikum ferngesteuert.392 Im Mai 1978, ein Jahr nach Beginn der Diskussion, brachten Stefferud und Farber einen neuen Aspekt ein: „MsgGroup files are open to the public. At least that public which can access the files or who might gain access to a printout of the files by what ever path. There are no known restrictions on distribution of the MsgGroup Transactions. We are asking for potential problems when we criticize the QUASAR robot efforts via MsgGroup. We are using US Government facilities to possibly put in a poor light the activities of an ‘honest’ (and we must assume this) industrial corporation. This could backlash on all of us including ARPA. It is therefore suggested that we carefully censor our comments on QUASAR and others to just reporting facts that are of technical interest to the community”.393 Aus der Debatte um den Androiden von Quasar Industries, die bereits seit einem Jahr lief ohne großes Aufsehen zu erregen,394 wurde mit diesem Einwand eine intensive Grundsatzdiskussion über Selbstzensur und die angemessene Nutzung des Netzwerks, die für einen Monat die MSGGroup dominieren sollte.395 Schon bei der Frage, ob die Mailing-Liste öffentlich sei, waren die Mitglieder geteilter Meinung. Mark Crispin wies darauf hin, dass nur eine limitierte Gruppe von Personen Zugriff auf das ARPANET hätte, E-Mails und Beiträge von Mailing-Listen folglich eher mit einem 389 Myer und Vittal auf einer Konferenz über die Kommunikation im ARPANET von 1977. Zitiert nach Hardy, Ian. Die Autoren unterschlagen die Präsenz der militärischen Bürokratie. 390 Vgl. MSGGroup # 0569. 391 Vgl. Norberg, 249f.. 392 Vgl. MSGGroup # 0605. 393 MSGGroup # 0675. 394 In einem Jahr wurden lediglich acht E-Mails zum Thema Quasar veröffentlicht: MSGGroup # 0569, # 0573, # 0605, # 0614, # 0662, # 0668, # 0669 und # 0672. Vgl. Farber. 395 Von Anfang Mai bis Anfang Juni wurden 18 Beiträge zu diesem Thema verfasst: MSGGroup # 0675, # 0676, # 0677, # 0678, # 0679, # 0680, # 0681, # 0682, # 0683, # 0684, # 0685, # 0686, # 0687, # 0695, # 0696, # 0697, # 0707, # 0708. Vgl. Farber. 66 „interoffice Memo“ als mit einer Zeitung zu vergleichen seien.396 Die Zugangsvorschriften der DCA waren tatsächlich äußerst rigide: „Only military personnel or ARPANET sponsorvalidated persons working on government contracts or grants may use the ARPANET”.397 Sollte man einen unautorisierten Nutzer entdecken, so drohte die Behörde mit einer Überprüfung der Kontrollmechanismen des entsprechenden Hosts. Bei unkooperativem Verhalten der Verantwortlichen des jeweiligen Standortes konnte theoretisch der Netzwerkzugang entzogen werden.398 Mark Crispin lehnte jedenfalls jegliche Form von Selbstzensur ab und betonte, wenn die DARPA etwas gegen diesen offenen Meinungsaustausch hätte, wäre er schon längst unterbunden worden.399 „I have never seen any ARPA statement on proper or improper use of the network”,400 betonte Brian Reid. Debbie Deutsch wies auf die liberale Praxis hin: „Who hasn't used net mail for personal communication? Who hasn't spent time playing some new game over the net? Be honest […]. As long as the net is used for its primary purposes nobody is going to scream about the extra traffic generated by unofficial use”.401 Die Gegner der Zensur führten an, dass die MSGGroup gegründet worden sei, um die Kommunikationsmöglichkeiten des Netzwerks in der Praxis zu erforschen, weshalb eine thematische Beschränkung wenig Sinn mache. Die Öffentlichkeit und die DARPA würden letztendlich von den Ergebnissen der Diskussion profitieren.402 Es gehöre zu den Aufgaben eines Wissenschaftlers den Wahrheitsgehalt von Berichten über neue Entwicklungen zu untersuchen. „Are we to allow any charlatan […] to run roughshod over scientific inquiry and freedom?”.403 Dave Farber, der weiterhin den öffentlichen Charakter des ARPANET betonte, forderte die Mitglieder dazu auf, sich beim Thema Quasar an die Fakten zu halten und Äußerungen zu vermeiden, die als verleumderisch gedeutet werden könnten. Ansonsten setzte man die DARPA, das DoD und den eigenen Netzwerkzugang vermeidbaren Gefahren aus.404 Dave Crocker, der seit der Installation der ersten Knoten an der Entwicklung beteiligt war, berichtete von einer Kürzung seines Forschungsetats, nachdem in der Presse Artikel auftaucht seien, die dem Verteidigungsministerium vorwarfen, es gäbe im ARPANET Aktivitäten zur Unterstützung von Abtreibungen. Crocker empfahl den Mitgliedern der MSGGroup, den Entscheidungsträgern der Behörde derartige Situationen zu ersparen, da sie die Tendenz hätten, konservative Lösungen anzustreben und Wahrheit bzw. Gerechtigkeit dann unbedeutend seien. Würde in der Presse lanciert, dass man Privatunterneh396 Vgl. MSGGroup # 0696. ANEWS-08. 398 Vgl. ebd.. 399 Vgl. MSGGroup # 0696. 400 MSGGroup # 0685. 401 MSGGroup # 0684. 402 Vgl. MSGGroup # 0680. 403 MSGGroup # 0682. 404 Vgl. MSGGroup # 0679. 397 67 men im ARPANET verleumde, so wäre mit einer engen Bindung der E-Mail-Nutzung an die Forschungsaktivitäten zu rechnen.405 Bei Stefferud war ein grundsätzliches Misstrauen gegenüber Teilen des Pentagon zu erkennen: „Let me point out that the presense of the University people on the network is viewed as LESS than desirable by some in the DOD. Some day we might have to defend our right to access […]”.406 Diese Einschätzung wurde von Brian Reid geteilt: „I assume that the military types within ARPA would probably like to restrict access to the network as tightly as they could, and that the academic types would rather that there be free access. I also assume that the military types would like us to restrict our use of the network to traffic directly related to ARPA contract work”.407 1982 wurde einigen Nutzern der Zugang im Zusammenhang mit einem Kettenbrief entzogen, der sich im Netz rasch ausgebreitet hatte.408 Ansonsten gibt es aber keine Hinweise auf eine konsequente Umsetzung oder auch nur systematische Erfassung von Regeln über eine angemessene Nutzung. Die Diskussion um den Androiden kam zu keinem abschließenden Ergebnis. Trotz der Bedenken einzelner Teilnehmer wurden schließlich zwei weitere Beiträge über eine Demonstration in Los Angeles veröffentlicht, ehe sich die Gruppe endgültig anderen Themen zuwand. In beiden Beiträgen wurde der Show-Charakter hervorgehoben, was darauf schließen lässt, dass sich die Verkaufsstrategie von Quasar Industries geändert hatte.409 Im April 1979 äußerte Kevin McKenzie, ein Neuling bei der MSGGroup, sein Bedauern über das Fehlen von Gesten und gesprochener Sprache bei computervermittelter, textbasierter Kommunikation. Dadurch könnten Mitteilungen falsch interpretiert werden oder Bedeutungen verloren gehen.410 Auch Hiltz und Turoff hatten in ihrem 1978 veröffentlichten Artikel diese Mängel bei computerbasierten Konferenzsystemen festgestellt. Der Reichtum von „face-to-face and even telefone conversations“411 ginge bei E-Mails verloren. Kevin McKenzies Lösungsvorschlag war ein Vorgriff auf die sog. Emoticons:412 „Perhaps we could extend the set of punctuation we use, i.e.: If I wish to indicate that a particular sentence is meant with tongue-in-cheek, I would write it so: ‘Of course you know I agree with all the current administration's policies -).’ The ‘-)’ indicates tongue-in-cheek. This idea is not mine, but stolen from a Reader's Digest article”. 413 Postwendend folgte das Flaming. Gary Martins’ Beitrag vom selben Tag verwies auf die begriffliche Klarheit Shakespeares. Die Schriftsprache müsse nicht verbessert werden und es sei naiv anzunehmen, dass jemand lerne sich treffender auszudrücken, wenn ihm 405 Vgl. MSGGroup # 0686. MSGGroup # 0681. 407 MSGGroup # 0685. 408 Vgl. ANEWS-11. 409 Vgl. MSGGroup # 0707 und # 0708. 410 Vgl. MSGGroup # 1015. 411 Turoff und Hiltz, 60. 412 Bei Halbach ist eine Tabelle mit heute üblichen Emoticons abgebildet. Interessant ist, dass sich Zeichen etabliert haben, die kulturspezifische Unterschiede aufweisen. Einem Lächeln entspricht z.B. in Europa und den USA „:-)“ in Japan hingegen „ˆ_ˆ“. Vgl. Halbach, Netzwerke, 301. 413 MSGGroup # 1015. 406 68 mehr Zeichen zur Verfügung stünden.414 Für die MSGGroup war das Thema damit erledigt und Kevin McKenzie enthielt sich in Zukunft der Liste. 3.3. Öffentliche Hand vs. Privatwirtschaft Noch bevor die DARPA die Verantwortung für den Betrieb des Netzwerks an die DCA abgab, startete Larry Roberts 1972 einen Versuch das Netzwerk zu privatisieren. Nach Gesprächen mit BBN, FCC und anderen Behörden sowie einer Studie von Paul Baran, welche die Vorteile eines privatwirtschaftlichen Betreibers aufzeigte, begann die Suche nach einem geeigneten Unternehmen. AT&T wäre prädestiniert gewesen, zeigte aber trotz intensiver Gespräche mit Roberts und Heart kein Interesse. 1975 wurde das Vorhaben aufgegeben, und DARPA-Direktor George Heilmeier übertrug die Verantwortung der militärischen Kommunikationsbehörde.415 Etwa zur selben Zeit als in Europa die ersten Forschungsnetze aufgebaut wurden, begannen verschiedene Unternehmen auf dem nordamerikanischen Kontinent kommerzielle Alternativen zum öffentlich finanzierten und nicht frei zugänglichen ARPANET aufzubauen. Zielsetzung der Projekte war von Anfang an die Schaffung eines Kommunikationsmittels. E-Mails hatten sich durchgesetzt und stimulierten die weitere Entwicklung. In Europa wurde eine ähnliche Aktivität der Privatwirtschaft durch die Kontrolle der staatlichen Telefongesellschaften über das Leitungsnetz erschwert.416 Den ersten Versuch unternahm Packet Communications Incorporated (PCI), ein 1972 von ehemaligen BBN Angestellten gegründetes Unternehmen. Ende 1973 erhielt PCI die FCC-Zulassung, benötigte aber bis zum geplanten Start 1974 30 Millionen Dollar Betriebskapital. Es fanden sich keine Investoren und 1975 hörte das Unternehmen auf zu existieren.417 Ebenfalls 1972 gründete BBN die Tochtergesellschaft TELENET Communication Incorporation. Larry Roberts, der mehr als vier Jahre lang die Entwicklung des ARPANET als IPTO-Direktor begleitet hatte, wurde 1973 der zweite Vorsitzende dieses Unternehmens.418 TELENET installierte nach dem gescheiterten Versuch von PCI das erste öffentliche, d.h. nicht unternehmensinterne, gewinnorientierte Netzwerk. Die jahrelange Erfahrung der Muttergesellschaft und des neuen Vorsitzenden im Zusammenhang mit dem ARPANET bedeutete einen Wettbewerbsvorteil gegenüber potentiellen Konkurrenten. BBN versuchte diesen weiter auszubauen, indem die Herausgabe des Quelltextes der IMP-Software verweigert wurde. Das DoD hatte die Forschung vollständig finanziert 414 Vgl. MSGGroup # 1016. Vgl. Abbate, 85f.. 416 Vgl. Quarterman, 152f.. 417 Vgl. Salus, Casting, 107f.. 418 Vgl. Norberg, 16. Der Posten bei der IPTO blieb 6 Monate lang unbesetzt, bis sich Licklider bereit erklärte ihn zu übernehmen. Vgl. ebd.. 415 69 und dem Unternehmen zu einem beachtlichen Wachstum verholfen. Die DARPA intervenierte und erzwang schließlich die Veröffentlichung. Die Drohung, an das Unternehmen keine Regierungsaufträge mehr zu vergeben, hatte als Druckmittel ausgereicht.419 1975 wurde der Service von TELENET in sieben Städten angeboten und bis 1978 war der Zugriff auf das Netzwerk in 68 Städten möglich.420 TELENET hatte aber bereits mehr als 20 Millionen Dollar an Investitionen verschlungen und noch immer nicht die Gewinnzone erreicht. Salus nennt zahlreiche Rechtsstreitigkeiten mit den großen Telekommunikationsunternehmen vor der FCC als Ursache für das finanzielle Scheitern des Projekts.421 BBN verkaufte das Netzwerk schließlich an General Telephone and Electronic (GTE).422 Das PCI und TELENET scheiterten lag nicht unbedingt an der Geschäftsidee. „By 1973 the computer data traffic was the fastest growing segment of the telecommunication market“.423 Die absoluten Zahlen waren noch vergleichsweise niedrig, dass man mit der neuen Technologie in Zukunft Geld verdienen konnte, war aber bereits Mitte der 70er Jahre abzusehen. AT&T erzielte 1973 mit der Installation von Datenleitungen einen Gewinn von 300 Millionen Dollar.424 Die Klagen der Telekommunikationsunternehmen vor der FCC sollten zukünftige Marktanteile sichern. Die führenden Unternehmen der Computerindustrie, DEC und IBM, begannen seit Mitte der 70er Jahre ebenfalls Vernetzungsmöglichkeiten auf der Basis des „Packet-Switching“ anzubieten.425 Auch sie profitierten zumindest indirekt von der Grundlagenforschung der DARPA. Sowohl IBMs System Network Architecture (SNA) als auf DECs DECNET setzten jedoch eine homogene Rechnerstruktur voraus und waren trotz hoher Kosten vor allem für kleinere Projekte konzipiert. Der Anschluss eines IBM-Mainframes an das SNA kostete z.B. 300.000 Dollar.426 Beide Netzwerkkonzeptionen müssen als Versuch gedeutet werden, den Kunden enger und dauerhafter an das eigene Unternehmen bzw. dessen Produkte zu binden. Das Forschungszentrum PARC von Xerox trug wesentliches zur weiteren Ausbreitung des Internet bei. Robert Metcalfe, der eine Dissertation über das ARPANET und ALOHANET geschrieben hatte, die von Harvard erst abgelehnt, nach der Ergänzung um die Ergebnisse aus Hawaii dann doch anerkannt wurde, leitete ein Projekt zur Vernetzung verschiedener Rechner innerhalb eines Gebäudes. 1973 wurde, das erste LAN (Local Area Network), basierend auf einer schnellen Paketvermittlung, in Betrieb genommen.427 Metcalfe, der der Entwicklung den Namen Ethernet gab, war als Mitglied der NWG und INWG 419 Vgl. Abbate, 77 und Hafner, 276-278. Vgl. Norberg, 179. 421 Vgl. Salus, Casting, 108f.. 422 Vgl. Quarterman, 620. 423 Abbate, 91. 424 Vgl. ebd.. 425 Vgl. Abbate, 90f. und Quarterman, 140f.. 426 Vgl. Rosenzweig, 1550. 427 Vgl. Hafner, 281-284 und Salus, Casting, 77f.. 420 70 seit der Installation der ersten Knoten am Aufbau des ARPANET beteiligt gewesen, 428 hatte die Broschüre für die ICCC-Demonstration verfasst und den Host des MIT angebunden.429 Die lokalen Netzwerke ermöglichten über TCP/IP eine rasche Integration neuer Rechner in das Netz der Netze und schufen die Grundlage für eine effizientere Nutzung eines Zugangs.430 Xerox profitierte wie zuvor TELENET und PCI von der Grundlagenforschung und der Ausbildung ihrer Mitarbeiter. Die personellen Verflechtungen beschränkten sich nicht auf Metcalfe. Robert Taylor, der 1966 den damaligen DARPA-Direktor überzeugt hatte, das erste Netzwerk zu finanzieren, war 1973 der Leiter des Computer Science Lab im PARC. Ihm folgten neben Metcalfe weitere ARPANET-Pioniere wie z.B. Will Crowther und Severo Ornstein nach Kalifornien.431 Zusammenfassend lässt sich feststellen, dass die Privatindustrie seit Mitte der 70er Jahre versuchte das neue Geschäftsfeld zu erschließen. Die Projekte waren im Vergleich zum ARPANET und selbst den Forschungsvorhaben in Europa noch wenig entwickelt. „In its time it [ARPANET] was the largest, fastest, and most populated part of the Net“.432 Jedes der kommerziellen Angebote basierte direkt oder indirekt auf den Vorleistungen der Regierungsbehörde. „During this early period, the U.S. government, mainly ARPA, funded research and development work on networks and supported the various networks in the ARPA Internet by leasing and buying components and contracting out the system’s day-today operational management. The government also maintained responsibility for overall policy […]. The U.S. government also awarded contracts for the support of various aspects of Internet infrastructure”.433 Den Beitrag der Nutzenden unterschlägt Robert Kahn. Das offene, dezentrale Konzept des ARPANET bezog sich auch auf die Software- bzw. Protokollentwicklung. Es ist ein Verdienst des Managementkonzepts von DARPA und IPTO, solche Entwicklungen zuzulassen bzw. zu fördern, die dem experimentellen Charakter entgegenkamen. Die DCA zentralisierte den Prozess seit Ende der 70er Jahre, um den gestiegenen Anforderungen an das Netzwerk gerecht zu werden, unterband damit jedoch nicht das Engagement der Nutzer bei der weiteren Entwicklung. 428 Vgl. Norberg, 184. Vgl. Hafner, 216 und 281. 430 Quarterman geht sogar davon aus, dass das Ethernet den Anstoß zu Entwicklung von TCP/IP gegeben hätte. Vgl. Quarterman, 144. Der Autor irrt in diesem Punkt, wie bereits dargelegt wurde. 431 Vgl. Hafner, 245. 432 Hardy, Edward. „Net“ bezeichnet bei Hardy dasselbe wie Matrix (Vgl. Kapitel 4.), also die Summe der Einzelnetzwerke, die nicht vollständig mit dem ARPANET bzw. Internet verbunden waren, aber E-Mails austauschen konnten. 433 Kahn. 429 71 4. Matrix – „a more or less coherent system” Der grundsätzliche Nutzen und die Realisierbarkeit der Netzwerktechnologie war in den 70er Jahren durch verschiedene, öffentlich finanzierte Projekte bewiesen worden. Die Entwicklung verlief noch zaghaft und war bei rein wirtschaftlicher Betrachtung wenig attraktiv. In den 80er Jahren gewann der Prozess an Dynamik, wobei E-Mail, FTP und Telnet weiterhin die Basisfunktionen der Netzwerke bildeten. Vor allem die elektronische Post erfreute sich großer Beliebtheit und regte die Nachfrage an. „Ohne die stärker werdenden Nutzungsanreize lässt sich die Entstehung vieler Computernetzwerke der 80er Jahre nicht erklären“.434 Eine der wesentlichen, technischen Voraussetzungen für den Boom der Netzwerke, die bis auf wenige Ausnahmen den Computer als Endgerät vorsahen, war die Mitte der 70er Jahre langsam einsetzende „PC-Revolution“.435 Intel hatte bereits 1971 begonnen Prozessoren anzubieten, die theoretisch frei programmierbar waren, aber zur Steuerung von Systemen (z.B. Fahrstühle) eingesetzt wurden. Einige Prozessorgenerationen später erschien 1975 mit dem Altair 8800 ein erster Computer für weniger als 400 Dollar. Diesem Bausatz fehlte noch das Betriebssystem, was die Nutzbarkeit massiv einschränkte.436 Bereits zuvor hatten Studenten an der Westküste der USA den Prozessor für sich entdeckt und beschäftigen sich mit der Idee, ihn als zentrales Element eines universell nutzbaren, frei programmierbaren Computers zu verwenden. Aus der „People’s Computer Company“, die Ende der 60er Jahre mit einem gespendeten DEC-Rechner „Computer Literacy“ verbreiten wollte, ging der „Homebrew Computer Club“ hervor. Dieser lose Zusammenschluss von „Hobbybastlern und Computerfreaks“437 im Dunstkreis des SRI bildete die Keimzelle der Unternehmen des inzwischen legendären Silicon Valley. 438 1975 gründeten Paul Allen und Bill Gates das Unternehmen Microsoft und ein Jahr später folgten Steve Jobbs und Stephen Wozniak ihrem Beispiel mit der Firma Apple. Microsoft spezialisierte sich auf Software bzw. das Betriebssystem MS-DOS (Microsoft – Disk Operating System), während Apple die gesamte Produktpalette selbst entwickelte.439 Die Anfänge des zweiten Unternehmens waren noch geprägt von der ‚Hacker-Kultur’ der 60er Jahre. Kopien der Entwürfe zum ersten Apple-Rechner wurden frei verbreitet.440 Apple entwickelte sich bis Ende der 70er Jahre zu einem Erfolgsunternehmen und IBM, der traditionsreiche Gigant der Computerindustrie, begann ebenfalls sich auf dem neuen 434 Werle, Selbstorganisation, 504. Walitsch, 237. 436 Vgl. Walitsch, 238. 437 Schmidt, 164. 438 Vgl. Wagner, 206. 439 Vgl. Walitsch, 238. Bill Gates Vorstoß, für Software Geld zu verlangen, wurde von seinen ehemaligen Mitstreitern als Vergehen gegen die ‚Hacker-Ethik’ und dem Gedanken des „free sharing of information“ interpretiert. Vgl. Rheingold, 130. 440 Vgl. Wagner, 206. 435 72 Geschäftsfeld zu engagieren, setzte allerdings bei der Software auf eine Allianz mit Microsoft.441 Bis Mitte der 80er Jahre setzten sich die „Mikrocomputer“ endgültig durch. Die beiden Unternehmen entwickelten sich zu Kontrahenten und überboten sich gegenseitig mit immer leistungsfähigeren Rechnern. Apple brachte 1983 „Lisa“ und 1984 den ersten „Macintosh“ auf den Markt - IBM antwortete mit dem XT (Extended Technologie) und AT (Advanced Technologie) Personal Computer.442 Die Zeit der mächtigen Mainframes und kühlschrankgroßen Minicomputer ging zu Ende. Um 1980 begann die Öffentlichkeit die Veränderung wahrzunehmen. In „Aus Politik und Zeitgeschichte“ erschien ein Artikel, der geprägt ist von der Euphorie über die neuen technologischen Möglichkeiten: „Eine einzige neue Technologie wird unser aller Leben grundlegend verändern! [...] Die Wunderwerke der Technik heißen in ihrer hochgezüchteten Art Mikroprozessoren und Mikrocomputer [...]. Sie mögen uns einschüchtern oder herausfordern, sogar eine magische Wirkung besitzen oder als Versuchung Gottes verstanden werden [...]. Doch ihre Fähigkeit [...] löst nicht mehr und nicht weniger als eine neue technisch-wirtschaftliche Revolution aus [...]. Die dritte industrielle Revolution vervielfacht die menschliche Gehirnleistung mindestens in demselben Maße, wie die erste und zweite industriell-revolutionäre Phase die Leistung der menschlichen Muskelkraft vervielfacht hat“.443 Preiswerte, leistungsfähige Rechner waren eine wesentliche Voraussetzung für die florierenden Netzwerke der 80er Jahre, ob sie dem Internet angehörten oder nicht. Das ARPA-Internet konnte die Nachfrage nicht befriedigen – der Zugang war noch immer streng limitiert. Zu den erfolgreichsten, weltweiten Projekten dieses Jahrzehnts gehörten die „cooperative networks“, die Quarterman folgendermaßen von anderen Modellen absetzt: „[...] probably the loosest, not only because of the laissez-faire policies of some of the networks included in it, but also because of their widely varying administrative structures [...]. The common factor is that they are run by at least a subset of their own users, not by any outside agency. And most of them allow anyone with the necessary technical capabilities to join. Finally, most of their funding comes from the sites, hosts, or users they connect”.444 BITNET (Because It’s Time Network), UUCP (Unix to Unix CoPy) und Fidonet waren die mächtigsten Vertreter dieser Kategorie. Nach Informationen von MIDS übertrafen sie in den 80er Jahren zeitweise die Größe des Internet.445 Bei UUCP handelt es sich streng genommen nicht um ein Netzwerk sondern um ein Protokoll. Es wurde 1976 von Mike Lesk an den Bell Laboratorien von AT&T entwickelt und war innerhalb des Unternehmens ein großer Erfolg. 1977 wurde es überarbeitet und mit der siebten Version des Betriebssystems Unix veröffentlicht, was UUCP, das vor allem 441 Vgl. Schmidt, 190-200. Vgl. Walitsch, 239f.. 443 Balkhausen, 3f.. 444 Quarterman, 230. 445 Vgl. Anhang B.. 442 73 den Austausch von E-Mails ermöglichte, in die Hochschulen brachte.446 Es war eines der dezentralisiertesten Netze der Welt. Keine Autorität entschied über den Zugang. Jeder mit Modem, Telefonleitung, der entsprechenden Software und Kontakt zu einem anderen Host konnte partizipieren. Es gab zwar Karten und nichtregistrierte Rechner waren in dem (virtuellen) Netzwerk nur schwer zu finden, die Registrierung konnte aber nicht erzwungen werden.447 Gegen Ende der 80er Jahre umfasste es mehr als 10.000 Rechner, wovon die meisten in Nordamerika standen, die Teilnetzwerke EUnet (European Unix network) und JUnet (Japan Unix network) aber auch anderer Kontinente einschlossen.448 Im Unterschied zum Internet basierte das UUCP-System auf dem „Store-and-Forward“-Verfahren, d.h. es reichte „eine Mail von Rechner zu Rechner bis zum Adressaten weiter. Die Laufzeiten [waren] oft sehr viel länger, [es konnte] schon mal ein, zwei Tage dauern, bis die Nachricht ihr Ziel erreicht hat[te]“.449 BITNET wurde 1981 von Ira Fuchs initiiert und vernetzte ursprünglich „a collection of IBM dinosaurs and VAXen“450 an universitären Rechenzentren. Die Anwendungen des akademisch geprägten Netzwerks eigneten sich anfangs vor allem für E-Mails und Mailing-Listen – FTP war nur eingeschränkt möglich und Telnet schied vollständig aus.451 1990 umfasste es 2300 Hosts in 32 Ländern, die sich auf drei Einzelnetze verteilten: das BITNET selbst in den USA, Mexiko und verschiedenen asiatischen Staaten, NetNorth (Nothern Network) in Kanada und EARN (European Academic Research Network) in Europa.452 In Deutschland und Europa wurde „die schillernde Welt der privaten [, internationalen] Netzwerke“453 für Nutzer außerhalb der Universitäten von einem anderen Projekt erschlossen. Keukert schrieb in einem Artikel von 1991: „Noch vor wenigen Jahren war es mit der DFÜ [Datenfernübertragung] in deutschen Landen nicht so weit her. Es gab einige wenige Systeme und nahezu jeder in der Szene kannte jeden [...]. Nur das Fidonet streckte seine Fühler aus den Vereinigten Staaten zu uns aus“.454 Das „worldwide hobbyist network”455 wurde 1983 von Tom Jennings als Zusammenschluss von MS-DOS-Rechnern gegründet und war im Gegensatz zu anderen „cooperative networks“ hierarchisch strukturiert. Die höchste, kontinentale Ebene bildeten die „Zones“. 1990 gab es drei „Zones“ für Nordamerika (Zone 1), Asien (Zone 3) und Europa, Afrika sowie den Mittleren 446 Vgl. Hardy, Henry. UUCP wird häufig mit dem USENET verwechselt. Das USENET ist aber lediglich ein Dienst, der auf UUCP aufbaut. Vgl. Kapitel 4.2.. 447 Vgl. Quarterman, 251-254. 448 Vgl. Quarterman, 419-429 und 542-546. 449 Hosenfeld, 112. 450 Raymond. „VAX [Virtual Address eXtension] = The most successful minicomputer design in industry history, possibly excepting its immediate ancestor, the PDP-11”. Vgl. ebd.. Das BITNET war also ursprünglich nicht für die neue Generation der „Mikrocomputer” konzipiert. 451 Vgl. Salus, Casting, 174f.. 452 Vgl. Quarterman, 230-235 und 429-433. 453 Keukert, 42. 454 Ebd.. 455 Raymond. 74 Osten (Zone 2), an die über 400 „Nets“ anschlossen waren.456 Das Fidonet befand sich noch Anfang der 90er Jahre in einer Phase des starken Wachstums, als bereits Artikel zum Thema „BITNET is dying“ erschienen.457 Neben diesen mächtigen, weltweiten Netzwerken entstand mit den Bulletin Board Systemen (BBS) ein „Graswurzelelement“458 der computervermittelten Kommunikation. Tausende dieser meist lokalen, von Amateuren betriebenen Systeme erlaubten den Zugriff auf einen zentralen Rechner, der zu bestimmten Zeiten mit dem Telefonnetz verbunden war. Dort konnten Nachrichten oder Dateien für andere Teilnehmer hinterlassen werden.459 Rheingold berichtet ausführlich von WELL (Whole Earth ´Lectronic Link), dem damals vielleicht größten BBS460 - Keukert beschreibt die komplexe, kaum noch überschaubare Situation in Deutschland.461 Licklider und Vezza formulierten in ihrem Artikel von 1978 eine Frage, die spätestens Mitte der 80er Jahre aktuell wurde. Droht eine Fragmentierung des computervermittelten Kommunikationsraums? „If we could look in the future at say, the year 2000, would we see a unity, a federation, or a fragmentation? That is: would we see a single multi-purpose network encompassing all applications and serving everyone? Or a more or less coherent system of intercommunicating networks? Or an incoherent assortment of isolated noncommunicating networks […]. The middle alternative - the more or less coherent network of networks - appears to have a fairly high probability and also to be desirable”.462 Seit Mitte des Jahrzehnts kamen zunehmend Gateways zum Einsatz, die die einzelnen Netzwerke untereinander verknüpften.463 Bei den „cooperative networks“ schufen sie zumindest für E-Mails die Möglichkeit einer Kommunikation über die Grenzen des eigenen Netzwerks hinweg.464 Diese Entwicklung, von den „cooperative networks“ und dem Internet vorangetrieben, wurde nicht überall begrüßt. Die Nutzer der meist subkulturell geprägten BBSs befürchteten einen Identitätsverlust. „Die totale Vernetzung [...] zugunsten eines Hyper-Netzes unter Verlust sämtlicher Originalität ist [...] nicht sinnvoll“.465 Die Skeptiker konnten sich nicht durchsetzen. Es bildete sich ein Kommunikationsraum, in den 80er und frühen 90er Jahren dominiert von Internet, BITNET, UUCP und Fidonet, für 456 Vgl. Quarterman, 254-259. Vgl. Salus, Casting, 175 und Anhang B.. 458 Rheingold, 20. 459 Vgl. Raymond. 460 Vgl. Rheingold, 31ff.. 461 Keukert, passim. 462 Licklider und Vezza, 1342. 463 Quarterman, 112f.. 464 Die Möglichkeit mit anderen Netzwerken zu kommunizieren, war für den Nutzenden trotz der Gateways nicht einfach. Das Adressierungsschema des Internet unterschied sich grundlegend von dem der anderen Systeme. Bei Quarterman ist eine Tabelle mit den verschiedenen Lösungen der Netzwerke angegeben, die mit dem Internet verbunden waren, selbst aber nicht Teil des Metanetzwerkes waren. Sie vermittelt einen Eindruck von den Schwierigkeiten, mit denen ein Internetnutzer konfrontiert war, der z.B. eine E-Mail an ein Mitglied des BITNET versenden wollte. Vgl. Quarterman, 281. 465 Keukert, 54. 457 75 den Quarterman den Begriff Matrix prägte.466 Andere (häufig unternehmensinterne bzw. kommerzielle) Konzepte entwickelten sich isoliert und standen nur geschlossenen Nutzergruppen zur Verfügung.467 1991 stand in der c’t: „Als Kommunikationsmedium sind Computernetze der richtige Schritt in die Zukunft. Mit zukünftigen technischen Entwicklungen [...] werden Dienste möglich sein, die heute nur die großen, wissenschaftlichen Netze [i.e. BITNET, Internet sowie dessen Teilnetzwerke] ermöglichen“.468 Dass das Internet bis in die privaten Haushalte vordringen und den Kommunikationsraum schließlich dominieren würde, war noch Anfang der 90er Jahre nicht abzusehen. 4.1. Das Internet als Netz von Netzwerken Betrachtet man das Internet, so fällt der beschleunigte Zuwachs nach der Implementierung von TCP/IP auf, das die vollständige Anbindung weiterer Netzwerke ermöglichte. Das Diagramm in Abbildung 9 mit logarithmischer Skalierung zeigt einen deutlichen Einschnitt in diesem Zeitraum. Zwischen Mai 1982 und August 1983 stieg die Zahl der Hosts um mehr als 100 Prozent von 235 auf 562. Das lineare Wachstum der 70er Jahre ging damit in eine exponentielle Phase über. 1984 umfasste das Internet 1000 Hosts und 1987 bereits mehr als 10.000. Gegen Ende des Jahrzehnts, war es auf ca. 300.000 Rechner angewachsen. 1000000 100000 10000 1000 Internet Hosts 100 10 Dez 89 Dez 88 Dez 87 Dez 86 Dez 85 Dez 84 Dez 83 Dez 82 Dez 81 Dez 80 Dez 79 Dez 78 Dez 77 Dez 76 Dez 75 Dez 74 Dez 73 Dez 72 Dez 71 Dez 70 Dez 69 1 Abb. 9. Wachstum des Internet zwischen 1969 und 1990. 469 Die Anzahl der Einzelnetzwerke in dieser Phase ist in der Sekundärliteratur nicht systematisch erfasst. Jon Postel veröffentlichte aber seit 1977 regelmäßig RFCs mit dem Titel 466 Vgl. Quarterman, xxiii. Höflichs Rückführung des Begriffs auf lat. mater (= Mutter, Gebärmutter), woraus er einen „Platz der Entzückung und erotischen Intensität [...]“ konstruiert, führt zu weit. Höflich, Computermythen, 496. 467 Dazu zählen die Projekte der nationalen Telefongesellschaften in Europa, bei denen erschwerend hinzukam, dass sie nicht auf den Computer als (flexibles, weil programmierbares) Endgerät setzten. 468 Keukert, 55. 469 Die Daten für dieses Diagramm wurden zwei Quellen entnommen. Die Hostzahlen des ARPANET bis 1981 beziehen sich auf Hobbes’ Internet Timeline. Vgl. Zakon. Die Zahlen nach 1981 basieren auf den Angaben von Mark Lottor, dessen Erhebung zu diesem Zeitpunkt noch vom SRI finanziert wurde. Vgl. RFC 1296. Die vertikalen Linien deuten die Bezugspunkte an. 76 „Assigned Numbers“, welche die jeweils aktuellen Werte der vom Netzwerk-Protokoll verwendeten Nummern dokumentierten.470 Aufschlussreich sind die Angaben zu IP, in denen die „network numbers“ erfasst wurden. „Network numbers are assigned for networks that are connected to the ARPA-Internet and DDN-Internet”.471 Im Einzelnen ergibt sich aus der Durchsicht der RFCs folgende Entwicklung:472 Netzwerke 1977 1978 1979 1980 1981 1982 1983 1984 1985 1986 16 21 31 38 44 74 111 161 253 665 Nach 1986 wurden die einzelnen Netzwerknummern nicht mehr veröffentlicht. Die Zahlen belegen, dass das exponentielle Wachstum durch die Integration weiterer Netzwerke eingeleitet wurde. Das ARPANET selbst war 1983 nur noch eines von insgesamt 111 Netzwerken des Internet. Setzt man die Hostzahlen mit diesen Angaben in Relation, so ist zu beobachten, dass vor allem kleine und kleinste Projekte angeschlossen wurden, was die Bedeutung der Xerox-Entwicklung unterstreicht. An den Hoststandorten des alten ARPANET (z.B. BBN, SRI oder UCLA) gruppierten sich bis zu 18 kleine (experimentelle) Netzwerke um die Knoten.473 Dem Projekt der Militärbehörden kam aufgrund seiner Größe, geographischen Ausdehnung und Leistungsfähigkeit eine dominierende Stellung innerhalb des Konglomerats zu. Primus inter pares - der erste Backbone des Internet, an den weitere Netzwerke angeschlossen wurden. Das ARPANET hatte sich seit Mitte der 70er Jahre von der engen Bindung an die Forschung gelöst, und kam zunehmend in der militärischen sowie zivilen, staatlichen Bürokratie zum Einsatz. 1984 wurden die einzelnen Teilnetzwerke in den „Assigned Numbers“ folgendermaßen beschrieben: „There are four catagories of users of Internet Addresses: Research, Defense, Government (Non-Defense), and Commercial”.474 Erstmals partizipierten kommerzielle Netzbetreiber an dem Projekt, das vollständig von der öffentlichen Hand finanziert wurde und zuvor dem Militär, der Bürokratie und privaten sowie staatlichen Forschungseinrichtungen vorbehalten war. Die Beteiligung von Privatunternehmen wie z.B. BBN oder DEC war bisher an Verträge der Regierung gebunden und beschränkte sich auf Forschungslabors, die in den „Assigned Numbers“ zur Kategorie „Research“ zählten. 1984 wurden 16 Netzwerke als kommerziell eingestuft und bis 1986 stieg die Zahl auf 62.475 Sie stellten damit ca. 10 Prozent aller Netzwerke. Der tatsächliche Anteil dürfte wegen der äußerst variablen Hostzahlen geringer sein. Der Backbone, dessen Betrieb weiSpäter wurde diese Aufgabe von der IANA übernommen und damit ‚institutionalisiert’. Vgl. Kapitel 4.1.3.. RFC 0900. Mit den „assigned network numbers“ wurden auch Netzwerke erfasst, die zwar IP nutzten, nicht aber Teil des Internet im engeren Sinne waren. Die Anzahl dieser Netzwerke ist aber so gering, dass sie vernachlässigt werden können. 472 Vgl. RFC 0739, 0750, 0758, 0770, 0790, 0820, 0870, 0900, 0943 und 0990. Die Angaben vor 1.1.1983 repräsentieren nicht die tatsächliche Größe des Internet. Die dort aufgeführten Netzwerke waren nur von denjenigen Hosts erreichbar, die TCP/IP zu Versuchszwecken bereits implementiert hatten. 473 Vgl. RFC 0990. 474 RFC 0900. 475 Vgl. RFC 0900 und RFC 0990. 470 471 77 terhin vollständig von der öffentlichen Hand finanziert wurde, blieb im Besitz der amerikanischen Regierung. Mit der zunehmenden Vernetzung stieß das herkömmliche Adressierungskonzept an seine Grenzen. „The need to have a mapping between host names (e.g., USC-ISIF) and ARPA Internet addresses [IP] (e.g., 10.2.0.52) is beginning to stress the existing mechanisms”.476 Mockapetris vom ISI schlug 1983 erstmals ein Domain Name System (DNS) zur Lösung des Problems vor.477 Im Februar 1984 wurde es in einer überarbeiteten Form vom ICCB und der DARPA zum offiziellen Standard erklärt und die Implementierung beschlossen.478 Im Oktober desselben Jahres erschien eine überarbeitete Version. „The domain system is a tree-structured global name space that has a few top level domains. The top level domains are subdivided into second level domains. The second level domains may be subdivided into third level domains, and so on”.479 Damit wies das Adressierungskonzept die noch heute übliche, hierarchische, von links nach rechts ansteigende Struktur auf. DNS führte nicht nur zu einer Vereinfachung der Nutzung, sondern lässt Rückschlüsse auf den Betreiber zu. Neben den Länderkennungen, bestehend aus 2 Buchstaben (z.B. de für Deutschland), sah das ursprüngliche Konzept fünf „top level domains“ vor: gov (Government), edu (Education), mil (Military), org (Organization) und com (Commercial).480 Die kommerziellen Teilbereiche waren 1984 zu einem zwar kleinen, aber festen Bestandteil geworden. 1988, als das Internet mehrere hundert Teilnetzwerke und mehr als 50.000 Hosts umfasste, infizierte es Robert Morris mit seinem „Great Worm“, der sich mit großer Geschwindigkeit durch das Geflecht ‚fraß’ und es schließlich zum vollständigen Stillstand brachte. Der Vorfall mit diesem eher zufällig entstandenen ‚Computervirus’ wurde von der Washington Post aufgedeckt und diente als Aufhänger des ersten Artikels über das Internet.481 Die Aktion löste geteilte Reaktionen aus. Die Presse schrieb je nach Neigung von einer Gefahr für die innere Sicherheit oder einem Geniestreich. Die Hackerszene reagierte ebenfalls: „the RTM [Robert Tappan Morris] crack was a sort of devastating watershed event in hacker history; certainly it did more to make non-hackers nervous about the Internet than anything before or since […]. After the storm of negative publicity that followed this blunder, Morris's username on ITS [Incompatible Time-sharing System] was hacked […]”.482 Auch der Spiegel brachte zwei Berichte zu den Vorfällen. Die Begriffe Internet, ARPANET sowie MILNET sind im ersten Artikel mit Anführungszeichen gekenn476 RFC 0882. Vgl. ebd.. DNS wird auch als Domain Name Service bezeichnet. 478 Vgl. RFC 0897. 479 RFC 0920. 480 Vgl. ebd.. 481 Vgl. Rosenzweig, 1530. 482 Vgl. RFC 1135 und Raymond. Die Entwicklung des ‘Wurms’ war zufällig, da der Autor des Programms die eingetroffene Wirkung nicht beabsichtigt hatte: „Morris claimed that the worm that brought the Internet to its knees was a benign experiment that got out of control as the result of a coding error”. Raymond. 477 78 zeichnet und der Autor weist auf ähnliche Zwischenfälle in „größeren Netzwerken“, wie dem BITNET hin.483 In einem zweiten Artikel, der erschien, nachdem Morris gefasst wurde, vermeidet der Autor das weitgehend unbekannte Wort Internet und berichtet stattdessen hauptsächlich über die betroffenen Zentren. Thomas Cheathem, Direktor der Fakultät für Computertechnik in Harvard, wird mit den Worten zitiert: „Wir werden künftig die Welt in die Zeit vor und in die Zeit nach dem Hack einteilen“.484 Der „Great Worm“ ist inzwischen fast in Vergessenheit geraten, dennoch markiert er einen Wendepunkt:: die Zeit bevor und nachdem eine breite Öffentlichkeit erstmals etwas von dem Internet las. 4.1.1. MILNET - der Rückzug der Militärs Die zunehmend heterogene Struktur der Nutzenden führte zu Spannungen. Die Verwurzelung des ARPANET in der akademischen Welt stand dem Sicherheitsinteresse eines militärischen Netzwerkes entgegen. Durch die Vernetzung mit weiteren Projekten wurde das Problem verschärft. Die ambivalente Nutzung, einerseits als wichtiges Werkzeug für alltägliche Geschäfte, andererseits als Experimentierfeld zur Weiterentwicklung der Technologie, führte zu divergierenden Interessen. Morris’ „Great Worm“ war nicht der erste Zwischenfall dieser Art. Bereits im Oktober 1980 brach der Betrieb durch ein fehlerhaftes Programm zusammen, das sich mit großer Geschwindigkeit ausgebreitet hatte.485 Diese Vorfälle ließen sich bei einer experimentellen Nutzung kaum vermeiden. Auch im Zusammenhang mit der Umstellung auf TCP/IP musste das Netz mehrfach für den regulären Datenverkehr gesperrt werden.486 Das U.S. Militär verfügte mit AUTODIN (Automatic Defense Integrated Network) über ein eigenes Netzwerk. Schon 1980 entstanden Pläne, den militärischen Teil des ARPANET abzutrennen und die betreffenden Knoten in das geplante Nachfolgeprojekt AUTODIN II zu integrieren.487 Das Verteidigungsministerium vergab Verträge an verschiedene Privatunternehmen, wobei die Hauptverantwortung Western Union übertragen wurde. Das Unternehmen war allerdings mit der Realisierung von AUTODIN II überfordert, das sich als Millionengrab entpuppte. „Cerf, Kahn, and a number of others prevailed and persuaded the military brass that the ARPANET protocols were reliable, available, and survivable”.488 1982 verkündete das DoD die „decision to cancel AUTODIN II in favor of an ARPANET-based system, known as the Defense Data Network (DDN)”.489 Der schwelende Konflikt zwischen Akademikern und Militärs war damit jedoch noch nicht 483 Vgl. Der Spiegel 45 (1988), 294-296. Der Spiegel, 47 (1988), 254. 485 Vgl. Zakon. 486 Das Netz war z.B. am 1. Oktober, 15. November und 13./14. Dezember 1982 jeweils für 24 Stunden TCP/IP-Tests vorbehalten. Vgl. ANEWS-14 und 17. 487 Vgl. Quarterman, 289 und ANEWS-01. 488 Salus, Casting, 124-126. 489 ANEWS-12. 484 79 gelöst. Organisatorisch wurde das ARPANET mit diesem Schritt dem DDN eingegliedert.490 Ende März 1983 verschickte die DCA schließlich einen Brief an alle Militäreinrichtungen und Regierungsbehörden, die am ARPANET partizipierten, um sie über die Gründung des MILNET zu informieren:491 „Initially the MILNET will be fully integrated with the ARPANET until ARPANET and MILNET resources can be reconfigured into separate networks. The reconfiguration will be evolutionary, resulting in physically separate networks in early 1984. This separation is being undertaken for two reasons: a. To increase the level of resource protection afforded to MILNET hosts while providing reliable, survivable service; and, b. To return the ARPANET to its original purpose as a small experimental research network upon which to develop and test new computer and communication concepts and protocols”.492 Faktisch bedeutete die Gründung des MILNET, dass 68 der 113 Knoten abgetrennt wurden.493 Vier Gateways ermöglichten weiterhin die Kommunikation zwischen den Netzwerken. Sofern ein Host des militärischen Teils den vollen Internetzugang wünschte, war dies möglich. Standorte des MILNET, die eine höhere Sicherheitsstufe benötigten, wurden in einen geschlossenen Bereich ausgegliedert, der nur via E-Mail erreicht werden konnte.494 Der Vertrag mit BBN für den Betrieb des ARPANET wurde auf das militärische Netzwerk ausgedehnt.495 Die Bildung des MILNET bedeutete noch keine vollständige ‚Entmilitarisierung’. Beide Teile blieben dem von der DCA verwalteten DDN zugeordnet, welches wiederum den größten Teilbereich des damaligen Internet ausmachte. Der Rückzug der Militärs in einen eigenen, abtrennbaren Bereich brachte dennoch die wissenschaftliche Prägung der ersten Jahre zurück. Rasch etablierte sich dann die Unterscheidung von „ARPA-Internet“ und „DDN-Internet“.496 An den strengen Zugangsbestimmungen änderte sich durch die Abtrennung des militärischen Teils nichts. 4.1.2. NSFNET - der neue Backbone Die Vorteile der Technologie für die wissenschaftliche Kommunikation wurden inzwischen auch außerhalb der Labors, die sich mit Projekten der DARPA beschäftigten, erkannt.497 Lawrence Landweber, Vorsitzender der computerwissenschaftlichen Fakultät an der Universität von Wisconsin, reichte 1979 einen Antrag zur Finanzierung eines Netzwerks bei 490 Vgl. ANEWS-12. Vgl. ANEWS-23. Der Brief vom 30. März 1983 war dem ARPANET Newsletter beigefügt. 492 ANEWS-23. 493 Vgl. Hafner, 295. 494 Vgl. ANEWS-23. 495 Vgl. ANEWS-24. 496 Vgl. RFC 0900. 497 Die Initiatoren des CSNET beabsichtigten vor allem die Nutzung als Kommunikationsmittel. „The developers of CSNET noticed that electronic mail was the most popular service on the ARPANET. They proposed a network to provide electronic mail only and used it to connect institutions that did not have ARPANET access to those that did”. Quarterman, 299. 491 80 der NSF ein. Nach anfänglicher Ablehnung wurde das Projekt 1981 schließlich realisiert und verschaffte Computer- und Ingenieurswissenschaften einen Zugang. Das CSNET (Computer Science Network) weitete die Zugangsbestimmungen bald auf die gesamte private und öffentliche Forschung aus - eine kommerzielle Nutzung war ausdrücklich untersagt.498 1983 folgte die Installation von Gateways zum ARPANET.499 Während der ersten fünf Jahre wurde das CSNET vollständig von der NSF finanziert, die BBN mit dessen Verwaltung beauftragte. Anschließend sollte es sich tragen.500 Die zeitliche Befristung der öffentlichen Förderung war im Gegensatz zur Vorgehensweise der DARPA von Beginn an geplant.501 Der Aufbau des Netzwerks ähnelte dem Internet: Es verfügte über Knoten mit entsprechenden Subnetzen auf verschiedenen Kontinenten, wies aber die größte Dichte in den Vereinigten Staaten auf. Die direkte Verbindung zum Internet mit vollständiger Funktionalität entwickelte sich gegen Ende der 80er Jahre zum entscheidenden Vorteil.502 1990 fusionierte das CSNET schließlich mit dem BITNET zur Corporation for Research and Educational Networking (CREN), das im weiteren Verlauf der 90er Jahre vollständig vom Internet ‚absorbiert’ wurde.503 Das finanzielle Engagement der Stiftung beim Aufbau des CSNET kann als Vorgriff auf ein ehrgeiziges, eigenes Projekt interpretiert werden, dessen Geschichte mit der Gründung der Office of Advanced Scientific Computing (OASC) 1984 beginnt. Die OASC initiierte zwei Programme: die Entwicklung von „supercomputer centers“ sowie den Aufbau eines nationalen Netzwerkes, das den Zugang zu diesen Zentren ermöglichen sollte. 1985 wurden fünf dieser „supercomputer centers“ betrieben und mit der Realisierung des NSFNET begonnen.504 NSF und DARPA beschlossen im selben Jahr, den Nutzern des jeweils anderen Netzes vollen Zugang zu gewähren, wozu die Stiftung Übergänge an den Computerzentren finanzierte. Der Aufbau des ersten NSFNET wurde noch von den Zentren (Universität von Illinois und Cornell Universität) selbst sowie BBN verwirklicht.505 In der zweiten Hälfte der 80er Jahre begann die NSF die „strategisch zentrale Rolle“506 für den Ausbau des Internet zu übernehmen. 1987 überstieg das Datenaufkommen die Kapazitäten der 56 Kbps Leitung des ersten NSFNET, woraufhin die Stiftung im Juni eine Ausschreibung mit dem Titel „Project Solicitation for Management and Operation of the NSFNET Backbone Network“ veröffentlichte. Den Zuschlag für diesen auf fünf Jahre an- 498 Vgl. Salus, Casting, 194-199. Vgl. Zakon. 500 Vgl. Quarterman, 295-300. 501 Vgl. Leib, Wissenschaftsnetze, 159. 502 Vgl. Quarterman, 295. 503 Vgl. Salus, Casting, 175. 504 Die Zentren waren in der Princeton Universität, der Universität von Kalifornien in San Diego, der Universität von Illinois, der Cornell Universität und der Universität von Pittsburgh untergebracht. Vgl. Quarterman, 307. 505 Vgl. Quarterman, 306 – 308. 506 Leib, Wissenschaftsnetze, 159. 499 81 gesetzten Auftrag erhielt die Non-Profit-Organisation Merit.507 Merit, ein Konsortium der Universitäten von Michigan, hatte bereits Anfang der 70er Jahre ein interuniversitäres Netzwerk in dem Bundesstaat realisiert.508 Die Organisation wählte IBM als Partner für die Soft- bzw. Hardware und das aufstrebende Telekommunikationsunternehmen MCI (Microwave Communications Inc.) für die Installation der Leitungen. MCI war seit den späten 60er Jahren einer der aggressivsten Konkurrenten des Quasimonopolisten AT&T, hatte aber Anfang der 80er Jahre, als in den USA eine öffentliche Diskussion über den Telekommunikationsmarkt entbrannte, noch immer nicht die Gewinnzone erreicht.509 In dem Untersuchungsbericht „Telecommunications in Transition – The Status of Competition in the Telecommunication Industry” von 1981 wurde eine einzigartige Vormachtstellung von AT&T festgestellt.510 Das Unternehmen investierte zwar mehr als zwei Millionen Dollar in eine Marketingkampagne, um den wachsenden Druck aus Politik und Gesellschaft abzumildern,511 musste sich allerdings 1982 auf einen Vergleich einlassen, der die Entflechtung des Konzerns vorsah. Das Unternehmen wurde zum Verkauf der lokalen Telefonbetriebsgesellschaften (Bell Operating Companies) gezwungen, befreite sich aber im Gegenzug von der engen Kontrolle durch die FCC. Faktisch bedeutete die Entscheidung, dass sich AT&T nun selbst auf dem Informationssektor engagieren konnte, der dem Konzern bisher durch einen Vergleich mit dem Justizministerium von 1956 prinzipiell verwehrt war.512 Für MCI bot die Teilnahme an dem Projekt der NSF eine günstige Gelegenheit, an dem neuen, umkämpften Wachstumsmarkt zu partizipieren. „[…] there were many reasons why IBM and MCI chose to become part of the Merit NSFNET partnership […]. However, from a business perspective, becoming involved with the NSFNET backbone service might provide opportunities for ‘technology transfer’. Broadly defined, technology transfer refers to the process by which the products of government-funded research and development move out of restricted use or research-only application to the private sector”.513 BBN hatte diese Vorteile mit der Gründung von TELENET bereits demonstriert. Merit, IBM und MCI versuchten u.a. mit dem Gemeinschaftsunternehmen ANS (Advanced Network Services Inc.) das gewonnene Know-how in ein finanziell erfolgreiches Projekt umzusetzen. ANS war nicht nur für den operativen Betrieb des NSFNET zuständig, sondern initiierte mit dem ANSNet ein eigenes, kommerzielles Netzwerk.514 Zudem bedeutete die Beteiligung kein finanzielles Risiko: Die Stiftung selbst und der Staat Michigan förderten den Vgl. Frazer. Karen Frazers „Final Report“ wurde im Auftrag von Merit, basierend auf der finanziellen Unterstützung der NSF (Grant No. NCR 8720904), erstellt. Vgl. ebd.. 508 Vgl. Quarterman, 318. Das Merit Computer Network wurde später eines der regionalen Netzwerke des NSFNET. 509 Vgl. Luyken, 397. 510 Vgl. Berg, 392f.. 511 Vgl. Wigand, 387. 512 Vgl. Luyken, 395-397. 513 Frazer. 514 Vgl. Leib, Wissenschaftsnetze, 163. 507 82 Ausbau mit vierzehn bzw. fünf Millionen Dollar p.a..515 „Das NSFNET und mit ihm verschiedene, für das gesamte Internet relevante organisatorische Dienstleistungen wurden vollständig aus öffentlichen Mitteln finanziert“.516 1988 installierte ANS schließlich die zweite Generation des NSFNET (T1), dessen Leitungen bereits zwei Jahre später durch den neuen T3-Standard ersetzt wurden. T3 ermöglichte eine Übertragungsrate von 45 Mbps,517 was einer Steigerung um mehr als das 800-fache im Vergleich zu den Leitungen der ersten Generation entspricht. Die Stiftung förderte auch die Gründung regionaler Netzwerke, wobei erneut das Modell der Kostendeckung durch die Nutzer nach einer Anschubfinanzierung zum Einsatz kam. Bis 1990 waren insgesamt siebzehn dieser Projekte an das NSFNET angeschlossen,518 die jeweils zahlreiche „campus-networks“ (akademisch und kommerziell) umfassten. Es hatte sich eine dreigliedrige Struktur entwickelt mit dem NSF-Backbone auf der höchsten Ebene.519 „Das ARPANET, dessen Betrieb [...] jährlich 14 Millionen Dollar kostete, wirkte neben dem schnellen NSFNET geradezu arthritisch“.520 Im März 1990 wurde es nach mehr als 20 Jahren bewegter Geschichte von Mark Pullen, dem letzten DARPA-Verantwortlichen dieses Projekts, abgeschaltet. Leib und Werle sehen in dieser Entwicklung einen bedeutenden Einschnitt: „Der Einstieg der NSF markierte [...] einen ‚crucial step’ in der Entwicklung eines integrierten amerikanischen Wissenschaftsnetzes, da nun eine reine Wissenschaftsorganisation für das Netz verantwortlich zeichnete“.521 Die Bedeutung des Übergangs vom ARPANET als Backbone zum NSFNET sollte jedoch nicht überinterpretiert werden. Das Netzwerk der DARPA war längst zum Selbstläufer geworden und damit die anfangs kritischen Stimmen von Teilen des amerikanischen Kongresses, die eine engere Orientierung der Behörde an militärisch verwertbaren Projekten forderten, verstummt. Die Wissenschaft war auch unter der militärischen Verwaltung nur geringen Einschränkungen unterworfen und die Probleme der Koexistenz von akademischer und militärisch bürokratischer Nutzung waren durch die Abtrennung des MILNET größtenteils gelöst worden. DARPA bzw. DCA hatten zu keinem Zeitpunkt formale Regeln für eine angemessene Nutzung ihrer Infrastruktur aufgestellt. Die vergleichsweise überschaubare Größe erlaubte ein informelles Vorgehen, d.h. die Behörden intervenierten lediglich im Bedarfsfall.522 Der Zugang war allerdings einer streng definierten Gruppe von Personen vorbehalten. Die NSF kannte zwar keine vergleichbar rigiden Zugangsbestimmungen, was dazu führte, das nach und nach allen Universitäts515 Vgl. Quarterman, 303. Leib, Wissenschaftsnetze, 159. 517 Vgl. Frazer. 518 Vgl. Quarterman, 311–338. 519 Vgl. Quarterman, 301. 520 Hafner, 302. 521 Leib, Wissenschaftsnetze, 159. 522 Die Vorfälle im Zusammenhang mit der SF-Lover-List und dem Kettenbrief waren seltene Beispiele für eine solche Intervention. Vgl. Kapitel 3.2.3.. 516 83 mitgliedern der Internetzugang ermöglicht wurde, stellte aber erstmals formale Regeln für die Nutzung des Backbone auf, die systematisch erfasst als Acceptable Use Policy (AUP) veröffentlicht wurden. Obwohl die Privatwirtschaft eng mit der NSF bei der Weiterentwicklung zusammengearbeitet hatte und an die regionalen Netzwerke z.T. gewinnorientierte „campus networks“ angeschlossen waren, blieb eine kommerzielle Nutzung prinzipiell untersagt: „GENERAL PRINCIPLE: (1) NSFNET Backbone services are provided to support open research and education in and among US research and instructional institutions, plus research arms of for-profit firms when engaged in open scholarly communication and research. Use for other purposes is not acceptable. SPECIFICALLY ACCEPTABLE USES: […] (7) Announcements of new products or services for use in research or instruction, but not advertising of any kind. […] (9) Communication incidental to otherwise acceptable use, except for illegal or specifically unacceptable use. UNACCEPTABLE USES: (10) Use for for-profit activities, unless covered by the General Principle or as a specifically acceptable use. (11) Extensive use for private or personal business. This statement applies to the use of the NSFNET Backbone only. NSF expects that connecting networks will formulate their own use policies”.523 Das Verbot der kommerziellen Nutzung war die einzige Einschränkung der NSF, abgesehen von dem vagen Hinweis in Unterpunkt 9, dass sich die Kommunikation im Rahmen der Legalität bewegen müsse. Bei rassistischen, sexistischen oder sonstigen Verstößen setzte man offensichtlich auf die Selbstregulierung bzw. Eigenverantwortung der Nutzenden.524 Problematisch wurde in diesem Zusammenhang die dezentrale Organisation. Die NSF konnte zwar Regeln für das eigene Netzwerk aufstellen, nicht aber für die angeschlossenen Projekte, die potentiell über eigene AUPs verfügten. Cerf beschrieb 1990 das Dilemma: „The present day Internet encompasses networks that serve as intermediaries to access the federally-sponsored backbones. Many of these intermediate networks were initiated under the sponsorship of the National Science Foundation. Some have been founded without federal assistance as consortia of using organizations […]. A great many industrial participants can be found on the intermediate level networks. Their use of the federally-sponsored backbones is premised on the basis that the 523 NSF. Das IAB veröffentlichte zwar mit dem RFC „Ethics and the Internet“ Richtlinien für eine angemessene Nutzung, fasste sie allerdings sehr allgemein ab. Folgende Tätigkeiten wurden u.a. als Verstoß gegen die Ethik gewertet: „disrupts the intended use of the Internet, [...] wastes resources (people, capacity, computer) through such actions, [...] destroys the integrity of computer-based information [...]”. Vgl. RFC 1087. Das Papier war unter dem Eindruck von Morris’ Wurm entstanden (Vgl. RFC 1135), kritisierte folglich vor allem derartige Verstöße, und definierte nicht, was unter Integrität der computerbasierten Information zu verstehen ist. Die Verletzung der Privatsphäre wurde inzwischen ausdrücklich als unethisch betrachtet. Seit der Fingerdebatte Ende der 70er Jahre hatte sich die Einstellung zu diesem Thema also gewandelt. Das IAB konnte allerdings vor allem in diesem Fall lediglich Empfehlungen abgeben. Die Festlegung von Regeln über eine angemessene Nutzung fiel in den Zuständigkeitsbereich des Netzwerkbetreibers. 524 84 traffic is in support of academic, scholarly or other research work. The criteria for use of the intermediate level networks alone is sometimes more relaxed and, in the cases of the newly-formed commercial networks, there are no restrictions at all”.525 Es stellt sich die Frage, welchen Stellenwert die AUP in der Praxis einnahm. „Insgesamt hatte sich Ende der 80er Jahre ein interessant verschachtelter und schwierig zu kontrollierender public-private-mix herausgebildet. Unmittelbar öffentlich finanzierte, direkt und indirekt subventionierte, öffentlich geduldete, privat gesponserte sowie private, nicht gewinnorientierte und gewinnorientierte Aktivitäten koexisitierten, ergänzten sich und konkurrierten gelegentlich“.526 Es deutete sich eine Konfliktlinie an, die mit der Situation des ARPANET Mitte der 70er Jahre vergleichbar ist. Damals wollte die IPTO eine „partnership between the defense and the academic communities“527 herstellen, jetzt galt: „Merit could provide the foundation for a […] partnership between academia, industry, and government”.528 Das NSFNET stellte sich als Erfolg heraus. Abbildung 10 zeigt den raschen, exponentiellen Anstieg in den 90er Jahren. Die 217 Netzwerke des ersten NSFNET waren bis 1995 auf mehr als 50.000 angewachsen. 55000 50000 45000 40000 35000 30000 Netzwerke insgesamt 25000 Netzwerke außerhalb der USA 20000 15000 10000 5000 95/03 94/10 94/05 93/12 93/07 93/02 92/09 92/04 91/11 91/06 91/01 90/08 90/03 89/10 89/05 88/12 88/07 0 Abb. 10. Anzahl der Einzelnetzwerke des NSFNET zwischen 1988 und 1995. 529 Deutlich zu erkennen ist der Zuwachs von Projekten außerhalb der USA. 1988 waren lediglich Netzwerke in Frankreich und Kanada an den Backbone angeschlossen. 1995 bot die NSF ihren Service für Projekte in 93 Staaten an, die insgesamt mehr als sechs Millionen Rechner,530 verteilt über fast den gesamten Globus,531 miteinander verknüpften. 525 RFC 1174. Leib, Wissenschaftsnetze, 163f.. 527 Norberg, 13. 528 Frazer. 529 Das Diagramm wurde anhand der Informationen von Merit erstellt. Vgl. Merit Network Information Center, Networks. Seit 1993 begannen die Netzbetreiber von CIX eine ähnliche, kommerzielle Internetinfrastruktur aufzubauen. Über die Anzahl der dort integrierten Netzwerke gibt es keine Informationen. Vgl. Kapitel 4.4.. 530 Vgl. Merit Network Information Center, computers. 531 Vgl. Frazer. Allerdings waren noch immer mehr als 50% der Netzwerke des NSFNET in den USA. Vgl. Merit Network Information Center, Networks. 526 85 4.1.3. Internetentwicklung in Europa Die Vereinigten Staaten verfügten in den 80er Jahren weiterhin über die fortgeschrittenste Infrastruktur. Auf die außeramerikanischen Ableger von UUCP, Fidonet und BITNET wurde bereits hingewiesen – sie stellten die größten Projekte dieses Jahrzehnts in Europa bzw. Asien und erschlossen den Ostblock sowie Afrika Jahre vor dem Internet.532 „Verglichen mit den USA spielten in Europa wegen der hier noch schwach ausgeprägten Nachfrage nach Computerkommunikation Marktanreize eine geringere und staatliche Förderprogramme für Forschung und Entwicklung eine größere Rolle“.533 In dem Mutterland der Technologie entstanden die ersten kommerziell erfolgreichen Segmente und die NSF legte mit ihrem Finanzierungskonzept die Grundlage für eine Privatisierung – auf dem alten Kontinent wurde erst systematisch mit dem Aufbau einer wissenschaftlichen Infrastruktur begonnen. Die Entwicklungen sind zu komplex um umfassend behandelt zu werden, weshalb der Blickwinkel auf die Bundesrepublik Deutschland bzw. westeuropäische Gemeinschaftsprojekte fokussiert wird.534 Nach eher zaghaften Versuchen während der 70er Jahre,535 wurden zu Beginn der neuen Dekade verschiedene Initiativen zur Gründung eines deutschen Wissenschaftsnetzes gestartet. Das Bundesministerium für Forschung und Technologie (BMFT) gab ein Gutachten beim SRI in Auftrag und organisierte eine Reise für Vertreter der deutschen Wissenschaft in die USA. Sie sollten sich vor Ort über das ARPANET informieren.536 1982/3 wurde von Wissenschaftlern der unterschiedlichsten Institutionen ein Projektplan erstellt, der eine flächendeckende Versorgung der deutschen Forschungszentren mit einer Netzinfrastruktur anvisierte. Als Trägerorganisation war ein genossenschaftlicher Zusammenschluss von Vertretern der Universitäten, Großforschungseinrichtungen und Unternehmen der Datenverarbeitungsindustrie mit eigener Forschungsabteilung vorgesehen. 1984 wurde der Verein zur Förderung eines Deutschen Forschungsnetzes e.V. (DFN-Verein) von 11 Gründungsmitgliedern ins Leben gerufen, in dessen Verwaltungsrat neben Vertretern der Wissenschaft und Wirtschaft auch die Politik einbezogen war. 537 § 2 der noch heute gültigen Satzung definiert die Zielsetzung des Vereins: „1. Der Verein fördert die Schaffung der wissenschaftlich-technischen Voraussetzungen für die Errichtung, den Betrieb und die Nutzung eines rechnergestützten Informations- und Kommunikationssystems für die öffentlich geförderte und die gemeinnützige Forschung in der Bundesrepublik Deutschland auf der Basis öffentlicher Übertragungsnetze unter Beachtung der entsprechenden internationalen Standards und Normen. 532 Vgl. Abbildung 13, Kapitel 4.4.3.. Werle, Selbstorganisation, 504. 534 In Osteuropa setzte die Entwicklung deutlich später ein und im westlichen Teil des Kontinents waren die Projekte in Deutschland, Frankreich und England führend. Quarterman beschreibt die europäische Situation bis 1990. Vgl. Quarterman, 417-509. 535 HMI-NET 1 und 2 sowie BERNET. Vgl. Kapitel 3.1.. 536 Vgl. Leib, Wissenschaftsnetze, 170. 537 Vgl. Leib, Wissenschaftsnetze, 170f.. 533 86 2. Der Verein verfolgt ausschließlich und unmittelbar gemeinnützige Zwecke im Sinne der Aufgabenordnung. Er ist selbstlos tätig und verfolgt nicht in erster Linie eigenwirtschaftliche Zwecke [...]. Die Mitglieder dürfen keine Gewinnanteile und in ihrer Eigenschaft als Mitglieder auch keine sonstigen Zuwendungen aus den Mitteln des Vereins erhalten“.538 Die Entwicklung wurde anfangs von zwei Faktoren gebremst. Zum einen setzte man auf den Protokollansatz der ISO, bei dem noch immer wichtige Anwendungen wie FTP oder Telnet fehlten, was die Funktionalität auf E-Mails reduzierte. Bald folgten entsprechende OSI-Protokolle, sodass dieser Mangel behoben war. Zum anderen besaß die Deutsche Bundespost juristisch ein Monopol auf die Übertragung von Daten, kam aber bei der Installation der Leitungen (Datex-P) nur langsam voran und verfügte über eine Tarifstruktur, die eine genaue Kalkulation im Vorfeld unmöglich machte, da Gebühren in Abhängigkeit vom Datenvolumen erhoben wurden.539 1986 nahm das DFN (Deutsches Forschungsnetz) den Betrieb auf und bis Oktober 1987 waren die deutschen Universitäten vollständig vernetzt. Über ein Gateway zum CSNET war der Zugriff auf das Internet bis zu diesem Zeitpunkt nur indirekt und mit eingeschränkter Funktionalität möglich.540 1990 wurden die Datex-P-Leitungen des DFN durch eigene ersetzt und damit das neue, leistungsfähigere WiN (Wissenschaftsnetz) gegründet. Erst 1994 entschied sich der DFN-Verein für TCP/IP, womit WiN ins Internet integriert wurde.541 Die Beschränkung auf ein isoliertes Netzwerk hätte im kleinräumigen Europa wenig Sinn gemacht. Die „cooperative networks“ EARN und EUnet mit ihrer europa- bzw. weltweiten Infrastruktur hatten bereits die Vorteile einer weiteren Vernetzung aufgezeigt. In anderen westeuropäischen Staaten waren mit dem deutschen DFN bzw. WiN vergleichbare Projekte entstanden. 1986, nach mehreren informellen Treffen, gründeten die Vertreter der nationalen Betreiberorganisationen RARE (Réseaux Associés pour la Recherche Européenne). Ziel der neuen Organisation, bei der Unternehmen die Mitgliedschaft verwehrt blieb,542 war die Verbindung der nationalen Netzwerke, die Harmonisierung der Protokolle und die Beschleunigung des Entwicklungsprozesses der OSI-Anwendungen.543 Spätestens 1990 war der Schulterschluss mit der ISO für die europäischen Wissenschaftsnetze zum Problem geworden: „The United States presents a particular problem for interconnection: NSFNET uses TCP/IP, which RARE considers to be a stopgap solution. Thus, many people do not want an NSFNET node on the European continent“.544 Salus berichtet, dass die Entscheidung von RARE sich nicht allgemein durchsetzten konnte: einige der 538 Verein zur Förderung eines Deutschen Forschungsnetzes e.V.. Vgl. Leib, Wissenschaftsnetze, 171 – 174. 540 Vgl. Quarterman, 456-458. 541 Vgl. Leib, Wissenschaftsnetze, 176-180. 542 Neben den Staaten der Europäischen Gemeinschaft partizipierten auch die anderen Länder Westeuropas sowie Jugoslawien und die Türkei. Die Staaten des ehemaligen Ostblocks waren nicht beteiligt. Vertreter anderer (supranationaler) Projekte (EARN, EUnet, BITNET, CSNET, CREN etc.) wurden einbezogen, hatten allerdings nicht denselben Status wie die nationalen Vollmitglieder. Vgl. Quarterman, 188f.. 543 Vgl. Leib, Wissenschaftsnetze, 175. 544 Quarterman, 191. 539 87 1990 existierenden europäischen Netzwerke nutzten bereits die Internetprotokolle.545 Die Entwicklung der TCP/IP-Netzwerke in Europa wurde von einer anderen, ursprünglich autonomen Organisation begleitet. Ende 1989 gründeten die Befürworter des Internet RIPE (Réseau IP Européen), „to ensure the necessary administrative and technical coordination to allow the operation and expansion of a pan-European IP network”.546 Im Gegensatz zu RARE wurden alle Betreiber von WANs (Wide Area Networks), die TCP/IP nutzten, dazu aufgefordert der Organisation beizutreten. Auch kommerzielle Betreibergesellschaften konnten Mitglieder werden. Die neu gegründete Organisation erkannte die Rückständigkeit der europäischen Internetentwicklung: „IP connectivity in Europe is not based on a strong backbone network such as NSFnet or EARN. It is not clear whether such a backbone will be feasible in the foreseeable future. This makes IP connectivity problems much harder to solve technically, operationally and politically”.547 Da RIPE eine Organisation ohne eigenes Netzwerk war, wurde lediglich ein zentrales Network Coordination Center (NCC) betrieben, das mit den NOCs der Einzelnetzwerke in Verbindung stand. 1991 war auch im Zuständigkeitsbereich von RIPE der Anteil der kommerziellen Netzbetreiber angewachsen. Die Koexistenz und zunehmende Vernetzung der regierungsfinanzierten Forschungsinfrastruktur mit gewinnorientierten Projekten führte zu ähnlichen Problemen wie in den USA. „Each of these types of networks have distinct and occasionally conflicting goals, operational standards, and policies“.548 1992 erfolgte der organisatorische Zusammenschluss mit der Organisation für Wissenschaftsnetze. In einer Selbstdarstellung diesen Jahres präsentierte sich RIPE erstmals als „IP activity of RARE“.549 In dem Jahresbericht von 1995 bilanzierte RIPE NCC die Tätigkeit während der ersten sechs Jahre: In Europa war wie in den USA das Wachstum exponentiell verlaufen. Die Hostzahlen hatten sich von Jahr zu Jahr verdoppelt und bis Ende 1995 waren 2,2 Millionen europäische Rechner in das weltweite Metanetzwerk integriert.550 1993/4 wurde der erste Internet-Backbone Europas installiert. Die Träger der nationalen Wissenschaftsnetze gründeten das Non-Profit-Unternehmen DANTE Ltd. (Delivery of Advanced Network Technology to Europe), das das Multiprotokollnetzwerk EuropaNET (TCP/IP und X.25) initiierte. Die finanziellen Mittel kamen von der Europäischen Union und den Betreibern der nationalen Forschungsnetze, die nun über eine leistungsfähige Infrastruktur miteinander verbunden waren.551 Das Internet erhielt damit auch in Europa eine Struktur, wie sie sich in den USA bereits mit der Gründung des NSFNET etabliert 545 Vgl. Salus, Casting, 193. Im selben Jahr gründeten RARE und EARN die Organisation TERENA (TransEuropean Research and Networking Association). Vgl. ebd.. 546 ripe-001. RIPE dokumentiert die eigene Geschichte sehr transparent in einer Serie von Dokumenten, die mit den RFCs vergleichbar ist. Vgl. RIPE NCC. 547 ripe-004. 548 ripe-045. 549 ripe-057. 550 Vgl. ripe-139. 551 Vgl. Leib, Wissenschaftsnetze, 180. 88 hatte. 4.1.4. Zentrale Organisationen im dezentralen Netz Der weitgehend informelle, auf persönlichen Kontakten basierende Entwicklungsprozess des überschaubaren ARPANET schien kein adäquates Modell für die veränderte Situation in den 80er Jahren zu sein. Aus dem kleinen Forschungsnetzwerk hatte sich ein komplexes Gebilde mit heterogener, internationaler Akteurskonstellation entwickelt. Der Prototyp war ein wichtiges, umfassend vernetztes Werkzeug geworden, was die Ansprüche an die Funktionalität steigen ließ. Auf die neue Situation wurde mit einer Institutionalisierung der technischen Weiterentwicklung und Verwaltung reagiert, ein Prozess, der mit der Gründung des ICCB Ende der 70er Jahre begonnen hatte. 1990 berichtete Vinton Cerf über diese Entwicklung der 80er Jahre: „Late that year [1983], the ICCB was reorganized by Dr. Barry Leiner, Cerf's successor at DARPA,552 around a series of task forces considering different technical aspects of internetting. The re-organized group was named the Internet Activities Board [IAB]. As the Internet expanded, it drew support from U.S. Government organizations including DARPA, the National Science Foundation (NSF), the Department of Energy (DOE) and the National Aeronautics and Space Administration (NASA).553 Key managers in these organizations, responsible for computer networking research and development, formed an informal Federal Research Internet Coordinating Committee (FRICC) to coordinate U.S. Government support for development and use of the Internet system. The FRICC sponsored most of the U.S. research on internetting, including support for the Internet Activities Board and its subsidiary organizations”.554 Das IAB bezeichnete Cerf als koordinierendes, unabhängiges Komitee von Forschern und interessierten, professionellen Internetnutzern. Jede Entscheidung der Organisation würde veröffentlicht. „The principal vehicle by which the IAB decisions are propagated [...] is the Request for Comment (RFC) note series”.555 Im Einzelnen nannte Cerf folgende Aufgaben, die in den Zuständigkeitsbereich des IAB fielen: Etablierung von Internetstandards, Management der RFCs, Prüfung der Tätigkeit in den Unterorganisationen, strategische Planung, Repräsentation der internationalen Internetgemeinschaft und die Lösung von technischen Problemen. Die Zahl der Task Forces wuchs kontinuierlich an, bis man sie 1986 auf zwei Unterorganisationen aufteilte: Internet Engineering Task Force (IETF) und Internet Research Task Force (IRTF).556 Die IETF war eine „large open community of network designers, operators, vendors [sic], and researchers concerned with the Internet 552 Cerf wechselte Mitte Oktober 1982 zu MCI Telecommunications, um für das Unternehmen ein Netzwerk zur Datenübertragung aufzubauen. In einer Extraausgabe des ARPANET Newsletters verabschiedete er sich von seinen Kollegen. Vgl. ANEWS-15. 553 Diese Organisationen hatte eigene Netzwerke aufgebaut. Vgl. Kahn. 554 RFC 1160. 555 RFC 1160. 556 Vgl. Kahn. 89 and the Internet protocol suite”,557 die in Arbeitsgruppen bzw. Subkomitees (1990 gab es mehr als 40 dieser Unterorganisationen) untergliedert war. Die IETF sollte nun den Großteil der Vorschläge über neue Protokolle einbringen, die anschließend vom IAB geprüft wurden. Eine Internet Engineering Steering Group (IESG) war für das Management der IETF und den Kontakt zur IAB zuständig. Der Aufgabenbereich der IRTF war ähnlich und Cerf weist auf personelle Überschneidungen hin. Prinzipiell unterschied sich aber die Zusammensetzung der Gruppen. „The IRTF is a community of network researchers, generally with an Internet focus”.558 Auch diese Organisation verfügte über eine Steering Group (IRSG) und gliederte sich in Unterorganisationen (Research Groups) auf. Der kleine, informelle Zirkel hatte sich zu Institutionen mit ordentlicher Satzung und ausdifferenzierter Struktur entwickelt. „Aus dem Netzwerk von Personen [des frühen ARPANET] wurde schrittweise ein Netz von Organisation“.559 In Einzelfällen besetzten die Protagonisten der 60er und 70er Jahre weiterhin Schlüsselpositionen: Vinton Cerf war Vorsitzender des IAB und David sowie Steve Crocker die Direktoren der IETF Suborganisationen für Netzwerkmanagement bzw. Sicherheitsfragen.560 Die personelle Kontinuität und Dominanz individueller Akteure kommt bei der 1988 gegründeten Internet Assigned Numbers Authority (IANA)561 wahrscheinlich am deutlichsten zum Ausdruck. Die Funktion der Organisation war folgendermaßen definiert: „Many protocol specifications include numbers, keywords, and other parameters that must be uniquely assigned […]. The IAB has delegated to the Internet Assigned Numbers Authority (IANA) the task of assigning such protocol parameters for the Internet. The IANA publishes tables of all currently assigned numbers and parameters in RFCs titled ‘Assigned Numbers’ […]. Programmers are often tempted to choose a ‘random’ value, or guess the next unassigned value of a parameter; both are hazardous […]. The IANA is tasked to avoid frivolous assignments and to distinguish different assignments uniquely”.562 Als Jon Postel 1998 starb, schrieb Vinton Cerf einen Nachruf unter dem Titel „I remember IANA“, der als RFC veröffentlicht wurde. In diesem Dokument wird neben der tiefen Betroffenheit Cerfs die enge Verzahnung, fast schon Identität, der Organisation mit der Person Jon Postel deutlich: „Someone had to keep track of all the protocols, the identifiers, networks and addresses and ultimately the names of all the things in the networked universe. And someone had to keep track of all the information that erupted with volcanic force from the intensity of the debates and discussions and endless invention that has continued unabated for 30 years. That someone was Jonathan B. Postel, our Internet Assigned Numbers Authority, friend, engineer, confidant, leader, icon, and now, first of the giants to depart from our midst. Jon, our beloved IANA, is gone”.563 557 RFC 1160. RFC 1160. 559 Werle, Selbstorganisation, 502. 560 Vgl. RFC 1160. 561 Vgl. Zakon. 562 RFC 1310. 563 RFC 2468. Jon Postel leistete Wesentliches für die Entwicklung des Internet, wie die häufige Erwähnung seines Namens in den vorangegangenen Kapiteln belegt. Andere wechselten in die Privatwirtschaft und ver558 90 Diese Beispiele sollten jedoch nicht über die grundlegende Tendenz zur Institutionalisierung der Internetentwicklung hinwegtäuschen. Zwei Aspekte sind hervorzuheben: Erstens wurde die Privatwirtschaft in die Weiterentwicklung einbezogen. Die US-amerikanische Regierung übernahm zwar mit FRICC weiterhin den Großteil der Finanzierung, in der IETF waren aber erstmals Verkäufer von Internetprodukten vertreten und seit Ende der 80er Jahre begann diese Organisation sich zumindest teilweise über Mitgliedsbeiträge zu finanzieren.564 Parallel zu den Netzbetreibern ist ein allmähliches Eindringen der Privatwirtschaft zu erkennen. Zweitens löste sich die technische Entwicklung von dem engen DARPA-Kontext. Bis Anfang der 80er Jahre war das Engagement der Militärforschungsbehörde von zentraler Bedeutung. Sie gab in wichtigen Punkten Richtlinien für die Weiterentwicklung vor, initiierte verschiedene Projekte und koordinierte den dezentralen Prozess. Schon nach dem Weggang von Kahn und Leiner 1985 ließen die Aktivitäten nach565 und nun waren Institutionen geschaffen worden, die sich einer Kontrolle der Behörde entzogen. Die Festlegung des IAB auf die RFCs führte zu einer beachtlichen Renaissance der Dokumente. Abbildung 11 illustriert, dass seit 1987 die Erscheinungshäufigkeit wieder deutlich anstieg und in den 90er Jahren sogar das Niveau der Anfangszeit übertraf. Der seit 1975 vorherrschende Trend wurde umgekehrt. Der Beschreibung Cerfs ist aber auch zu entnehmen, dass das IAB, ähnlich wie die DCA und andere Organisationen im Zusammenhang mit der TCP/IP-Umstellung, primär Entscheidungen veröffentlichen wollte. In den 70er Jahren wurden über diese Publikationen noch Protokolle diskutiert und gemeinsam entwickelt, die sich schließlich nach dem Konsensprinzip durchsetzten. 40 35 30 25 20 15 10 5 0 Zuwachs an RFCs pro Monat Mrz 99 Mrz 97 Mrz 95 Mrz 93 Mrz 91 Mrz 89 Mrz 87 Mrz 85 Mrz 83 Mrz 81 Mrz 79 Mrz 77 Mrz 75 Mrz 73 Mrz 71 Mrz 69 Zuwachs an RFCs pro Monat im Jahresdurchschnitt Abb. 11. Erscheinungshäufigkeit der RFCs zwischen 1969 und 2000. 566 Die tatsächliche Bedeutung der neuen Organisationen (abgesehen von IANA) ist jedoch schwer einzuschätzen. Die „heute noch bestehenden Gremien von Freiwilligen [IAB, dienten Millionen - Jon Postel blieb beim ISI. Die Mithilfe bei der Entwicklung des Internet war sein Lebenswerk. 564 Vgl. Kahn. 565 Vgl. Leiner, 106. 566 Das Diagramm wurde anhand der Informationen im RFC-Index erstellt. Vgl. Network Working Group. 91 IETF, IRTF] haben, formell betrachtet, nur sehr geringe Möglichkeiten, für Betreiber und Benutzer des Netzes verbindliche Entscheidungen zu treffen. Ihre historisch gewachsene Autorität ist jedoch beträchtlich“.567 An dem Konzept, den Einzelnetzwerken eine größtmögliche Autonomie einzuräumen, wurde festgehalten, obwohl eine Einigung auf allgemein gültige Standards für einen funktionierenden Betrieb notwendig ist. Der Prozess wurde durch die fortschreitende Vernetzung zunehmend kompliziert. Weder DARPA, DCA, NSF noch die neu geschaffenen Organisationen hatten die Möglichkeit den Betreibern Standards zu diktieren. Die Entscheidungen des IAB werden damit faktisch zu Vorschlägen. „The Internet, [seit 1983] a loosely-organized international collaboration of autonomous, interconnected networks, supports host-to-host communication through voluntary adherence to open protocols and procedures defined by Internet Standards”.568 Die Etablierung von Standards konnte und kann nur auf freiwilliger Basis realisiert werden. Wie entschieden die Organisationen aber, welches Protokoll den Rang eines (vorgeschlagenen) Standards erhielt? Lyman Chapin definierte 1992 für das IAB den „Internet Standards Process“. Jeder Vorschlag musste demnach drei „maturity levels“ durchlaufen, über die jeweils in einem RFC informiert wurde. Hatte sich ein Vorschlag in einer experimentellen Phase bewährt, so wurde er zum Proposed Standard erhoben. Wenn mindestens zwei Spezifikationen entwickelt waren und eine angemessene, praktische Erfahrung vorlag, konnte die Ernennung zum Draft Standard erfolgen. Der letzte Schritt war der Internet Standard, „characterized by a high degree of technical maturity and by a generally held belief that the specified protocol or service provides significant benefit to the Internet community”.569 Ob sich der Standard schließlich durchsetzten würde, war damit jedoch nicht entschieden. Ausgenommen von dem Prozess blieben Lösungen, die nicht frei zugänglich waren, d.h. bei denen Patente o.ä. die Nutzung bzw. Verfügbarkeit einschränkten. Es gab keine Reduzierung der Vorschläge auf Organisationen – das IAB rechnete ausdrücklich mit der weiteren Mitarbeit der Internetnutzenden.570 4.2. USENET - „Poor man’s Arpanet“ Mit dem USENET, dessen Anfänge bis ins Jahr 1979 zurückreichen, etablierte sich im Verlauf der 80er Jahre eine neue, nicht geplante Anwendung, die – wie zuvor bei den EMails – nie offiziell beauftragt wurde. Die Kommunikationstechnik der Newsgroups oder Netnews basierte auf der Kreativität engagierter Nutzer und entwickelte sich unabhängig von den Institutionen bzw. Labors, die sich professionell mit der Internetentwicklung be567 Werle, Selbstorganisation, 508. RFC 1310. 569 RFC 1310. 570 Vgl. RFC 1310. 568 92 fassten. Die Wurzeln des Dienstes lagen erstmals außerhalb des ARPANET bzw. Internet. Die graduierten Studenten Tom Truscott, Jim Ellis, Stephan Daniel und Steve Bellovin, schrieben 1979 ein kleines Programm (A news), das auf UUCP aufsetzte und das Dateisystem eines (über Modem und Telefonnetz) verbundenen Rechners überprüfte. Waren neue Dateien hinzugekommen, so wurden sie automatisch kopiert. Auf diese Weise war der Austausch von Nachrichten (News) möglich.571 Technisch gesehen handelt es sich um eines der Projekte, die auf dem „Store-and-Forward“-Verfahren basierten. Die ersten drei Knoten des virtuellen Netzwerks standen an den Hochschulen der Studenten: ein Rechner der Universität von Nordkalifornien und zwei der Duke-Universität.572 Auf einem Treffen der akademischen Unix-Nutzer im Januar 1980 (USENIX), als das Projekt bereits auf 15 Rechner angewachsen war,573 informierten sie die Anwesenden über ihre Entwicklung, die Version A der „news“, und verteilten die „Invitation to a General Access UNIX Network“: „The initially most significant service will be to provide a rapid access newsletter. Any node can submit an article, which will in due course propagate to all nodes. A ‘news’ program has been designed which can perform this service. The first articles will probably concern bug fixes, trouble reports, and general cries for help. Certain categories of news, such as ‘have/want’ articles, may become sufficiently popular as to warrant separate newsgroups […]. The mail command provides a convenient means for responding to intriguing articles. In general, small groups of users with common interests will use mail to communicate. If the group size grows sufficiently, they will probably start an additional news group […]. This is a sloppy proposal. Let's start a committee. No thanks! Yes, there are problems. Several amateurs collaborated on this plan. But let's get started now. Once the net is in place, we can start a committee. And they will actually use the net, so they will know what the real problems are".574 Es gab tatsächlich einige Probleme und bereits ein Jahr nach USENIX erschien die Version B des Programms.575 In der USENET-History-List beschrieb Stephan Daniel im Januar 1993, weshalb sie das Projekt initiiert hatten: „It was commonly accepted at the time that to join the Arpanet took political connections and $100,000. I don't know if that assumption was true […]. The ‘Poor man's Arpanet’ was our way of joining the CS [Computer Science] community”.576 1980 bestand das ARPANET lediglich aus ca. 200 Hosts und der Zugriff auf das Netz war prinzipiell nur Personen möglich, die an den Projekten der Behörde beteiligt waren oder in der staatlichen bzw. militärischen Bürokratie arbeiteten. Weder politische Verbindungen noch hohe Geldbeträge hätten den Studenten zu diesem Zeitpunkt offiziell den Eintritt in den exklusiven Zirkel verschafft. Dennoch zeigt 571 Vgl. Hauben, Evolution. Vgl. Salus, Casting, 135. 573 Vgl. Hauben, Evolution. 574 Invitation to a General Access Unix Network. Zitiert nach Hauben, Evolution. 575 Vgl. Hardy, Henry. 576 Stephan Daniel in einem Beitrag der Usenet-history-list vom 25.1.93. Vgl. Jones, mailinglist. 572 93 sich an diesem Beispiel, dass die Möglichkeiten des Netzwerks eine Faszination ausübten, deren Wirkung nicht auf das ARPANET beschränkt blieb und indirekt die Entwicklung neuer Projekte förderte. „It is hard to believe in retrospect, but we were initially disappointed at how few people joined us. We attributed this lack more to the cost of autodialers [Modems] than lack of desire”.577 Daniels Enttäuschung über die spärliche Nachfrage dürfte sich bald gelegt haben. Die folgende Tabelle zeigt das rasante Wachstum des USENET nach der schwierigen Anfangsphase:578 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1990 1992 1994 Newsgroups 3 3? - - - - - 241 259 381 1300 4302 10696 Articles / day 2 10 20 35 120 225 375 946 957 1933 4500 17556 72755 Hosts 3 15 150 400 600 900 1300 2200 5200 7800 33000 63000 180000 Readers 10? 20? - - 10000 - - 53000 100000 141000 - - - Spätestens 1983/4 wurden täglich so viele Nachrichten verschickt, dass eine einzelne Person überfordert gewesen wäre, alle zu lesen. Gleichzeitig stieg die Zahl der integrierten Rechner kontinuierlich an. Zwischen 1982 und 1985 war die Anzahl der Hosts etwa gleich groß wie die des Internet, lag teilweise sogar über dessen Niveau.579 Vergleicht man das Wachstum des USENET mit dem von UUCP, dessen Infrastruktur in den ersten Jahren hauptsächlich genutzt wurde, so lässt sich vermuten, dass es wesentlich zum Erfolg dieses Netzwerks beitrug. Worin liegt aber der Unterschied zu den Mailing-Listen des ARPANET, der aus dem USENET einem „anarchischen weltweiten Kommunikation[sraum]“580 machte? MailingListen basieren auf der E-Mail-Technologie, können aber als Vorläufer der News betrachtet werden. Die Funktionsweise beider Systeme ist ähnlich: Mitglieder der einzelnen Newsgroups senden (posten) Nachrichten an einen zentralen Rechner (Server), der sie anderen Teilnehmern zur Verfügung stellt. Auf diese Weise entstehen ‚Schwarze Bretter’ im Internet oder anderen Netzen. Im Gegensatz zu den Mailing-Listen verbleiben die einzelnen Beiträge für eine gewisse Zeit auf den Servern, sodass die Diskussion von Neumitgliedern zurückverfolgt werden kann.581 Wesentlicher ist jedoch, dass die (bei den Mailing-Listen zentrale) Figur des Adressverwalters entfällt, der die einzelnen Beiträge an die Abonnenten verschickt. Diese nutzten ihre Position, wie z.B. Dave Farber und Einar Stefferud bei der MSGGroup, um Beiträge zu kommentieren, neue Aspekte einzubringen oder mäßigend auf die Mitglieder einzuwirken, wenn eine Diskussion zu heftig wurde. Da bei 577 Ebd.. Vgl. Quarterman, 248 (bis 1988) und Zakon (seit 1990). 579 Die Angaben zum Internet sind in Kapitel 4.1. aufgeführt. Der Vergleich von Hostzahlen der jeweiligen Netzwerke ist nur eingeschränkt aussagekräftig. Die Anzahl der Nutzer pro Host differiert stark und lässt sich nur schätzen. Quartermans Angaben zu den aktuell aktiven Nutzern (readers) sind folglich nur Richtwerte. 580 Rheingold, 19. 581 Vgl. Hosenfeld, 113. 578 94 den Newsgroups keine Distribution im eigentlichen Sinn stattfindet, sondern die Beiträge lediglich auf Servern zugänglich gemacht werden, entfällt die Notwendigkeit einer vergleichbaren Zentralinstanz.582 Technisch betrachtet ermöglichte das USENET eine interaktive, hierarchiefreie Kommunikation. Setzt man jedoch die geschätzte Anzahl der aktiven Nutzer mit den täglich verfassten Artikeln in Relation, so wird deutlich, dass es in der Regel relativ passiv konsumiert wurde. Der durchschnittliche „Usenetter“ verfasste zwischen 1983 und 1988 lediglich 3,5 bis 6,5 Artikel pro Jahr. Das „anarchische“ USENET bestand also auch in der Frühphase zu einem Großteil aus sog. Lurkers („One of the `silent majority' in a electronic forum, [...] who posts occasionally or not at all but is known to read the group's postings regularly”).583 Die ersten drei Newsgroups hießen net.general, net.v7bugs und net.test.584 Sie wiesen bereits das heute noch übliche, hierarchische, von rechts nach links ansteigende Gliederungsprinzip auf. Die zweite „top-level“-Hierarchie wurde fa („from ARPANET“), die Inhalte der begehrten Mailing-Listen in das USENET transportierte. Viele Beiträge dieser beiden Kategorien aus dem Zeitraum Mai 1981 bis Mai 1982 sind noch erhalten und belegen, dass sich die Diskussionen schnell von der vorausgesagten, technischen Thematik („bug fixes, trouble reports, and general cries for help“) gelöst hatten.585 Nach einer erneuten Überarbeitung des „news“-Programms 1984 war die Bildung moderierter Gruppen möglich.586 Es gab mehrere Gründe, die für diese Neuerung sprachen, bei der die Praxis der Mailing-Listen des ARPANET Pate stand. Viele Artikel kopierten die Informationen anderer Beiträge und auf einzelne Anfragen kamen teilweise mehrere Antworten mit gleichlautendem Inhalt, wodurch das Datenvolumen unnötig anstieg, was das System an die Grenzen seiner Belastbarkeit führte. Neben technischen Problemen war es vereinzelt zur Verletzung von Urheberrechten und undifferenzierten oder beleidigenden Beiträgen gekommen. Den bereits existierenden Hierarchien net und fa wurde mit mod („moderated“) eine dritte hinzugefügt.587 mod.announce, thematisch mit der weiterhin existierenden net.general identisch, war die erste moderierte Newsgroup.588 Es gab Rechner des USENET, die einen Großteil der Daten über den gesamten Kontinent oder darüber hinaus transportierten, was ihnen eine besondere Bedeutung verschaffte. Die Verwalter dieser Rechner bezeichneten sich, wie eine gleichlautende Mailing-Liste, über die sie sich koordinierten, als ‚Backbone’. Um 1985 begannen die Bestrebungen 582 Auch Mailing-Listen sind theoretisch ohne Adressverwalter möglich. Die beschriebene Ausprägung war aber die übliche Organisationsform im ARPANET. 583 Raymond. 584 Vgl. Quarterman, 244. 585 Vgl. Jones, Oldnews. 586 Vgl. Salus, Casting, 136. 587 Vgl. Hardy, Henry. 588 Vgl. Quarterman, 245. 95 einzelner Personen aus diesem Zusammenhang, Einfluss auf die Inhalte der Newsgroups zu nehmen.589 Im Zusammenhang mit einer Neuauflage des „news“-Programms von 1986 wurde eine komplette Reorganisation möglich. Die ‚Schwarzen Bretter’ konnten nun in insgesamt sieben thematisch gegliederte „top-level“-Hierarchien unterteilt werden: comp (computerbezogene Inhalte), misc (nicht zu klassifizierende Themen), news (Weiterentwicklung und Verwaltung des USENET), rec (Hobbys und Freizeit), sci (Wissenschaft), soc (Gesellschaft im weitesten Sinne) und talk (Debatten ohne Anspruch auf konkrete Ergebnisse).590 Bis April 1987 sollte die Umstellung vollzogen werden. Als Anfang diesen Jahres die Gründung von net.rec.drugs, einer Diskussionsgruppe über Drogen, von den Betreibern des ‚Backbone’ abgelehnt wurde, eskalierte der bisher schwelende Konflikt.591 Es entbrannte ein „massive and now-legendary ‚flame war’“, der die Kommunikation prägen sollte.592 Das USENET hatte zu diesem Zeitpunkt bereits mehr als 100.000 Mitglieder, was bedeutet, dass sich die heftige Streitkultur im Schutz der Anonymität bei den weiterhin meist unmoderierten Newsgroups frei entfalten konnte. Ungefähr zur selben Zeit entstand mit der „Netiquette“ ein Set von Normen, das den Informationsaustausch und die Kommunikation über Netzwerke regeln sollte. Der Bedarf an einer solchen Selbstregulierung entstand u.a. wegen des rauhen Umgangstons im USENET, auch wenn Werle externe Einflüsse vermutet.593 1988 schickte Brian Reid594 schließlich eine E-Mail an die Mitglieder des ‚Backbone’: „To end the suspense, I have just created alt.sex. That meant that the alt [altered oder alternative] network now carried alt.sex and alt.drugs. It was therefore artistically necessary to create alt.rock-n-roll, which I have also done. I have no idea what sort of traffic it will carry”.595 Damit war ein neuer Teilbereich entstanden, der sich der Kontrolle des ‚Backbone’ entzog und in „Zen and the Art of the Internet”, einer Einführung von 1992, mit den Worten „true anarchy; anything and everything can and does appear; subjects include sex, the Simpsons, and privacy” charakterisiert wird.596 Wenige Monate nach der Aktion von Brian Reid dankten die Mitglieder des ‚Backbone’ offiziell ab.597 „Das Netz interpretiert Zensur als Fehler und umgeht sie“.598 Die beschriebenen Ereignisse im USENET 1986/87 trugen zur Vorstellung des herrschaftsfreien, nicht zu regulierenden und anarchischen Kommunikationsraums Internet bei. Vgl. Salus, Casting, 140 – 142. ‚Backbone’ wurde in diesem Zusammenhang in Anführungszeichen gesetzt, da das USENET kein Netzwerk im eigentlichen Sinne war und deshalb auch nicht über eigene Leitungen oder Backbones verfügte. 590 Vgl. Kehoe. 591 Vgl. Salus, Casting, 140 – 142. 592 Vgl. Hardy, Henry. Auch im Jargon File wird bei dem Begriff „Flaming” stets auf das USENET verwiesen. Vgl. Raymond. 593 Vgl. Werle, Wissenschaftsnetz. RFC 1855 bieten einen Einblick in die Regeln der Netiquette 594 Es lässt sich nicht klären, ob er mit dem Teilnehmer der MSGGroup identisch ist. 595 Zitiert nach Hardy, Henry. 596 Kehoe. 597 Vgl. Hardy, Henry. 598 Rheingold, 19. 589 96 Der Gründungsprozess einer Newsgroup der oben genannten „top-level“-Hierarchien blieb aber auch nach dem Abdanken der alten Eliten in ein festes Regelwerk eingebunden. Zuerst hatte der Antragsteller ein formales Request for Discussion (RFD) an news.announce.newsgroups zu stellen, das dort diskutiert wurde. Waren alle Detailfragen geklärt, folgte ein Call For Votes (CFV). Das Ergebnis der Abstimmung wurde anschließend wieder in news.announce.newsgroups veröffentlicht, um es nochmals auf Fehler zu prüfen. Hatte sich eine deutliche Mehrheit für den Vorschlag ausgesprochen, so konnte die Gründung erfolgen. Fiel der CFV negativ aus, so bestand die Möglichkeit nach sechs Monaten ein neues RFD zu stellen.599 Dieser Prozess hält sich zwar formal an demokratische Regeln, räumt aber einer neuen Elite von besonders aktiven Nutzern große Macht ein. Welchen Stellenwert einzelne Themen im USENET einnahmen, lässt sich im Detail nicht mehr nachvollziehen. Das Adressierungskonzept erlaubt Rückschlüsse: Besteht ein Diskussionszirkel aus zu vielen Mitgliedern, so wird eine neue (Unter-)Gruppe gebildet, weshalb sich bei intensiv genutzten Themen eine besonders ausdifferenzierte Struktur entwickelt. Noch 1994 galt, dass „computerbezogene Inhalte einen breiten Raum ein[nehmen], so daß die comp-Hierarchie entsprechend fein gegliedert ist“.600 4.2.1 Newsgroups im Internet Wie schaffte die Anwendung den Sprung ins Internet? Die gemeinsame Geschichte von USENET und ARPANET begann bereits 1980. Mit der UCB wurde erstmals eine Universität integriert, an der ein ARPANET-Knoten installiert war. Bald realisierten Studenten der Hochschule in Berkeley eine inoffizielle (nach DCA-Richtlinien illegitime) Schnittstelle zwischen den Netzwerken.601 Im Juni 1983 tauchte der Begriff USENET erstmals in einem RFC auf. Mark Horten (Student der UCB) schlug eine Möglichkeit für den Austausch von „USENET-Messages“ vor. Neben technischen Details informierte er über die Funktionsweise bzw. Infrastruktur des News-Netzes: „USENET is not a physical network, but rather a logical network resting on top of several existing physical networks. These networks include, but are not limited to, UUCP, the ARPANET […]”.602 1983 stand die Anwendung den ARPANET-Nutzern auch offiziell zur Verfügung und konnte die Infrastruktur des Netzwerks nutzen. Die Koexistenz blieb nicht frei von Konflikten bzw. Hierarchien. Daniel berichtet über die Situation in den frühen 80er Jahren aus der Sicht eines Nutzers des USENET: „adding the Arpanet lists to Usenet [und vice versa] initially contributed to the sense of being poor cousins. It was initially very hard to contribute to those lists, and when 599 Vgl. Kehoe. Hosenfeld, 113. 601 Vgl. Hauben, Evolution. 602 RFC 0850. 600 97 you did you were more likely to get a response to your return address than to the content of your letter. It definitely felt second class to be in read-only mode on human-nets and sflovers”.603 Die anfängliche Arroganz von Teilen der ‚ARPANET-Gemeinde’ hatte sich bald gelegt. 1986 kam der Vorschlag für ein TCP/IP-basiertes NNTP (Network News Tranfer Protocol) zum Austausch von Nachrichten. „There are popularly two methods of distributing such news: the Internet method of direct mailing [Mailing-Lists], and the USENET news system”,604 erläuterten die Autoren, ehe sie die Vorzüge der zweiten Methode aufzählten. NNTP sollte nach den gleichen Prinzipien wie das USENET funktionieren.605 Mit dem neuen Protokoll wurde ein wachsender Prozentsatz des Datenvolumens über die ARPANET-Leitungen transportiert,606 wobei gleichzeitig die Verbreitung der Kommunikationstechnik im Internet kontinuierlich anstieg. 1994 „a lot of newbies and journalists began to refer to ‘Internet newsgroups’ as though Usenet was and always had been just another Internet service. This ignorance greatly annoys experienced Usenetters”.607 Dass die Ursprünge der Kommunikationsmöglichkeit bereits in Vergessenheit geraten waren, spricht für dessen allgemeine Durchsetzung im Netz der Netze. Ein Artikel der c’t berichtet über ein tieferliegendes Missverständniss, das den Stellenwert der Anwendung Anfang der 90er Jahre verdeutlicht: „Mittlerweile gibt es verschiedene News-Netze, die ihre Nachrichten teilweise untereinander austauschen. Im Internet dominierend ist das Usenet, das oft auch mit ‚dem Internet’ selbst verwechselt wird”.608 Vertauscht man den Begriff USENET mit WWW, eine der jüngsten Anwendungen, so wäre das Zitat noch heute uneingeschränkt gültig. 4.3. Neue Anwendungen für neue Nutzer Anfang der 90er Jahre gab es eine Reihe weiterer Veränderungen. Der Artikel einer Fachzeitschrift von 1993 mit dem Titel „Weltweit vernetzt – Struktur und Dienste des Internet“ führt neben E-Mails, FTP, Telnet und den inzwischen selbstverständlich gewordenen Newsgroups, drei neue Begriffe ein: „Archie“, „WAIS“ (Wide Area Information Service) und „Gopher“.609 Archie bezeichnet Server, die Datenbanken über FTP-Ressourcen im Internet zur Verfügung stellten. Über eine Telnetverbindung konnte auf einen der entsprechenden Rechner zugegriffen werden, dessen Informationsstand mindestens einmal im Monat aktualisiert 603 Stephan Daniel in einem Beitrag der Usenet-history-list vom 25.1.93. Vgl. Jones, mailinglist. RFC 0977. 605 Vgl. ebd.. 606 Vgl. Hardy, Henry. 607 Raymond. Der Begriff „newbie“ bezeichnet einen Usenetanfänger. Vgl. ebd.. 608 Hosenfeld, 113. 609 Vgl. Köhntopp, 84. Obwohl zu diesem Zeitpunkt bereits entwickelt, wird das WWW in diesem Artikel mit keinem Wort erwähnt. 604 98 wurde. Archie präsentierte die Ergebnisse der Suche als Liste von IP-Adressen auf dem Client-Rechner.610 Die McGill-Universität in Kanada betrieb 1990 den ersten Archie-Server und bis 1992 waren in den Archiven über 800 FTP-Adressen mit mehr als einer Million Dateien erfasst.611 WAIS war ein weiterer Versuch die Recherche zu vereinfachen. Die Software ermöglichte die Abfrage verschiedener Datenbanken (auch zeitgleich) mit demselben Programm in einer einheitlichen Form. Für den Nutzer hatte der neue Ansatz den Vorteil, sich nicht mehr bei jeder Recherche auf neue Such- bzw. Bedienungsmechanismen einstellen zu müssen.612 Archie und WAIS waren streng genommen keine neuen Anwendungen, sondern lediglich neue Nutzungsformen oder Weiterentwicklungen der bestehenden Dienste FTP und Telnet. Anders verhält es sich mit Gopher. In den RFCs wurde zwar erst 1993 über das „distributed document search and retrieval protocol“ informiert,613 den ersten Server installierte die Universität von Minnesota aber bereits 1991. Die Wachstumsraten in den ersten Jahren der 90er lagen zwischen 200 und 1000 Prozent.614 Es entwickelte sich ein Netz von Gopher-Servern, die untereinander durch Querverweise verknüpft waren, was eine erhebliche Vereinfachung der Bedienbarkeit mit sich brachte. Die lokal oder auf anderen Servern verfügbaren Informationen wurden in Form von hierarchischen, verschachtelten Menüs präsentiert. Je nach Auswahl wurde entweder die Datei angezeigt oder an einen anderen Rechner weiterverbunden. Teilweise war auch der Transport multimedialer Inhalte (Tondokumente und Bilder) möglich. Wer statt der üblichen Menüstruktur eine Indexsuche bevorzugte, konnte auf Veronica, das Äquivalent des Gopher-Space zu Archie (FTP-Server) zurückgreifen.615 1993 erhob die Universität erstmals Lizenzgebühren für die Nutzung ihrer Software. Sie wollte von der großen Beliebtheit finanziell profitieren, stellte die Entwicklung Bildungseinrichtungen und gemeinnützigen Organisationen aber weiterhin kostenlos zur Verfügung. „Dies wurde in der Internetgemeinde und auch an den Universitäten als Verrat betrachtet [...]. Die Industrie ließ Gopher fallen wie eine heiße Kartoffel“.616 Wie sind die Reaktionen auf die Lizenzierung zu bewerten? Universitäten und Nutzer sahen in der Initiative aus Minnesota einen Verstoß gegen die Ethik des Internet. Es war üblich Neuentwicklungen kostenlos zu verbreiten. DARPA sowie NSF hatte mit ihrer Politik stets aktiv am Transfer der Technologie mitgewirkt. Als der Personenkreis im Umfeld der Behörde in den 80er Jahren durch Organisationen ersetzt wurde, war Lizenzfreiheit eine grundlegende Voraussetzung für potentielle Internetstandards. Von dieser Vorge610 Vgl. Hosenfeld, 114. Vgl. Kehoe. 612 Vgl. Hosenfeld, 116. 613 Vgl. RFC 1436. 614 Vgl. Salus, Casting, 230. 615 Vgl. Hosenfeld, 114-116. 616 Berners-Lee, 115f.. 611 99 hensweise hatte die Privatwirtschaft jahrzehntelang profitiert und war nicht bereit auf die Privilegien zu verzichten, zumal sich zu diesem Zeitpunkt bereits eine nicht-lizenzierte Alternative mit ähnlicher Funktionalität andeutete. Der Erfolg von Gopher stellte sich als Strohfeuer heraus. Wenn der Jargon File den Dienst mit „a type of Internet service first floated around 1991 and obsolesced around 1995 by the World Wide Web”617 beschreibt und damit andeutet, Gopher sei zu diesem Zeitpunkt veraltet gewesen, wird unterschlagen, dass nicht nur technische Gründe den späteren Erfolg des WWW bedingten. Auch wenn die in diesem Kapitel dargestellten Anwendungen heute bereits weitgehend vergessen sind, lässt sich die Grundtendenz zur Vereinfachung der Bedienung feststellen. Peter Deutsch, der an der Entwicklung von Archie beteiligt war, charakterisierte die Situation zu Beginn der 90er Jahre folgendermaßen: „[...] there has been a number of changes [seit 1990] in the way we perceive and make use of the net. Of course, the number of users continues to climb at a dizzying place and the sheer volume of traffic continues to climb along with the population, but there’s more to it than that [...]. The Internet is no longer just an interesting experimental testbed [...]. The net is now a daily tool for hundreds of thousands of people who couldn’t tell an IP packet from a burst of tty line noise”.618 CSNET und NSFNET mit den angeschlossenen Netzwerken der mittleren Ebene eröffneten immer größeren Benutzergruppen den Zugang zum Internet. Auch kommerzielle Anbieter begannen sich für das Metanetz zu interessieren. Bei einem Großteil der neuen Nutzer konnte kein genuines Interesse an Computer- bzw. Netzwerktechnologie vorausgesetzt werden. Die Vereinfachung erhöhte die Attraktivität bei neuen Nutzern. Das Internet umfasste 1990 bereits ca. 300.000 Rechner und die Quantität der potentiell verfügbaren Informationen war ohne Hilfsmittel kaum noch zu bewältigen. Die strukturellen Veränderungen schlugen sich auch in den RFCs nieder. Mit den FYIs (For Your Information) wurde im März 1990 eine neue Subserie etabliert, die sich nicht mit der Entwicklung neuer Protokolle beschäftigte: „The FYI series of notes is designed to provide Internet users with a central repository of information about any topics which relate to the Internet [...]. The FYIs are intended for a wide audience. Some FYIs will cater to beginners, while others will discuss more advanced topics. An FYI may be submitted by anyone who has something to contribute and has the time to do so”.619 Zu den FYIs, die sich ausdrücklich an Anfänger richteten, gehörte das von der User Services Working Group der IETF produzierte „FYI on Questions and Answers - Answers to Commonly asked ‘New Internet User’ Questions”, ein Dokument, das regelmäßig aktualisiert wurde.620 Es sollte Basiswissen über das Internet, dessen Protokolle, Dokumentationen, Organisationen und Anwendungen vermitteln. 617 Raymond. Zitiert nach Salus, Casting, 229. „tty = A terminal of the teletype variety, characterized by a noisy mechanical printer”. Vgl. Raymond. 619 RFC 1150. 620 Vgl. RFC 1177, RFC 1206, RFC 1325, RFC 1594 und RFC 2664. 618 100 4.3.1. WWW – „Internet’s killer-app“ In den „Questions and Answers“ von 1994 taucht im Unterkapitel zu den Anwendungen ein neuer Begriff auf. Neben Gopher, Telnet, FTP, Newsgroups, E-Mail und Mailing-Listen wird nun auch auf die Frage geantwortet „What is the World Wide Web? What is Mosaic?“. Das Thema wird an letzter Stelle in zehn Zeilen abgehandelt und nimmt damit bedeutend weniger Raum ein als alle anderen Dienste.621 1999 wurde das vorerst letzte FYI der Serie veröffentlicht, an dem sich eine massive Veränderung ablesen lässt. Die Begriffe Archie, Gopher, Telnet, Newsgroups oder USENET werden nicht mehr erwähnt. Die Frage „What Can I do on the Internet?“ wird mit „Surfing”, „Searching”, „E-Mail”, „File Transfer”, „Chat” und „Games” beantwortet. Die alles dominierende Anwendung ist das WWW.622 Nach Informationen von Merit übertraf der neue Dienst im April 1995 erstmals FTP hinsichtlich der Anzahl der Pakete, die vom NSFNET transportiert wurden (21% des gesamten Datenvolumens).623 Seit Mitte der 90er Jahre ist das WWW „Internet's killer app[lication]“.624 Der Ursprung lag erstmals außerhalb der Vereinigten Staaten. Tim Berners-Lee und Robert Cailliau, beide angestellt am europäischen Labor für Teilchenphysik CERN (Conseil Européen pour la Recherche Nucléaire) in der Nähe von Genf, schlugen 1989 vor, an einem Hypertextsystem für Netzwerke zu arbeiten. 1990 erhielt das Projekt den Namen WWW und Anfang des nächsten Jahres folgte die Veröffentlichung eines ersten, kostenlosen „Line-mode“-Browsers im Internet. Wenige Monate später, Ende 1991, wurde am Stanford Linear Accelerator Center der erste Server installiert. Im Bereich der Hochenergiephysik ist eine Koordination der Grundlagenforschung aufgrund der immensen Kosten für die benötigten Apparate und die hohe Spezialisierung der Fachkräfte unverzichtbar. Der Teilchenbeschleuniger des CERN mit einem Umfang von 27 Kilometern ist eine der weltweit größten Forschungsapparaturen dieser Art, die jährlich von ca. 6000 Gastwissenschaftlern für Experimente genutzt wird. Die Kommunikation dieser über den ganzen Globus verteilten Forscher sollte mit dem WWW verbessert werden.625 Was unterscheidet das WWW von anderen Diensten? Vorraussetzung für die Funktionsweise ist das Adressierungskonzept der URLs (Uniform Resource Locator), die BernersLee den Internetnutzenden in einem RFC vorstellte. Ein URL kann als Erweiterung der Domain, die einen Internetrechner identifiziert (‚übersetzte’ IP-Adresse), und den Angaben über verwendeten Dienst bzw. Protokoll (z.B. http://www) verstanden werden. Mit URLs 621 Vgl. RFC 1594. Vgl. RFC 2664. Newsgroups und Telnet gibt es weiterhin im Internet. Dass sie in der Einführung für neue Internetnutzer nicht mehr erwähnt werden, weist auf einen relativen Bedeutungsrückgang hin. Diese Dienste werden nur noch von einer Gruppe interessierter Nutzer verwendet. 623 Vgl. Frazer. 624 Raymond. 625 Vgl. Cailliau, 72-76. 622 101 werden einzelne Objekte bzw. Dokumente oder sogar bestimmte Bereiche in diesen Objekten identifizierbar.626 Dieses Adressierungskonzept ist die Basis für die Hyperlinks des WWW. Durch Links können Elemente eines Dokuments mit anderen Elementen verknüpft werden, die in demselben Dokument, auf demselben Rechner oder irgendwo im Internet vorhanden sind. Meist handelt es sich bei den Verknüpfungen um farblich gekennzeichnete, anzuklickende Textstellen.627 Es entsteht ein Netz von Dokumenten, dessen unübersichtliche und frei gestaltbare Struktur sich von dem hierarchisch gegliederten Gophernetz unterscheidet. Im WWW ist theoretisch alles mit allem verknüpfbar. Das grundlegende Prinzip ist Hypertext, nach dem auch das Protokoll HTTP (Hypertext Transfer Protocol) und HTML (Hypertext Markup Language), die ‚Sprache’ des Web, benannt sind. Das Prinzip selbst ist älter als das WWW und das Internet. Berners-Lee dankt in seinem „Web-Report“ Vannevar Bush, Ted Nelson sowie Douglas Engelbart, den Vordenkern des Hypertextes, und Donald Davies, Paul Baran, Vint Cerf, Bob Kahn und deren Kollegen, den Wegbereitern der Infrastruktur.628 Vannevar Bushs Artikel „As We May Think“ erschien bereits 1945. Er beschreibt die (mechanische) Maschine Memex, die bei der Bewältigung großer Informationsmengen behilflich sein sollte, indem sie in Analogie zur assoziativen Struktur des menschlichen Denkvorgangs Verknüpfungen zu anderen Information und Anmerkungen, gespeichert auf Mikrofilmdokumenten, einfügt.629 Douglas Engelbarts Arbeiten am NLS im Zusammenhang mit der Forschung zur Steigerung des menschlichen Intellekts am SRI wurde bereits vorgestellt. Er kannte die Arbeit von Vannevar Bush, wie das Literaturverzeichnis eines Textes von 1962 belegt.630 Ted Nelson, der Mitte der 70er Jahre mit dem Buch „Computer Lib/Dream Machines“ Kultstatus in der Hackerszene erlangt hatte,631 kreierte Anfang der 60er Jahre - im Zusammenhang mit seinem nie vollständig realisierten System Xanadu, eine Art Memex der zweiten Generation, das eine universale Weltbibliothek schaffen sollte - die Begriffe Hypertext und Hypermedia.632 In dem Aufsatz „A New Home for the Mind“ von 1982 nimmt Nelson die Idee wieder auf. „It [das Prinzip der Links] permits fully nonsequential writing. Writings have been sequential because pages have been sequential. What is the alternative? Why, hypertext – nonsequential writing [...]. Any sequence is generally arbitrary, and what is right for one reader may be wrong for another”.633 Berners-Lee äußert sich bescheiden über den eigenen Beitrag. „Ich kam zufällig zur rechten Zeit [...], nachdem der Hypertext und das Internet ihre Volljährigkeit erreicht hatten. Die einzige Aufgabe, die mir blieb, war es, 626 Vgl. RFC 1630. In dem Dokument wird noch die heute veraltete Bezeichnung URI (Universal Resource Identifiers) verwendet. URIs und URLs sind dasselbe. 627 Vgl. Voets, 247. 628 Vgl. Berners-Lee, 17-19. 629 Vgl. Bush, passim. 630 Vgl. Engelbart, Framework, 96. 631 Vgl. Wagner, 206. 632 Vgl. Mayer, 18. 633 Nelson, 121f.. 102 die beiden miteinander zu verheiraten“.634 Das WWW ist aber mehr als die Ehe von Hypertext und Internet, es integriert „die Internet-Dienste EMail, News, FTP, Telnet, Gopher und WAIS durch das Hypermedia-Konzept zu einem Ganzen unter einheitlicher Oberfläche und ergänzt sie um weitere Möglichkeiten. Der Informationsfluß bewegt sich neuerdings [...] auch in beide Richtungen, das heißt vom WWW-Server zum User und umgekehrt“.635 Der integrierende Griff über die Grenzen der eigenen Anwendung hinaus, auch wenn es anfangs keine Möglichkeit zur direkten Interaktion im WWW gab, war äußerst erfolgreich. Inzwischen ist der Dienst im Netz der Netze derart dominant, dass „die Begriffe »Web« und »Internet« bereits Synonyme geworden“636 sind. Die einheitliche Oberfläche oder Mensch/WWW-Schnittstelle wird bestimmt vom Browser, einem Programm, dessen primäre Funktion das Anzeigen von HTML-Seiten ist. Der große Stellenwert dieser Software kam schon in den „Questions and Answers“ von 1994 zum Ausdruck, als gefragt wurde: „What is Mosaic?“.637 Mosaic, 1993 entwickelt am National Center for Supercomputing Applications (NCSA), war der erste multimediafähige Browser. An ihm lässt sich die wachsende Bedeutung kommerzieller Teilbereiche des Internet demonstrieren. Marc Andreessen, ein Student der Universität von Illinois, der zur Finanzierung seines Studiums am NCSA arbeitete, und Eric Bina, ein Programmierer des Zentrums, hatten Mosaic entworfen und stellten ihn kostenlos zur Verfügung.638 In diesem Jahr gab es im gesamten Internet lediglich 250 WWW-Server. Zwölf Monate später hatte sich diese Zahl verzehnfacht und Ende 1995 umfasste das Web bereits ca. 50.000 Rechner.639 Anfang 1994 begegnete Andreessen Jim Clark, einem Unternehmer des Silikon Valley, der auf der Suche nach lohnenden Investitionen war. Sie gründeten schließlich das Unternehmen Netscape, mit dem Ziel, ein überarbeitetes Mosaic anzubieten. Ende 1995 war Netscape auf über 500 Mitarbeiter angewachsen und an der Wall Street machte sich Goldgräberstimmung breit. Das Unternehmen erreichte bald einen Marktanteil von ca. 90% und das hauseigene Produkt, ursprünglich kostenlos und frei kopierbar, wurde nun für 39 Dollar auf dem US-amerikanischen Markt angeboten.640 Microsoft brachte 1995 mit dem Internet Explorer ein ‚kostenloses’ Konkurrenzprodukt auf den Markt und löste damit den „Browser-War“641 aus, der noch heute die amerikanischen Gerichte beschäftigt.642 634 Berners-Lee, 19. Hosenfeld, 118. 636 Cailliau, 70. 637 RFC 1594. 638 Vgl. Wilke, Peter, 162f.. 639 Vgl. Cailliau, 73. 640 Vgl. Wilke, Peter, 162f.. 641 Zakon. 642 Der Internet-Explorer wurde mit dem Betriebssystem Windows 95 vertrieben, was dem Browser einen entscheidenden, wettbewerbsverzerrenden Vorteilt verschaffte. Gleichzeitig wurde das Betriebssystem erheblich teurer. 635 103 4.4. Kommerzialisierung und Privatisierung Die Entwicklung des Browsers Mosaic von einem öffentlich finanzierten, kostenlosen Programm zum Verkaufsschlager des gewinnorientierten Unternehmens Netscape ist nicht das erste Beispiel für die Kommerzialisierung der Internetsoftware. Bereits 1985 gab es so viele kommerzielle Anbieter von TCP/IP-basierten Produkten, dass sie mit der INTEROP eine eigene Messe organisierten, die ständig wachsende Besucherzahlen aufwies.643 Bei der Gründung der IETF 1986 wurden die Vertreter des neuen Wirtschaftszweigs von Anfang an einbezogen.644 Dieser Prozess wurde von den Verantwortlichen der DARPA und NSF nicht nur geduldet sondern aktiv gefördert. Das Protokollset TCP/IP war stets frei verfügbar und als sich ein Informationsdefizit bei den gewinnorientierten Anbietern herausstellte, veranstaltete das IAB 1985 in Zusammenarbeit mit Daniel Lynch einen Workshop für 250 Vertreter der betreffenden Unternehmen, auf dem DARPA-Forscher referierten.645 Die Initiatoren des Internet betrieben aktiven Technologie-Tranfer. Eine weitere Möglichkeit das Internet kommerziell zu nutzen, ist das Anbieten von Internetserviceleistungen. Auch davon wurde bereits Ende der 80er Jahre Gebrauch gemacht. Schon das ARPA-Internet hatte kommerzielle Teilbereiche aufgewiesen und die an das NSFNET angeschlossenen Netzwerke der mittleren Ebene waren zu einem nicht unerheblichen Teil gewinnorientiert. Cerf berichtet von seiner Initiative, den kommerziellen EMail-Service von MCI mit dem Internet zu verbinden: „It wasn't clear that this would be acceptable from the standpoint of federal policy, but I thought that it was important to begin exploring the question. By 1990, an experimental mail relay was running at the Corporation for National Research Initiatives (CNRI) linking MCI Mail with the Internet”.646 Im März 1990 wurde in Harvard ein Workshop zum Thema Kommerzialisierung des Internet abgehalten, an dem Vertreter aus Wissenschaft, Politik und Wirtschaft teilnahmen. Finanziert wurde die Veranstaltung von der NSF und dem Office of Technology Assessment (OTA), das den US-amerikanischen Kongress als beratende Instanz im Informations- und Kommunikationssektor unterstützte.647 Brian Kahin informierte über die Ergebnisse des Workshops: „In the past, many companies were connected to the old ARPANET when it was entirely underwritten by the federal government. Now, corporate R&D [Research and Development] facilities are already connected to, and are sometimes voting members of, mid-level networks. There are mail connections from the Internet to commercial services such as MCIMAIL, SprintMail, and Compuserve. DASnet provides a commercial mail gateway to and from the Internet and commercial mail services. 643 Vgl. Salus, Casting, 235. Vgl. RFC 1160. 645 Vgl. Leiner, 107. 646 Cerf. CNRI ist eine 1986 gegründete Non-Profit-Organisation, die sich aus Akteuren der Wirtschaft, Wissenschaft und Politik zusammensetzt. Die Organisation initiiert, finanziert und koordiniert Projekte im Bereich der Informationsinfrastruktur. Vgl. Werle, Wissenschaftsnetz. 647 Vgl. RFC 1192 und Leib, 162. Das OTA wurde 1995 aufgelöst. 644 104 UUNET, a nonprofit corporation, markets TCP/IP services (Alternet) with access to the Internet as well as mail services. Performance Systems International (PSI), a startup company which now operates NYSERNET (the New York State regional network, partially funded by NSF) is aggressively marketing Internet-connected TCP/IP services on the East and West Coasts [...]. However, in all these cases, any use of the NSFNET backbone must, in principle, support the ‘purpose of the NSFNET’ [...]. Whereas the NSF funding of mid-level networks varies greatly [...] the backbone is available as a free good to the NSF-funded mid-level networks. It is also used free of charge by other authorized networks, including networks not considered part of NSFNET: CSNET, BITNET, UUNET, and PSI, as well as the research networks of other federal agencies”.648 „The ‘purpose of the NSFNET’” war in der AUP festgehalten. Selbst bei großzügigster Auslegung entsprach die tatsächliche Nutzung, z.B. der E-Mail-Anbieter, nicht diesen Richtlinien. Laut AUP waren nur Forschungsabteilungen von gewinnorientierten Unternehmen für den Datentransport via NSFNET zugelassen, sofern sie an öffentlichen Forschungsvorhaben beteiligt waren. Für einen kommerziellen E-Mail-Service oder andere TCP/IP-Dienstleister trafen diese Bestimmungen keinesfalls zu. Das breite Spannungsfeld der Akteure Anfang der 90er Jahre spiegelt sich auch in den neu gegründeten Organisationen wieder. Die EFF (Electronic Frontier Foundation), gegründet 1990, machte sich zur Aufgabe das ‚elektronische Grenzgebiet’ zu zivilisieren. Der „Cyberspace“ sollte zu einem nützlichen Medium nicht nur für technische Eliten sondern für alle werden. Mit der Forderung nach freiem Fluss von Kommunikation und Information wurde die Tradition der ‚Hackerethik’ aus den 60er und 70er Jahre fortgesetzt.649 Andererseits gründete sich mit CIX (Commercial Internet eXchange) 1991 erstmals eine Interessensorganisation von kommerziellen Internetprovidern.650 Die Gründungsmitglieder AlterNet, PSINet und CERFnet651 vereinbarten die Daten zwischen ihren Kunden ohne öffentlich finanzierte Infrastruktur zu transportieren und damit die Einschränkungen der kommerziellen Nutzung durch AUPs zu umgehen. 1993 trat ANS der Organisation bei und PSINet sowie AlterNet schufen (wie ein Jahr zuvor die NSF) eine T3-Infrastruktur.652 Es begannen sich kommerzielle (Internet-)Alternativen zum NSF-Backbone zu entwickeln. „The predictable (and intended) result of encouraging commercial network traffic at the local and regional levels, while denying its access to national-scale transport, was the emergence and growth of ‘private’, competitive, long-haul networks [...]”.653 1994 entstanden die ersten Einkaufshallen.654 25 Jahre nach der Installation der ARPA648 RFC 1192. UUNET wurde 1987 gegründet. Es war die erste Organisation, die UUCP- und USENET-Zugänge kommerziell anbot. Erst später wurde die Produktpalette auf den Zugang zu verschiedenen Netzen und Diensten (einschließlich Internet) ausgeweitet und unter dem Namen AlterNet vertrieben. Vgl. Salus, Casting, 177f. und 240. 649 Vgl. Kehoe. 650 Vgl. Leib, 165. 651 Das CERFnet (California Education and Research Federation network) war eines der NSF-Projekte, die sich nach einer Anlaufzeit selbst finanzieren mussten. Vgl. Quarterman, 288f.. 652 Vgl. Salus, Casting, 226f.. 653 Leiner, 105. 654 Vgl. Zakon. 105 NET-Knoten am SRI und der UCLA hielt damit der E-Commerce (Electronic-Commerce) Einzug ins Internet. In den „Questions and Answers“ von 1999 werden den Internetneulingen u.a. folgende Nutzungsmöglichkeiten vorgestellt: „Other popular activities include electronic shopping, banking, and investing. Many retailers describe and display pictures of their products on the Internet enabling people to buy on line. Shopping also includes purchasing services such as an airline ticket or ordering groceries. Many banks allow people to transfer funds, check available funds, pay bills and other such activities while on the Internet with an account number and ID. Lastly, many people invest while on the Internet in everything from stocks and bonds to real estate”.655 Diese Darstellung verdeutlicht, wie massiv sich der Charakter des Internet in den 90er Jahren veränderte, nimmt aber teilweise die weitere Entwicklung vorweg, denn bereits um 1990 entstand eine Diskussion, ob eine staatliche Finanzierung der Infrastruktur angesichts der forcierten kommerziellen Nutzung noch gerechtfertigt sei. Der nächste logische Schritt war die Privatisierung der noch immer öffentlich finanzierten Bereiche. Brian Kahin schrieb zu diesem Thema: „In some respects, the Internet is [1990] already substantially privatized. The physical circuits are owned by the private sector, and the logical networks are usually managed and operated by the private sector”.656 Mit diesem Stand der Privatisierung konnten die Entscheidungsträger kaum zufrieden sein, kamen die dafür benötigten Finanzmittel doch weiterhin größtenteils von der öffentlichen Hand. Für viele, auch kommerzielle Netzbetreiber war der NSF-Backbone ein „Free Good“, was einer Subventionierung dieser Unternehmen gleichkam, wie Kahin feststellte. Zudem würde damit ein undisziplinierter Umgang mit den Kapazitäten gefördert und die Investitionen in private Backbone-Netzwerke gehemmt. Der Markt für kommerzielle Netzwerke sei durch die Praxis des NSFNET eingeengt, da man immer mehr potentiellen Kunden die Möglichkeit einräume, die staatlich subventionierte Infrastruktur zu nutzen.657 1992 lief der fünf Jahre zuvor abgeschlossene Vertrag der NSF mit Merit aus. Die Vereinbarung wurde zwar nochmals um achtzehn Monate verlängert, gleichzeitig aber eine Umstrukturierung beschlossen. Ein erster Vorschlag wurde noch im selben Jahr veröffentlicht, was den beteiligten Akteuren die Möglichkeit gab, ihn zu kommentieren. Im Frühjahr 1993 publiziert man schließlich eine Ausschreibung und ein Jahr später fiel die Entscheidung: MCI sollte einen „very high speed Backbone Network Service“ (vBNS) zur Vernetzung von 5 Supercomputerzentren der NSF aufbauen, der allerdings der Forschung vorbehalten blieb. An Merit wurde die Aufgabe des „Routing Arbiters” vergeben, was die Verwaltung der Routingtabellen und Datenbanken über Internetanbieter umfasste. Insgesamt vier Network Access Points (NAPs), die als Schnittstellen zwischen kommerziellen Internetanbietern fungieren sollten, wurden auf Sprint, MFS Datanet, Bellcore, Ameritech 655 RFC 2664. RFC 1192. 657 Vgl. ebd.. 656 106 und Pacific Bell verteilt. Sie sollten die bisherige Funktion des NSFNET-Backbone übernehmen. Der letzte Teil betraf die Netzwerke der mittleren Ebene. Bei insgesamt siebzehn Projekten diesen Typs wurde beschlossen, die NSF-Förderung um vier Jahre zu verlängern, womit die kommerziellen Internet Service Provider bezahlt werden sollten, die nun für eine Verbindung zu den NAPs benötigt wurden - ein sanfter Übergang, der eine Aufrechterhaltung der Internetverbindung garantierte.658 Am 30. April 1995 wurde schließlich der Service des NSF-Backbone vollständig eingestellt. Seit 1986 waren 200 Millionen Dollar in das Projekt investiert worden, wobei der größte Teil von der Stiftung selbst und dem Staat Michigan beigesteuert wurde.659 Aus dem vom NSFNET dominierten Internet war zu diesem Zeitpunkt ein weltweites Netz der Netze geworden, das viele der zuvor eigenständigen, isolierten Konzepte ‚absorbierte’. Die Entwicklung der kommerziellen und wissenschaftlichen Backbonebetreiber gewann an Dynamik. Das Projekt Mapnet der CAIDA (Cooperative Association for Internet Data Analysis), finanziert von der NSF, vermittelt einen Eindruck von der aktuellen, unübersichtlichen Situation. Die Karte zeigt knapp 50 kontinentale und transkontinentale Netzwerke der höchsten Ebene, die der Forschung und der privaten Wirtschaft zugeordnet werden können.660 Für kleinere, kommerzielle Netzwerke begann der Anschluss an das Internet seit 1995 ebenfalls zu einer wesentlichen Voraussetzung für den weiteren Fortbestand zu werden.661 In dem Bereich der Weiterentwicklung und Verwaltung ist in den 90er Jahren ebenfalls ein Rückzug des Staates bzw. ein verstärktes Engagement der Privatwirtschaft zu beobachten. 1992 wurde die Internet Society (ISOC) als Non-Profit-Organisation von der Privatwirtschaft gegründet und noch im selben Jahr erfolgte die organisatorische Eingliederung des IAB (umbenannt in Internet Architectures Board) in den neuen Dachverband.662 1995 erhob Network Solutions Inc. erstmals Gebühren für die Registrierung von kommerziellen Domainadressen. Die NSF hatte diesen Service, der garantiert, dass Domains weltweit nur einmal vergeben werden und deshalb für einen reibungslosen Betrieb unerlässlich ist, 1993 an das Unternehmen abgegeben. 1995 hatte die Stiftung die Subventionen für diesen Bereich, ca. 5 Millionen Dollar p.a., eingestellt. Die edu-Domains des Bildungssektors blieben weiterhin von den Gebühren befreit.663 Erst 1998 übernahm ICANN (Internet Corporation for Assigned Names and Numbers), eine Non-Profit-Organisation, die sich als breite Koalition von „Internet's business, technical, academic, and user communities“ versteht, die bisher staatlich finanzierte Funktion der IANA und anderer Organisationen. ICANN ist heute zuständig für die Vergabe von IP-Adressen, Verwaltung der Domainna- 658 Vgl. Frazer. Vgl. Leiner, 106. 660 Vgl. Curlee. 661 Vgl. Werle, Selbstorganisation, 512. 662 Vgl. Kahn. 663 Vgl. Zakon und Zimmer, Online-Dienste, 478. 659 107 men, Entscheidung über neue Topleveldomains und Zuweisung von Protokoll-Parametern. Insgesamt drei Suborganisationen unterstützen die Adressverwaltung in verschiedenen Erdteilen: RIPE NCC für Europa, ARIN (American Registry for Internet Numbers) und APNIC (Asia Pacific region Network Information Center).664 Die öffentliche Hand zog sich nicht vollständig zurück. Im Gegenteil: Das Internet wurde zu einem Politikum, über das auf höchster Ebene diskutiert wurde. 1991, noch während George Bushs Amtszeit, initiierte der damalige Senator Al Gore den US High Perfomance Computing Act, der ein National Research and Education Network (NREN) etablierte. Im Gegensatz zum Aufbau des ARPANET oder NSFNET sollte für dieses Projekt von Anfang an eine kommerzielle, privatwirtschaftliche Basis geschaffen werden. Anders verhält es sich mit dem 1996 ins Leben gerufenen Programm „Internet 2“, das Grundlagenforschung betreibt und beteiligten Einrichtungen ein Hochgeschwindigkeitsnetz anbieten soll. Die öffentliche Hand investierte 500 Millionen Dollar in das Projekt.665 Bei beiden Programmen ging die Initiative von der US-amerikanischen Politik aus. Mit dem von Bill Clinton und Al Gore angeregten US National Information Infrastructure (NII) Act von 1993, der die infrastrukturelle Basis für die kommende Informationsgesellschaft schaffen soll und sich ausdrücklich an dem Modell des Internet und den Leistungen der DARPA orientiert, leitete die Regierung ein ehrgeiziges Projekt ein, das in Deutschland verkürzt unter dem Stichwort Datenautobahn (eine Übersetzung des von Gore geprägten Begriffs „Information Superhighway“)666 diskutiert wird. Die Rolle des Staates beim Aufbau der NII, die u.a. der gesamten Bevölkerung Zugriff auf Einrichtungen der öffentlichen Verwaltung, des Bildungssektors und Gesundheitssystems ermöglichen soll, ist im wesentlichen auf Regulierung und Moderation beschränkt. Nach einer Anschubfinanzierung soll die NII von der privaten Wirtschaft aufgebaut werden.667 Die Zielsetzung der Initiative geht weit über das Internet hinaus und umfasst nahezu alle Übertragungswege und Medien, strebt also ein universell vernetztes Gemeinwesen mit vollständiger medialer Konvergenz an.668 Um 1995, also mit der charakteristischen Verspätung, wurden in Europa ähnliche Projekte gestartet.669 4.4.1. Kommerzielle Online-Dienste Seit Mitte der 90er Jahre ist ein starkes Wachstum der zentralisierten, kommerziellen und ursprünglich isolierten Online-Dienste zu beobachten. CompuServe, das älteste Unternehmen der Branche, wurde bereits 1969 in den USA gegründet und verkaufte anfangs Computerressourcen auf „Time Sharing“-Basis. Das Angebot, seit 1979 auch für Privat664 Vgl. ICANN. Vgl. Leib, 167-169. 666 Vgl. Cebrián, 49. 667 Vgl. Schmid, Medien, 401f. und 406f.. 668 Vgl. Rosenbach, 92f.. 669 Vgl. German, 17-18. 665 108 kunden zugänglich, bestand später vor allem aus kostenpflichtigen Informationen und Datenbanken diverser Unternehmen sowie internen Diskussionsgruppen. 1989 wurde die Produktpalette durch die Möglichkeit ergänzt, E-Mails über das Internet zu verschicken und zu empfangen. America Online (AOL) ist der Senkrechtstarter der Branche. Die Geschichte des Unternehmens beginnt zwar 1985, aber erst am Ende des Jahrzehnts begann das Engagement als Online-Dienst. Das Angebot ähnelt dem von CompuServe, wenngleich AOL durch eine Allianz mit Bertelsmann gewisse Vorteile hinsichtlich des angebotenen Inhalts hatte. 1995 überholte AOL den bisherigen Branchenprimus CompuServe und nur zwei Jahre später erfolgte die Übernahme. Erst Mitte der 90er Jahre begann sich der Konzern von Bill Gates mit dem Microsoft Network (MSN) auf dem Markt zu engagieren.670 Auch Unternehmen der Elektro-, Computer- und Telekommunikationsindustrie initiierten Projekte, beschränkten die Aktivitäten anfangs allerdings auf den USMarkt. Mitte der 90er Jahre waren dort vor allem Prodigy (IBM und Sears Roebuck), GEnie (General Electric) und Delphi (MCI und Rupert Murdochs News International) von Bedeutung.671 In Deutschland mutierte Btx (Bildschirmtext), 1984 eingeführt und letztendlich gescheitert,672 über das ebenfalls kränkelnde Datex-J (Data Exchange für Jedermann),673 zum Erfolgsunternehmen T-Online (Telekom Online).674 Keiner der genannten OnlineDienste ist Teil des Internet. Wilke fasst die Unterschiede zusammen: „Kommerzielle Online-Dienste machen über Telefonleitung und Modem gegen Gebühren Informationen verschiedenster Art am Personal Computer zugänglich [...]. Kennzeichnend für die Online-Dienste ist die hohe Aktualität und die ständige Verfügbarkeit. Im Unterschied zum Internet, das wegen der fehlenden Ordnung die gezielte Suche erschwert [...] bieten die Online-Dienste ihre Angebote in einer nutzerfreundlichen Strukturierung an. Dafür muß dann auch gezahlt werden [...]“.675 Jochen Zimmer stellte im Oktober 1995 fest, dass „Online-Dienste binnen weniger Monate von einem Flop zu einem Topthema“676 wurden. Worauf gründete dieser plötzliche Erfolg? 1995 war es zu einer allgemeinen Erweiterung der Produktpalette gekommen - das Angebot der traditionellen Online-Dienste CompuServe, AOL und Prodigy umfasste erstmals die Möglichkeit mit umfassender Funktionalität auf das Internet zuzugreifen.677 Auch das in diesem Jahr eingeführte T-Online erlaubte im Gegensatz zu Datex-J die Nutzung von E-Mails, WWW und anderen Diensten.678 Die Verbindungen sind seitdem mit Einbahnstraßen vergleichbar: Zwar können AOL-Kunden die – meist freien - Angebote des Internet, z.B. FTP- oder WWW-Server, nutzen, der Zugriff aus dem Internet auf den eigentlichen, Vgl. Alpar, 270 – 278 und Wilke, Multimedia, 754. Vgl. Zimmer, Online-Dienste, 483. Apple eWorld und Europe Online bleiben hier unerwähnt, da sie 1996, ein Jahr nach der Markeinführung, bereits wieder verschwunden waren. 672 Vgl. Königshausen, passim. 673 Vgl. Zimmer, Online-Dienste, 483. 674 Vgl. Schmid, Evolution, 149-152. 675 Wilke, Multimedia, 754. 676 Zimmer, Online-Dienste, 476. 677 Vgl. Zakon. 678 Vgl. Schmid, Evolution, 151. 670 671 109 internen Bereich des Online-Dienstes ist aber nicht möglich. Er bleibt (mit Ausnahme der Möglichkeit E-Mails in beide Richtungen zu versenden) den Kunden des jeweiligen Dienstes vorbehalten. Umfragen zufolge bindet sich ca. die Hälfte aller Internetnutzer in Europa vertraglich an eines dieser Unternehmen – ein Anteil, der über Jahre bei gleichzeitig starkem Anstieg der Nutzerzahlen, relativ stabil blieb.679 Die Verflechtung der Branche mit Medienkonzernen, schon 1995 bei AOL/Bertelsmann und Delphi/Murdoch zu erkennen, wurde zunehmend enger. Generell ist in der Medienlandschaft seit Mitte der 90er Jahre ein „Klimawechsel“ zu beobachten. Die Entwicklung wurde von immer neuen „Megafusionen“ bestimmt, an denen u.a. Microsoft (NBC-Network) und MCI (Murdoch) beteiligt waren. Angeheizt von der NII-Initiative680 entspannte sich ein Kampf um Inhalte für das große Geschäft der Zukunft, dessen vorläufiger Höhepunkt die angekündigte Übernahme von Time Warner durch AOL im Januar 2000 war. Die Interneteuphorie hatte dem Online-Dienst ein Aktienvermögen von 257 Milliarden DMark bei einem jährlichen Umsatz von 8,5 Milliarden beschert (DaimlerChrysler repräsentierte zu diesem Zeitpunkt einen Aktienwert von ‚nur’ 149 Milliarden mit einem Umsatz von ca. 300 Milliarden).681 Die Visionen von AOL sind klar zu erkennen: Printmedien, Fernsehsender, Film- sowie Musikproduktion (EMI) und Online-Dienst, vereint unter einem Dach mit einheitlicher Marketingstrategie und gegenseitiger Unterstützung, ergänzt durch die Aussicht auf eine digitale Distribution über das eigene Netz. Ein „konglomerater“682 Konzentrationsprozess, der nicht nur kartell- bzw. wettbewerbsrechtlich problematisch ist, sondern die unabhängige, pluralistische Medienlandschaft gefährdet, die „zum unverzichtbaren Bestandteil liberal-demokratischer Systeme“683 gehört. 4.4.2. Durchsetzung in Europa und den USA Mit der Privatisierung und dem Erfolg der privaten Online-Dienste in den 90er Jahren drangen neue Nutzergruppen in das Internet. Das Wachstum verlief weiterhin exponentiell, was bei einer Beschränkung auf private und öffentliche Forschungseinrichtungen oder Universitäten aufgrund der Sättigungsgrenze nicht möglich gewesen wäre. Die Dynamik des Prozesses wird erst mit linearer Skalierung erkennbar - exponentielles Wachstum bedeutet eine fortlaufende Steigerung der Zuwachsraten. Die Entwicklung vor der Privatisierung erscheint bei einer rein quantitativen Betrachtung fast unbedeutend. In einem 1998 erschienenen Sammelband warnt Kubicek: „alle Graphiken, die das expo- 679 Vgl. Anhang D.. Vgl. Kleinsteuber, Konzentrationsprozesse, 27f.. 681 Vgl. Bredow, 92. Der Vergleich von Umsatzzahlen und Aktienwert ist problematisch. Die Zahlen sollen lediglich verdeutlichen, welchen Vertrauensvorschuss die Aktionäre den Unternehmen der Branche entgegenbrachten. 682 Knoche, 732. 683 Kleinsteuber, Konzentrationsprozesse, 31. 680 110 nentielle Wachstum der Internetrechner und –teilnehmer zeigen, [sind] irreführend. Die Diffusion von neuen Medien folgt stets einer S-förmigen Kurve. Die entscheidende Frage ist, wann die Kurve für das Internet aus der exponentiellen Phase in die Sättigungsphase abknickt“.684 Es ist anzunehmen, dass die Recherchen für seine Arbeit 1997 durchgeführt wurden. Zwischen Juli 1997 und Januar 2000 hat sich die Anzahl der Internetrechner von 20 Millionen auf über 70 Millionen erhöht, also mehr als verdreifacht. Kubiceks Einschätzung der weiteren Entwicklung ist damit nicht widerlegt, noch sind aber keine Anzeichen für eine Sättigungsphase zu erkennen. 80000000 70000000 60000000 50000000 40000000 Internet Hosts 30000000 20000000 10000000 Nov 99 Nov 98 Nov 97 Nov 96 Nov 95 Nov 94 Nov 93 Nov 92 Nov 91 Nov 90 Nov 89 Nov 88 0 Abb. 12. Wachstum des Internet zwischen 1988 und 2000. 685 Konkrete Angaben über Nutzerzahlen sind tatsächlich schwierig und deshalb irreführend. Eine der Ursachen ist die heterogene und dezentrale Struktur, denn auch nach der Privatisierung blieb das Internet „a loosely-organized international collaboration of autonomous, interconnected networks“.686 Es gibt keine Zentralstelle, die Nutzerzahlen systematisch erfasst. Was bleibt sind Angaben über Hosts, für die verhältnismäßig zuverlässige Daten vorliegen. Von wie vielen Personen die Rechner jedoch genutzt werden, lässt sich nur grob schätzen. Aufgrund den Angaben von McKenzie ergab sich ein Durchschnitt von 140 Nutzern pro Host im ARPANET der frühen 70er Jahre.687 Damals dominierten die großen, sehr teuren und entsprechend intensiv genutzten Mainframes die Computerlandschaft. Im Juli 1980 schätzte Major Joseph Haughney, Network Manager der DCA, die Anzahl der Nutzer auf vier- bis fünftausend.688 Demnach teilten sich jeweils 20 bis 25 Personen einen Host. Das BBS WELL war über lediglich einen Computer mit dem Internet verbunden, 684 Kubicek, Internet, 66f.. Das Diagramm wurde für den Zeitraum bis 1997 anhand der Informationen von Merit erstellt. Merit bezieht sich auf Lottor, der seine Ergebnisse bis 1991 als RFC (RFC 1296) veröffentlicht hatte. Die Erhebungen wurden anfangs vom SRI, später von den „Network Wizards“ finanziert .Vgl. Merit Network Information Center, computers. Die Angaben nach Juli 1997 sind dem Internet Domain Survey des Internet Software Consortiums entnommen. Vgl. Internet Software Consortium, Survey. 686 RFC 1310. 687 Vgl. Kapitel 2.4.. 688 Vgl. A-News 01. 685 111 repräsentierte aber Tausende, die in dem System miteinander kommunizierten.689 Die Nutzerzahlen pro Internetrechner unterliegen einem zeitlichen Wandel und können im Einzelfall stark differieren. Peter H. Salus schätzt jeweils durchschnittlich 3,5 bis 10 Nutzer in den 90er Jahren und bezieht sich auf Quarterman sowie die ISOC, will sich aber auf keinen der Werte festlegen.690 Mit diesen Multiplikatoren ergibt sich für Juli 1995 eine Anzahl von 23 bis 66 Millionen Internetnutzern und für Januar 2000 von 252 Millionen bis 720 Millionen. Für die 80er und frühen 90er Jahre besteht zudem das Problem der Definition, was unter einem Internetzugang zu verstehen ist. Sollen alle Nutzer der Matrix hinzugezählt werden, obwohl sie teilweise lediglich via E-Mail und Newsgroups mit dem Internet in Verbindung standen (i.e. UUCP, BITNET, CompuServe bis 1995, etc.) oder gilt nur der vollständige Zugang (inklusive Telnet, FTP, WWW). Ein grundlegendes, methodisches Problem ist das Fehlen einer klaren Definition des Begriffs Internetnutzer, der strenggenommen nicht mit den Personen gleichgesetzt werden kann, die über einen Zugang verfügen. Jochen Zimmer zitiert z.B. eine Untersuchung, wonach sich im Durchschnitt 1,4 Personen den Anschluss bei den kommerziellen Online-Dienste teilen.691 Zählen Personen, die ab und zu bei Freunden oder Bekannten ‚surfen’? Angaben über die Anzahl der Internetnutzenden sollten generell kritisch betrachtet werden. Mehr als grobe Schätzungen sind nicht möglich, die aufgrund der Dynamik des Wachstumsprozesses zudem schnell veraltet sind. Mitte der 90er Jahre entdeckten Geistes- und Sozialwissenschaften den Forschungsgegenstand der computerwissenschaftlichen Fakultäten, der sich vor vielen Jahren zu einem wertvollen Werkzeug entwickelt hatte, als Thema. In Soziologie, Politik- und Kommunikationswissenschaften entstanden Arbeiten, die sich mit dem Internet und den Menschen, die darin kommunizieren, Informationen sammeln oder sich amüsieren, auseinander setzten. Nun wurden erstmals systematisch Daten erhoben. Die Durchführung herkömmlicher Umfragen war und ist beim Internet relativ schwierig, da der Verbreitungsgrad in der Bevölkerung im Vergleich zu anderen Medien gering ist und deshalb die klassischen Instrumente der Markt- und Meinungsforschungsinstitute (mündliche Befragungen bzw. Telefoninterviews) an die Grenzen der Rentabilität stoßen.692 Internetinterne Erhebungen, bei denen Batinic zwischen reaktiven und nicht-reaktiven Verfahren unterscheidet, bieten sich als Alternative an. Im Rahmen dieser Arbeit soll vor allem die demographische Zusammensetzung dargestellt werden, die sich nur über reaktive Verfahren erfassen lässt.693 Die prominentesten Methoden dieser Kategorie sind Fragebögen im WWW oder 689 Vgl. Rheingold, 105. Vgl. Salus, Casting, 220f.. 691 Vgl. Zimmer, Profile, 488. 692 Vgl. Batinic, 196. Die Arbeit von Batinic u.a. wurde 1997 veröffentlicht und zitiert eine Allensbachstudie von 1995, wonach lediglich 3% der Gesamtbevölkerung das Internet nutzen. Von 1000 Befragte würden folglich nur 30 in die zu untersuchende Kategorie fallen. Vgl. ebd., 197. 693 Bei nicht-reaktiven Verfahren könnten z.B. Server-Log-Analysen, protokollierte Eingaben bei Suchmaschi690 112 E-Mail-Formulare, die allerdings eine aktive Rolle von den Teilnehmern erfordern. Sie müssen nicht nur ausgefüllt, sondern im unübersichtlichen Web gefunden werden, was zu einer „Selbstselektion“ führt, die zur Folge haben kann, dass bestimmte Personengruppen (Nutzer mit billigem bzw. kostenlosem Zugang oder überdurchschnittlicher Aktivität) überrepräsentiert sind.694 Zwei internetinterne Untersuchungen sind hervorzuheben: der WWW User Survey des Graphic, Visualization & Usability Centers (GVU) der technischen Hochschule von Georgia sowie die von Susanne Fittkau und Holger Maas 1995 initiierte Studie W3B. Beide wurden über einen Zeitraum von fünf Jahren etwa halbjährlich durchgeführt, weisen hohe Fallzahlen auf und verwenden dieselbe Methodik, was Vergleiche erlaubt, die vor allem deshalb interessant sind, da sich die GVU-Surveys hauptsächlich auf die USA konzentrieren, W3B dagegen deutsche bzw. (seit 1998) europäische Teilnehmer rekrutiert.695 Die jeweils ersten Erhebungen aus den Jahren 1995 bzw. 1994 haben charakteristische Übereinstimmungen. In beiden liegt der Männeranteil bei über 90% und etwa die Hälfte aller Internetnutzer ist dem Bereich der Hochschulen zuzuordnen. Entsprechen hoch ist das Bildungsniveau. In der ersten Studie von Fittkau und Maas wird die Frage nach dem Schulabschluss von 95% mit Abitur beantwortet. Besonders attraktiv scheint das Internet Mitte der 90er für die 20 bis 30-Jährigen zu sein. In den USA stellen sie mehr als die Hälfte aller Teilnehmer und in Deutschland liegt das Durchschnittsalter mit 29 Jahren ebenfalls in diesem Bereich.696 Frauen, Senioren oder Personen unter 20 anzutreffen, war noch 1995 keine leichte Aufgabe. Bis Ende der 90er Jahre zeichnen sich massive Veränderung der demographischen Struktur ab. Der Frauenanteil in Europa und den USA steigt kontinuierlich an. W3B beziffert ihn im April/Mai 2000 mit 25% und GVU nennt im April 1998 für die USA 41%.697 Auch der Anteil der Personen mit abgeschlossenem Abitur nähert sich dem Durchschnitt der Allgemeinbevölkerung, stabilisiert sich aber seit 1998 mit ca. 60% auf hohem Niveau. Am deutlichsten ist der Wandel bei den Studenten. Sie verloren in Deutschland bereits 1996 ihre Spitzenposition an die Angestellten, die heute fast die Hälfte aller Internetnutzer stellen. Der Anteil der Studenten und Doktoranden sinkt bis Ende 1999 auf 15%. In den USA bezeichnen sich bereits Ende 1998 nur noch 12% als „Student“ oder „Researcher“. Hinsichtlich der Alterstruktur ist in den USA und Europa ein Trend zur Nivellierung der Unterschiede bei den über 20-Jährigen zu beobachten. Fast ein Fünftel aller Teilnehmer des letzten GVU-Surveys ist über 50 und die 40 bis 50-Jährinen des WWW (z.B. Altavista bzw. Yahoo) oder das Verhalten in Chat-Räumen untersucht werden. 694 Vgl. Batinic, 197-199. 695 Vgl. Fittkau und Rossignac. 696 Die Ergebnisse der beiden Umfragen wurden in tabellarischer Form in den Anhang aufgenommen. Im WWW sind sie auf viele HTML-Seiten verteilt, sodass ein Vergleich der Werte sehr mühsam gewesen wäre. Vgl. Anhang C. und D.. 697 Im Oktober 1998, der bisher letzten Erhebung des GVU, fällt der Frauenanteil auf 36%. Dies bedeutet jedoch noch keine Trendumkehr. Bei dem 10. Survey war die Beteiligung mit ca. 4200 auswertbaren Fragebögen deutlich geringer als noch ein halbes Jahr zuvor. Vgl. Anhang D.. 113 gen bilden die stärkste Gruppe der neunten und zehnten Umfrage. Auch in Deutschland und Europa steigt der Altersdurchschnitt kontinuierlich an. Im Jahr 2000 nutzt die Gruppe der 30 bis 40-Jährigen das Internet am intensivsten. Erstaunlicherweise sinkt der Anteil der unter 20-jährigen in beiden Erhebungen auf ca. 5%.698 Als Ergebnis bleibt festzuhalten, dass eine eindeutige Tendenz zur Angleichung der demographischen Struktur an die Gesamtbevölkerung zu erkennen ist. Der von Marschall 1999 festgestellte elitäre Charakter der Onlinekommunikation699 beginnt sich also in Europa und Nordamerika aufzulösen. Der Prozess ist in den USA weiter fortgeschritten, aber keinesfalls abgeschlossen – noch immer gibt es signifikante Unterschiede. 1996 erscheinen die ersten internetexternen Umfragen, bei denen das Problem der Selbstselektion entfällt. Sie bestätigen eine Rückständigkeit zu den Vereinigten Staaten, die sich auch in der Computerdichte manifestiert. In den USA hatten 1996 durchschnittlich doppelt so viele Haushalte das für eine Onlinenutzung noch immer unverzichtbare Endgerät.700 Mit den ARD/ZDF-Online-Studien der Jahre 1997 bis 1999 liegen seriöse Untersuchungen vor, die zwar geringere Teilnehmerzahlen aufweisen als die internen Erhebungen, aber auf einem zuverlässigen Sample von jeweils ca. 1000 Onlinenutzern über 14 Jahren basieren, das anhand von bis zu 10.000 „bevölkerungsrepräsentativen Interviews“ erstellt wurde.701 Auf der Grundlage dieser Daten errechneten die Autoren einen Anteil der Onlinenutzer in der erwachsenen Gesamtbevölkerung von 6,1% für das Jahr 1997, warnten aber vor einer zu euphorischen Einschätzung der weiteren Entwicklung: „eine Ausweitung des Onlinepotentials in der Bundesrepublik auf einen Anteil von über 10 Prozent in der Bevölkerung [kann] wohl nur dann erreicht werden [...], wenn verschiedene Barrieren abgebaut werden“.702 Jochen Zimmer urteilte 1996, „daß eine gleichmäßige und rasche Ausbreitung von Onlinediensten in alle Bevölkerungsschichten [...] keineswegs gesichert ist“.703 Die vorsichtige Haltung wurde in den ARD/ZDF-Online-Studien angesichts der weiteren Untersuchungen aufgegeben. Bereits ein Jahr später wurde die prognostizierte Hürde genommen (1998: 10,4%) und 1999 war der Anteil auf 17,7% angewachsen, was 11,2 Millionen erwachsenen Bundesbürgern entspricht. Für die USA geben die Autoren einen deutlich höheren Prozentsatz (40%) an,704 stellen aber beeindruckt von der Entwicklung fest: „Das Internet entwickelt sich nun auch in Deutschland [bei quantitativer Betrachtung] zu einem Massenmedium“.705 Die Daten der letzten ARD/ZDF-Online-Studie wurden im April/Mai 1999 erhoben. Die 698 Vgl. Anhang C. und D.. Eine geringe Bereitschaft, sich an den Umfragen zu beteiligen, könnte die Ursache für den erstaunlich niedrigen Anteil der unter 20-Jährigen sein. 699 Vgl. Marschall, 158. 700 Vgl. Zimmer, Profile, 487. 701 Vgl. Eimeren, 1998, 423. 702 Eimeren, 1997, 556. 703 Zimmer, Profile, 492. 704 Vgl. Eimeren, 1997, 548; Eimeren, 1998, 426 und Eimeren, 1999, 401. 705 Eimeren, 1999, 402. 114 DENIC eG (Deutsches Network Information Center), zuständig für die zentrale Registrierung der de-Domains und die Administration des Internet in Zusammenarbeit mit entsprechenden internationalen Organisationen (RIPE NCC bzw. ICANN),706 gibt für diesen Zeitraum 1,6 Millionen Internetrechner in Deutschland an,707 woraus sich errechnen lässt, dass ein Host durchschnittlich von 7 Personen genutzt wird. Diese Größenordnung ist durchaus realistisch und stützt die Ergebnisse der Online-Studie. Die Zahlen zur Demographie der Nutzenden bestätigen, trotz partieller Abweichungen, den Trend der internetinternen Erhebungen, sodass sie nicht einzeln aufgeführt werden müssen. Der Anteil von Jugendlichen ist jedoch signifikant höher. Insgesamt „zeichnet sich 1999 ein partieller Strukturwandel in Richtung älterer, formal niedriger ausgebildeter und nicht berufstätiger Bevölkerungsschichten ab [...]. Die zunehmende Verbreitung des Mediums Internet in breiten Gesellschaftsschichten ist auch hinsichtlich der Kriterien Bildung, Berufstätigkeit und Geschlecht festzustellen“.708 Wesentlich für die beachtlichte Zunahme und die Veränderung der demographischen Struktur ist die private Nutzung. 72% aller Befragten können von zu Hause aus auf das Internet zugreifen (42% nur von zu Hause).709 Die Durchsetzungsphase oder Diffusion der neuen Technik ist inzwischen weit vorangeschritten. Längst ist die kritische Schwelle genommen, jenseits derer sich Innovationen eigendynamisch, inkrementell weiterentwickeln.710 Ob das Internet den Verbreitungsgrad traditioneller Massenmedien erreichen wird, ist schwer vorauszusagen. 4.4.3. Das Internet und traditionelle Medien Betrachtet man die Entwicklung Mitte der 90er Jahre im Spiegel eines Nachrichtenmagazins, so lässt sich die erstaunliche Karriere des Netzwerkkonglomerats nachzeichnen. Noch 1993 war es Thema. Es erschienen zwar zwei Artikel, die sich dem Komplex Computernetze zuordnen lassen, sie behandeln aber Mailboxsysteme und den Online-Dienst CompuServe.711 Auch in einem Beitrag zur Zukunft der Informationsgesellschaft, der in die Serie „Trends 2000“ eingegliedert war, setzt sich der Autor vor allem mit dem Medium Fernsehen auseinander.712 Der Jargon-File stellt fest, „1994 was [...] the year the mainstream culture discovered the Internet“.713 Tatsächlich erschien im Februar 1994 in Augsteins Presseerzeugnis nach mehrjähriger Abstinenz714 wieder ein Artikel, der das 706 Vgl. DENIC eG, Dokumente. Vgl. DENIC eG, Statistiken. 708 Eimeren, 1999, 405. Der Bedeutungsrückgang der Studenten – eines der auffälligsten Ergebnisse der W3B-Untersuchungen – war 1997, als die erste ARD/ZDF-Online-Studie erschien, bereits vollzogen und wird dort deshalb nicht mehr erwähnt. Vgl. Anhang D.. 709 Vgl. Eimeren, 1999, 402. 710 Vgl. Weyer, 40-45. 711 Vgl. Der Spiegel 17 (1993), 270-272 und 43 (1993), 233-240. 712 Vgl. Degler, passim. 713 Raymond. 714 1988 war über Morris’ „Great Worm“ berichtet worden. Vgl. Kapitel 4.1.. 707 115 Thema Internet zumindest am Rande behandelt: die explodierende Nachfrage hatte zu ersten Staus auf dem ‚Datenhighway’ und stundenlangen Totalausfällen bei AOL geführt. Der Online-Dienst bot zu diesem Zeitpunkt lediglich die Möglichkeit E-Mails mit dem Internet auszutauschen, das nach einer Schätzung des Autors zu diesem Zeitpunkt von 20 Millionen Personen genutzt wurde.715 Im März verkündete das Nachrichtenmagazin stolz: „Der SPIEGEL geht ‚online’: Im April wird er sein eigenes Datenangebot beim Kommunikationsdienst Compuserve präsentieren, an den weltweit mehr als 1,7 Millionen Computerbenutzer angeschlossen sind“.716 Im ersten Anlauf begnügte man sich mit dem Auftritt bei einem der kommerziellen Online-Dienste. Im Oktober folgte der Internetauftritt des Spiegels im WWW.717 Als im November 1994 ein Artikel über das von Microsoft geplante MSN erschien, schaffte das Netz der Netze den Sprung in den Wirtschaftsteil.718 Bisher waren die Berichte stets mit den Begriffen „Hochschule“, „Wissenschaft“, „Computer“, „Medien“ oder „Gesellschaft“ kategorisiert worden. Im März 1996 widmete der Spiegel dem Thema eine erste Titelgeschichte: „Die Welt online – D@s Netz“. Der Artikel, der „diese körperlose Wirklichkeit, in der sich Science Fiction, Wildwest-Stimmung und anarchistischer Pioniergeist treffen“719 beschreibt, leitete gleichzeitig eine Serie ein. Bereits der zweite Teil „Goldgräber im Cyberspace“ ist dem kommerziellen Potential des Internet gewidmet und geprägt von der Euphorie über die prognostizierten Umsätze.720 Innerhalb weniger Monate war in der Berichterstattung aus dem wissenschaftlich bzw. universitär geprägten Internet, von dem kaum jemand etwas gehört hatte, das man eigentlich nicht verstand, geschweige denn von anderen Netzwerkkonzepten abgrenzen konnte, ein Medium geworden, dem man zutraute die gesamte Wirtschaft und Gesellschaft zu revolutionieren. Die spätestens 1996 einsetzende Omnipräsenz in traditionellen Medien entwickelte sich zum Wachstumsmotor. „Auch die starke öffentliche Thematisierung des Internets in den letzten Jahren veranlaßte viele Anwender, sich näher mit dem neuen Medium auseinanderzusetzen. So ist die zweite große Motivationsgruppe [neben Nützlichkeitserwägungen] für die Einrichtung eines privaten Online-/Internetzugangs am ehesten über das Motiv ‚Zeitgeist’ beschreibbar“.721 Von der Medienpräsenz eines Themas lassen sich jedoch nur bedingt Rückschlüsse auf dessen tatsächliche (mediale und gesellschaftliche) Bedeutung ziehen. Das Verhältnis zu den traditionellen Massenmedien ist damit nur unvollständig charakterisiert.722 715 Vgl. Der Spiegel 7 (1994), 165-168. Der Spiegel 11 (1994), 3. 717 Vgl. Der Spiegel 43 (1994), 3. 718 Vgl. Der Spiegel 47 (1994), 100f.. 719 Madzia, 67. 720 Vgl. Der Spiegel, 12 (1996), 116-132. 721 Eimeren, 1999, 403. 722 Auf die vieldiskutierte Frage der Konvergenz soll hier nicht eingegangen werden. Der ARD/ZDF-Online716 116 Als am 12. September 1998 der Untersuchungsausschuss zur Clinton/Lewinsky-Affäre vor die Pressevertreter trat, verteilte der dafür zuständige Senator nicht wie sonst üblich Material in gedruckter Form, sondern diktierte die URLs des „Star-Report“. Minuten später sendete CNN Bilder von Redakteuren, die den Text auf ihrem Computerbildschirm kommentierten. Die Nachrichten erschienen im Internet, CNN blieb die Rolle eines Kommentators. Rainer Kuhlen bezeichnet dieses Ereignis in Analogie zu Neil Armstrongs großem TV-Auftritt von 1969 als „Mondlandung des Internet“.723 In den Medien- und Kommunikationswissenschaften wurde der in diesem Zusammenhang wichtige Begriff der „Leitmedien“ geprägt. Eine Leitfunktion von Presseerzeugnissen kann sich aufgrund inhaltlicher oder formaler Eigenschaften ergeben, d.h. durch das frühzeitige Aufgreifen von Themen (Agenda-Setting) bzw. die Schaffung von Bezugsrahmen (Framing), die dann von anderen Medien aufgegriffen werden, oder durch die besondere Art der Gestaltung bzw. des Layouts. Unterscheidet man zwischen technisch unterschiedlichen Mitteln zur Massenkommunikation, so kann man beobachten, dass das Fernsehen in den 60er Jahren zum Leitmedium wurde, wobei Radio und Printmedien ihre bisherige Funktion abgaben.724 Der „Star-Report“ ist das bekannteste Beispiel einer zumindest punktuellen Leitfunktion des Internet. Die Entwicklung vollzieht sich sonst eher schleichend und weniger spektakulär. Die Angabe von URLs bzw. E-Mail-Adressen bei Fernsehwerbespots oder Zeitungsanzeigen ist fast schon inflationär und das Design von Werbebotschaften orientiert sich zunehmend an der bunten Welt des WWW. Die Zitierhäufigkeit durch Journalisten, denen in diesem Zusammenhang eine Multiplikatorfunktion zukommt, würde sich anbieten, die These zu verifizieren. Noch fehlt allerdings entsprechendes statistisches Material. Der „Star-Report“ war nicht das erste Ereignis, bei dem Journalisten auf Informationen aus Computernetzen angewiesen waren. Die Nachrichten über die blutige Niederschlagung der Studentenproteste auf dem Tienanmenplatz gelangten zuerst auf diesem Wege an die Weltöffentlichkeit,725 wurde dann aber von Fernsehbildern dominiert. Als Gorbatschow im August 1991 interniert wurde, besetzten die Putschisten zwar Radio- sowie Fernsehstationen, vergaßen aber die Datenleitungen zu kappen. Über das ein Jahr zuvor installierte Netzwerk gelangten E-Mails ins benachbarte Finnland und von dort in internationale Netzwerke. Den Unterstützern Gorbatschows um Jelzin ermöglichte die Infrastruktur eine Kommunikation untereinander und mit der restlichen Welt. In der Presse der USA wurden die elektronischen Nachrichten aus Russland ausgiebig zitiert.726 Report untersucht die Frage, wie sich die Onlinenutzung auf den Konsum anderer Medien auswirkt. Vgl. Eimeren, 1997-1999, passim. 723 Vgl. Kuhlen, 91-96. 724 Vgl. Wilke, Leitmedien, 303ff.. 725 Vgl. Kühnert, 230. 726 Vgl. Halbach, Netzwerke, 292f.. 117 4.5. Globale „Internet-Connectivity“? Die E-Mails aus Russland und China gelangten nur auf Umwegen ins Internet. Damals hatten weder die Länder des ehemaligen Ostblocks noch die Staaten Afrikas Zugang. Bis Ende der 80er Jahre blieb die Verbreitung im wesentlichen auf die Industrienationen Europas und Nordamerikas beschränkt.727 Die Möglichkeit der Onlinekommunikation wurde im Verlauf der 80er Jahre von den „cooperative networks“ BITNET, UUCP und Fidonet oder anderen, mit diesen Systemen verwandten Netzwerken, in weite Teile der Welt gebracht. Die Karten in Abbildung 13 illustrieren die Situation zu Beginn der 90er Jahre und kontrastieren damit den Verbreitungsgrad Mitte 1997. Abb. 13. Landwebers „Connectivity Maps“ von Februar 1991 und Juni 1997. 728 Kaum ein Land der Erde verfügt nicht über die inzwischen begehrte „Internet Connectivity“. Ist also tatsächlich ein globaler Kommunikationsraum entstanden, der das Gefälle zwischen Nord- und Südhalbkugel beseitigen könnte und den Ländern der ‚Dritten Welt’ eine gleichberechtigte Nutzung des Mediums gestattet, an das in Europa und den USA große Hoffnungen geknüpft werden? Lawrence Landwebers Karten deuten eine nahezu vollständige Globalisierung an. Betrachtet man jedoch die Hosts in Relation zu den einzelnen Domains bzw. Länderkennungen, so ergibt sich ein anderes Bild. Nach einer Aufschlüsselung des ISC (Internet 727 In Japan begann der Aufbau von Netzwerken ähnlich früh wie in Europa. Auch Australien schuf deutlich vor den Ländern des Ostblocks und Afrika eine entsprechende Infrastruktur. Aus Platzgründen wurden diese Entwicklungen ausgespart. Vgl. Salus, Casting, 88 und 192 sowie Quarterman, 515-530 und 535-551. 728 Die Karten wurden von Lawrence Landweber, dem Initiator des CSNET, erstellt und von der computerwissenschaftliche Fakultät der Universität von Wisconsin im Internet veröffentlicht. Vgl. Landweber. 118 Software Consortium), auf den die ISOC verweist, sind ein Drittel aller Hosts, d.h. mehr als 24 Millionen, der Toplevel-Domain com zugeordnet, die vor allem amerikanische, kommerzielle Betreiber repräsentiert. Die westeuropäischen Staaten, Japan, Kanada und Australien nehmen Spitzenpositionen ein. Auf Platz 31 erscheint mit Südafrika (ca. 167.000 Hosts) ein erstes Land des schwarzen Kontinents, dem erst an 77. Stelle Ägypten (4.640 Hosts) folgt. Viele Staaten des Kontinents verfügen über weniger als 100 Internetrechner, sind in Landwebers Karten aber unter der Kategorie „Internet-Connectivity“ erfasst.729 Natürlich können deutsche oder auch afrikanische Unternehmer bzw. Privatpersonen einen Rechner des Bereichs der Domain com nutzen, indem sie dort z.B. einen WWW-Server betreiben bzw. Speicherplatz für den eigenen Internetauftritt anmieten. Die Zugriffsmöglichkeiten sind aber eindeutig begrenzt. In einem Land mit weniger als 100 Hosts ist selbst bei intensivster Auslastung die Nutzung auf wenige tausend Personen beschränkt. Betrachtet man die Datenströme der weltweiten Netze – in verschiedenen Darstellungen visualisiert – so gewinnt man den Eindruck, der afrikanische Kontinent sei für die Bits und Bytes nicht existent.730 Diesen Zustand zu ändern, würde immense Investitionen benötigen. Wesentliche Voraussetzung für eine massenhafte Verbreitung, d.h. Nutzungsmöglichkeiten in Privathaushalten oder Unternehmen ohne eigenen Internetrechner, ist ein funktionierendes Telefonsystem, über das von einem ansonsten isolierten Computer die Verbindung zum nächsten Knoten hergestellt wird. In Afrika, Asien und Lateinamerika gibt es auf diesem Gebiet massive Defizite.731 Noch 1995 hat mehr als die Hälfte der Weltbevölkerung nie in ihrem Leben telefoniert.732 Das von Brüne angeführte Iridium-Projekt, ein weltweites, satellitengestütztes Telefonsystem, von dem sich 12 afrikanische Staaten versprachen in strukturschwachen Regionen auf den Aufbau eines teuren Festnetzes verzichten zu können,733 ging inzwischen pleite. Nach einer Meldung der Frankfurter Rundschau vom 20.3.2000 sollen die Satelliten im Orbit verglühen. Die Vorstellung, der Kontinent könne das Industriezeitalter einfach überspringen, entpuppt sich als Trugschluss. Noch gilt: „Kein Platz für Afrikas Dörfer im Global Village“.734 Abgesehen von infrastrukturellen Problemen (wozu auch eine flächendeckende Stromversorgung gezählt werden muss) sind Alphabetisierung und Englischkenntnisse unverzichtbare Voraussetzungen. Es gibt zwar einzelne Beispiele für die Partizipation von Schwellenländern an der Internationalisierung der Arbeit und Produktion über die Netzwerke, meist werden damit jedoch „die Strukturen der internationalen Arbeitsteilung ab[gebildet], wie sie historisch hinläng729 Vgl. Anhang E.. Dies gilt sowohl für das USENET der 80er Jahre als auch für das Internet der 90er Jahre. Vgl. Salus, Casting, 150 und Borchers, 133. 731 Vgl. Marschall, 157. 732 Vgl. German, 23. 733 Vgl. Brüne, 214. 734 Goergen, 38. 730 119 lich bekannt sind“.735 „For the society, the impact will be good or bad, depending mainly on the question: Will ‘to be on line’ be a privilege or a right? If only a favored segment of the population gets a chance to enjoy the advantage [...], the network may exaggerate the discontinuity [...]”.736 Die „Grenzenlosigkeit“ stellt sich (bisher) spätestens in der sog. Dritten Welt als „Mythos“ heraus, denn „wer sich im Außerhalb befindet, hat Pech gehabt“ 737 – das Internet als Ausgrenzungsmechanismus. So beeindruckend die Entwicklung während der 90er Jahre in vielen Ländern verlief, von einer Globalisierung kann nicht gesprochen werden. 5. Das Erbe der Vergangenheit und die Aufgaben der Zukunft Betrachtet man den gesamten Entwicklungszeitraum, so fällt auf, dass wesentliche Entscheidungen bereits in der Anfangsphase getroffen wurden. Sie waren mitverantwortlich für den Erfolg des Internet und prägen es bis heute. Die Prinzipien kamen der militärischen Logik eines angriffssicheren Kommunikationsmittels entgegen, können aber nicht darauf reduziert werden. Militärische, pragmatische, wissenschaftliche und ökonomische Motive vermischten sich bei der Entwicklung des ARPANET sowie dessen Protokolle, die im Ergebnis die Interessen der involvierten Akteure wiederspiegeln. Die Dezentralität hinsichtlich Organisation, Technik und Netztopologie ist eines der konstantesten Charakteristika, manifestiert in den Protokollen, dem verteilten Design des ARPANET - ohne zentrale Rechner oder Leitungen - und der dezentralen Entwicklung, Verwaltung sowie Realisierung des Projekts. NCP und TCP/IP, basierend auf dem Prinzip des „Packet-Switching“, konnten den Ausfall einzelner Knoten oder Leitungen durch die Nutzung alternativer Routen kompensieren und erlaubten eine effizientere Auslastung der Kapazitäten. DARPA bzw. IPTO finanzierten das Projekt zwar vollständig, betrieben selbst aber keine Forschung, sondern koordinierten und delegierten die von verschiedenen universitären sowie privatwirtschaftlichen Einrichtungen durchgeführten Aufgaben. Die einzelnen Hoststandorte realisierten die Anbindung an das Netzwerk eigenverantwortlich. Als das ARPANET mit anderen Projekten zusammenwuchs, hielt man an dieser Konzeption fest und baute sie weiter aus. Den Einzelnetzwerken wurde in den frühen 80er Jahren eine nahezu vollständige Autonomie zugestanden. Sie stellten Finanzierung, Ausbau sowie Verwaltung ihrer Projekte sicher und vergaben eigenverantwortlich Zugriffsrechte. Die Entscheidungsbefugnis der militärischen Behörden endete an den Grenzen des ARPANET, das 1983 zum ersten Backbone avanciert war. Auch das Grundprinzip der Heterogenität wurde bereits zu Beginn festgelegt. Das ARPA735 Becker, 38. Der Autor nennt Indien, Jamaika und die europäischen Staaten des ehemaligen Ostblocks. Vgl. ebd., 31-34. 736 Licklider und Taylor, 40. 737 Debatin, 487. 120 NET umfasste Rechner diverser Hersteller und unterschiedlichster Betriebssysteme, obwohl eine Homogenisierung der technisch einfachere Weg gewesen wäre. Heute ist es selbstverständlich, dass das Internet unabhängig vom Hersteller des Computers oder Betriebssystems genutzt werden kann. Auch der später realisierte Zusammenschluss von Netzwerken umfasste Projekte der unterschiedlichsten Größe, Technik und Zielsetzung. Auffällig ist die über den gesamten Zeitraum offene Konzeption hinsichtlich der Informationspolitik und Nutzung. Die weitgehend skeptische Fachwelt wurde von Beginn an detailliert und offensiv informiert, was dem überstrapazierten Bild eines Militärprojekts widerspricht. Bereits in den 70er Jahren entwickelten sich in Europa und den USA wissenschaftliche sowie kommerzielle Projekte auf dieser technologischen Basis. Dass Privatunternehmen profitierten, entsprach den Absichten der Verantwortlichen. Die entwickelte Software war stets frei verfügbar und das IAB machte in den 80er Jahren Lizenzfreiheit zur Voraussetzung für Internetstandards. Die Diffusion öffentlich finanzierter Forschung in den privatwirtschaftlichen Bereich, von Karen Frazer als „technology transfer“738 bezeichnet, gelang teilweise durch gewinnorientierte Projekte der involvierten Unternehmen wie BBNs TELENET oder das ANSNet von Merit, IBM und MCI, wurde aber auch aktiv gefördert. Dass den Verkäufern von TCP/IP-Produkten Schulungen angeboten wurden oder die NSF nach einer Anschubfinanzierung die Förderung der Netzwerke auf mittlerer Ebene einstellte, dann aber eine kommerzielle Nutzung tolerierte, lässt darauf schließen, dass mit der Erforschung und dem Aufbau der Infrastruktur bereits früh „industriepolitische Ziele“739 verfolgt wurden. Die konkrete Nutzung des Netzwerks wurde nicht festgelegt. Die liberale, offene Praxis der Militärbehörden bildete einen Kontrast zu den rigiden Zugangsbestimmungen, auf deren Einhaltung die DCA seit Mitte der 70er Jahre zunehmend Wert legte. Als die NSF später eine AUP aufstellte, wurde lediglich eine kommerzielle Nutzung ausschlossen. In den 60er Jahren wurde von der ARPA Grundlagenforschung betrieben und mit dem ARPANET eine radikale Innovation geschaffen. Die Erfolgsaussichten waren ungewiss und ob sich ein Markt für die Technologie entwickeln würde, war nicht abzusehen. Der Beitrag der Privatwirtschaft war äußerst gering und stets an Verträge der öffentlichen Hand gebunden. CDC, IBM und andere etablierte Unternehmen der damaligen Computerindustrie zeigten kein Interesse. AT&T, der traditionsreiche, US-amerikanische Telekommunikationsgigant, hielt das Projekt für undurchführbar und hatte Paul Baran wenige Jahre zuvor die Zusammenarbeit verweigert. Etablierte Institutionen neigen zu inkrementellen Lösungen, die auf bestehende Nutzungs- bzw. Nachfragestrukturen zurückgreifen können und damit das Risiko minimieren. Die Förderung der Grundlagenforschung durch die öffentliche Hand war beim Innovationsprozess von zentraler Bedeutung und erwies 738 739 Frazer. Leib, Wissenschaftsnetze, 181. 121 sich bei der weiteren Verbreitung als vorteilhaft. Nachdem die Realisierbarkeit demonstriert war, profitierte die gesamte Branche von den Vorleistungen der DARPA und NSF. Die Privatwirtschaft hatte andere Lösungen vorgesehen. Unternehmen der Computerindustrie, z.B. DEC (DECNET) und IBM (SNA), setzten bei ihren Netzwerken in den 70er Jahren eine homogene Plattform mit Rechnern der eigenen Produktion voraus. BBN versuchte die IMP-Software vor potentiellen Konkurrenten zu schützen. Statt „technology transfer“ zielte die Privatindustrie auf Sicherung bzw. Ausbau von Marktanteilen. Die Theorie der technologischen Korridore bzw. Pfadabhängigkeiten sollte nicht überstrapaziert werden, dennoch kann die offene, dezentrale und heterogene Struktur auf technischer sowie organisatorischer Ebene als ein bisher stabiler „sozio-technischer Kern“ des Internet interpretiert werden. Weyers These, wonach bei Innovationen die Generierung dieser Grundstruktur von den Akteuren der Frühphase geleistet wird,740 kann am Beispiel des Internet bestätigt werden. Ihre Nutzungsvisionen dienen nach Weyer jedoch primär der Mobilisierung weiterer Akteure, verlieren dann aber schnell an Bedeutung bzw. werden durch neue Visionen ersetzt.741 Tatsächlich ist die kurze Geschichte des Internet von einer großen Variabilität der Anwendungen gekennzeichnet, mit denen jeweils charakteristische Absichten verbunden waren. Die Initiatoren des ARPANET hatten ein „Resource Sharing”-Netzwerk anvisiert, d.h. Kostensenkung durch effizientere Nutzung der verteilten Hard- und Software. Angesichts der Budgetkürzungen Ende der 60er Jahre verhalf diese Vorstellung dem Projekt bei behördeninternen Verteilungskämpfen zu Forschungsgeldern und diente später vor dem amerikanischen Kongress neben militärischen Nutzungsvisionen zur Legitimation. In der Praxis wurde von diesen Möglichkeiten nur wenig Gebrauch gemacht. Anfang der 70er Jahre tauchten die ersten E-Mails auf und prägten bald das Erscheinungsbild des ARPANET. Aus dem Computernetzwerk war ein Kommunikationsmittel geworden, das sich von dem engen computerwissenschaftlichen Kontext löste, neue Nutzergruppen erschloss und sich in Bereichen etablierte, die kein grundsätzliches Interesse an Netzwerktechnologie hatten. Die Ausbreitung führte zu einer zunehmend heterogenen Struktur der Akteure mit teilweise konkurrierenden Interessen und hatte letztendlich die Abtrennung des militärischen Teils zur Folge. Die Möglichkeit elektronische Nachrichten auszutauschen, wurde zum Wachstumsmotor für den Netzaufbau im Allgemeinen. Der Zugang zum ARPANET war limitiert, was indirekt die Entwicklung kommerzieller und wissenschaftlicher Alternativprojekte in Europa und den USA förderte. Diese vom ARPANET bzw. Internet anfangs isolierten Netzwerke, wozu mächtige, transkontinentale Projekte wie UUCP oder BITNET zählten, hatten zwar einen deutlich reduzierten Funktionsumfang, boten aber alle die Möglichkeit E-Mails zu 740 741 Vgl. Weyer, 35-40. Vgl. Weyer, 38. 122 verschicken. Mit der elektronischen Post sollte die Kommunikation der Forschung sowie der zivilen bzw. militärischen Bürokratie über das ARPANET optimiert, nicht aber revolutioniert werden. Der Einsatz von E-Mails in Behörden oder Verwaltungen versprach gewisse Vorteile gegenüber dem Briefverkehr oder Telefon. Auch die Distribution von wissenschaftlichen Erkenntnissen konnte beschleunigt werden. Der Schreibstil mag weniger formalisiert gewesen sein, an den Hierarchien des realen Lebens sollte sich dadurch nichts ändern. Bereits Mitte der 70er Jahre etablierten sich mit den Mailing-Listen erste gruppenbezogene Kommunikationsmöglichkeiten. Anfangs experimentell geprägt, entstanden bald neue Listen zu unterschiedlichen Themen, in denen phasenweise ein reger Meinungsaustausch stattfand, was das Netzwerk erstmals an die Grenzen seiner Belastbarkeit führte. Die Anziehungskraft blieb nicht auf das ARPANET beschränkt und gab den Impuls zur Bildung des USENET. Anfangs nur via UUCP nutzbar, diffundierten die ‚Schwarzen Bretter’ bald ins Internet und dominierten es bis in die frühen 90er Jahre. Für private Nutzer außerhalb von Universitäten und Unternehmen entstand in diesem Zeitraum mit den häufig improvisierten, subkulturell geprägten Mailbox-Systemen eine Möglichkeit, an der (zumindest in Teilöffentlichkeiten) inzwischen begehrten Onlinekommunikation zu partizipieren. In diesem Zeitraum entstand die Vorstellung von dem interaktiven, anarchischen und internationalen Kommunikationsraum der Computernetze. Anfang der 90er Jahre setzte sich ein neuer Dienst durch. Das WWW bedeutete nicht nur eine Erleichterung der Nutzungsmöglichkeiten, wie andere Neuerungen zu Beginn dieses Jahrzehnts, sondern beeindruckte durch Multimedialität. Bilder, Videos und Tondokumente wurden erstmals vollständig in eine einheitliche Oberfläche integriert. Damit verbunden war die Vorstellung, dass das Internet in naher Zukunft das Mediensystem revolutioniert und das multimedialen Web zu einem umfassenden Hypermedium mutiert. Totale mediale Konvergenz lautet die neue Vision, die u.a. von der amerikanischen NII-Initiative transportiert wurde: Radio, Fernsehen und Zeitung sollten nicht nur die Distributionskanäle auf Datennetze umstellen, sondern zu einem neuen, interaktiven Ganzen verschmelzen. Im Hypertextprinzip des WWW wurden die Visionen von Vannevar Bush und Ted Nelson wiederentdeckt - das Internet als globaler Wissensspeicher, in dem Informationen frei verfügbar, assoziativ verknüpft und jederzeit abrufbar sind: Nemex bzw. Xanadu in Vollendung, ein passendes Modell für die kommende Informationsgesellschaft. Mitte der 90er Jahre entdeckte die Privatwirtschaft, dass über das Netzwerk auch Handel betrieben werden konnte. Mit den ersten Einkaufshallen seit 1994 hielt der E-Commerce Einzug in das bis dahin universitär geprägte Konglomerat. In manchen Vorstellungen erweiterte sich das Bild zu einer Revolutionierung der gesamten Wirtschaft. Wer die Zeichen der Zeit nicht erkennt, hat Pech gehabt und wird sich bald nicht mehr behaupten können, lautete die neue Devise. Unterstützt und transportiert wurden die Visionen der 123 90er Jahre von den traditionellen Medien. Das Internet stieg in kürzester Zeit zum Statussymbol und Synonym für Modernität auf. Mit jeder der technischen Neuerungen waren Vorstellungen verbunden, die eine Erweiterung und Neustrukturierung der Akteurskonstellationen bewirkten. Zu den computerwissenschaftlichen Labors gesellten sich erst Behörden und fachfremde Fakultäten der Hochschulen. In den 80er Jahren folgten technophile Privatnutzer und die ersten kommerziell erfolgreichen Projekte. Seit Mitte der 90er Jahre investierte die Privatindustrie immense Summen, Medienkonzerne fusionierten mit Online-Diensten, Netzbetreibern bzw. Softwareproduzenten und der Internetauftritt eines Unternehmens wurde fast schon obligatorisch. Inzwischen kann etwa ein Drittel aller Hosts der Domain com zugeordnet werden. Der Online-Anschluss drang zeitgleich bis in die Privathaushalte vor und das bisher kaum wahrgenommene Internet wurde zu einem Politikum. Inzwischen ist es ein soziales und ökonomisches Faktum von gesamtgesellschaftlicher Bedeutung. In den USA sind 40% der Bevölkerung vernetzt, in Deutschland und Europa knapp 20%. Sättigungstendenzen sind noch keine zu erkennen und die soziodemographische Zusammensetzung der Nutzenden in den Industrienationen beginnt sich dem Bevölkerungsdurchschnitt anzugleichen. Brian Reid schrieb 1979 in der MSGGroup: „with each major advance in communication technology there has been a corresponding revolution in the way ordinary people live their lives [...]. Alphabetic writing permitted the accumulation and exchange of knowledge. Gutenberg's movable type allowed printing to be for Everyman. Television has caused a revolution of some kind [...]”.742 Im Internet haben sich virtuelle Gemeinschaften gebildet und bei Einzelnen dominiert die digitale Parallelwelt bereits den Alltag. Mit der Internetökonomie ist ein neuer Wirtschaftszweig entstanden und die ersten Radiostationen des Web sind auf Sendung. Dennoch: Der prognostizierte revolutionäre, gesamtgesellschaftliche und mediale Umbruch ist bisher ausgeblieben. Die Variabilität und Vielfalt der Nutzungsmöglichkeiten (und –visionen) ist erstaunlich und unterscheidet das Internet von anderen technischen Medien. Neben den behandelten Diensten haben sich Multi User Dungeons (MUD), Internet Relay Chat (IRC) und verschiede Messenger-Systeme ausgebreitet - eine Liste, die sich fast beliebig erweitern ließe und durch anwendungsinterne Ausdifferenzierung und Weiterentwicklung zusätzlich verkompliziert wird. Förderlich waren die Eigenarten des Computers, dessen Potential Licklider und Taylor bereits 1968 erkannten: „Creative, interactive communication requires a plastic or moldable medium that can be modeled, a dynamic medium in which premises will flow into consequences [...]. Such a medium is at hand - the programmed digital computer”.743 Diese Tatsache allein erklärt jedoch nicht die für das Internet charakteristische Entwicklungsschnelligkeit. Andere Konzepte wie z.B. das BITNET nutzten ebenfalls den 742 743 MSGGroup # 0844. Licklider und Taylor, 22. 124 Computer, waren aber weitaus statischer und verfügten nie über eine vergleichbar umfassende Funktionalität. Das Internet hatte den Vorteil, dass es bis weit in die 90er Jahre staatlich subventioniert wurde. Eine Finanzierung durch die öffentliche Hand ist aber ebenfalls kein Garant für Innovationen. In Europa verlief der Prozess bedeutend langsamer, wenngleich der Aufbau der wissenschaftlichen Infrastruktur ebenfalls vollständig vom Staat geleistet wurde. Auch die Projekte der nationalen Telefongesellschaften scheiterten. Hervorzuheben ist die Bedeutung der Nutzenden: Die E-Mail-Experimente von Roy Tomlinson und anderen, das USENET-Projekt von Tom Truscott und seinen Kommilitonen sowie das am CERN entwickelte WWW, die große Entwicklungssprünge bei den Anwendungen auslösten, waren ohne Auftrag der DARPA oder NSF initiiert worden. „From its inception, the Internet has been, and is expected to remain, an evolving system whose participants regularly factor new requirements and technology into the design and implementation of the global Internet”.744 NWG, ICCB oder IAB mit entsprechenden Suborganisationen, die prinzipiell für diese Aufgabe vorgesehen waren, konnten lediglich reagieren. Über HTTP wurde in den RFCs erst 1996 informiert und im Gegensatz zu Telnet bzw. FTP hat das Protokoll bis heute nicht den Rang eines Internet Standards.745 Trotz konkreter Nutzung blieb das Projekt über den gesamten Zeitraum „an object of research and a platform for other research”746 - Forschungsgegenstand mit experimentellem Charakter und Werkzeug der Wissenschaft. Dieser Umstand hatte zur Folge, dass zumindest ein Teil der Nutzer entsprechend ausgebildet und interessiert war. Experimente wurden nicht nur toleriert, sondern waren institutionell festgelegt. Auch bei Protokollen mit offiziellem Auftrag wurde nach dem Grundsatz ‚Implementierung vor Standardisierung’ verfahren. Im Gegensatz zur Vorgehensweise der ISO musste TCP/IP die Funktionstüchtigkeit in der Praxis beweisen, ehe die Entwicklung für abgeschlossen erklärt wurde und eine Standardisierung erfolgte. Die experimentelle Nutzung und dezentrale Entwicklung brachte vereinzelt Probleme mit sich, führte zu divergierenden Interessen, Betriebsausfällen und teilweise improvisierten, inkompatiblen bzw. wenig komfortablen Lösungen. Andererseits konnte sich auf diese Weise das kreative Potential frei entfalten. Dieses Verfahren scheint nicht mehr in die Realität des Internet der späten 90er Jahre zu passen, gilt aber prinzipiell noch heute. An die Stelle motivierter Hacker oder wissenschaftlicher Institutionen sind nun privatwirtschaftliche, gewinnorientierte Unternehmen getreten. Sie müssen sich an den Bedürfnissen des Marktes orientieren, was zu ausgereifteren und komfortableren Produkten führt. Dass es dabei auch zu inkompatiblen Lösungen kommen kann, wie die unterschiedlichen Ansätze für DHTML (Dynamic Hyper744 RFC 1310. Vgl. RFC 1945. Im Juni 1999 wurde die zweite Generation des Protokolls (HTTP 1.1.), die bisher nur experimentell auf verschiedenen Servern eingesetzt wird, von dem IAB zum Draft Standard erhoben. Vgl. RFC 2616. 746 Quarterman, 148. 745 125 Text Markup Language) der Browser von Microsoft und Netscape belegen, die den Standards des dafür prinzipiell zuständigen, von der IETF unabhängigen „Industrie-Konsortium[s]“747 W3C weit vorauseilen, ist prinzipiell nicht neu. Gewandelt hat sich die Zielsetzung. Trotz der diffizilen Situation mit diversen, konkurrierenden Lösungen z.B. bei der Entwicklung der E-Mails bzw. entsprechender Software, die zu teilweise verbitterten Grabenkämpfen führte, war Postels Feststellung von 1977 konsensfähig: „It is clear that it is in everyones interest to work together and cooperate to evolve the best system we can“.748 Die primäre Zielsetzung der Privatindustrie ist zumindest mittelfristig das Erwirtschaften von Gewinnen, Microsofts und Netscapes Bemühungen folglich der Versuch den Konkurrenten auszustechen. Welche der alternativen Lösungen sich durchsetzt, wird von Marketingaktivitäten und anderen Mechanismen mitentschieden. Lizenzen treten an die Stelle des Ideals „free sharing of information“. Setzt sich ein Konkurrent durch, so kann das letztendlich innovationshemmende Folgen haben. Wie hätte sich das Internet entwickelt, wenn Tomlinsons’ Idee durch Lizenzen geschützt oder das WWW bei IBM anstelle von CERN entstanden wäre? Schon die technische Variabilität der vergangen Jahrzehnte verdeutlicht die Schwierigkeit von Prognosen über die weitere Entwicklung. Eine lineare Fortsetzung beobachtbarer Trends scheidet jedenfalls aus. Hanno Kühnerts Essay von 1997 trägt Titel: „Wenn das Internet sich nicht ändert, wird es zerfallen“.749 Es wird sich ändern und dass es zerfällt, ist wenig wahrscheinlich. Seit Jahren wird an Lösungen für höhere Übertragungsraten der ‚letzten Meile’ geforscht, d.h. der Verbindung zwischen Internetknoten und heimischem PC, dem bisherigen ‚Nadelöhr’. Mit dem „Highspeed-Web-Zugang“,750 ist dann eine komfortable Film- und Musikdistribution prinzipiell möglich - Medienkonzerne und OnlineDienste sitzen bereits in den Startlöchern. Alternative Endgeräte, wie mobile Kleinstcomputer, Handys oder TV-Boxen, die eine Nutzung ohne Rechner zulassen, sind entwickelt und werden in den nächsten Jahren den Charakter des Internet erneut beeinflussen. Entscheidender ist aber der brüchige Zusammenhang zwischen technischen Möglichkeiten und etablierter Nutzungspraxis. Interaktivität ist bei Medien häufig ein Frühphasenphänomen, das bei massenhafter Nutzung trotz gleichbleibender technischer Möglichkeiten an Bedeutung verliert.751 Die meisten Autoren schätzen das bidirektionale Kommunikationspotential und leiten daraus weitreichende, demokratietheoretische bzw. interaktiv mediale Visionen ab. Prinzipiell kann jeder Nutzer zum Sender werden, wodurch die Trennung traditioneller Medien und Massenkommunikationssysteme aufgehoben wird und eine Interaktivität entsteht, die weit über gesteigerte Selektionsmöglichkeiten hinausgeht. 747 Leib, Wissenschaftsnetze, 168. MSGGroup # 561. 749 Kühnert, 225. 750 Zurawski, 34. 751 Vgl. Wittke, 97 und Kubicek, Massenmedium, 220f.. 748 126 Ob das jedoch den Bedürfnissen breiter Bevölkerungsschichten entspricht ist eher unwahrscheinlich. Das USENET, der Dienst des Internet, der diesen Vorstellungen am Nächsten kommt, war auch in den 80er Jahren weit weniger interaktiv als allgemein angenommen und wurde meist passiv in Anspruch genommen. In der ARD/ZDF-Online Studie 1999 waren Informationsbeschaffung und E-Mails die wichtigsten Motive für die Einrichtung eines Onlinezugangs. Der Kontakt mit vielen Menschen spielte nur bei einem Drittel der Befragten eine Rolle, und das Anbieten von Informationen tauchte überhaupt nicht auf.752 Lediglich die Hälfte der Befragten hatte die potentiell interaktiven Anwendungen Newsgroups, Gesprächsforen oder Chat mindestens einmal genutzt.753 Auch in internetinternen Umfragen ist der kommunikative Aspekt, abgesehen von E-Mails, nur von untergeordneter Bedeutung. Trotz des wahrscheinlich überdurchschnittlich aktiven Samples dominieren Informationsbeschaffung, Individualkommunikation und das Herunterladen von Software.754 Die Sprache der Hacker hat für diese Nutzer eigene Begriffe geschaffen: Lurker („One of the ‘silent majority' in a electronic forum, [...] who posts occasionally or not at all but is known to read the group's postings regularly”), Lamer („a person who downloads much, but who never uploads”) oder Leech („One who consumes knowledge without generating new software, cracks, or techniques”),755 klassische Rezipienten maletzgescher Prägung im interaktiven Netz. Schon die Kommunikationschancen sind ungleich verteilt. Im WWW sind zwar zwei beliebige Seiten über durchschnittlich 19 Links miteinander verbunden, d.h. mehr oder weniger ‚benachbart’. Die Verteilung der Verweise ist aber nicht gleichmäßig, sondern umgekehrt proportional zur Häufigkeit der Seiten. Es gibt viermal mehr Angebote, auf die 10 Links verweisen, als solche mit 20 Links. Bevorzugt werden Seiten vernetzt, die bereits gut besucht sind.756 Wenn sich ein Nutzer des WWW entschließt, selbst eine Kommunikatorfunktion einzunehmen, was Zeit, Geld und technisches Wissen erfordert, ist es fraglich, ob sein Angebot gefunden bzw. in Anspruch genommen wird. Eng verknüpft mit dem interaktiven Potential ist die Vorstellung eines hierarchie- und herrschaftsfreien Kommunikationsraums, der sich bei genauerer Betrachtung der historischen und aktuellen Verhältnisse jedoch als Mythos herausstellt. Das Netz war anfangs nur einer klar definierten Personengruppe zugänglich und an den Hoststandorten hatten „Technical Liaisons“ die Entscheidungsbefugnis über die Vergabe von Zugangsrechten, wobei sie sich an die Vorschriften der Militärbehörden zu halten hatten. Die Mailing-Listen wurden von einem Verwalter dominiert und im USENET folgte den Betreibern des ‚Backbone’ 752 Vgl. Eimeren, 1999, 404. Vgl. ebd., 405. Foren entsprechen hinsichtlich der Funktionalität den USENET, sind aber in das WWW eingegliedert. 754 Vgl. Fittkau. 755 Raymond. 756 Vgl. Kopp, 54-56. 753 127 eine Elite von aktiven Nutzern. Die Umstellung des ARPANET auf TCP/IP wurde von der DCA nicht empfohlen sondern angeordnet. Die weitgehend liberale Praxis von DARPA, DCA und NSF sollte nicht über die tatsächlichen Machtverhältnisse in den Netzwerken der Organisationen hinwegtäuschen. Im Internet behielten die Betreiber der Einzelnetze eine weitgehende administrative Autonomie, was die Möglichkeit zur Kontrolle der eigenen Infrastruktur einschließt. Provider entscheiden über die Inhalte auf ihren Servern und sind selbstverständlich an nationale Gesetze gebunden. Bezüglich der Weiterentwicklung entschied zuerst eine kleine Gruppe von Einzelpersonen über die wesentlichen Fragen, bis sie von den zentralen Organisationen des Internet abgelöst wurden, die sich zunächst aus internationalen Forschern, Ingenieuren bzw. Vertretern der Bürokratie zusammensetzten. Bald wurden sie durch Mitglieder der Privatwirtschaft ergänzt, die schließlich dominierten. Eine demokratische Legitimation von Betreibergesellschaften, Providern oder zentralen Institutionen gab und gibt es trotz z.T. weitreichender Befugnisse nicht.757 Das Internet ist nicht hierarchiefrei, die Machtverhältnisse sind aufgrund der heterogenen, dezentralen und internationalen Struktur lediglich fragmentiert und schwer zu durchschauen bzw. zu kontrollieren. Das Informationsinteresse der Internetnutzer scheint der Vision eines globalen Wissensspeichers entgegenzukommen, mit der große, bildungspolitische Hoffnungen verbunden sind. Tatsächlich gibt es Informationen, die auf anderem Weg nicht oder nur sehr aufwendig recherchiert werden können. Die Charakteristika des Mediums erlauben eine schnelle, internationale und kostengünstige Distribution von Nachrichten, was dem Einzelnen theoretisch die Möglichkeit eröffnet, Informationen ungefiltert bzw. aus erster Hand abzurufen oder zumindest über variable Perspektiven ein detailliertes Bild zu gewinnen. Lokale oder in Massenmedien unterrepräsentierte Nachrichten werden im Idealfall global verfügbar. Dadurch entfällt allerdings die Vorselektion, Wertung und Aufbereitung der Informationen durch nationale Gesetze, Verlage oder professionelle Redaktionen. Sind breite Bevölkerungsschichten bereit bzw. in der Lage diese Mehrarbeit zu leisten? Wer sich z.B. über die Verbrechen des Nationalsozialismus informieren möchte, stößt in den einschlägigen Suchmaschinen758 auf über 400.000 Treffer. Seriöse Seiten wie ein Projekt der University of the West of England759 stehen unkommentiert neben Angeboten von Holocaustleugnern wie Ernst Zündel oder Fred Leuchter.760 Ein Rezipient ist mit immensen quantitativen sowie qualitativen Selektionsanforderungen konfrontiert und die Gefahr, sich falsch zu informieren, ist in diesem konkreten Beispiel sogar von politischer Bedeutung. Über Informationsangebot und –nachfrage sollte kein falscher Eindruck entstehen. Zu 757 Die ICANN lässt im Oktober 2000 erstmals fünf der neunzehn Direktoren von den Internetnutzern wählen. Die restlichen Positionen werden von politischen und privatwirtschaftlichen Organisationen vergeben. 758 Z.B. http://www.altavista.com. 759 Vgl. http://www.ess.uwe.ac.uk/genocide/Holocaust.htm. 760 Vgl. z.B. http://www.revisionism.com/. 128 vielen Themen gibt es bisher ein eher dürftiges Angebot und Informationen, deren Erstellung oder Präsentation mit hohen Kosten verbunden waren, sind auch im Internet nicht frei verfügbar. Datenbanken wichtiger Tageszeitungen oder die für diese Arbeit potentiell interessante „DARPA/IPTO Oral History Collection“ der Universität von Minnesota sind nur gegen Gebühren zugänglich. Zu Beginn des neuen Jahrtausends sind Bibliotheken bzw. Bücher noch immer der umfassendste Wissensspeicher der Menschheit. Ihre Existenz allein bedeutet jedoch nicht automatisch ein höheres Bildungsniveau in der Bevölkerung. Es gibt zwar Internetangebote, die Funktionen des traditionellen Bildungssystems übernehmen könnten, besonders beliebt ist bisher aber die Unterhaltung im weitesten Sinne, einschließlich der Bereiche unterhalb der Gürtellinie, die seit Jahren eine herausragende Stellung einnehmen. Einkäufe oder Bankgeschäfte über das Internet zu erledigen verspricht objektive Vorteile: Komfort, Unabhängigkeit von Ladenöffnungszeiten, Markttransparenz und Preisnachlässe. Der E-Commerce hat in einigen Bereichen die kritische Schwelle bereits hinter sich gelassen, etliche Unternehmen erwirtschaften solide Gewinne und es gibt kaum ein Produkt oder eine Dienstleistung, die nicht vertreten wäre. Euphorische Vorstellungen über die weitere Entwicklung des Onlinehandels bzw. die kommende Bedeutung des Internet für die Wirtschaft basieren auf einer weitgehend linearen Fortführung von Tendenzen. Die Verlagerung auf das Internet bedeutet nicht zuletzt, dass „ein Teil der Tätigkeiten und Funktionen, die zuvor von kommerziellen Dienstleitstern erbracht wurden, auf die Konsumenten“761 verschoben wird. Bei der Kontoführung ergeben sich Synergieeffekte, im Handel geht das Rationalisierungspotential meist zu Lasten des Kunden. Ob dass den Wünschen der Gesamtbevölkerung entspricht und sich aus wachsenden Umsätzen ein Ende des Einzelhandels voraussagen lässt, oder Bill Gates These zutrifft, wonach Banken die zum Aussterben verurteilten Dinosaurier der Onlineökonomie seien,762 ist zumindest fraglich. Trotz der steigenden Tendenz ist der E-Commerce für die meisten Nutzer in aktuellen Umfragen lediglich von marginaler Bedeutung und weist erkennbare Präferenzen für einzelne Produkte (Computerartikel und Bücher) auf.763 Global betrachtet spiegeln sich in der Verbreitung des Internet die ökonomischen Verhältnisse der realen Welt wieder, d.h. die Hosts stehen fast ausschließlich in den Industrienationen. Das grenzenlose Netz fungiert bisher als Ausgrenzungsmechanismus, der das globale Ungleichgewicht zementiert, anstatt der ‚Dritten Welt’ eine reelle Chance zu bieten. Die mit dem Internet verbundenen Visionen lassen sich meist auf eine technikdeterministische, angebotsfixierte Betrachtungsweise bzw. eine lineare Fortsetzung oder Generalisierung beobachtbarer Trends und Nutzungspraktiken zurückführen. Hyperlinks bedeuten 761 Wittke, Online, 100. Vgl. Noam, 150. 763 Vgl. Eimeren, 99, 404f. und Fittkau. 762 129 aber nicht per se, dass alles mit allem vernetzt wird, bidirektionale Kommunikationsangebote oder –praktiken bedeuten nicht, dass sie massenhaft nachgefragt werden und aus der aktuellen Resistenz gegenüber staatlichen Regulierungsbemühungen konstituiert sich noch kein anarchischer, herrschaftsfreier Raum. Das Internet hat ein für die Branche beeindruckendens Alter. Die Entwicklungssprünge der Computertechnologie von mächtigen Mainframes in computerwissenschaftlichen Labors zu den ungleich leistungsfähigeren PCs auf den Schreibtischen hat es nicht nur mühelos überstanden, sondern davon letztendlich profitiert. Die Verbreitung der Technologie verlief rasant: Seit 1983 verdoppelte sich die Anzahl der integrierten Rechner von Jahr zu Jahr und vorsichtige Einschätzungen mussten bereits mehrfach korrigiert werden. Das technische Potential zur Verwirklichung der Visionen ist zweifellos gegeben und die „Akzeptanzbereitschaft“ der Bevölkerung ist höher als Mitte der 90er Jahre allgemein angenommen wurde.764 Bis zur Verwirklichung der Ideale der US-amerikanischen NII, der digitalen „Telepolis“, dem „Ende der Gutenberg-Galaxis“, der „Kommunikationsrevolution“ oder vollständigen Onlineökonomie ist es jedoch noch ein weiter Weg. Hanno Kühnerts Appell, dass das Netz sich ändern müsse, bezog sich weniger auf den technische Entwicklungsstand als auf ethische, juristische und politische Normen.765 In dieser Hinsicht wirkt das Internet noch erstaunlich unreif. DARPA, DCA sowie NSF intervenierten lediglich in Ausnahmefällen und überließen die Problematik weitgehend den Nutzern. In der AUP des NSFNET fand sich lediglich der vage Hinweis, dass sich die Nutzung der Infrastruktur im Rahmen der Legalität bewegen müsse und das IAB äußerte sich erst 1989 unter dem Eindruck von Morris’ „Great Worm“ zu dem Themenkomplex „Ethics and the Internet“. Die Selbstregulierung bzw. Eigenverantwortung erwies sich in den 70er und 80er Jahren als weitgehend tragfähiges Modell, auch wenn das „weiche Protokoll“766 eine deutlich geringere Entwicklungsgeschwindigkeit aufwies als sein technisches Äquivalent. Dass die Privatsphäre auch bei Onlinekommunikation geschützt werden sollte, war noch Ende der 70er Jahre zumindest umstritten, wie die Diskussion der MSGGroup belegt. Auf die Tradition des „Flaming“ in Mailing-Listen oder Newsgroups wurde erst in den 80er Jahren mit der „Netiquette“ reagiert. Der Standardisierungsprozess dieser Normen war und ist äußerst schwierig. Ob Urheberrechte eingehalten werden müssen, blieb stets umstritten und auf Regulierungsversuche wurde, wie die Diskussion der MSGGroup sowie Brian Reids Aktion im USENET belegt, unabhängig von Inhalten äußerst sensibel bis konsequent ablehnend reagiert. Die vergleichsweise homogene, akademisch dominierte Struktur der Nutzenden und überschaubare Größe der Netzwerke ließen viele der heute aktuellen Probleme gar nicht erst aufkommen. Durch Kommerzialisierung und Privatisie764 Vgl. Zimmer, 492. Vgl. Kühnert, 229-232. 766 Rost, 28. 765 130 rung seit Anfang der 90er Jahre entwickelte sich aus dem exklusiven Wissenschaftsnetz jedoch ein Medium für den Massenmarkt. Mit der Öffnung stießen neue Nutzergruppen hinzu, die sich zum großen Teil weder einer ‚Hacker-Ethik’ noch sonstigen sozial etablierten Regeln der Onlinekommunikation verpflichtet sahen. Die Frage nach der angemessenen Nutzung ist längst kein behördeninternes Problem mehr, sondern von gesamtgesellschaftlicher Bedeutung. Dennoch wird teilweise noch heute das „Konzept der 80er Jahre des mündigen, verantwortungsbewußten Internetbürgers, der sich mit technischen [und sozialen] Mitteln gegen alles schützen kann, was ihn beeinträchtigt, [...] gegen äußere Einflußnahme, Kontrolle und Zensur gesetzt“.767 Angesichts der Probleme mit politischem Extremismus, illegaler Pornographie, Verletzung von Urheberrechten etc. ist es zweifelhaft, ob das Konzept der Selbstregulation noch ausreicht. Es gilt den Zahlungsverkehr, die Kommunikation des Einzelnen sowie das gesamte System vor Angriffen zu schützen. Längst beschäftigen sich Akteure aus Politik und Wirtschaft mit dieser Thematik, bisher jedoch ohne Ergebnis. Hinsichtlich der Elemente sozialer und kultureller Natur bleibt das großtechnische System Internet bisher unterentwickelt. Die Regulierungsresistenz ist größtenteils in der Struktur begründet, die man in den 60er und 80er Jahren festlegte. Die heterogene, dezentrale und offene Konzeption, verbunden mit der internationalen Ausbreitung, macht nationale Gesetze nahezu wirkungslos. Juristische Lösungen bedürften einer globalen Reichweite. Die vollständige staatliche Kontrolle der Knoten mit Auslandsverbindungen (inklusive der Überwachung von Kommunikation via E-Mail), technisch möglich und in China praktiziert,768 kann in Demokratien nicht angestrebt werden. Es gibt alternative Lösungen: Filter, die das Öffnen von anstößigen Webseiten verhindern, oder Verschlüsselungsprogramme, welche die Kommunikation schützen sollen, indem Dateien für Dritte unbrauchbar gemacht werden. Sie sind jedoch reaktiv und teilweise leicht zu umgehen. „A combination of ehtics, technology, and law are needed to ensure the effective development [...] of the Internet”,769 stellte Robert Kahn 1994 fest. Dies kann nur durch eine Bündelung der bisherigen Konzepte unter Einbeziehung der involvierten Akteure aus Forschung, Wirtschaft und Politik sowie den Nutzern selbst erreicht werden. Der Aufbau der Netze hat sich in den Industrienationen inzwischen weitgehend verselbständigt - ein Rückzug der öffentlichen Hand wäre jedoch angesichts der aktuellen Probleme der falsche Weg. Wenn sich das ökonomische, kommunikative, bildungspolitische sowie demokratische Potential der Technologie entfalten soll wie Visionen suggerieren, muss weit mehr getan werden. Deregulation bedeutet nicht zwangsläufig freien Wettbewerb mit vielfältigem Angebot. AT&T hat das jahrzehntelang beeindruckend illustriert. Soll verhindert werden, 767 Werle, Wissenschaftsnetz. Vgl. Noam, 147. 769 Kahn. 768 131 dass einzelne Unternehmen eine marktbeherrschende Stellung einnehmen, was nicht nur den Innovationsprozess gefährdet und negative Folgen für den Konsumenten mit sich bringt, sondern angesichts der Konzentrationstendenzen im Mediensystem die pluralistische, unabhängige Presse in Frage stellt, muss das öffentliche Engagement intensiviert werden. Es gilt die Grundversorgung sicherzustellen, will man nicht bestehende innergesellschaftliche und globale Disparitäten verschärfen. Investitionen in die „Informationsund Sprachkompetenz, Flexibilität und Mobilität“770 der Bevölkerung sind dann unverzichtbar und können nicht auf Schulen beschränkt werden. Letztendlich müssen sich Mentalitäten ändern. In einem Interview vor wenigen Monaten beklagte Berners-Lee: „Mich fragen tatsächlich ständig Leute, was ich vom Web halte, wo es doch nun vollendet sei. Dagegen muß ich aufs schärfste protestieren: Das Web ist keinesfalls fertig!“.771 Ebenso unvollkommen wie das Web ist das Internet in seiner Gesamtheit, das sich trotz der Beliebtheit bei Vertretern der freien Marktwirtschaft als öffentliche Daueraufgabe entpuppt. 770 771 Werth, 27. Miedel, 56. 132 Literaturverzeichnis Abbate, Janet: From ARPANet to Internet: a history of ARPA-sponsored computernetworks. 1966-1988, Reading 1994. Ahvenainen, Jorma: The role of telegraphs in the 19th century revolution of communications, in: North, Michael (Hg.): Kommunikationsrevolutionen: die neuen Medien des 16. und 19. Jahrhunderts, Köln u.a. 1995, S. 73-81. Alpar, Paul: Kommerzielle Nutzung des Internet: Unterstützung von Marketing, Produktion, Logistik und Querschnittsfunktionen durch das Internet und kommerzielle OnlineDienste, Berlin u.a. 1996. Balkhausen, Dieter: Mikroelektronik – die dritte industrielle Revolution, in: Aus Politik und Zeitgeschichte 7 (1980), S. 3-13. Baran, Paul: On Distributed Communications, Santa Monica 1964, WWW-Ressource, URL (01.03.2000): http://www.rand.org/publications/RM/RM3420/. Batinic, Bernard / Bosnjak, Michael / Breiter, Andreas: Der „Internetler” – Empirische Ergebnisse zum Netznutzungsverhalten, in: Gräf, Lorenz und Krajewski, Markus (Hg.): Soziologie des Internet: handeln im elektronischen Netzwerk, Frankfurt 1997, S.196-215. Becker, Jörg und Salamanca, Daniel: Globalisierung, elektronische Netze und der Export von Arbeit, in: Aus Politik und Zeitgeschichte 42 (1997), S. 31-38. Berg, Manfred: Die innere Entwicklung der USA seit dem Zweiten Weltkrieg, in: Adams, Willi Paul / Czempiel, Ernst-Otto / Ostendorf, Berndt / Shell, Kurt L. / Spahn, P. Bernd / Zöller, Michael (Hg.): Länderbericht USA. Band I, Bonn 1992, S. 186-215. Berners-Lee, Tim: Der Web-Report. Der Schöpfer des World Wide Webs über das grenzenlose Potential des Internets, München 1999. Bickenbach, Matthias und Maye, Harun: Zwischen fest und flüssig – Das Medium Internet und die Entdeckung seiner Metaphern, in: Gräf, Lorenz und Krajewski, Markus (Hg.): Soziologie des Internet: handeln im elektronischen Netzwerk, Frankfurt 1997, S. 80-98. Bolz, Norbert: Am Ende der Gutenberg-Galaxis. Die neuen Kommunikationsverhältnisse, München 1993. Borchers, Detlef / Benning, Maria / Kuri, Jürgen: ‚Hätt ich dich heut erwartet…’. Das Internet hat Geburtstag – oder nicht?, in: c’t 21 (1999), S. 128-133. Braun, Ingo: Geflügelte Saurier. Zur intersystemischen Vernetzung großer technischer Netze, in: ebd. und Bernward, Joerges (Hg.): Technik ohne Grenzen, Frankfurt 1994, S. 446-500. Bredow, Rafaela von und Jung, Alexander: Internet. Die Online-Revolution, in: Der Spiegel 2 (2000), S. 92-101. Brüne, Stefan: Die afrikanische Informationsgesellschaft. Akteure, Abhängigkeiten, Potentiale, in: Donges, Patrick / Jarren, Otfried / Schatz, Heribert (Hg.): Globalisierung der Medien? Medienpolitik in der Informationsgesellschaft, Wiesbaden 1999, S. 211-230. Bühl, Achim: Cybersociety: Mythos und Realität der Informationsgesellschaft, Köln 1996. Bülling, Franz: Das Internet als Leitbild für globale Kommunikation?, in: Mai, Manfred und Neumann-Braun, Klaus (Hg.): Von den „Neuen Medien“ zu Multimedia: Gesellschaftliche und politische Aspekte. Dokumentation der Tagung Medien und Gesellschaft im Spannungsfeld von Technik, Ökonomie und Recht, Baden-Baden 1998, S. 34-57. 133 Bush, Vannevar: As We May Think, in: Mayer, Paul A. (Hg.): Computer Media and Communication, New York 1999, S. 23-36. Cailliau, Robert: Zur Technikgeschichte des Internet, in: Leggewie, Claus und Maar, Christa (Hg.): Internet & Politik. Von der Zuschauer- zur Beteiligungsdemokratie?, Köln 1998, S. 70-84. Campbell-Kelly, Martin: Data Communications at the National Physical Laboratory (19651975), in: Annals of the History of Computing 3/4 (1988), S. 221-247. Cebrián, Juan Luis: Im Netz – Die hypnotisierte Gesellschaft. Der neue Bericht an den Club of Rome, Stuttgart 1999. Cerf, Vinton: How the Internet Came to Be, Bell Labs 1993, WWW-Ressource, URL (01.04.2000): http://www.bell-labs.com/user/zhwang/vcerf.html. Curlee, Robert: Mapnet. Macroscopic Internet Visualization and Measurement, CAIDA 2000, WWW-Ressource, URL (01.07.2000): http://www.caida.org/tools/visualization/mapnet/. Debatin, Bernhard: Allwissenheit und Grenzenlosigkeit: Mythen um Computernetze, in: Wilke, Jürgen (Hg.): Massenmedien und Zeitgeschichte, Konstanz 1999, S. 481-493. Degler, Hans Dieter: Wissenszwerge unter Druck. Folge XII: Die Krise auf dem Weg ins Informationszeitalter, in: Der Spiegel 14 (1993), S. 150-158. DENIC eG: Dokumente / Über die DENIC eG, WWW-Ressource, URL (01.07.2000): http://www.denic.de/doc/DENIC/index.html. DENIC eG: Statistiken. Wachstum Hosts, WWW-Ressource, URL (01.07.2000): http://www.denic.de/images/diagramme/Hosts_fancy_de.xls. Digital Equipment Corporation (Hg.): In Memoriam: J.C.R. Licklider 1915-1990, Palo Alto 1990. Ditfurth, Christian von: Internet für Historiker, Frankfurt / New York 1988. Dodge, Martin: An Atlas of Cyberspaces, University College London / Center for Advanced Spatial Analysis 2000, WWW-Ressource, URL (01.04.2000): http://www.geog.ucl.ac.uk/casa/martin/atlas/atlas.html. Edwards, Paul N.: The Closed World. Computers and the Politics of Discourse in Cold War America, Cambridge / London 1996. Eimeren, Birgit van / Gerhard, Heinz / Oehmichen, Ekkehardt / Schröter, Christian: ARD/ZDF-Online-Studie 1997: Onlinenutzung in Deutschland. Nutzung und Bewertung der Onlineangebote von Radio- und Fernsehsendern, in: Media Perspektiven 10 (1997), S. 548-556. Eimeren, Birgit van / Gerhard, Heinz / Oehmichen, Ekkehardt / Schröter, Christian: ARD/ZDF-Online-Studie 1998: Online-Medien gewinnen an Bedeutung. Nutzung von Internet und Onlineangebote elektronischer Medien in Deutschland, in: Media Perspektiven 8 (1998), S. 423-435. Eimeren, Birgit van / Gerhard, Heinz / Oehmichen, Ekkehardt / Mende, Annette / Grajcyk, Andreas / Schröter, Christian: ARD/ZDF-Online-Studie 1999: Wird Online Alltagsmedium? Nutzung von Online-Medien in Deutschland, in: Media Perspektiven 8 (1999), S. 401-414. Engelbart, Douglas C.: A Conceptual Framework for the Augmentation of Man’s Intellect, in: Mayer, Paul A. (Hg.): Computer Media and Communication. A Reader, New York 1999, S. 72-96. 134 Engelbart, Douglas C.: Augmented Human Intellect Program, Menlo Park 1962, in: Lenoir, Tim (Principal Investigator): Sloan Project. MouseSite, Stanford University / History and Philosophy of Science Department o.J., WWW-Ressource, URL (01.05.2000): http://sloan.stanford.edu/mousesite/EngelbartPapers/B5_F1_AugmPap2.html. Engelbart, Douglas C.: Report on Computer Network Meeting. October 9/10 1967, in: Lenoir, Tim (Principal Investigator): Sloan Project. MouseSite, Stanford University / History and Philosophy of Science Department o.J., WWW-Ressource, URL (01.05.2000): http://sloan.stanford.edu/mousesite/EngelbartPapers/B1_F20_CompuMtg.html. Engelbart, Douglas C.: Study Of The Development Of Human Intellect Augmentation Techniques. Final Report, Menlo Park 1968, in: Lenoir, Tim (Principal Investigator): Sloan Project. MouseSite, Stanford University / History and Philosophy of Science Department o.J., WWW-Ressource, URL (01.05.2000): http://sloan.stanford.edu/mousesite/Archive/Post68/FinalReport1968/study68index.html. Engelbart, Douglas C.: U.S. Patent on the Computer Mouse 21 June 1976, in: Lenoir, Tim (Principal Investigator): Sloan Project. MouseSite, Stanford University / History and Philosophy of Science Department o.J., WWW-Ressource, URL (01.05.2000): http://sloan.stanford.edu/MouseSite/Archive/patent/mousepatent.PDF. Farber, Dave und Stefferud, Einar: MSGGroup (1975-1986), WWW-Ressource, URL (01.07.2000): http://world.std.com/references/obi/Networking/archives/msggroup/. MSGGroup # 0002 Walker, Steve: Message Group Status, 1975. MSGGroup # 0003 Farber, Dave: Mailing List for Message Group, 1975. MSGGroup # 0456 Panko, Raymond R.: CB Computer Mail Draft, 1977. MSGGroup # 0474 Panko, Raymond R.: Draft Survey of ARPANET Computer Mail, 1977. MSGGroup # 0561 Postel, Jon: Comments on RFC 724, 1977. MSGGroup # 0569 Karlton, Philip: “Domestic Android” for sale, 1977. MSGGroup # 0605 Reid, Brian: For Your Information (about Robots, not Messages), 1977. MSGGroup # 0675 Farber, Dave und Stefferud, Einar: The Quasar Discussion, 1978. MSGGroup # 0679 Farber, Dave: Re: Comment on Quasar Discussion Question, 1978. MSGGroup # 0680 Reid, Brian: MSGGroup, 1978. MSGGroup # 0681 Stefferud, Einar: Re: MSGGroup, 1978. MSGGroup # 0682 Crispin, Mark: Quasar and the censorship of MsgGroup, 1978. MSGGroup # 0684 Deutsch, Debbie: Re: The Quasar Discussion, 1978. MSGGroup # 0685 Reid, Brian: Quasar, MsgGroup, and proper use of the ARPAnet, 1978. MSGGroup # 0686 Crocker, Dave: Politics vs. Legalities, 1978. MSGGroup # 0696 Crispin, Mark: in reply to Jake’s message about advertising, 1978. 135 MSGGroup # 0707 Goodfellow, Geoffrey S.: Klatu/Quasar shows at the NCC, 1978. MSGGroup # 0708 Stefferud, Einar: Re: Klatu/Quasar shows at the NCC, 1978. MSGGroup # 0794 Farber, Dave: The CMU Finger Program and Privacy, 1979. MSGGroup # 0795 McLure, Stuart: Re: The CMU Finger Program and Privacy, 1979. MSGGroup # 0796 Cotton, Ira W.: A defense of the rights of the individual, 1979. MSGGroup # 0812 Zellich, Rich: FINGERing and other fun issues, 1979. MSGGroup # 0829 McGehearty, Patrick: FINGER flames, 1979. MSGGroup # 0840 Newcomer, Joe: Remove me <NEWCOMER> from the list, 1979. MSGGroup # 0844 Reid, Brian: Technology, Society, and History, 1979. MSGGroup # 938 Ahenderson, Austin: Open and closed systems, communications and research, 1979. MSGGroup # 1015 McKenzie, Kevin: METHICS and the Fast Draw (cont’d), 1979. MSGGroup # 1016 Martins, Gary R.: Text-ural Tricks, 1979. Fiske, John: Introduction to communication studies, London 1989. Fittkau, Susanne und Maaß, Holger: W3B-Umfragen (1995-2000), WWW-Ressource, URL (01.06.2000): http://www.w3b.de. Frazer, Karen D.: NSFNET: A Partnership for High-Speed Networking. Final Report 19871995, Merit Network 2000, WWW-Ressource, URL (01.04.2000): http://www.merit.edu/merit/archive/nsfnet/final.report/phenom.html. Gall, Lothar: Das Argument der Geschichte. Überlegungen zum gegenwärtigen Standort der Geschichtswissenschaft, in: HZ 264 (1997), S. 1-20. German, Christiano: Politische (Irr-)Wege in die globale Informationsgesellschaft, in: Aus Politik und Zeitgeschichte 32 (1996), S.16-25. Goergen, Roman: Global Village, in: Internet World 8 (1999), S. 38-43. Goertz, Lutz: Wie interaktiv sind Medien? Auf dem Weg zu einer Definition von Interaktivität, in: Rundfunk und Fernsehen 4 (1995), S. 477-493. Grüne, Heinz und Urlings, Stephan: Motive der Onlinenutzung. Ergebnisse der psychologischen Studie „Die Seele im Netz“, in: Media Perspektiven 9 (1996), S. 493-498. Haase, Frank: Stern und Netz. Anmerkungen zur Geschichte der Telegraphie im 19. Jahrhundert, in: Hörisch, Jochen und Wetzel, Michael (Hg.): Armaturen der Sinne, München 1990, S. 43-62. Hafner, Katie und Lyon, Matthew: Arpa Kadabra oder die Geschichte des Internet, Heidelberg 2000. Halbach, Wulf R.: Netzwerke, in: ebd. und Faßler, Manfred (Hg.): Geschichte der Medien, München 1998, S. 269-308. Halbach, Wulf R. und Faßler, Manfred: Einleitung in eine Mediengeschichte, in: ebd. (Hg.): Geschichte der Medien, München 1998, S. 17-54. 136 Hardy, Edward Henry: The History of the Net, unpublished Master Thesis, Allendale 1993, WWW-Ressource, URL (01.05.2000): http://www.ocean.ic.net/ftp/doc/nethist.html. Hardy, Ian R.: The Evolution of ARPANET email, unpublished Senior Thesis, Berkeley 1996, WWW-Ressource, URL (01.05.2000): http://ifla.inist.fr/documents/internet/hari1.text. Hauben, Michael: Behind the Net: The untold history of the Arpanet, in: ebd. und Hauben, Ronda: The Netizens and the wonderful world of the Net: an anthology, Washington University at St. Louis / Wuarchive o.J., FTP-Ressource, URL (09.03.2000): ftp://wuarchive.wustl.edu/doc/misc/acn/netbook/. Hauben, Ronda: The evolution of Usenet News: The poor man’s Arpanet, in: ebd. und Hauben, Michael: The Netizens and the wonderful world of the Net: an anthology, Washington University at St. Louis / Wuarchive o.J., FTP-Ressource, URL (09.03.2000): ftp://wuarchive.wustl.edu/doc/misc/acn/netbook/. Hellige, Hans Dieter: Von der programmatischen zur empirischen Technikgeneseforschung: Ein technikhistorisches Analyseinstrument für die prospektive Technikbewertung, in: Technikgeschichte 60 (1993), S. 186-223. Hickethier, Knut: Zwischen Gutenberg-Galaxis und Bilder-Universum. Medien als neues Paradigma, die Welt zu erklären, in: Geschichte und Gesellschaft 25 (1999), S. 146-172. Höflich, Joachim R.: Computermythen und die Wirklichkeit des Gebrauchs. Kommentar zu Bernhard Debatin, in: Wilke, Jürgen (Hg.): Massenmedien und Zeitgeschichte, Konstanz 1999, S. 494-498. Höflich, Joachim, R.: Vom dispersen Publikum zu „elektronischen Gemeinschaften". Plädoyer für einen erweiterten kommunikationswissenschaftlichen Blickwinkel, in: Rundfunk und Fernsehen 4 (1995), S. 518-537. Hoffmann-Riem, Wolfgang und Vesting, Thomas: Ende der Massenkommunikation? Zum Strukturwandel der technischen Medien, in: Media Perspektiven 8 (1994), S. 382-391. Hofmann, Jeanette: Politik im Internet – Ordnungselemente einer dezentralen Welt, in: Hartmann, Christian und Hüttig, Christoph (Hg.): Netzdiskurs - Das Internet und der Strukturwandel von Kommunikation und Öffentlichkeit, Loccumer Protokoll 67 (1997), WWW-Ressource, URL (29.02.2000): http://www.loccum.de/materialien/netztagung/hofmann.doc. Hosenfeld, Friedhelm: Keimzelle. Von EMail bis WWW – die wichtigsten Dienste im Internet, in: c’t 10 (1994), S. 112-118. ICANN: Internet Corporation for Asigned Names and Numbers, 2000, WWW-Ressource, URL (01.07.2000): http://www.icann.org. Internet Software Consortium (ISC): Internet Domain Survey. January 2000. Number of Hosts advertised in the DNS, WWW-Ressource, URL (01.08.2000): http://www.isc.org/ds/WWW-200001/report.html. Internet Software Consortium (ISC): Distribution by Top-Level Domain Name by Host Count, WWW-Ressource, URL (01.08.2000): http://www.isc.org/ds/WWW-200001/distbynum.html. Jaffe, Saul: SF-Lovers Digest, Rutgers State University of New Jersey 2000, WWW-Ressource, URL (01.05.2000): http://sflovers.rutgers.edu/digest/review.html. Jarren, Otfried: Internet – neue Chancen für die politische Kommunikation?, in: Aus Politik und Zeitgeschichte 40 (1998), S.13-21. 137 Jones, Bruce: usenet.hist mailinglist-Archive, University of California at San Diego / Department of Communication 1997, WWW-Ressource, URL (01.03.2000): http://communication.ucsd.edu/bjones/Usenet.Hist/Nethist/index.html. Jones, Bruce / Spencer, Henry / Wiseman, Henry: The Usenet Oldnews Archive, University of California at San Diego / Department of Communication 1996, WWW-Ressource, URL (01.03.2000): http://www.communication.ucsd.edu/A-News. Jones, Bruce / Spencer, Henry / Wiseman, Henry: Human-NETS Digest, University of California at San Diego / Department of Communication 1996, WWW-Ressource, URL (01.03.2000): http://www.communication.ucsd.edu/A-News/FA.human-nets/FA.humannets-index.html. Kahn, Robert E.: The Role of Government in the Evolution of the Internet, in: National Academy of Engineering (Hg.): Revolution in the U.S. Information Infrastructure, National Academy Press 1994, WWW-Ressource, URL (29.02.2000): http://www.nap.edu/readingroom/books/newpath/chap2.html. Kehoe, Brendan P.: Zen and the Art of the Internet. A Beginner’s Guide to the Internet. First Edition, Louisiana State University / Department of Computer Science 1992, WWWRessource, URL (01.06.2000): http://www.csc. lsu.edu/tutorial/Zen/zen-1.0_toc.html. Keukert, Michael: Schoß- und Höllenhunde. Die schillernde Welt der privaten Netzwerke in Deutschland, in: c’t 3 (1991), S.42-55. Kleinrock, Leonard: The Birth of the Internet. Leonard Kleinrock’s Personal History/Biography, University of California at Los Angeles / Computer Science Department 1996, WWW-Ressource, URL (01.05.2000): http://millennium.cs.ucla.edu/LK/Inet/birth.html. Kleinsteuber, Hans J.: Konzentrationsprozesse im Mediensystem der USA, in: Aus Politik und Zeitgeschichte 8-9 (1996), S. 22-31. Knoche, Manfred: Strukturwandel der Öffentlichkeit nach dem Konzentrationsprinzip, in: Wilke, Jürgen (Hg.): Massenmedien und Zeitgeschichte, Konstanz 1999, S. 731-748. Köhntopp, Kristian: Weltweit vernetzt. Struktur und Dienste des Internet, in: c’t 2 (1993), S. 82-85. Königshausen, Georg: Btx – ursprüngliches Konzept gescheitert. Bestandsaufnahme nach der Einführung von Datex-J, in: Media Perspektiven 8 (1993), S. 388-393. Kopp, Niki: Das Web wird vermessen, in: Internet World 12 (1999), S. 54-56. Krakau, Knud: Außenbeziehung der USA. 1945-1991, in: Adams, Willi Paul / Czempiel, Ernst-Otto / Ostendorf, Berndt / Shell, Kurt L. / Spahn, P. Bernd / Zöller, Michael (Hg.): Länderbericht USA. Band I, Bonn 1992, S. 216-255. Krotz, Friedrich: Elektronisch mediatisierte Kommunikation. Überlegungen zur Konzeption einiger zukünftiger Forschungsfelder der Kommunikationswissenschaft, in: Rundfunk und Fernsehen 4 (1995), S. 445-462. Kubicek, Herbert: Das Internet auf dem Weg zum Massenmedium? – Ein Versuch, Lehren aus der Geschichte alter und neuer Medien zu ziehen, in: Werle, Raymund und Lang, Christa (Hg.): Modell Internet? Entwicklungsperspektiven neuer Kommunikationsnetze, Frankfurt / New York 1997, S. 213-239. Kubicek, Herbert: Das Internet 1995-2005, in: Leggewie, Claus und Maar, Christa (Hg.): Internet & Politik. Von der Zuschauer- zur Beteiligungsdemokratie?, Köln 1998, S. 55-69. 138 Kühnert, Hanno: Wenn das Internet sich nicht ändert, wird es zerfallen, in: Schöttker, Detlev (Hg.): Von der Stimme zum Internet: Texte aus der Geschichte der Medienanalyse, Göttingen 1999, S. 225-232. Kuhlen, Rainer: Die Mondlandung des Internet. Die Bundestagswahl 1998 in den elektronischen Kommunikationsforen, Konstanz 1998. Landweber, Larry: International Connectivity Maps, University of Wisconsin at Madison / Computer Science Department o.J., FTP-Ressource, URL (01.03.2000): ftp://ftp.cs.wisc.edu/connectivity_table/. Leib, Volker und Werle, Raymund: Wissenschaftsnetze in Europa und den USA – Die Rolle staatlicher Akteure bei ihrer Bereitstellung, in: Werle, Raymund und Lang, Christa (Hg.): Modell Internet? Entwicklungsperspektiven neuer Kommunikationsnetze, Frankfurt / New York 1997, S. 157-185. Leiner, Barry M./ Cerf, Vinton G./ Clark, David D. u.a.: The Past and Future History of the Internet, in: Communications of the ACM 40/2 (1997), S. 102-108. Licklider, J.C.R.: Man-Computer Symbiosis, in: Digital Equipment Corporation (Hg.): In Memoriam: J.C.R. Licklider 1915-1990, Palo Alto 1990, S. 1-20. Licklider, J.C.R. und Taylor, Robert W.: The Computer as a Communication Device, in: Digital Equipment Corporation (Hg.): In Memoriam: J.C.R. Licklider 1915-1990, Palo Alto 1990, S. 21-41. Licklider, J.C.R. und Vezza, Albert: Applications of Information Networks, in: Proceedings of the IEEE 66/11 (1978), S. 1330-1345. Linke, Angelika / Nussbaumer, Markus / Portmann, Paul R.: Studienbuch Linguistik, Tübingen 1994. Luyken, Georg Michael: Die AT&T ’83: zum strukturellen Umbruch und inhaltlichen Neuaufbau in der US-Telekommunikationsindustrie, in: Media Perspektiven 6 (1983), S. 394401. Madzia, Klaus: Klick in die Zukunft, in: Der Spiegel 11 (1996), S. 66-99. Maletzke, Gerhard: Psychologie der Massenkommunikation. Theorie und Systematik, Hamburg 1963. Marschall, Stefan: Das Internet als globaler Raum öffentlicher medialer Kommunikation?, in: Donges, Patrick / Jarren, Otfried / Schatz , Heribert (Hg.): Globalisierung der Medien? Medienpolitik in der Informationsgesellschaft, Wiesbaden 1999, S. 151-170. Matrix Information and Directory Services (MIDS): Internet, BITNET, UUCP, FidoNet, to July 1998 (log scale), o.O. 1999, WWW-Ressource, URL (01.07.2000): http://www.mids.org/mmq/504/big/ibuf.html. Mayer, Paul A. (Hg.): Computer Media and Communication. A Reader, New York 1999. Merit Network Information Center: History of NSFNET Growth by Networks, Merit 1995, FTP-Ressource, URL (01.07.2000): ftp://nic.merit.edu/nsfnet/statistics/history.netcount. Merit Network Information Center: Growth of computers and domain names, Merit 1997, FTP-Ressource, URL (01.07.2000): ftp://nic.merit.edu/nsfnet/statistics/history.hosts. Meyer-Stamer, Jörg: Das Internet als Beispiel dezentraler Techniksteuerung – Konsequenzen für Technologiepolitik in Deutschland, in: Kleinsteuber, Hans J. (Hg.): Der „Information Superhighway“: amerikanische Visionen und Erfahrungen, Opladen 1996, S. 139-147. 139 Miedel, Wolfgang: „Das Web ist noch nicht vollendet“, in: Internet World 1 (2000), S. 5456. Münker, Stefan: Mythos Internet, Frankfurt 1997. Musch, Jochen: Die Geschichte des Netzes: ein historischer Abriß, in: Batinic, Bernhard: Internet für Psychologen, Göttingen 1997, S. 15-39. Nelson, Ted: A New Home for the Mind, in: Mayer, Paul A. (Hg.): Computer Media and Communication. A Reader, New York 1999, S. 120-128. Network Working Group: RFC-Index, University of Southern California / Information Sciences Institute 2000, FTP-Ressource, URL (01.06.2000): ftp://ftp.isi.edu/in-notes/rfc-index.txt/. RFC 0003 Crocker, Steve: Documentation Conventions, 1969. RFC 0053 Crocker, Steve: An Official Protocol Mechanism, 1970. RFC 0095 Crocker, Steve: Distribution of NWG/RFCs Through the NIC, 1971. RFC 0111 Crocker, Steve: Pressure from the Chairman, 1971. RFC 0185 North, Jeanne: NIC Distribution of Manuals and Handbooks, 1971. RFC 0196 Watson, Richard W.: A Mail Box Protocol, 1971. RFC 0224 McKenzie, Alex: Comments on Mailbox Protocol, 1971. RFC 0278 Bhushan, Abhay u.a.: Revision of the Mail Box Protocol, 1971. RFC 0302 Bryan, Roland: Exercising the ARPANET, 1972. RFC 0334 McKenzie: Network Use on MAY 8, 1972. RFC 0354 Bhushan, Abhay: The File Transfer Protocol, 1972. RFC 0371 Kahn, Robert: Demonstration at International Computer Communications Conference, 1972. RFC 0372 Watson, Richard W.: Notes on a Conversation with Bob Kahn on the ICCC, 1972. RFC 0453 Kudlick, Michael D.: Meeting Announcement to Discuss a Network Mail System, 1973. RFC 0469 Kudlick, Michael D.: Network mail meeting summary, 1973. RFC 0479 White, James E.: Use of FTP by the NIC Journal, 1973. RFC 0527 Covill, D. L.: ARPAWOCKY, 1973. RFC 0588 Stokes, Adrian V.: The London node is now up, 1973. RFC 0601 McKenzie, A.: Traffic Statistics (November 1973), 1973. RFC 0602 Metcalfe, Bob: "The Stockings Were Hung by the Chimney with Care", 1973. RFC 0675 Cerf, Vinton u.a.: Specifications of Internet Transmission Control Program, 1974. RFC 0706 Postel, Jon: On the Junk Mail Problem, 1975. 140 RFC 0724 Crocker, David H. u.a.: Proposed official standard for the format of ARPA Network messages, 1977. RFC 0733 Crocker, David H. u.a.: Standard for the Format of ARPA Network Text Messages, 1977. RFC 0739 Postel, Jon: Assigned Numbers, 1977. RFC 0750 Postel, Jon: Assigned Numbers, 1978. RFC 0758 Postel, Jon: Assigned Numbers, 1979. RFC 0760 Postel, Jon: DoD Standard Internet Protocol, 1980. RFC 0761 Postel, Jon: DoD Standard Transmission Control Protocol, 1980. RFC 0770 Postel, Jon: Assigned Numbers, 1980. RFC 0774 Postel, Jon: Internet Protocol Handbook, 1980. RFC 0790 Postel, Jon: Assigned Numbers, 1981. RFC 0801 Postel, Jon: NCP/TCP TRANSITION PLAN, 1981. RFC 0820 Postel, Jon und Vernon, J.: Assigned Numbers, 1983. RFC 0840 Postel, Jon: Official protocols, 1983. RFC 0850 Horton, M.R.: Standard for Interchange of USENET Messages, 1983. RFC 0870 Reynolds, Joyce und Postel, Jon: Assigned Numbers, 1983. RFC 0875 Padlipsky, M.A.: Gateways, Architectures, and Heffalumps, 1983. RFC 0882 Mockapetris, P.: Domain Names – Concepts and Facilities, 1983. RFC 0897 Postel, Jon: Domain Name System Implementation Schedule, 1984. RFC 0900 Reynolds, Joyce und Postel, Jon: Assigned Numbers, 1984. RFC 0920 Postel, Jon und Reynolds, Joyce: Domain Requirements, 1984. RFC 0943 Reynolds, Joyce und Postel, Jon: Assigned Numbers, 1985. RFC 0977 Kantor, Brian und Lapsley, Phil: Network News Transfer Protocol, 1986. RFC 0990 Reynolds, Joyce und Postel, Jon: Assigned Numbers, 1986. RFC 1000 Reynolds, Joyce und Postel, Jon: The Request For Comments Reference Guide, 1987. RFC 1087 Internet Activities Board: Ethics and the Internet, 1989. RFC 1121 Postel, Jon u.a.: Act One – The Poems, 1989. RFC 1135 Reynolds, Joyce: The Helminthiasis of the Internet, 1989. RFC 1150 Malkin, G.S. und Reynolds, Joyce: FYI on FYI: Introduction to the FYI Notes, 1990. RFC 1160 Cerf, Vinton: The Internet Activities Board, 1990. RFC 1174 Cerf, Vinton: IAB Recommended Policy on Distributing Internet Identifier Assignment and IAB Recommended Policy Change to Internet "Connected" Status, 1990. 141 RFC 1177 Malkin, G.S., Marine, A.N. und Reynolds, J.K.: FYI on Questions and Answers: Answers to commonly asked "new internet user" questions, 1990. RFC 1192 Kahin, Brian: Commercialization of the Internet, 1990. RFC 1206 Malkin, G.S. und Marine, A.N.: FYI on Questions and Answers: Answers to commonly asked "new Internet user" questions, 1991. RFC 1296 Lottor, Mark: Internet Growth (1981-1991), 1992. RFC 1310 Chapin, Lyman: The Internet Standards Process, 1992. RFC 1325 Malkin, G.S. und Marine, A.N.: FYI on Questions and Answers: Answers to Commonly asked "New Internet User" Questions, 1992. RFC 1436 Anklesaria, F. u.a.: The Internet Gopher Protocol (a distributed document search and retrieval protocol), 1993. RFC 1594 Marine, A. / Reynolds, J. / Malkin, G.: FYI on Questions and Answers Answers to Commonly asked "New Internet User" Questions, 1994. RFC 1630 Berners-Lee, Tim: Uniform Resource Identifiers in WWW. A Unifying Syntax for the Expression of Names and Addresses of Objects on the Network as used in the World-Wide Web, 1994. RFC 1855 Hambridge, Sally: Netiquette Guidelines, 1995. RFC 1935 Quarterman, Jon und Carl-Mitchell, S.: What is the Internet, Anyway?, 1996. RFC 1945 Berners-Lee, T. / Fielding, R. / Frystyk H.: Hypertext Transfer Protocol -HTTP/1.0., 1996. RFC 2468 Cerf, Vinton: I Remember IANA, 1998. RFC 2555 Network Working Group: 30 Years of RFC, 1999. RFC 2616 Fielding, R. / Gettys, J. Mogul / J. Frystyk, H. / Masinter, L. / Leach, P. / Berners-Lee, T.: Hypertext Transfer Protocol -- HTTP/1.1., 1999. RFC 2664 Plzak, R., Wells, A. und Krol, E.: FYI on Questions and Answers - Answers to Commonly Asked "New Internet User" Questions, 1999. Neverla, Irene: Das Medium denken. Zur sozialen Konstruktion des Netz-Mediums, in: ebd. (Hg.): Das Netz-Medium. Kommunikationswissenschaftliche Aspekte eines Mediums in Entwicklung, Opladen/Wiesbaden 1998, S.17-36. Noam, Eli: Anarchie in den Netzen? Regulierung und Deregulierung des Internet, in: Leggewie, Claus und Maar, Christa (Hg.): Internet & Politik. Von der Zuschauer- zur Beteiligungsdemokratie?, Köln 1998, S. 145-158. Norberg, Arthur L. und O’Neill, Judy E.: Transforming in Computer Technology: Information Processing for the Pentagon 1962 – 1986, Baltimore 1996. NSF: NSFNET Backbone Services Acceptable Use Policy, Merit 1992, FTP-Ressource, URL (01.07.2000): ftp://nic.merit.edu/nsfnet/acceptable.use.policy. o.A.: :-) oder :-(. Der US-Informationsdienst Compuserve lockt deutsche PC-Benutzer ins weltumspannende Computernetz, in: Der Spiegel 17 (1993), S. 270-272. o.A.: Auf die Knie. Ein Virus wurde in amerikanische Datennetze eingeschleust – der erste schwere Fall einer Computer-Infektion, in: Der Spiegel 45 (1988), S. 294-296. 142 o.A.: „Die großen Systeme reizten Robert“. Ein US-Student löste mit einem Virusprogramm einen Schock in der Computerszene aus, in: Der Spiegel 47 (1988), S. 252-265. o.A.: Ganz schön belastet. Verkehrsstau auf der Datenautobahn: Millionen von Computerfans drängen ins weltumspannende Rechnernetz „Internet“, in: Der Spiegel 7 (1994), S. 165-168. o.A.: Goldgräber im Cyberspace. Internet (II): Das Geschäft der Zukunft – ganze Branchen werden sich verändern, in: Der Spiegel 12 (1996), S. 116-132. o.A.: Hausmitteilung, in: Der Spiegel 11 (1994), S.3. o.A.: Hausmitteilung, in: Der Spiegel 43 (1994), S.3. o.A.: Verbotene Bilder. Über Datennetze und PC vertreiben Kinderporno-Händler weltweit ihre Ware, in: Der Spiegel 43 (1993), S. 233-240. o.A.: Weltpostamt von Bill. Software-Gigant Microsoft strebt jetzt auch auf dem Milliardenmarkt der Datennetze die Vormacht an, in: Der Spiegel 47 (1994), S. 100-101. Postel, Jon: Internet Experiment Notes (1980-1983), University of Southern California / Information Sciences Institute 2000, FTP-Ressource, URL (01.06.2000): ftp://ftp.isi.edu/innotes/ien/. IEN 040 Postel, Jon: Specification of Internetwork Transmission Control Protocol Version 4, 1978. IEN 041 Postel, Jon: Internetwork Protocol Specification - Version 4, 1978. IEN 048 Cerf, Vinton: The CATENET Model for Internetworking, 1978. IEN 123 Postel, Jon: DoD Standard Internet Protocol, 1979. IEN 124 Postel, Jon: DoD Standard Transmission Control Protokoll, 1979. IEN 137 Cohen, Danny: On Holy Wars and a Plea for Peace, 1980. Quarterman, John S.: The Matrix. Computer Networks and Conferencing Systems Worldwide, o.O. 1990. Raymond, Eric S.: Jargon File 4.2., McGill University / Earth and Planetary Sciences 2000, WWW-Ressource, URL (01.06.2000): http://www.eps.mcgill.ca/jargon/jargon.html. Reindl, Josef: Partikularstaatliche Politik und technische Dynamik: Die drahtgebundene Telegraphie und der Deutsch-Östereichische Telegraphenverein von 1850, in: Teuteberg, Hans-Jürgen und Neutsch, Cornelius (Hg.): Vom Flügeltelegraphen zum Internet: Geschichte der modernen Telekommunikation, Stuttgart 1998, S. 27-47. Rheingold, Howard: Virtuelle Gemeinschaften. Soziale Beziehungen im Zeitalter des Computers, Bonn / Paris / Reading 1994. RIPE NCC: RIPE Document Store. All RIPE Documents, WWW-Ressource, URL (01.03.2000): http://www.ripe.net/ripe/docs/alltitle.html. ripe-001 Blokzijl, R.: RIPE Terms of Reference, 1989. ripe-004 Blokzijl, R. und Karrenberg, Daniel: Task Force Description, 1989. ripe-045 Kowack, Glenn: Relationship between A & R networks and Commercial networks, 1991. 143 ripe-057 Karrenberg, Daniel: General information about RIPE and the RIPE NCC, 1992. ripe-139 Orange, Carol: Reseaux IP Européens Network Coordination Center. Annual Report 1995, 1996. Roistacher, Richard: The Virtual Journal, in: Computer Networks 2 (1978), S. 18-24. Rosenbach, Marcel: Von der Agenda for Action zum Telecommunications Act von 1996 – US-Kommunikationspolitik zwischen Deregulierung und öffentlichem Interesse, in: Kleinsteuber, Hans J. (Hg.): Der „Information Superhighway“: amerikanische Visionen und Erfahrungen, Opladen 1996, S. 89-119. Rosenzweig, Roy: Wizards, Bureaucrats, Warriors & Hackers: Writing the History of the Internet, in: American Historical Review 103/12 (1998), S. 1530-1552. Rossignac, Jarek / Kehoe, Colleen / Pitkow, Jim / Rogers, Juan / Aggarwal, Gaurav / Sutton, Kate / Malholtra, Naresh: GVU’s WWW User Surveys, Georgia Institute of Technologie / Graphics, Visualization & Usability (GVU) Center 2000, WWW-Ressource, URL (01.06.2000): http://www.gvu.gatech.edu. Rost, Martin: Anmerkungen zu einer Soziologie des Internet, in: Gräf, Lorenz und Krajewski, Markus (Hg.): Soziologie des Internet: handeln im elektronischen Netzwerk, Frankfurt 1997, S.14-39. Rötzer, Florian: Telepolis. Urbanität im digitalen Zeitalter, Mannheim 1995. Salus, Peter H.: Casting the Net. From ARPANet to Internet and Beyond, Reading u.a. 1995. Salus, Peter H.: Myth and History, Matrix Information and Directory Services (MIDS) 2000, WWW-Ressource, URL (01.05.2000): http://www.mids.org/mn/1002/myth.html. Sauter, Udo: Geschichte der Vereinigten Staaten von Amerika, Stuttgart 1994. Schäfers, Anja: Im Mittelpunkt der Mensch: Neue Medien und historischer Vergleich, in: Neverla, Irene (Hg.): Das Netz-Medium. Kommunikationswissenschaftliche Aspekte eines Mediums in Entwicklung, Opladen/Wiesbaden 1998, S. 89-110. Shell, Kurt L.: Kongreß und Präsident, in: Adams, Willi Paul / Czempiel, Ernst-Otto / Ostendorf, Berndt / Shell, Kurt L. / Spahn, P. Bernd / Zöller, Michael (Hg.): Länderbericht USA. Band I, Bonn 1992, S. 357-396. Schmid, Ulrich: Kabelfernsehen – Bildschirmtext – Internet. Auf dem Weg zur „Media Activa?“, in: Wilke, Jürgen (Hg.): Massenmedien und Zeitgeschichte, Konstanz 1999, S. 518532. Schmid, Ulrich und Kubicek, Herbert: Von den „alten“ Medien lernen. Organisatorischer und institutioneller Gestaltungsbedarf interaktiver Medien, in: Media Perspektiven 8 (1994), S. 401-408. Schmidt, Johannes F. K.: Der Personal Computer (1974-1985). Architektonische Innovation und vertikale Desintegration, in: Weyer, Johannes / Kirchner, Ulrich / Riedl, Lars / Schmidt, Johannes F. K.: Technik, die Gesellschaft schafft: soziale Netzwerke als Ort der Technikgenese, Berlin 1997, S. 147-225. Schneider, Volker: Evolution im Cyberspace: Die Anpassung nationaler Bildschirmtextsysteme an das Internet, in: Werle, Raymund und Lang, Christa (Hg.): Modell Internet? Entwicklungsperspektiven neuer Kommunikationsnetze, Frankfurt / New York 1997, S. 133-153. 144 Stondage, Tom: The Victorian Internet. The Remarkable Story of the Telegraph & the Nineteenth Century’s On-Line Pioneers, New York 1998. Teuteberg, Hans-Jürgen: Strukturmerkmale multimedialer Revolutionierung von Wirtschaft, Gesellschaft und Kultur an der Wende zum 21.Jahrhundert, in: ebd. und Neutsch (Hg.): Vom Flügeltelegraphen zum Internet: Geschichte der modernen Telekommunikation, Stuttgart 1998, S. 294-408. Teuteberg, Hans-Jürgen und Neutsch, Cornelius (Hg.): Vom Flügeltelegraphen zum Internet: Geschichte der modernen Telekommunikation, Stuttgart 1998. Thomas, Frank: Telefonieren in Deutschland. Organisatorische, technische und räumliche Entwicklung eines großtechnischen Systems, Frankfurt / New York 1995. Turoff, Murray und Hiltz, Roxanne: Meeting through your Computer, in: IEEE Spectrum 5 (1977), S. 58-64. Ulrich, Otto: Computer, Wertewandel und Demokratie. Öffnet die Informationsgesellschaft die Chancen für mehr politische Patizipation?, in: Aus Politik und Zeitgeschichte 25 (1984), S. 14-25. US Defense Communications Agency (DCA): ARPANET Newsletter (ANEWS 1980 – 1983), University of Southern California / Information Sciences Institute 2000, FTP-Ressource, URL (01.06.2000): ftp://ftp.isi.edu/in-notes/misc/ARPANET_News.mail. ANEWS-01 Joseph Haughney, Juli 1980. ANEWS-08 Joseph Haughney, September 1981. ANEWS-11 Glynn Parker, März 1982. ANEWS-12 Glynn Parker, Juni 1982. ANEWS-14 Jack Snively, September 1982. ANEWS-15 Vinton Cerf, September 1982. ANEWS-16 Jack Snively, September 1982. ANEWS-17 Jack Snively, November 1982. ANEWS-23 Heidi B. Heiden, April 1984. ANEWS-24 Heidi B. Heiden, April 1984. Verein zur Förderung eines Deutschen Forschungsnetzes e.V.: Satzung des DFN-Vereins, Juli 1992, WWW-Ressource, URL (01.05.2000): http://www.dfn.de/dfn/satzung.html. Voets, Stephan und Hamel, Reinhard: Das große ECON PC-Lexikon, Düsseldorf / München 1999. Vowe, Gerhard: Zwischen Anarchie und Zensur. Zur Regulierung internationaler computervermittelter Kommunikation, in: Hartmann, Christian und Hüttig, Christoph (Hg.): Netzdiskurs - Das Internet und der Strukturwandel von Kommunikation und Öffentlichkeit, Loccumer Protokoll 67 (1997), WWW-Ressource, URL (29.02.2000): http://www.loccum.de/materialien/netztagung/vowe.doc. Wagner, Heiderose und Kubicek, Herbert: Community Networks und der Information Highway – Von der Counterculture zum Mainstream, in: Kleinsteuber, Hans J. (Hg.): Der „Information Superhighway“: amerikanische Visionen und Erfahrungen, Opladen 1996, S. 201-235. 145 Walitsch, Herwig: Computer, in: Hiebel, Hans H. u.a. (Hg.): Die Medien: Logik – Leistung – Geschichte, München 1998, S. 227-253. Walter, Rolf: Die Kommunikationsrevolution im 19. Jahrhundert und ihre Effekte auf Märkte und Preise, in: North, Michael (Hg.): Kommunikationsrevolutionen: die neuen Medien des 16. und 19. Jahrhunderts, Köln u.a. 1995, S. 178-190. Werle, Raymund: Vom Wissenschaftsnetz zum Kommerznetz – Zur Entstehung und Entwicklung des Internet, in: Hartmann, Christian und Hüttig, Christoph (Hg.): Netzdiskurs Das Internet und der Strukturwandel von Kommunikation und Öffentlichkeit, Loccumer Protokoll Nr. 67 (1997), WWW-Ressource, URL (29.02.2000): http://www.loccum.de/materialien/netztagung/werle.doc. Werle, Raymund: Zwischen Selbstorganisation und Steuerung. Geschichte und aktuelle Probleme des Internet, in: Wilke, Jürgen: Massenmedien und Zeitgeschichte, Konstanz 1999, S. 499-517. Werth, Christoph H.: Die Herausforderung des Staates in der Informationsgesellschaft, in: Aus Politik und Zeitgeschichte 40 (1998), S. 22-29. Weyer, Johannes: Konturen einer netzwerktheoretischen Techniksoziologie, in: Weyer, Johannes / Kirchner, Ulrich / Riedl, Lars / Schmidt, Johannes F. K.: Technik, die Gesellschaft schafft: soziale Netzwerke als Ort der Technikgenese, Berlin 1997, S. 23-52. Wheatley, Steven C.: Wissenschaftsförderung, in: Adams, Willi Paul / Czempiel, E.-O. / Ostendorf, B. / Shell, K. L. / Spahn, P. B. / Zöller, M. (Hg.): Länderbericht USA. Band II, Bonn 1992, S. 588-597. Wigand, Rolf T.: Die Deregulation der amerikanischen Kommunikationsindustrie, in: Media Perspektiven 6 (1983), S. 385-401. Wildes, Karl L. und Lindgren, Nilo A.: A Centrury Of Electrical Engineering and Computer Science at MIT. 1882-1982, Cambridge/London 1985. Wilke, Jürgen: Leitmedien und Zielgruppenorgane, in: ebd. (Hg.): Mediengeschichte der Bundesrepublik Deutschland, Bonn 1999, S. 302-330. Wilke, Jürgen: Zukunft Multimedia, in: ebd. (Hg.): Mediengeschichte der Bundesrepublik Deutschland, Bonn 1999, S. 751-774. Wilke, Peter: The Virtual Internet Economy – Informations Industries und die Entwicklung des Internet in den USA, in: Kleinsteuber, Hans J. (Hg.): Der „Information Superhighway“: amerikanische Visionen und Erfahrungen, Opladen 1996, S. 151-170. Wittke, Volker: Online in die Do-it-yourself-Gesellschaft? – Zu Widersprüchen in der Entwicklung von Online-Diensten und denkbaren Lösungsformen, in: Werle, Raymund und Lang, Christa (Hg.): Modell Internet? Entwicklungsperspektiven neuer Kommunikationsnetze, Frankfurt / New York 1997, S. 93-114. Zakon, Robert H.: Hobbes’ Internet Timeline v5.0, Internet Society 2000, WWW-Ressource, URL (25.02.2000): http://www.isco.org/guest/zakon/Internet/History/HIT.html. Zimmer, Jochen: Online-Dienste für ein Massenpublikum? Die Expansion des OnlineMarktes in Deutschland, in: Media Perspektiven 10 (1995), S. 476-488. Zimmer, Jochen: Profile und Potentiale der Onlinenutzung. Ergebnisse erster OnlineMarktstudien in Deutschland, in: Media Perspektiven 9 (1996), S. 487-492. Zittel, Thomas: Über die Demokratie in der vernetzten Gesellschaft. Das Internet als Medium der politischen Kommunikation, in: Aus Politik und Zeitgeschichte 42 (1997), S. 2329. 146 Zurawski, André u.a.: Highspeed-Web-Zugang, in: Internet Professionell 10 (1999), S. 3455. 147 Abkürzungsverzeichnis 1822 AFIPS AI ANEWS ANS AOL ARPA/DARPA ARPANET AT&T AUTODIN AUP BBN BBS BelWü BERNET BITNET Btx CATENET CCITT CIX CMU CNRI CREN CSNET DANTE Datex-J DCA DDN DEC DENIC DFN DFN-Verein DFÜ DNS DoD DoE EARN EFF EIN E-Mail EPSS EU EUnet FCC FTP FRICC FYI Gbps GTE HMI HTML HTTP IAB BBN Report No. 1822 American Federation of Information Processing Societies Artificial Intelligence ARPANET Newsletter Advanced Network Services Incorporation America Online (Defense) Advanced Research Projects Agency ARPA Network American Telephone and Telegraph Company Automatic Defense Integrated Network Acceptable Use Policy Bold, Beranek & Newman Bulletin Board System Baden-Württembergs extended LAN Berlin Network Because It’s Time Network Bildschirmtext Concatenated Network Consultative Committee for International Telegraphy and Telephony Commercial Internet eXchange Carnegie Mellon University Corporation for National Research Initiatives Corporation for Research and Educational Networking Computer Science Network Delivery of Advanced Network Technology to Europe Data Exchange für Jedermann Defense Communications Agency Defense Data Network Digital Equipment Corporation Deutsches Network Information Center Deutsches Forschungsnetz Verein zur Förderung eines Deutschen Forschungsnetzes e.V. Datenfernübertragung Domain Name System / Service Department of Defense Department of Energy European Academic Research Network Electronic Frontier Foundation European Informatics Network Electronic Mail Experimental Packet-Switching Service Europäische Union European Unix network Federal Communications Commission File Transfer Protocol Federal Research Internet Coordinating Commitee For Your Information Gigabit pro Sekunde General Telephone and Electronic Hahn-Meitner Institut Hypertext Markup Language Hyper Text Transfer Protocol Internet Activities/Architectures Board 148 IANA IBM ICANN ICCB ICCC IEG IEN IETF IESG IFIP Intelsat INWG IMP IPTO IRIA IRTF IRSG IRC ISC ISI ISO ISOC JUnet Kbps KI LAN Mbps MCI MIDS MILNET MIT MSGGroup NASA NCC NCP NIC NLS NMC NNTP NOC NPL NSF NSFNET NWG OASC OSI PARC PC PCI PDP PRNET PSI RAND RARE RFC RIPE SAGE Internet Assigned Numbers Authority International Business Machines Corporation Internet Corporation for Assigned Names and Numbers Internet Configuration Control Board International Conference on Computer Communication Internet Engineering Group Internet Experiment Note Internet Engineering Task Force Internet Engineering Steering Group International Federation of Information Processing International Telecommunications Satellite Organization International Network Working Group Interface Message Processor Information Processing Techniques Office Institut de Recherche d’Informatique et d’Automatique Internet Research Task Force Internet Research Steering Group Internet Relay Chat Internet Software Consortium Information Science Institute (USC) International Organization for Standardization Internet Society Japan Unix network Kilobit pro Sekunde Künstliche Intelligenz Local Area Network Megabit pro Sekunde Microwave Communications Inc. Matrix Information and Directory Services, Inc. Military Network Massachusetts Institute of Technologie Message Services Group National Aeronautics and Space Administration Network Control/Coordination Center Network Control Program/Protocol Network Information Center oN Line System Network Measurement Center Network News Transfer Protocol Network Operation Center National Physical Laboratories National Science Foundation National Science Foundation Network Network Working Group Office of Advanced Scientific Computing Open System Interconnection Palo Alto Research Center Personal Computer Packet Communications Incorporated Programmed Data Processor Packet Radio Network Performance Systems International Research and Development Corporation Réseaux Associés pour la Recherche Européenne Request For Comment Réseau IP Européen Semi Automatic Ground Enviroment 149 SATNET SDC SERCnet SRI TCP/IP TELENET Telnet TIP UCB UCLA UCSB URL USC USENET UUCP WAN WiN WWW Atlantic Satellite Network System Development Corporation Science and Engineering Research Council Network Stanford Research Institute Transmission Control Protocol / Internet Protocol TELENET Communication Incorporation Telecommunication Network Protocol Terminal Interface Message Processor University of California at Berkeley University of California at Los Angeles University of California at Santa Barbara Uniform Resource Locator University of Southern California User’s Network Unix to Unix CoPy Wide Area Network Wissenschaftsnetz World Wide Web 150 Anhang A. http://www.ucla.edu Anhang A.1. Internet Explorer Anhang A.2. NeoTrace 151 Anhang B. MIDS: Internet, UUCP, Bitnet, FidoNet to July 1998 (Vgl. Matrix Information and Directory Services) 152 Anhang C. GVU’s WWW User Survey (Vgl. Rossignac) 1. Umfrage 5. Umfrage Jan. 1994 Okt. 1995 Einkommen (in Tausend US-$ p.a.) 10. Umfrage Oktober 1998 total total USA Europa andere USA Europa andere 4.700 5,1% 94,9% 6,3% 28,3% 26,9% 16,2% 10,7% 7,7% 3,9% - 23.348 29% 71% 13% 18% 16% 13% 11% 19% 8% 1,9% 8,2% 10.624 41,2% 58,8% 12,4% 13,7% 14,6% 11,4% 10,4% 20,4% 17,0% 1,2% 3,1% 9,6% 731 16,3% 83,7% 12,5% 29,0% 27,2% 13,7% 6,6% 8,0% 2,9% 0,1% 2,1% 9,7% 1.233 30,5% 69,5% 18,5% 20,1% 17,8% 12,8% 9,7% 12,8% 7,1% 1,0% 4,0% 15,4% 4.254 35,8% 64,2% 5,7% 11,0% 15,0% 13,0% 11,7% 23,5% 18,5% 1,8% 1,2% 6,8% 369 18,4% 81,6% 6,8% 24,7% 25,5% 18,2% 8,7% 11,9% 3,9% 0,5% 2,7% 6,0% 399 23,6% 76,4% 7,5% 17,5% 18,8% 16,5% 10,8% 16,8% 10,9% 1,3% 1,0% 8,8% 3,4% 4,0% 3,0% 4,7% 3,1% 1,4% 4,8% 28,6% 32,6% 18,6% 23,0% 30,4% 14,4% 20,8% 31,6% 30,4% 28,9% 30,2% 33,6% 33,6% 36,8% 16,9% 4,4% 13,7% 2,4% 24,6% 5,5% 11,4% 3,6% 17,2% 3,4% 29,0% 7,6% 19,0% 4,3% 3,6% 2,9% 2,3% 4,0% 3,5% 1,9% 3,3% 1,2% 1,2% 5,3% 3,6% 0,8% 3,5% 1,3% - 14,1% 2,9% 4,0% 7,1% 21,6% 44,7% 5,6% - - - - - - Berufstätigkeit Bildungsstand Alter Teilnehmer Frauenanteil Männeranteil Unter 20 21-25 26-30 31-35 36-40 41-50 Über 50 k.A. Grammar School High School Vocation/Technical School (2 years) Some College College Graduate (4 year) Master’s Degree (MS) Doctoral Degree (DS) Professional Degree (MD, JD, etc.) Other UGrad. Student Administration Business Faculty Grad. Student Professional Other Computer Related Management Professional Educator and/or Student Other Upper Management Trained Professional Middle Management Skilled Laborer Junior Management Consultant Administrativ Staff Temporary Employee Support Staff Researcher Student Self-employed/Partner Other k.A. under 10 10-20 20-30 30-40 40-50 50-75 75-100 over 100 9. Umfrage April 1998 21,4% 11,4% 22,5% 35,4% 11,1% 15,6% 22,9% 10,2% 18,3% 24,9% 31,5% 34,4% 19,8% 6,4% 14,2% - - - - 16,7% 4,0% 5,6% 9,2% 11,6% 11,1% 21,2% 10,1% 10,5% 153 17% 11,5% 9,6% 10,7% 12,2% 7,8% 18,2% 6,0% 7,1% 18,5% 8,6% 10,3% 10,8% 10,0% 10,2% 17,2% 6,6% 7,8% - 6,8% 28,5% 11,0% 3,1% 3,9% 4,7% 4,4% 1,0% 7,5% 2,7% 9,4% 9,9% 6,9% 17,2% 2,1% 4,0% 7,4% 11,1% 11,3% 21,4% 12,5% 13,1% 7,0% 16,3% 8,1% 1,9% 6,0% 9,8% 1,4% 1,6% 4,6% 12,2% 19,5% 7,9% 3,8% 18,2% 6,5% 9,8% 7,6% 12,7% 11,7% 19,0% 7,0% 7,6% 9,8% 26,1% 8,0% 1,0% 5,0% 8,0% 3,3% 1,3% 5,8% 4,0% 11,5% 12,8% 3,5% 18,3% 5,5% 8,0% 6,5% 14,5% 9,8% 19% 8,8% 9,5% 8,7% 3,5% Selbständige Schüler / AzuBi 154 - - Familie/Verwandte Internet-Café Sonstiges 34,2% - Freunde/Bekannte Schule/Universität 32,1% Internet-by-Call - 33 Jahre - 35 Jahre 8,1% 4,5% 2,4% 8,0% 16,3% 43,6% 17,1% 63,9% 23,4% 8,8% 3,9% 15,5% 84,5% - 04/05 1998 4,3% 6,2% 3,9% 5,5% 22,2% 42,2% - 32,5% 46,6% - 7,6% 4,3% 1,6% 9,9% 16,1% 44,6% 15,9% 64,0% 23,8% 8,6% 3,5% 17,2% 82,8% 16.755 10/11 1998 35,1% 8,7% 20-29 Jahre 19 oder jünger - 30,5% 15,2% 40-49 Jahre 30-39 Jahre 10,4% Über 50Jahre 8,1% 4,5% 1,7% 10,8% 14,2% 45,7% 15% 59,6% 26,7% 9,6% 4,2% 23,2% 76,8% 17.904 04/05 1999 3,6% 4,3% 3,5% 3,5% 16,4% 41,1% 22,3% 25,3% 47,6% 6,5% 31,8% 32,6% 17,2% 11,9% 8,6% 5,1% 1,5% 7,7% 15,1% 49,0% 13,1% 59,8% 27,1% 10,6% 2,4% 22,5% 3,5% 4,3% 4,4% 3,8% 14,9% 37,5% 27,8% 22,2% 49,5% 4,8% 30,4% 33,9% 18,6% 12,4% - - - - - - - 62,3% - - - 26,1% 73,9% Über 30.000 Über 25.000 77,5% 04/05 2000 10/11 1999 Berufliche Tätigkeit Firma/Arbeitgeber 27,6% 31 Jahre 45,5% 30 Jahre 7,3% 4,5% 7,1% 2,9% 5,0% 7,2% 16,7% 44% 17,4% 69,8% 21,6% 6,8% 1,8% 12,2% 87,8% 16.403 10/11 1997 3,7% 7,7% 14,9% 39,2% 22,4% 71,6% 19,8% 6,4% 2,2% 10,5% 89,5% 16.299 04/05 1997 Access-Provider 29 Jahre 29 Jahre Alter 6,3% 3,9% 5,1% 5,8% 12,7% 36,4% 29,8% 78,4% 16,0% 4,2% 1,4% 9,2% 90,8% 7.445 10/11 1996 Online-Dienst 4,1% 3,7% 3,4% 3,3% Sonstige 6,8% 5,0% 10,3% 30,0% 40,4% Beamte - 32,6% 85,8% 9,9% 2,9% 1,4% 9% 91% 3.012 04/05 1996 Schulabschluss Doktoranden 48,2% Angestellte 0,9% Hauptschule Studenten 0,1% (noch) keinen 4,5% 6,2% Frauenanteil 94,5% 93,8% Männeranteil Mittlere Reife 1.880 Teilnehmerzahl Abitur 10/11 1995 Erhebungszeitraum Anhang D. W3B-Umfragen (Vgl. Fittkau) Internetzugang Anhang E. Distribution by Topleveldomain (Januar 2000) (Vgl. Internet Software Consortium, Distribution) Domain TOTAL com net edu jp uk us mil de ca au org nl fr gov it fi tw se br es mx no dk be ch kr at nz ru pl za sg unknown ar il arpa hk hu cz tr pt gr cn ie my co cl th ee is ua sk uy ro in su id si ae ve hr lv lt ph bg Hosts 72398092 24863331 16853655 6085137 2636541 1901812 1875663 1751866 1702486 1669664 1090468 959827 820944 779879 777750 658307 631248 597036 594627 446444 415641 404873 401889 336928 320840 306073 283459 274173 271003 214704 183057 167635 148249 146830 142470 139946 117501 114882 113695 112748 90929 90757 77954 71769 59681 59012 40565 40190 40176 29682 29598 26713 25906 25385 24689 23445 21882 21052 20535 19718 14281 14147 13823 12701 12394 11854 Domain TOTAL yu lu pe nu int cr do cy tt pk lb eg kw to kz cc sa bm kg gl bw zw na cx ec gt py mk bn pr md pa lk mt ac bh ni fo sv ma bo ge by pf mu am om sz ci jo ke vi ba ad ir gp bt zm sm gi li st tm ky mc Commercial Networks Educational Japan United Kingdom United States US Military Germany Canada Australia Organizations Netherlands France Government Italy Finland Taiwan, Province Of China Sweden Brazil Spain Mexico Norway Denmark Belgium Switzerland Korea, Republic Of Austria New Zealand Russian Federation Poland South Africa Singapore Unknown Argentina Israel Mistakes Hong Kong Hungary Czech Republic Turkey Portugal Greece China Ireland Malaysia Colombia Chile Thailand Estonia Iceland Ukraine Slovakia (Slovak Republic) Uruguay Romania India Soviet Union Indonesia Slovenia United Arab Emirates Venezuela Croatia Latvia Lithuania Philippines Bulgaria 155 Hosts 72398092 9982 9670 9230 8991 8727 7471 6754 6294 4852 4735 4729 4640 4069 3992 3750 3183 2828 2825 2402 2235 2226 2073 2043 1976 1922 1772 1660 1462 1398 1310 1267 1235 1209 1206 1128 1117 1028 997 975 961 948 936 901 867 823 809 678 661 629 612 602 596 588 567 564 549 542 537 532 505 476 447 444 434 420 Yugoslavia Luxembourg Peru Niue International Organizations Costa Rica Dominican Republic Cyprus Trinidad And Tobago Pakistan Lebanon Egypt Kuwait Tonga Kazakhstan Cocos (Keeling) Islands Saudi Arabia Bermuda Kyrgyzstan Greenland Botswana Zimbabwe Namibia Christmas Island Ecuador Guatemala Paraguay Macedonia Brunei Darussalam Puerto Rico Moldova, Republic Of Panama Sri Lanka Malta AscensionIsland Bahrain Nicaragua Faroe Islands El Salvador Morocco Bolivia Georgia Belarus French Polynesia Mauritius Armenia Oman Swaziland Cote D'Ivoire Jordan Kenya Virgin Islands (U.S.) Bosnia And Herzegowina Andorra Iran (Islamic Republic Of) Guadeloupe Bhutan Zambia San Marino Gibraltar Liechtenstein Sao Tome And Principe Turkmenistan Cayman Islands Monaco Domain TOTAL jm fj aw mg pg mq sn fm np bz ai rw mv ag tj tz bf sb uz sh tc dm cu as mo mz nc kh vu hm ug vn az gf gu tg hn gh io an nf ms tn aq al et ng sl bb mr je ls mn ck gs tf vg ki dj km ne Hosts 72398092 367 359 353 337 337 329 306 295 290 276 262 259 228 225 221 218 211 210 200 188 185 181 169 166 162 162 157 155 150 148 139 126 125 125 120 120 119 110 109 97 97 96 96 94 83 81 77 75 68 59 54 50 50 48 46 46 44 42 40 33 32 Domain TOTAL qa ye bj dz im gb gg va gy gw lc gm ml cd kn cf mp ws ao er cm iq td bs mm cg gd ly pn ga mh nr sc so tv af bd bi cv gn ht mw pm pw re sy bv fk gq la lr sd sj sr tk tp um vc wf yt zr Jamaica Fiji Aruba Madagascar Papua New Guinea Martinique Senegal Micronesia Nepal Belize Anguilla Rwanda Maldives Antigua And Barbuda Tajikistan Tanzania Burkina Faso Solomon Islands Uzbekistan St. Helena Turks And Caicos Islands Dominica Cuba American Samoa Macau Mozambique New Caledonia Cambodia Vanuatu Heard And Mc Donald Islands Uganda Viet Nam Azerbaijan French Guiana Guam Togo Honduras Ghana British Indian Ocean Ter. Netherlands Antilles Norfolk Island Montserrat Tunisia Antarctica Albania Ethiopia Nigeria Sierra Leone Barbados Mauritania Jersey Lesotho Mongolia Cook Islands South Georgia South S.I. French Southern Territories Virgin Islands (British) Kiribati Djibouti Comoros Niger 156 Hosts 72398092 31 28 27 26 26 22 22 19 16 15 13 12 11 8 8 7 7 7 6 6 5 5 5 4 4 3 3 3 3 2 2 2 2 2 2 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Qatar Yemen Benin Algeria Isle of Man United Kingdom Guernsey Vatican City State Guyana Guinea-Bissau Saint Lucia Gambia Mali Congo (Democratic Republic) Saint Kitts And Nevis Central African Republic Northern Mariana Islands Samoa Angola Eritrea Cameroon Iraq Chad Bahamas Myanmar Congo (Republic) Grenada Libyan Arab Jamahiriya Pitcairn Gabon MarshallI slands Nauru Seychelles Somalia Tuvalu Afghanistan Bangladesh Burundi Cape Verde Guinea Haiti Malawi St. Pierre And Miquelon Palau Reunion Syrian Arab Republic Bouvet Island Falkland Islands (Malvinas) Equatorial Guinea Lao Liberia Sudan Svalbard / Jan Mayen Isl. Suriname Tokelau East Timor Minor Outlying Islands Saint Vincent / Grenadines Wallis And Futuna Islands Mayotte Zaire 157