doc

Werbung
RUPRECHT-KARLS-UNIVERSITÄT HEIDELBERG
PHILOSOPHISCH-HISTORISCHE FAKULTÄT
SEMINAR FÜR MITTLERE UND NEUERE GESCHICHTE
Die Geschichte des Internet Probleme der Netzentwicklung und Nutzungsdebatten
ARBEIT ZUR ERLANGUNG
DES
GRADES EINES
MAGISTER ARTIUM
vorgelegt bei
Prof. Dr. Clemens Zimmermann
von
Thomas Diehl
Friedrich-Ebert-Anlage 47
69117 Heidelberg
Inhaltsverzeichnis
1. Die Geschichte des Internet - ein Thema für Historiker
1
2. Das experimentelle ARPANET
13
2.1. Die ARPA im gesamtgesellschaftlichen Kontext
16
2.2. Die IPTO und weitere Akteure des ARPANET
20
2.2.1. Licklider, Engelbart und Taylor - Computernutzung
24
2.2.2. Kleinrock, Baran und Davies - Netzwerktechnologie
28
2.2.3. Forschungseinrichtungen und Privatunternehmen
32
2.2.4. NWG und RFC
37
2.3. Die Realisierung des ARPANET
38
2.4. Die Nutzung des Netzwerks
41
2.5. ICCC 72 - die erste öffentliche Demonstration
43
3. Das heterogene ARPANET
45
3.1. Neue Netze und Kahns „internet problem“
48
3.1.1. Das CATENET-Projekt
51
3.1.2. Internet-Protokolle
52
3.1.3. Umstrukturierung des Entwicklungsprozesses
55
3.2. E-Mails im ARPANET
57
3.2.1. Das Netzwerk als Kommunikationsmittel
60
3.2.2. Mailing-Listen
62
3.2.3. MSGGroup und die angemessene Nutzung des ARPANET
63
3.3. Öffentliche Hand vs. Privatwirtschaft
69
4. Matrix – „a more or less coherent system“
72
4.1. Das Internet als Netz von Netzwerken
76
4.1.1. MILNET - der Rückzug der Militärs
79
4.1.2. NSFNET - der neue Backbone
80
4.1.3. Internetentwicklung in Europa
86
4.1.4. Zentrale Organisationen im dezentralen Netz
89
4.2. USENET - „Poor man’s ARPANET”
92
4.2.1. Newsgroups im Internet
97
4.3. Neue Anwendungen für neue Nutzer
98
4.3.1. WWW - „Internet’s killer-app[lication]“
101
4.4. Kommerzialisierung und Privatisierung
104
4.4.1. Kommerzielle Online-Dienste
108
4.4.2. Durchsetzung in Europa und den USA
110
4.4.3. Das Internet und traditionelle Medien
115
4.5. Globale „Internet-Connectivity“?
118
5. Das Erbe der Vergangenheit und die Aufgaben der Zukunft
120
Literaturverzeichnis
133
Abkürzungsverzeichnis
148
Anhang A. http://www.ucla.edu
151
Anhang A.1. Internet Explorer
151
Anhang A.2. NeoTrace
151
Anhang B. MIDS: Internet, UUCP, Bitnet, FidoNet to July 1998
152
Anhang C. GVU’s WWW User Survey
153
Anhang D. W3B-Umfragen
154
Anhang E. Distribution by Topleveldomain (Januar 2000)
155
1. Die Geschichte des Internet - ein Thema für Historiker
Um es vorwegzunehmen: Das Alter des Internet wird meist unterschätzt. Die Volljährigkeit
hat es längst erreicht und direkte Entwicklungslinien lassen sich bis weit in die 60er Jahre
zurückverfolgen. Es ist zu einem Symbol für Modernität und dem Hoffnungsträger der
Informationsgesellschaft avanciert, trotz des „für die Computerbranche nahezu biblischen
Alters“.1 Andere Arbeiten zeigen Zusammenhänge auf, die weiter zurückreichen. Tom
Stondages „Victorian Internet“ beschreibt z.B. die Geschichte der „On-Line Pioneers“ des
19. Jahrhunderts und weist auf erstaunliche Parallelen mit dem revolutionären Medium
Telegraphie hin. Damals wie heute waren mit den radikalen Innovationen2 Ängste,
Hoffnungen, anfängliche Skepsis und Euphorie verbunden. Es kam zu zwischenmenschlichen Begegnungen, sogar Hochzeiten, über die Netze, die eine unübersichtliche geographische Struktur auf lokaler, nationaler sowie internationaler Ebene aufwiesen und deren
Betreiber eine schwer zu überblickende Mischung aus Privatwirtschaft und öffentlicher
Hand bildeten.3 Ein komparativer, vergleichender Ansatz mit heute traditionellen, etablierten oder wieder vergangenen Kommunikationssystemen wie der Telegraphie wäre aufschlussreich, kann im Rahmen dieser Arbeit aber nicht geleistet werden. Was bleibt ist die
Beschränkung auf ein einzelnes Medium, eine Einzelstudie.
Die meisten Autoren sind sich einig über die herausragende Relevanz bzw. das gesellschaftsverändernde Potential der neuen Technologie. Wir sind demnach Zeitzeugen eines
epochalen Wandels, erleben den Übergang von der Industrie- zur Informationsgesellschaft. Bolz untergliedert die gesamte Geschichte nach Medien und stellt das nahe „Ende
der Gutenberg-Galaxis“ fest, den Niedergang des neuzeitlichen Buches. Die „Hypermedien“ sollen nicht nur Kommunikationsformen verändern, sondern die gesamte Welt neu
konstituieren.4 Die digitale „Telepolis“ ersetzt in Visionen die Funktion der Städte bzw.
Metropolen als wirtschaftliches und kulturelles Zentrum.5 Selbst Arbeiten, die „dem Medium Internet mit kritischer Aufgeschlossenheit begegnen“,6 wie Stefan Münkers „Mythos
Internet“, stellen fest, dass es wie „kaum eine andere zeitgenössische technologische
Entwicklung [...] die ebenso grundlegenden wie weitreichenden Veränderungen [repräsentiert], welche die digitale Revolution für die gesellschaftlichen Kommunikationsverhältnisse bedeutet“.7 Massive gesellschaftliche Veränderungen im Zusammenhang mit der
Einführung der Telegraphie sind hinreichend untersucht.8 Wie ist aber die tatsächliche,
1
Borchers, 128.
Wittke definiert das Begriffspaar radikale vs. inkrementelle Innovation. Vgl. Wittke, 97.
3 Vgl. Stondage, passim. Weitere Parallelen sind z.B. die Bemühungen um einheitliche, internationale Übertragungsstandards oder der militärische Kontext in der Frühphase. Vgl. Haase, passim und Reindl, 45f..
4 Vgl. Bolz, 76f..
5 Vgl. Rötzer, 7-11. Rötzer vermischt (vorschnell) die Begriffe Virtual Reality und Internet.
6 Münker, 12.
7 Münker, 7.
8 Zu nennen wäre z.B. die generelle Beschleunigung der Kommunikation und die daraus resultierende
2
1
aktuelle Bedeutung des Internet zu bewerten? Das jeweils neueste Kommunikationsmedium in der Geschichte der Menschheit war in einer „heißen“ Anfangsphase „Gegenstand
von Träumen und Wünschen, Projektionen und Mythen“.9 Der Rausch der anfänglichen
Begeisterung ist zu Beginn des neuen Jahrtausends bereits verflogen. Die astronomischen Aktienwerte der Internetunternehmen haben Kurskorrekturen erfahren, es kam zu
Firmenpleiten und an den Börsen macht sich fast schon ‚Katerstimmung’ breit. Der Markt
beginnt pragmatischer an das Thema heranzugehen. Es wird Zeit, sich nüchtern mit dem
Internet zu beschäftigen, das vor wenigen Jahren scheinbar aus dem Nichts auftauchte
und über die Gesellschaft hereinbrach.
Schon die Beschreibung des Untersuchungsgegenstandes bereitet Probleme - „a nontrivial task“,10 bemerkte Robert Kahn, eine der zentralen Figuren für die technische
Entwicklung des Internet, bereits 1972 über ein Netzwerk, das lediglich 30 Rechner umfasste und von wenigen hundert Personen genutzt wurde. „Technik und Netztopologie des
Internet erzeugen ein bislang ungekanntes Maß an Komplexität und Unübersichtlichkeit.
Nutzungsvariabilität und Entwicklungsschnelligkeit sowie grenzüberschreitende Ausbreitung [...] machen das Internet schwer zugänglich für nationale Regelungs- und Gesetzesinitiativen”.11 Büllings Aussage bezieht sich zwar primär auf die „Steuerungsresistenz“,
eines der derzeit drängendsten Probleme, gilt aber ebenso für eine historische Auseinandersetzung mit dem Thema. Eine Kenntnis des Untersuchungsgegenstandes ist dennoch
unverzichtbar. John Quarterman, der bedeutende Kartograph der Netzwelt, fasste 1996
gängige Assoziationen zusammen: „We often mention the Internet, and in the press you
read about the Internet as the prototype of the Information Highway; as a research tool; as
open for business; as not ready for prime time; as a place your children might communicate with (pick one) a. strangers, b. teachers, c. pornographers, d. other children, e. their
parents; as bigger than Poland; as smaller than Chicago; as a place to surf; as the biggest
hype since Woodstock; as a competitive business tool; as the newest thing since sliced
bread”.12
Dass das Internet ein Kommunikationsmittel darstellt, dürfte jedenfalls unumstritten sein.
Jede Form der Verständigung ist auf Regeln, Normen bzw. gemeinsame Standards angewiesen. Dies gilt sowohl für direkte verbale und schriftliche Kommunikation, als auch für
komplexe Mediensysteme. Sprache besteht aus Zeichen, die sich nach Saussure aus
„signifié“ (Zeicheninhalt) und „signifiant“ (Zeichenform) sowie deren wechselseitiger Beziehung konstituieren. Ohne relativ beständige Konventionen (Grammatik usw.) kann der
Internationalisierung der Wirtschaft. Vgl. Ahvenainen, passim und Walter, passim.
9 Debatin, 481. Platon bewertete z.B. die Einführung der Schriftlichkeit ambivalent. Vgl. ebd..
10 RFC 0371.
11 Bülling, 41.
12 RFC 1935.
2
Bedeutungsgehalt des „signifiant“ nicht erschlossen werden.13 Bei sekundären und tertiären Medien findet die Kommunikation zudem technisch mediatisiert statt. In der zuletzt
genannten Kategorie, wozu das Internet zählt, benötigen sowohl Empfänger als auch
Sender eine entsprechende Ausstattung.14 Die über diese Medien stattfindende
Kommunikation kann modellhaft in zwei Ebenen (Technik und Inhalt) aufgeteilt werden,
die verhältnismäßig unabhängig koexistieren und dennoch beide den Kommunikationsprozess determinieren.15
Gutenbergs Innovation wurde erst durch soziale Mechanismen zum Kommunikationsmittel, exemplifiziert Kubicek. Ohne Regeln bzw. Konventionen zur Entschlüsselung der Mitteilungen, Vertriebswege, Produzenten von Inhalten u.ä. hätte die Druckerpresse nie ein
Flugblatt oder Buch hergestellt. Der Buchdruck schuf die technische Grundlage für eine
massenhafte Verbreitung des geschriebenen Wortes und schränkte trotz der Vielfalt an
heutigen Printmedien die Nutzungsmöglichkeiten ein.16 Interaktion im Sinne einer bidirektionalen Kommunikation ist aufgrund der Technik nur begrenzt und generell nicht in Echtzeit möglich. Bei Zeitungen hat sie sich in Form von Leserbriefen etabliert, bei Büchern
nicht. Medienentwicklung ist ein sozialer Prozess, der nicht auf technische Eigengesetzlichkeiten reduziert werden kann, von ihnen aber mitbestimmt wird. Die vorliegende Arbeit
orientiert sich an beiden Ebenen der Kommunikation.
Was geschieht, wenn man z.B. die WWW-Seite (World Wide Web) der Universität von
Kalifornien in Los Angeles (UCLA) aufruft, an der bereits 1969 der Rechner eines großräumigen Netzwerks installiert wurde? Für den durchschnittlichen Internetnutzer verschwindet die Komplexität des Vorgangs hinter dem Fenster des Browsers, dem Programm von Netscape oder Microsoft zur Anzeige der Seiten des Web, der
Mensch/Internet-Schnittstelle mit dem derzeit höchsten Verbreitungsgrad. Man tippt die
URL17 der Universität – http://www.ucla.edu – in die Adresszeile und nach einer mehr
oder weniger langen Wartezeit erscheint die Seite auf dem Bildschirm.18 Welchen Weg
die Dateien zwischen heimischem Client und kalifornischem Server19 zurücklegten, bleibt
im Verborgenen, lässt sich aber rekonstruieren.20 Insgesamt passierten sie zweiundzwanzig Knoten21 und 7 Netzwerke.22 Zuerst musste mit dem privaten PC über ein Modem 23
13
Vgl. Linke, 30-34.
Vgl. Halbach, Einleitung, 30f..
15 Vgl. Fiske, 35.
16 Vgl. Kubicek, Massenmedium, 219f..
17 URL ist die Abkürzung von Uniform Ressource Locator, das Adressierungskonzept des WWW. Vgl. Voets,
544.
18 Vgl. Anhang A.1..
19 Mit Hilfe der Client-Server-Architektur wird die Rolle der einzelnen Rechner in einem Netzwerk beschrieben.
Vereinfacht ausgedrückt stellt der Server einen Dienst bereit, der von dem Client abgerufen werden kann.
Dieses Prinzip wird auch in lokalen Netzwerken eingesetzt, weshalb man das „Internet auch als die größte
Client-Server-Installation der Welt“ bezeichnen könnte. Vgl. Alpar, 23f..
20 Für das Beispiel wurde das Programm NeoTrace verwendet, das kostenlos im Internet angeboten wird
(http://www.neotrace.com).
21 Ein Knoten (engl. node) kann folgendermaßen definiert werden: „a computer directly connected to a net14
3
und das analoge Telefonnetz eine Verbindung mit dem Internet hergestellt werden. Als
Provider24 wurde die Universität Heidelberg gewählt, die einen für Studenten kostenlosen
Zugang anbietet.25 Der erste Internetrechner ist folglich dem Netz der Universität zugeordnet. Mit dem vierten Host wird das zweite Netzwerk auf dem Weg nach Kaliforniern passiert: BelWü (Baden-Württembergs extended LAN), ein regionales Datennetz, das die
wissenschaftlichen Einrichtungen des Bundeslandes miteinander verbindet.26 Schon der
nächste Knoten gehört dem deutschen Wissenschaftsnetz WiN an, das vom Verein zur
Förderung eines Deutschen Forschungsnetzes e.V. (DFN-Verein) betrieben wird, der
mehr als 300 Mitglieder aus Politik, privater Forschung und Wissenschaft auf sich vereint.27 DANTE Ltd., die Betreiberorganisation des folgenden Netzwerks (TEN-155), weist
eine ähnliche Zusammensetzung auf. Das vollständig von der öffentlichen Hand finanzierte Non-Profit-Unternehmen koordiniert die Infrastruktur zur Verbindung von 16 nationalen und einem regionalen Forschungsnetz in ganz Europa.28 An diesen europäischen
Backbone29 schließt sich mit dem elften Knoten das Abilene Network an, auf dem die Daten den Atlantik überqueren. Abilene ist ein Projekt der US-amerikanischen University
Corporation for Advanced Internet Development (UCAID), die auch das Projekt „Internet
2“ unterstützt. UCAID umfasst annähernd 150 Mitglieder aus dem Bereich der staatlichen
Hochschulen und privaten Forschungseinrichtungen.30 Bevor die Datenpakete schließlich
die UCLA erreichen, passieren sie noch das regionale Netzwerk CalREN2 (California Research and Education Network), das von CENIC (Corporation for Education Network Initiatives in California) initiiert wurde, in der wiederum Organisationen aus der öffentlichen
und privatwirtschaftlichen Forschung kooperieren.31 Der UCLA-Server ist schließlich wie
der Ausgangspunkt in Heidelberg in ein inneruniversitäres Netzwerk eingebunden.
Das Beispiel illustriert die Komplexität der Infrastruktur und die diffizile Konstellation der
Akteure, die am Aufbau bzw. Betrieb der Netzwerke, dem Angebot von Inhalten und Zugängen beteiligt sind. Die Aufschlüsselung des Begriffs Internet („International Network“)
work’s communication lines; often performs switching [die Vermittlung der Dateien im Netzwerk]“. Davon zu
unterscheiden ist ein Host: „time-sharing computer (used by people not the network)“. Vgl. Abbate, 151f..
22 Vgl. Anhang A.2..
23 Ein Modem („modulation/demodulation“) übersetzt digitale Informationen in akustische Signale um deren
Transport über analoge Telefonleitungen zu ermöglichen. Beim Empfang werden die akustischen Signale
digitalisiert. Vgl. Abbate, 153.
24 Provider bezeichnet in diesem Fall den Anbieter eines Internetzugangs. Vgl. Voets, 415.
25 Die anfallenden Kosten entstehen durch die Gebühren („Citygespräche“) der Deutschen Telekom für die
Verbindung zum Rechner der Universität. Dies führt zu der absurden Situation, dass der in diesem Fall kostenlose Internetzugang über die Hochschule Anfang 2000 teurer ist als die Angebote kommerzieller Provider
wie z.B. Commundo mit 2,9Pf./min. (Vgl. http://www.commundo.de).
26 Vgl. http://www.belwue.de/info/belwue.html.
27 Vgl. http://www.dfn.de und Kapitel 4.1.3..
28 Vgl. http://www.dante.net und Kapitel 4.1.3..
29 Mit Backbone werden Netze bezeichnet, die eigenständige, regional begrenzte Netzwerke über eine leistungsfähige Infrastruktur verbinden und so eine effektive und wirtschaftliche Kommunikation ermöglichen. Vgl.
Voets, 43.
30 Vgl. http://www.ucaid.de/abliene und Kapitel 4.4..
31 Vgl. http://www.calren2.net.
4
trägt zur Verschleierung der tatsächlichen Situation bei, impliziert sie doch eine Homogenität, die es nicht gibt.32 Nach Informationen von Merit umfasste das schwer greifbare Gebilde bereits 1995 mehr als 50.000 Einzelnetzwerke.33 Zuverlässige, aktuelle Zahlen liegen nicht vor. Angesichts des Wachstums der letzten Jahre ist aber davon auszugehen,
dass es inzwischen mehrere Hunderttausend sind. Jedes dieser Netzwerke ist für den
Betrieb selbst verantwortlich, d.h. vergibt Zugriffsrechte, muss die Finanzierung sichern
und stellt Regeln für die Nutzung auf.34 Dies gilt für supranationale Backbones ebenso wie
für Projekte auf lokaler Ebene. Es gibt bis heute keine zentralen Betreibergesellschaften,
wie beispielsweise bei den nationalen Telefonnetzen Europas bis vor wenigen Jahren.35
Die tatsächliche Situation ist weitaus komplexer als in dem Beispiel. Sowohl Provider
(Universität Heidelberg) als auch Server (UCLA) sind dem universitären Bereich zugeordnet, was die verhältnismäßig homogene Akteurskonstellation und nichtrepräsentative
Dominanz der öffentlichen Hand erklärt. Die Zusammensetzung ergibt ein anderes Bild,
nimmt man das WWW-Angebot eines gewinnorientierten Unternehmens und den Internetzugang eines kommerziellen Providers in Anspruch.36
Zusammengehalten wird das komplizierte Gebilde autonomer, heterogener Netzwerke der
unterschiedlichsten Größe und Orientierung (kommerziell, universitär, usw.) von TCP/IP
(Transmission Control Protocol / Internet Protocol), dem „‚Grundgesetz’ der Netzwelt“, 37
sine qua non des Internet und Kernelement gängiger Definitionen. Das ECON PC-Lexikon
erläutert den Begriff z.B. folgendermaßen: „Internationaler Verbund von Netzwerken und
Rechnern, der über das TCP/IP-Protokoll den Austausch zwischen den unterschiedlichsten Rechnerplattformen ermöglicht. Strenggenommen existiert das I. nicht als System
ständiger Verbindungen, sondern besteht aus Vereinbarungen über Kommunikationswege und –umwege“.38 Auf diesem Fundament basieren weitere Protokolle, d.h. Regelsysteme auf Softwareebene, die Anwendungen bzw. Dienste konstituieren. WWW und EMail zählen zu den derzeit beliebtesten und bekanntesten. Telnet, FTP, und Newsgroups,
die im weiteren Verlauf der Arbeit noch detaillierter behandelt werden, sind davon zu unterscheiden und bieten jeweils spezifische Möglichkeiten. „Die Trennschärfe zwischen den
Anwendungen löst sich für den Netznutzer [...] auf“39 – aus den Browsern, originär für die
Seiten des WWW bestimmt, haben sich mächtige Programme mit umfassender Funktio32
Treffender wäre eigentlich lat. inter (=zwischen) sowie der Plural.
Vgl. Merit Network Information Center, Networks. Tatsächlich waren es mehr als 50.000, da sich Merit nur
auf den Bereich des NSFNET bezieht. Vgl. Kapitel 4.4..
34 Vgl. z.B. das komplexe Regelwerk der Universität Heidelberg: http://web.urz.uni-heidelberg.de/AllgemeinInfo/Ordnungen/vbo.html.
35 Es gibt aber Organisationen, die sich mit der technischen Weiterentwicklung bzw. der Etablierung von
Standards beschäftigen und die Vergabe der Domain-Adressen organisieren. Die Organisationen werden in
Kapitel 4.1.4. behandelt.
36 Die privatwirtschaftlichen Elemente bilden aber den jüngsten Bereich des Konglomerats, sodass die Akteure treffend charakterisiert sind, betrachtet man den gesamten Entwicklungszeitraum.
37 Hofmann.
38 Voets, 261.
39 Bülling, 152.
33
5
nalität entwickelt. Dieser Komfort spricht für einen fortgeschrittenen Entwicklungsstand.
„Wenn Prognosen über die weitere Entwicklung gemacht [...] werden, sollte dies differenziert für unterschiedliche Dienste geschehen“,40 fordert Kubicek. Nico Rost klärt die
Zusammenhänge technisch und unterscheidet, das theoretische Modell der ISO für Netzwerke simplifizierend, zwischen verschiedenen Schichten. Eine physikalische Schicht, die
sich aus einzelnen Computer- und Telefonnetzen (sowie anderen Trägermedien) zusammensetzt und auf der die Protokollschicht des Internet (TCP/IP) aufbaut; diese bildet wiederum die Basis für eine Anwendungsschicht, d.h. die verschiedenen o.g. Dienste, aus
denen sich neue Formen der Vernetzung ergeben.41 WWW oder USENET werden bei
dieser Betrachtung zu virtuellen Netzwerken. Ist das Internet lediglich im technischen
Sinne ein Medium, dass den Transport von Daten realisiert oder ist es ein „Hypermedium“, das unterschiedlichste Kommunikationsmöglichkeiten auf sich vereint? Wie die
Antwort auch ausfallen mag, es bleibt die Notwendigkeit zu einer nach Diensten differenzierten Auseinandersetzung mit dem Thema, vor allem bei einer retrospektiven Herangehensweise. Die Trennlinien waren während der ersten Jahrzehnte durch jeweils unterschiedliche Programme (Mensch/Internet-Schnittstellen) klar zu erkennen und verwischten sich erst in den letzten Jahren. Für eine Umdeutung des Netzwerks zu einem erst
individuell genutzten, später gruppenbezogenen Kommunikationsmittel mussten zuvor die
technischen Grundlagen geschaffen werden. Insofern ist die Geschichte des Internet auch
eine Geschichte der Protokolle bzw. Protokollentwicklung. Dennoch muss stets zwischen
technischen (Kommunikations-)Möglichkeiten und sozial etablierter Praxis unterschieden
werden.
Die Komplexität des Untersuchungsgegenstandes hat die deutsche Forschungslandschaft
nicht davon abgehalten, sich intensiv mit dem Thema auseinander zu setzen. Seit 1995
wurde über das Internet in Geistes- und Sozialwissenschaften viel geschrieben: Markus
Bickenbach und Harun Maye näherten sich dem Thema über einen linguistischen Ansatz
und untersuchten die „Metaphern“.42 Jeanette Hofmann und andere beschrieben den
„Kulturraum Internet“ aus ethnographischer Perspektive.43 Volker Leib sowie Raymund
Werle konzentrierten sich auf die „Rolle der staatlichen Akteure“.44 Rainer Kuhlen, Thomas Zittel sowie Otfried Jarren untersuchten das Potential und die Bedeutung des Mediums für die politische Kommunikation.45 Psychologische Studien beschäftigten sich mit
40
Kubicek, Massenmedium, 232.
Vgl. Rost, 20f.. In Anlehnung an Ingo Braun könnte man das Internet als „großtechnisches System 2. Ordnung“ bezeichnen, da es selbst auf großtechnischen Systemen basiert. Vgl. Braun, 483ff.. Die einzelnen
Dienste wären demnach Systeme der 3. oder 4. Ordnung. Diese Hierachisierung führt nicht weiter.
42 Vgl. Bickenbach, passim.
43 Vgl. Hofmann, passim.
44 Vgl. Leib, passim und Werle, Wissenschaftsnetz, passim.
45 Vgl. Kuhlen, passim; Zittel, passim und Jarren, passim. Das Potential der Vernetzung für die politische
Partizipation und die Informationsgesellschaft im Allgemeinen wurde schon 1984 von Otto Ulrich erörtert.
Damals stand an Stelle des Internet noch der Begriff „Telemat“. Vgl. Ulrich, passim.
41
6
den Motiven der Onlinenutzung46 und Gerhard Vowe sowie Eli Noam stellten die Frage
nach der „Regulierbarkeit“.47 Die Vielfalt der Ansätze macht eine umfassende
Charakterisierung der Forschungssituation nahezu unmöglich. Im Folgenden sollen vor
allem die Ansätze der Soziologie und Medien- bzw. Kommunikationswissenschaften berücksichtigt werden. In beiden Disziplinen findet eine breite Auseinandersetzung mit dem
Internet und verwandten Themen statt.
Die Soziologie untersucht nicht nur den Ist-Zustand der „Cybersociety“ und deren Auswirkungen auf die zukünftige Gesellschaft.48 Die in diesem Fachbereich beheimatete
Techniksoziologie hat komplexe Modelle für die Entwicklung und das Verständnis von
Technik bzw. technischen Systemen hervorgebracht, die bei der Untersuchung des Netzaufbaus hilfreich sein können. Der von Frank Thomas herangezogene Ansatz zur Beschreibung des großtechnischen Systems Telefon ist prinzipiell auf das Internet anwendbar. Er versteht die Netzinfrastruktur als eine Gesamtheit von Gegenständen, Prozessen
und Verfahren einschließlich der Rahmendbedingungen, welche die Erzeugung, Ausbreitung, Anwendung und Unterhaltung dieser Technik ermöglichen. Das Internet als großtechnisches System setzt sich demnach aus Elementen materieller (technische Artefakte),
kultureller (Werte, Wissen) und sozialer Natur (Institutionen, Verbände, Normen) zusammen, wobei den zuletzt genannten durch die Fähigkeit zu zielgerichtetem Handeln eine
zentrale Bedeutung zukommt. Ihr Handlungsspielraum wird durch die materiellen und
kulturellen Elemente des Systems mitbestimmt, nicht aber eindeutig festgelegt.49 Damit
kommt zum Ausdruck, dass auch die Infrastruktur des Internet mehr ist als eine Ansammlung von untereinander verbundenen Rechnern, die den Transport von Daten ermöglichen. Bei der erbrachten Leistung großtechnischer Systeme kann nach Thomas
zwischen Primär- und Sekundärfunktionen unterschieden werden. Das Telefonsystem
z.B. ist primär ein Mittel zur interaktiven Übertragung von akustischen Signalen. Über Sekundärfunktionen, wie z.B. Notruftelefone, wird die Technik sozial gestaltet.50 Der Ansatz
ist interessant, da er die Komplexität großtechnischer Systeme erklärt, die sich eben nicht
auf technische Artefakte reduzieren lässt. Für die vorliegende Arbeit ist er aber zu statisch.
In der sozialwissenschaftlichen Technikforschung ist es Konsens, die Genese der „technische[n] Artefakte und Systeme [...] als Resultate von gesellschaftlich-polititschen Entscheidungsprozessen und Akteur- bzw. Interessenkonstellationen“51 zu verstehen. Auch
die Entwicklung ist demnach ein sozialer Prozess. Wie er konkret abläuft, wird in ver-
46
Vgl. Grüne, passim.
Vgl. Noam, passim und Vowe, passim.
48 Vgl. z.B. Bühl, passim.
49 Vgl. Thomas, 19-23.
50 Vgl. Thomas, 23-26.
51 Hellige, 187.
47
7
schiedenen Ansätzen erklärt. Das „Closure-Konzept“ der Sozialkonstruktivisten geht z.B.
von einer Schlüsselentscheidung in der Frühphase aus, welche die gesamte Entwicklung
prägt und in späteren Phasen nur noch schwer verändert werden kann.52 Ähnlich aufgebaut ist Jörg Meyer-Stamers Konzept der „technologischen Korridore“ oder „Pfadabhängigkeiten“, mit dem er versucht zu erklären, weshalb sich das Internet gegenüber alternativen Technologien durchsetzte. Er geht zwar nicht mehr von einer einmaligen Schließung
in der Frühphase aus, der weitere Entscheidungsspielraum der Akteure ist aber durch
technische, politische und ökonomische Rationalitätserwägungen eingeschränkt, wenn
auch nicht eindeutig determiniert, was dazu führt, dass inkrementelle Lösungen bei der
Weiterentwicklung bevorzugt werden. Die Anzahl möglicher Alternativen wird im zeitlichen
Verlauf geringer, sodass sich der eingeschlagene Pfad oder Korridor zunehmend verengt
und die Entwicklung schließlich linear verläuft.53
Das Evolutionsmodell, mit dem Volker Schneider die Anpassung alternativer Konzepte
(z.B. Btx) an das Internet erklärt, fasst hingegen den technologischen Wandel als einen
Prozess auf, der über die Grundmuster Variation und Selektion beschrieben werden kann.
Aufgrund der Weiterentwicklung vorhandener Formen entstehen immer komplexere Gebilde, die sich fortlaufend an technisch und institutionell variable Umwelten anpassen
müssen. Der technische Fortschritt verläuft demnach analog zur biologischen Evolution
nicht linear, sondern weist Stagnationsphasen, Entwicklungseinbrüche und –sprünge
auf.54 Das Beispiel der QWERTZ-Tastur gilt als Beweis, dass auch ineffiziente Formen
überleben können, der Evolutionsprozess folglich nicht eindeutig von der technischen
Logik bestimmt ist.55
Die Ansätze der Soziologie beanspruchen die Funktionsweise großtechnischer Systeme
oder den Prozess der Technikgenese im Allgemeinen zu erklären. Ob man damit der historischen Komplexität und den spezifischen Unterschieden gerecht wird, kann angezweifelt werden. Festzuhalten bleibt die generelle Bedeutung des Faktors Mensch bzw. der
Gesellschaft für Betrieb und Prägung großtechnischer Systeme sowie den Prozess der
Innovation und Weiterentwicklung.
Dominiert wird die Auseinandersetzung mit dem Internet bisher von den Kommunikationsund Medienwissenschaften, die sich hauptsächlich mit dessen Nutzung, weniger mit dem
Aufbau der Infrastruktur beschäftigen. Ausgangspunkt ist häufig Gerhard Maletzkes Definition der Massenkommunikation von 1963: „Unter Massenkommunikation verstehen wir
jene Form der Kommunikation, bei der Aussagen öffentlich (also ohne begrenzte und per-
52
Vgl. Weyer, 24f..
Vgl. Meyer-Stamer, 139-141.
54 Vgl. Schneider, 133-135.
55 Die QWERTZ-Systematik sollte ein Verhacken der Typenarme bei mechanischen Schreibmaschinen
verhindern. Schon in den 30er Jahren wurden alternative Anordnungen entwickelt, die eine höhere Schreibgeschwindigkeit erlaubten, sich aber nicht durchsetzen konnten. Vgl. Werle, Wissenschaftsnetz.
53
8
sonell definierte Empfängerschaft), durch technische Verbreitungsmittel (Medien), indirekt
(also bei räumlicher oder zeitlicher oder raumzeitlicher Distanz zwischen den Kommunikationspartnern) und einseitig (also ohne Rollenwechsel zwischen Aussagendem und
Aufnehmenden) an ein disperses Publikum (im soeben erläuterten Sinne) vermittelt werden“.56 Die Dichotomie Massen- vs. Individualkommunikation, der auch eine juristische
bzw. verfassungsrechtliche Bedeutung zukommt,57 scheint den Kommunikationsraum
Internet nicht adäquat zu erfassen. „Von den Attributen der Definition Maletzkes – öffentlich, einseitig, an ein disperses Publikum gerichtet – lässt sich das des technischen [...]
präzisieren, alle anderen Abgrenzungen gelten [...] nur noch für einen Teil dessen, was an
Information durch den elektronisch mediatisierten Informationsraum fließt“.58 Ähnlich urteilte 1995 Joachim Höflich: „Zwar wurde immer wieder festgestellt, daß sich [...] die
Grenzen zwischen Massen- und Individualkommunikation auflösen [...], doch wohl zum
ersten Mal wird dies konkret nachvollziehbar“.59
Das Phänomen gruppenbezogener Kommunikation in Newsgroups, IRC oder MailingListen wird mit Maletzkes Schema tatsächlich nicht mehr erfasst. Die starre Zweiteilung
von „Empfänger“ und „Sender“, „Galerie“ und „Arena“ oder „Rezipient“ und „Kommunikator“ widerspricht der Möglichkeit zu bidirektionaler Kommunikation. Lutz Goertz schlägt
das Begriffspaar „organisierender Beteiligter“ und „Beteiligter“ vor, das andeuten soll,
dass beide „zumindest theoretisch auf einer Stufe stehen können“.60 Die vorliegende Arbeit verwendet, trotz der teilweise berechtigten Kritik Marschalls,61 den Begriff „Nutzer“
(engl. „User“), womit jedoch noch kein hierarchiefreier Kommunikationsraum konstruiert
werden soll. Herbert Kubiceks Einteilung der Dienste in eine Matrix aus neun Feldern mit
einem, wenigen sowie vielen (prinzipiell allen) Teilnehmern der Kommunikation auf beiden
Seiten,62 ist zwar berechtigt und sinnvoll, löst das Problem an sich aber nicht. Sind wir am
„Ende der Massenkommunikation“,63 endlich auf dem Weg zu den „Media Activa“?64 Ähnliche Visionen waren mit der Einführung der offenen Kanäle im Rahmen des Kabelfernsehens und dem Btx-Projekt der Bundespost, den heute weitgehend irrelevanten „Neuen
Medien“ der 80er Jahre, verbunden. Sie haben sich nicht erfüllt.65
Die Fragenstellungen „Wird Online Alltagsmedium?“66 oder „Das Internet auf dem Weg
zum Massenmedium?“67 markieren den anderen Endpunkt dieser kommunikationswissen56
Maletzke, 32.
Vgl. Hoffmann-Riem, 387-389.
58 Krotz, 450.
59 Höflich, Publikum, 518.
60 Goertz, 484.
61 Vgl. Marschall, 155.
62 Vgl. Kubicek, Massenmedium, 232.
63 Hoffmann-Riem, 382.
64 Schmid, Media, 518.
65 Vgl. Schmid, Media, 520-525.
66 Eimeren, 1999, 401.
67 Kubicek, Massenmedium, 213.
57
9
schaftlichen Auseinandersetzung. Wolfgang Hoffmann-Riem und Thomas Vesting weisen
in diesem Zusammenhang auf ein Defizit von Malezkes Definition hin, die hauptsächlich
die Seite der Rezeption berücksichtigt. Heute etablierte Massenmedien weisen aber charakteristische, komplexe Produktionsformen auf.68 „Techniken bedürfen der Vergesellschaftung und werden erst dann zum publizistischen Medium, wenn sie über die Funktion
eines technischen Vermittlungssystems hinaus in einen spezifisch institutionalisierten
Handlungskontext eingebunden sind“.69 Herbert Kubicek meint dasselbe und spricht von
„Medien 2. Ordnung“. Massenmedien unterscheiden sich demnach von anderen Medien
durch eine ausdifferenzierte, technische und kognitive Infrastruktur, wozu die „vollständige
Einbettung in die Alltagsroutinen der Nutzen“70 ebenso zählt wie am Beispiel der Zeitung
ein „sozioökonomisches System aus Korrespondenten, Presseagenturen, Redaktionen,
Anzeigenannahmestellen und Kiosken“.71 Ist das Internet auf dem Weg zu einem publizistischen Medium (2. Ordnung)?
„Die Geschichte der Massenkommunikation hat gelehrt, daß die Funktionen der einzelnen
Medien keinesfalls absolut konstant sind, daß sie vielmehr von der jeweiligen Gesamtkonstellation aller vorhandenen Medien abhängen und sich mit dieser Konstellation wandeln und verschieben“.72 Die von Maletzke angesprochenen Interdependenzen können
nicht umfassend untersucht werden und sind während der ersten Jahrzehnte ohnehin zu
vernachlässigen. Dass sich das Aufkommen eines neuen Mediums auf den Konsum
traditioneller Medien auswirkt, ist offensichtlich, sofern sich das Zeitbudget der Bevölkerung nicht grundlegend verändert. Das „Rieplsche Gesetz“ der Kommunikationswissenschaften, das von einer grundsätzlichen Komplementarität der Medienentwicklung ausgeht, ist trotz aller Kritik im Detail bis heute nicht widerlegt73 und relativiert vorschnelle
Prognosen über zukünftige Konvergenz fachimmanent. Schon die Definition des Internet
als eigenständiges Medium bedeutet letztendlich die Abkehr von einer umfassenden Verschmelzungstheorie.74 Wesentlich ist Maletzkes Hinweis auf die funktionelle Wandelbarkeit, denn sie verdeutlicht, dass der Zusammenhang eines Mediums mit der zugrundeliegenden Technik nicht überstrapaziert werden sollte. In Ungarn war das Telefon im 19.
Jahrhundert auch ein „Broadcasting“-Medium zur Übertragung von Nachrichten und Musik. Das Radio wurde anfangs dagegen interaktiv genutzt.75 Technisches Potential und
aktuelle Nutzungspraktiken lassen nur bedingt Prognosen über die weitere Entwicklung
zu. Betrachtet man das Internet in seiner Gesamtheit als Medium, so ist dessen kurze
68
Vgl. Hoffmann-Riem, 386.
Neverla, 30.
70 Kubicek, Massenmedium, 227.
71 Ebd., 219.
72 Maletzke, 183.
73 Vgl. Schäfers, 95f..
74 Vgl. Hickethier, 150.
75 Vgl. Kubicek, Massenmedium, 221.
69
10
Geschichte selbst das beste Beispiel für einen konstanten funktionalen Wandel.
Sowohl Techniksoziologie (Technikfolgenforschung) als auch Medien- bzw. Kommunikationswissenschaften sind häufig prospektiv angelegt, was den theorielastigen, teilweise
spekulativen Charakter erklärt. „Die Bilder des medialen Epochenwandels leben davon,
daß sie Zukünftiges versprechen, auf die Phantasie der Leser setzen [...]“.76 Bei historischen Arbeiten, per se retrospektiv, besteht diese Gefahr nicht. Die Vorgehensweise von
Irene Neverla ist charakteristisch für die bisherige, meist ahistorische Auseinandersetzung
der deutschen Wissenschaft: Die Vergangenheit des Internet wird von der Autorin trotz
des vielversprechenden Titels „Zur sozialen Konstruktion des Netzmediums“ in drei Sätzen abgehandelt,77 ehe sie sich dem Potential und den damit verbundenen Defiziten der
Kommunikationswissenschaften zuwendet. „Die gegenwärtige wissenschaftliche und öffentliche Auseinandersetzung um die Entwicklung von Medien bedarf dringend der Historisierung“,78 fordert Anja Schäfers in demselben Sammelband und empfiehlt: „Diese historische Analyse sollte sich bemühen, den Entwicklungsprozess von Kommunikationstechnologien in all seiner Komplexität zu begreifen“.79 Vorstellungen von einem ziel- und
sinngerichteten, linearen historischen Prozess sind inzwischen „im Säurebad kritischer
Geschichtswissenschaft aufgelöst worden“.80 Einheitsstiftendes Element bleibt nach Lothar Gall der Bezug auf den Menschen, den es als Einzelwesen oder in der Vielfalt an
Interaktionsformen besser zu verstehen gelte. Definitive, universalisierbare oder gesetzmäßige Ergebnisse seien nicht zu erwarten.81 „Der Geschichtswissenschaft geht es
darum, Einsichten über die Vergangenheit zu gewinnen, die in ihrer Vieldimensionalität
und Widersprüchlichkeit der Entwicklung der menschlichen Gesellschaft nahekommen“. 82
Bei einer historischen Auseinandersetzung mit Medien bzw. Massenkommunikationsmitteln, deren Bedeutung für die menschliche Interaktion im 19. und 20. Jahrhundert offensichtlich ist, ergibt sich eine Vielzahl von möglichen Perspektiven, die Wulf Halbach in
einer Überblicksdarstellung als „Erzählung von sozialen, materialen und wissenschaftlichingenieurstechnischen Anteilen sowie von Medienkompetenz, ökonomischen Nutzungschancen und politischen Manipulationsinteressen“83 zusammenfasst.
Das Internet ist ein Thema für Historiker und wenn sich nur ein Teil der Prognosen über
die weitere Entwicklung bewahrheitet, wird sich die Geschichtswissenschaft in Zukunft
noch häufiger und intensiver damit auseinandersetzen. Die vorliegende Arbeit soll sich
dem Thema jenseits linearer Entwicklungsmodelle, Gesetzmäßigkeiten oder prognosti-
76
Hickethier, 148.
Vgl. Neverla, 17.
78 Schäfers, 102.
79 Schäfers, 104.
80 Gall, 4.
81 Vgl. Gall, 14f..
82 Schäfers, 100.
83 Halbach, Einleitung, 48.
77
11
zierter epochaler Bedeutung nähern und versucht in einer möglichst detaillierten Betrachtung der Komplexität des Prozesses gerecht zu werden. Eine umfassende Herangehensweise, wie sie Halbach und Schäfers fordern, kann in einer einzelnen Arbeit nicht
geleistet werden. Etablierte mediengeschichtliche Instrumentarien, wie z.B. die Rezeptions- oder Programmforschung, scheiden bei einer (historischen) Betrachtung des Internet aufgrund der Quellenlage, den Kommunikationstechniken sowie dem Entwicklungsstand weitgehend aus.
Zwei Themenbereiche sollen eingehender behandelt werden: Wie vollzog sich der Netzaufbau und welche Nutzungsmöglichkeiten oder –praktiken haben sich entwickelt bzw.
prägten die Kommunikation in dem jeweiligen Zeitraum. Die Sekundärliteratur untergliedert die Entwicklung in unterschiedliche Phasen. Der Wirtschaftsinformatiker Paul Alpar,
der in seinem Buch weit mehr abhandelt als die „Kommerzielle Nutzung des Internet“,
unterscheidet zwischen Experimentierphase (bis 1983), Skalierungsphase (bis 1992) und
einer daran anschließenden dritten Phase der universellen und globalen Anwendungen. 84
Janet Abbates Dissertation differenziert zwischen einer Ära der Innovation (bis 1972) und
des Wachstums sowie Technologietransfers (bis 1988). Die daran anschließende dritte
Phase, charakterisiert durch eine politische und öffentliche Auseinandersetzung, wird nur
noch am Rande behandelt.85
Die vorliegende Arbeit ist ebenfalls in drei Abschnitte untergliedert. Wie bei Abbate endet
der erste Abschnitt, eine Phase der radikalen Innovation, 1972. In diesen Zeitraum fällt die
Umdeutung der Nutzungsmöglichkeiten des Computers und der Aufbau eines ersten
Netzwerks. Im zweiten Abschnitt kann die neue Technologie als Kommunikationsmittel
genutzt werden. Die radikale Innovation stabilisiert sich, regt Folgeprojekte an und lässt
schließlich die Idee einer Vernetzung von Netzwerken aufkommen. In den frühen 80er
Jahren, zu Beginn des dritten Abschnitts, gewinnt die Entwicklung an Dynamik und das
Wachstum der Netzwerke beginnt exponentiell zu verlaufen. Neue Kommunikationstechniken lassen nun prinzipiell eine massenmediale Nutzung zu und auch außerhalb computerwissenschaftlicher Labors entsteht der Bedarf sich zu vernetzen. Das Internet formiert sich in diesem Jahrzehnt, setzt sich allmählich gegen Alternativen durch und dominiert schließlich den Kommunikationsraum.
Die Untergliederung eines historischen Prozesses ist generell problematisch. Zum einen
impliziert sie eine Homogenität in einzelnen Abschnitten, die der dynamischen Entwicklung meist nicht gerecht wird. Zum anderen besteht die Gefahr, dass Einzelereignissen
eine zu große Bedeutung beigemessen wird. Die vorgenommene Einteilung sollte deshalb
nicht statisch interpretiert werden. Die Übergänge verlaufen fließend und innerhalb jedes
Abschnitts sind kontinuierliche Veränderungen feststellbar. Das Hauptaugenmerk soll auf
84
85
Vgl. Alpar, 15-19.
Vgl. Abbate, 144-147.
12
den Zeitraum bis Anfang der 90er Jahre gerichtet werden. Die daran anschließende Umgestaltung ist aber zu massiv um ausgelassen zu werden und könnte ebenso als Beginn
eines neuen Abschnittes interpretiert werden. Aufgrund des gewählten Schwerpunkts und
der Dynamik des Prozesses muss die Darstellung in diesem Zeitraum selektiv bleiben.
Die für die Entwicklungen relevanten Akteure sollen identifiziert sowie charakterisiert werden. Vor allem das Engagement von Privatwirtschaft und öffentlicher Hand wird eingehender betrachtet. Ein Blick in die Nutzungsgeschichte der Infrastruktur ermöglicht eine
aufgeklärtere Beurteilung des Internet als Medium und der damit verbunden Hoffnungen.
Lassen sich historische Anknüpfungspunkte finden, die auf neue, interaktive bzw. bidirektionale Kommunikationspraktiken schließen lassen?
Das Internet „schreibt seine eigene Geschichte und dokumentiert diese auf erstaunlich
transparente Weise in seinen Strukturen und Funktionen, [...] wobei die relevanten ‚Dokumente’ als Metadaten in diesem und durch diesen Verbund archiviert sind“.86 Viele zeitgenössische, technische Dokumente, Diskussionsbeiträge in Mailing-Listen oder offizielle
Mitteilungen an die Nutzer der Netzwerke sind in digitaler Form auf verschiedenen Servern archiviert und frei zugänglich. Lücken gibt es vor allem in den 60er und 70er Jahren,
als die Akteure die Folgen ihres Experiments noch nicht abschätzen konnten und digitale
Speichermedien mit immensen Kosten verbunden waren.87 Insgesamt ergibt sich eine
interessante, ambivalente Quellenlage. Einerseits ist ein detaillierter Einblick in die Entwicklungen möglich und aufgrund der digitalen Archivierung die Bearbeitung deutlich vereinfacht. Andererseits bereiten fehlenden Seitenangaben und die Gefahr, dass Inhalte
geändert bzw. anders adressiert werden, Probleme mit der akademisch etablierten Zitierweise. Die Selektionsanforderungen sind hoch, entfallen doch bei vielen Internetseiten
Kontrollmechanismen, die mit wissenschaftlichen Printmedien vergleichbar wären. Eine
genaue Prüfung des Urhebers ist unabdingbar.
2. Das experimentelle ARPANET
Auch bei einer Einzelstudie stellt sich die Frage nach einem geeigneten Anknüpfungspunkt. Rheingold weist auf das technische Fundament der computervermittelten Kommunikation hin, deren Prinzip darauf beruht, dass „zwei ursprünglich unabhängige Technologien miteinander verbunden werden. Es hat Milliarden von Dollar gekostet und Jahrzehnte
gedauert, bis Preiswerte PCs entwickelt waren. Es hat Milliarden von Dollar gekostet und
mehr als ein Jahrhundert gedauert, bis das weltweite Telekommunikationsnetz verkabelt
war“.88 Telefonsystem und Rechner sind wesentliche Voraussetzungen des heutigen
86
Halbach, Netzwerke, 280f..
Ein Teil der Quellen ist nur über persönliche Kontakte zu erhalten. Sie konnten bei der vorliegenden Arbeit
nicht berücksichtigt werden.
88 Rheingold, 16.
87
13
Internet. Muss folglich auch bei einem nicht-komparativen, deskriptiven Ansatz ein Untersuchungszeitraum von mehr als 100 Jahren behandelt werden? Hans-Jürgen Teuteberg
und Cornelius Neutsch haben sich dieser Herausforderung gestellt, gingen noch einen
Schritt weiter und beschrieben in ihrem Sammelband „Vom Flügeltelegraphen zum Internet“ die gesamte „Geschichte der modernen Telekommunikation“.89 Teuteberg selbst widmete sich in dem Buch auf mehr als 100 Seiten den „Strukturmerkmale[n] multimedialer
Revolutionierung von Wirtschaft, Gesellschaft und Kultur an der Wende zum 21. Jahrhundert“. Ihm bleiben weniger als 10 Seiten, das „Internet als neues Nervenzentrum der Informationsgesellschaft“ zu untersuchen.90 Ein solch umfassender Ansatz läuft Gefahr
oberflächlich zu bleiben, denn es hat ebenfalls Milliarden von Dollar gekostet und Jahrzehnte gedauert, aus den beiden Technologien Telefonsystem und Computer das komplexe Gebilde Internet zu formen.
In den Publikationen der deutschen Forschung, dominiert von Medien- und Kommunikationswissenschaften, bei weitgehender Abstinenz der Geschichtswissenschaft,91 werden
die Entwicklungen der 60er und 70er Jahre in wenigen Sätzen abgehandelt. Teutebergs
Aussage ist charakteristisch für die vorherrschende Tendenz. Er betrachtet die Frühphase
fokussiert auf den Kontext des Kalten Krieges und führt die Entstehung darauf zurück,
dass „Militärstrategen im Pentagon [...] nach einem gegnerischen Atomschlag mit großer
Zerstörungskraft ein weiterhin funktionierendes Nachrichtensystem haben wollte[n]“.92 Die
Akteurskonstellation wird auf das US-amerikanische Verteidigungsministerium beschränkt, womit sich die Reduktion der Zielsetzung auf ein militärisches Kommunikationsmittel erklären lässt. Die amerikanische Forschungsliteratur erlaubt ein differenzierteres Bild.
Es ist ein Verdienst von Michael und Ronda Haubens93 Arbeit „The Netizens and the wonderful world of the Net: an anthology“ die Bedeutung der Nutzenden zu betonen.94 Sie
89
Vgl. Teuteberg, Geschichte, passim.
Vgl. Teuteberg, Strukturmerkmale, passim.
91 Die deutsche Geschichtswissenschaft beschäftigte sich bisher hauptsächlich mit den aktuellen Nutzungsmöglichkeiten des Internet, nicht mit dessen Historie. In den einschlägigen Fachzeitschriften findet man
folgende Arbeiten: Mittag, J. und Sahle, P: Geschichte und Computer im Internet – Informationsgewinnung
zwischen Chaos und Ordnung, in: HSR 21/2 (1996), S. 126-132; Schröder, Thomas: Historisch Relevante
Ressourcen in Internet und WorldWideWeb. Angebot, Bewertung und Ausblick, in: VjhZG 44/2 (1996), S. 465477; Assam, Bernhard: Digitale Edition im Internet, oder: Hätte Ranke einen Scanner benutzt?, in: HSR 21/4
(1996), S. 136-139; Jensk, Stuart: Das Internet und die universitäre Lehre: Spielzeug, Werkzeug oder Teufelszeug? Erfahrungsbericht aus der Sicht eines Studenten, in: GWU 49 (1998), S. 30; Uhde, Karsten: Urkunden im Internet – Neue Präsentationsformen alter Archivalien, in: AfD 45 (1999), S. 441; Imfeld, Klaus u.a.:
Eine raum-zeitliche Datenbank für den Schweizer Kanton Bern im Internet, in: HSR 20/3 (1995), S. 102-133.
Auch Christian von Ditfurths Buch mit dem vielversprechenden Titel „Internet für Historiker“ beschränkt sich
auf die Nutzungsmöglichkeiten. Vgl. Ditfurth, passim. Einen Schritt weiter scheinen die Psychologen zu sein.
In Batinics „Internet für Psychologen” ist der zwar knappe, aber dennoch aufschlussreiche Beitrag „Die Geschichte des Netzes: ein historischer Abriß“ von Jochen Musch aufgenommen. Vgl. Musch, passim.
92 Teuteberg, Strukturmerkmale, 317.
93 Bei den Haubens handelt es sich um Mutter und Sohn. Vgl. Rosenzweig, 1544.
94 Die Arbeit der Haubens ist in Analogie zu Rheingolds Buch stellenweise tendenziell. Bei beiden ist eine
starke Affinität zum Untersuchungsgegenstand zu erkennen. Rheingold spricht seinen ambivalenten Ansatz
deutlich an: „Ich bin Teil der Geschichte, die ich beschreibe, und spreche sowohl als Informant wie als skepti90
14
untersuchen zwar vor allem das Usenet der 80er Jahre, es lässt sich aber bereits für die
60er Jahre eine aktive Szene von Computer- und Netzwerknutzern nachweisen, die sich
selbst die Bezeichnung Hacker gab.95 „Linke Kulturpessimisten betonen in der Regel die
militärischen Ursprünge des Netz-Mediums, Euphoriker zitieren dagegen die unorthodoxen ‚Hacker’-Wurzeln“,96 lautet das überspitzte Resümee von Anja Schäfers.
Arthur Norberg und Judy O’Neill konzentrieren sich in ihrer 1996 veröffentlichten Studie
„Transforming in Computer Technologie. Information Processing for the Pentagon 1962 –
1986“97 auf die Leistungen der Advanced Research Projects Agency (ARPA) bzw. deren
Abteilung für Computerentwicklung Information Processing Techniques Office (IPTO). Für
sie ist das Internet ein Verdienst der (militärischen) Bürokratie bzw. deren Managementkonzept.
Die aufwendig recherchierte Veröffentlichung der amerikanischen Journalisten Katie Hafner und Matthew Lyon thematisiert hauptsächlich die Leistungen der an dem Projekt beteiligten Forscher und Ingenieure - ein Ansatz, der kritisiert wurde, da dadurch „den Ursprüngen eines Mediums und den Absichten von Erfindern zuviel Bedeutung zugemessen“98 werde. Reduziert man die Perspektive auf diesen Aspekt und stellt Medienentwicklung als lineare ‚Erfolgsstory’ dar, so ist der Einwurf sicherlich berechtigt, wenn auch wenig spektakulär. Brian Reid, ein früher Internetnutzer, schrieb bereits 1979: „We technologists have always played a supporting role in history, but never a determining role [...].
Though it always infuriates and saddens us, the ultimate application of our wonderful inventions is determined by numerous and usually unpredictable social forces”.99 Dennoch
spielen Forscher, Erfinder und Ingenieure in der Frühphase radikaler Innovationen eine
wesentliche Rolle, mobilisieren mit Nutzungsvisionen weitere Akteure und schaffen Alternativen zu inkrementellen Lösungsvorschlägen.100 Wurde bei Teuteberg und anderen der
militärische Zusammenhang überstrapaziert, so müssen sich Hafner und Lyon den Vorwurf gefallen lassen, diesen Aspekt herunterzuspielen. Ihre stark biographisch ausgelegte
Arbeit neigt dazu, die beteiligten Informatiker bzw. Ingenieure und deren Leistungen zu
überhöhen, denen fast schon ‚magische’ Fähigkeiten zugewiesen werden.101
scher Sozialwissenschaftler“. Rheingold, 29.
95 Der Begriff Hacker ist auf den ersten Blick überraschend, hat er doch heute eine negative Konnotation und
weckt die Assoziation eines computerbegabten Menschen, der in fremde Rechnersysteme eindringt, um dort
Informationen zu stehlen bzw. den Datenbestand zu beschädigen. Diese Personen werden als „Cracker“
bezeichnet. Hacker wird als Auszeichnung verstanden, die begabte Programmierer beschreibt: „I am a hacker. That is to say, I enjoy playing with computers -- working with, learning about, and writing clever computer
programs. I am not a cracker; I don't make a practice of breaking computer security”. Vgl. Raymond.
96 Schäfers, 105.
97 Vgl. Norberg, passim. Die Studie wurde im Auftrag des Pentagon verfasst und von dem letzten Direktor der
IPTO angeregt, was Zweifel an der Unvoreingenommenheit der Autoren aufkommen lässt. Vgl. Norberg, vii.
98 Schäfers, 105.
99 MSGGroup # 0844.
100 Vgl. Weyer, 35-40.
101 Der englische Originaltitel „Where Wizards Stay Up Late: The Origins of the Internet“ verweist deutlich auf
diese Grundtendenz. Die deutschen Übersetzung „Arpa Kadabra oder die Geschichte des Internet“ deutet
diesen Aspekt nur noch an. Gewidmet ist das Buch J.C.R. Licklider. Vgl. Hafner, passim.
15
Die Akteurskonstellation ist damit erheblich weiter gefasst. „Wizards, Bureaucrats, Warriors, and Hackers“102 waren an der Entwicklung des Internet beteiligt und sollen in den
folgenden Kapiteln berücksichtigt werden. Ihr Handlungsspielraum war vor allem in den
ersten Jahren abhängig von der Forschungs- und Militärpolitik sowie der gesamtgesellschaftlichen Situation. Die Hippie- bzw. Antikriegsbewegung erfasste Ende der 60er Jahre
auch die amerikanischen Universitäten, an denen die Forschung zu dem Projekt durchgeführt wurde. Der amerikanische Kongress musste das Budget der ARPA bewilligen,
was die Akteure einem Legitimationsdruck aussetzte.
Die ersten zaghaften ‚Vernetzungsexperimente’ gehen in die 50er Jahre zurück, als erstmals Terminals an Großrechner angeschlossen wurden, die auch weit entfernt stehen
konnten. 1958 begann die American Telephone and Telegraph Company (AT&T) Modems zu verkaufen, die einen Datentransport über normale Telefonleitungen ermöglichten.103 Das erste verteilte Computernetzwerk, das auf der für das Internet grundlegenden
Technologie des „Packet-Switching“ basierte und sich über einen ganzen Kontinent erstreckte, wurde aber erst 1969 im Auftrag der ARPA in den USA installiert. An das ARPANET wurden später weitere Netzwerke angeschlossen und es etablierte sich die
Bezeichnung Internet für dieses Konglomerat. Das Netzwerk der ARPA bildet somit die
Keimzelle, weshalb die vorliegende Arbeit mit diesem Projekt beginnen soll.
2.1. Die ARPA im gesamtgesellschaftlichen Kontext
Die Gründung der ARPA fiel in die Zeit des Kalten Krieges, der nach dem Aufbau der
Bündnisse bzw. Blöcke (NATO: April 1949, Warschauer Pakt: Mai 1955) zu einer Aufrüstung beider Kontrahenten führte. Die Rüstungsausgaben der USA betrugen in den 50er
Jahren bis zu 11% des Bruttosozialprodukts.104 Gleichzeitig verlor die Forschungs- und
Technologieentwicklung auf amerikanischer Seite etwas von dem Schwung, den sie vom
„Stimulans des 2. Weltkrieges“105 erhalten hatte. Der Kongress gründete zwar 1950 die
National Science Foundation (NSF), die in den späten 80er Jahren eine zentrale Rolle bei
der Internetentwicklung übernehmen sollte, die Erfolge der Stiftung waren in diesem Jahrzehnt allerdings eher begrenzt, was auf ein knappes Budget von maximal 15 Millionen
Dollar p.a. zurückzuführen ist.106 Einen Sonderfall bildete die Förderung der Computerforschung. 75 bis 80% der Kosten wurden von der amerikanischen Bundesregierung bzw.
deren Militärbehörden getragen und private Forschungseinrichtungen der Computerindustrie konnten sich stets auf eine starke Nachfrage des Militärs verlassen. Die massive
102
Der Titel von Rosenzweigs Artikel in der American Historical Review.
Die sternförmigen ‚Netzwerke’ der 50er Jahre verbanden noch keine Computer, sondern ermöglichten
lediglich den Zugriff auf einen (entfernten) Zentralrechner. Vgl. Abbate, 21.
104 Vgl. Krakau, 222.
105 Sauter, 485.
106 Vgl. Sauter, 448ff. und 492ff..
103
16
Regierungsunterstützung setzte die europäischen Märkte unter Druck und war mitverantwortlich für eine amerikanische Hegemonie in diesem Bereich.107
Die allgemeine Forschungssituation sollte sich grundlegend ändern, als die Sowjetunion
am 4. Oktober 1957 einen ersten Satelliten in die Erdumlaufbahn schickte. Das russische
Prestigeobjekt Sputnik verdeutlichte den USA, dass ihr technologischer Vorsprung vom
sozialistischen Kontrahenten aufgeholt worden war und weckte die Befürchtung, dass der
Gegner nun auch in der Lage sei, transkontinentale (mit Atomwaffen bestückte) Raketen
zu konstruieren. Bereits am 20. November desselben Jahres verkündete Verteidigungsminister McElroy vor dem Kongress die Gründung einer zentralen Behörde für militärische
Forschung, die dem Office of the Secretary of Defense zugeteilt werden sollte und deren
Direktoren mit einer uneingeschränkten Vollmacht bei der Auftrags- bzw. Mittelvergabe
ausgestattet würden, um die vom Director of Defense Research and Engineering
vorgegebenen Forschungsziele zu realisieren. Die bürokratischen und politischen Zwänge
sollten auf ein Minimum reduziert werden.108
Präsident Dwight D. Eisenhower (1953-1961) und McElroy versprachen sich von der Behörde unter anderem eine Beendigung der Rivalitäten von Navy, Marine und Air Force bei
der Vergabe von Forschungs- bzw. Entwicklungsgeldern. Die Vertreter des militärischen
Establishments in den verschiedenen Waffengattungen versuchten anfangs die Gründung
zu verhindern oder zumindest die Befugnisse der Behörde einzuschränken, da sie nicht
bereit waren, die Entscheidungen über zukünftige Militärforschungsvorhaben abzugeben.
Anfang 1958 wurde der ARPA vom Kongress eine Erstausstattung von 520 Millionen
Dollar sowie ein Etat von 2 Milliarden Dollar bewilligt. Die ca. 70 Mitarbeiter erhielten die
Oberaufsicht über das amerikanische Weltraumprogramm und die strategische Raketenforschung. In der Praxis sollten sie vor allem eingehende Anträge für Forschungsgelder
prüfen und die Zusammenarbeit mit den zahlreichen Vertragspartnern überwachen, selbst
also keine Forschung betreiben.109 Diese Aufgabenteilung ist charakteristisch für die
amerikanische Wissenschaftsförderung. Obwohl die Bundesregierung der größte Geldgeber ist, werden die Projekte in der Regel von Universitäten oder gemeinnützigen Forschungsinstitutionen ausgeführt, die sich einer direkten Kontrolle des Staates entziehen.110
Als nur knapp ein halbes Jahr später die National Aeronautics and Space Administration
(NASA) gegründet wurde, verlor die ARPA ihr Hauptbetätigungsfeld und einen Großteil
des Budgets, blieb aber weiterhin dem Department of Defense (DoD) untergeordnet. Der
jungen Behörde verblieben lediglich 150 Millionen Dollar p.a. und es mussten neue Auf-
107
Vgl. Rosenzweig, 1538.
Vgl. Abbate, 75.
109 Vgl. Hafner, 14-24.
110 Vgl. Wheatley, 588.
108
17
gaben gefunden werden, um der drohenden Auflösung zu entgehen. Man entschied sich
Grundlagenforschung zu betreiben, Forschungsvorhaben mit zwar ungewissen Erfolgsaussichten aber hohem potentiellen Nutzen.111
In die Zeit der Präsidentschaft von John F. Kennedy (1961-1963) fällt ein strategischer
Dogmenwechsel der Abschreckungspolitik. Bis zu diesem Zeitpunkt hatte Eisenhowers
Strategie der „massiven Vergeltung“ gegolten, wonach jede Gefährdung der amerikanischen Sicherheit mit der Androhung von massiven Atomschlägen beantwortet werden
sollte. Trotz Einsparungen beim Militärpersonal konnte damit an der Abschreckungspolitik
festgehalten werden. Kennedy, der bei seinem Wahlkampf von 1960 öffentlichkeitswirksam einen „missile gab“, d.h. eine amerikanische Unterlegenheit hinsichtlich der Raketentechnik, behauptet hatte, wollte mit der Strategie der „flexiblen Antwort“ die Glaubwürdigkeit der Abschreckung erhöhen, indem die amerikanische Politik die Initiative und Beweglichkeit zurückerhielt.112
Bei der Besetzung der ARPA-Führungspositionen zeichnete sich in den frühen 60er Jahren ebenfalls ein Wechsel ab. Brigadegeneral Austin W. Betts war der letzte ARPA-Direktor, der aus rein militärischen Zusammenhängen zu der Behörde gestoßen war. Ihm
folgte 1961 mit Jack P. Ruina ein erster Wissenschaftler in dieser Funktion.113
Nach dem Tod von Kennedy profitierte die ARPA von einer Initiative des demokratischen
Präsidenten Lyndon B. Johnson (1963-1969), der die Förderung von Grundlagenforschung in den Universitäten durch Regierungsbehörden unterstützte. Zwei Drittel der universitären Ausgaben in den USA wurden von Behörden des Bundesstaates getragen. Es
sollten „creative centers of excellence“ verteilt über die ganze Nation entstehen, in denen
keine Limitierung der Forschungsziele stattfindet: „Under this policy more support will be
provided under terms which give the university and the investigator wider scope for inquiry, as contrasted with highly specific, narrowly defined projects“.114 Dennoch wurde das
Budget der ARPA während seiner Präsidentschaft gekürzt.115
Unter der Regierung Johnson verdoppelten sich die Sozialausgaben des Bundes, was zu
Verbesserungen des Erziehungswesens, der Krankenversorgung und Wohnungspolitik
führte. Überschattet wurden die innenpolitischen Leistungen durch den Ausbruch des
Vietnamkriegs (1964-1973).116 Er war ein entscheidender Faktor bei der politischen und
kulturellen Fragmentierung der amerikanischen Mittelschicht seit Mitte der 60er Jahre. Die
heterogene Hippiebewegung, die sich an der Westküste um das Epizentrum San Franzisko entwickelte, schockierte die Generation ihrer Eltern mit Drogenexperimenten, sexu-
111
Vgl. Hafner, 14-25.
Vgl. Krakau, 223. Kennedy erhöhte 1962 die Militärausgaben um 20%. Vgl. Berg, 202.
113 Vgl. Hafner, 25f..
114 Johnson, zitiert nach Abbate, 76.
115 Vgl. Norberg, 22 und Abbildung 1, Kapitel 2.2..
116 Vgl. Sauter, 489ff.. Kennedys Mitschuld an diesem Konflikt kann hier nicht erörtert werden.
112
18
eller Promiskuität und neuen Lebens- bzw. Umgangsformen. Diese Form des Protests
wurde von einer kleinen Minderheit getragen, deren gesellschaftliche Relevanz allerdings
nicht unterschätzt werden sollte. Die ‚sexuelle Revolution’ hinterließ ihre Spuren in sämtlichen westlichen Industrienationen. Neben Emanzipationsbewegungen, die für die Rechte
der Frauen eintraten und den Kampf gegen Rassismus aufnahmen, fokussierte sich der
Protest der studentischen Jugend auf den Vietnamkrieg. Es wird geschätzt, dass sich bis
zu 500.000 der Wehrpflicht entzogen, indem sie Einberufungsbefehle verbrannten oder
ins Ausland flüchteten. Die US-amerikanische Studentenbewegung in den 60er Jahren
war in der Regel weder linksradikal noch militant, setzte aber auf unkonventionelle Protestformen.117
Die ARPA war als öffentlich geförderte Behörde stets den Richtlinien der nationalen Politik
verpflichtet. Die Direktoren mussten den Kongress in jährlich stattfindenden Anhörungen
über den Stand der Arbeiten informieren. Obwohl die Forschung an der Computerentwicklung nur einen kleinen Teil des Budgets ausmachte, nutzte man die Ergebnisse als
„marketing tool“ vor dem Kongress.118 Ende der 60er Jahre begann die Politik, eine engere Orientierung der Forschungsunterstützung durch das DoD an konkreten militärischen
Bedürfnissen zu fordern. 1969 passierte z.B. das „Mansfield Amendment“ den Kongress,
das Kontrollorgan der Exekutive im politischen System der USA:119 „None of the funds
authorized to be appropriated by this Act [military reauthorization bill] may be used to
carry out any research project or study unless such project or study has a direct or apparent relationship to a specific military function or operation”.120 Die Behörde musste folglich
stets militärische oder ökonomische Gründe für die Forschungsprojekte angeben. John S.
Foster, Director of Defense Research and Engineering, versicherte 1968 dem Senat: „The
research done in the Department of Defense is not done for the sake of research. Research is done to provide a technological base, the knowledge and trained people, and
the weapons needed for national security. No one in DoD does research just for the sake
of doing research”.121 Waren diese Aussagen nur vorgeschoben oder tatsächlich zutreffend? Jeannette Abbate urteilt jedenfalls: „ARPAs concern for defense applications and
cost savings was genuine, but the agency’s disavowal of basic research was more rhetorical than real“.122 Teile des amerikanischen Kongresses hätten Abbates Einschätzung
mit Sicherheit zugestimmt.
117
Vgl. Berg, 204-206.
Vgl. Norberg, 62f..
119 Vgl. Shell, 377.
120 Zitiert nach Norberg, 36.
121 U.S. Congress 1968. Zitiert nach Abbate, 77.
122 Abbate, 77.
118
19
2.2. Die IPTO und weitere Akteure des ARPANET
1962 wechselte der Psychologe und ehemalige Harvard-Professor J.C.R. Licklider auf
Wunsch des ARPA-Direktors Ruina von Bold, Beranek & Newman (BBN) zu der Militärbehörde. Er sollte ein neues verhaltenswissenschaftliches Programm leiten sowie die
Forschung der Abteilung Command and Control betreuen. In dieser Abteilung wurde 1962
nur ein einziger Auftrag bearbeitet, der an die System Development Corporation (SDC)
vergeben worden war. Dem neuen Mitarbeiter war es zu verdanken, dass sich die Computerforschung von dem engen militärischen Kontext löste und „Time Sharing“-Experimenten123 bzw. interaktiver Computernutzung zuwand, was sich auch an der Umbenennung der Abteilung in Information Processing Techniques Office (IPTO) ablesen lässt,
deren erster Direktor Licklider wurde.124 Der Psychologe stellte den Kontakt zu Informatikern in Stanford, Berkeley, der Universität von Kalifornien in Los Angeles (UCLA) sowie
dem Massachusetts Institute of Technologie (MIT) her, an die von diesem Zeitpunkt an
ein Großteil der Computerforschungs-Verträge vergeben wurde.125
Die Entwicklung von „Time Sharing“-Systemen bedeutete nicht nur die Möglichkeit zur
Einsparung von Kosten. Durch den Zugriff verschiedener Personen auf einen Rechner
kam es nach Rheingold zur Bildung von Gemeinschaften um die zentralen Mainframes.
Bald entdeckten die Nutzer neue Kommunikationstechniken, indem sie Nachrichten für
andere auf frei zugänglichen Bereichen des Zentralcomputers hinterließen und damit einen Vorläufer der E-Mails bzw. Mailboxsysteme kreierten.126
Als Licklider 1964 die ARPA verließ, wählte er seinen Kollegen Ivan Sutherland zum
Nachfolger127 - ein Verfahren, dass durchaus typisch für die Vorgehensweise der IPTOMitarbeiter war. „ARPA recruited most of its IPTO directors and project managers from
university and industrial researchers. IPTO directors came to the agency with expertise in
computer science, and kept in touch with colleagues by touring research centers to evaluate the progress of programs, learn about new research ideas, and recruit promising researchers, often including their own successors”.128
Es entwickelte sich ein engmaschiges soziales Netzwerk, das auf persönlichen Bekanntschaften, teilweise auch Freundschaften, beruhte und das - über die Behörde hinaus auch die späteren Vertragspartner an den Forschungseinrichtungen umfasste. Lawrence
Roberts von der IPTO, Leonard Kleinrock von der UCLA, Frank Heart und Robert Kahn
„Time Sharing“-Betriebssysteme erlauben mehreren Benutzern über verschiedene Terminals den Zugriff
auf einen Rechner. Vgl. Abbate, 154. Mit einer solchen Technik können also Ressourcen eingespart bzw.
effektiver genutzt werden. Das „Time Sharing“-Konzept wurde nicht von Licklider, sondern von McCarthy und
anderen am MIT entwickelt. Vgl. Norberg, 89.
124 Vgl. Hafner, 30-45.
125 Vgl. Salus, Casting, 7.
126 Vgl. Rheingold, 96.
127 Vgl. Hafner, 45.
128 Abbate, 65.
123
20
von BBN (Lickliders Arbeitsplatz vor seinem Wechsel zur ARPA) hatten ihre akademischen Titel am MIT erworben. Roberts, Kleinrock und die meisten Ingenieure des BBNTeams hatten dort im Lincoln Laboratory gearbeitet. Howard Frank und Kleinrock kannten
sich seit der gemeinsamen Lehrtätigkeit in Berkeley.129 Studenten, die an den Programmen der IPTO am MIT, der UCLA und anderen Einrichtungen beteiligt waren, stellten den
Großteil der jungen Wissenschaftler, die von den wachsenden computerwissenschaftlichen Fakultäten an den amerikanischen Hochschulen rekrutiert wurden.130 Das soziale
Netzwerk dehnte sich damit auf die nächste Generation aus.
Begünstigt wurde dieser Prozess durch die geringe Größe des jungen Forschungszweiges. Werle fasst die für ein DoD-finanziertes Projekt überraschende Sozialstruktur treffen
zusammen: „Die Gruppe [der am ARPANET beteiligten Personen] war [...] eingebettet in
eine Kontrollstruktur, die durchaus als hierarchisch bezeichnet werden kann. Es blieben
ihr aber genügend Raum und ausrechende finanzielle Mittel zum Experimentieren. Ein
Netzwerk von Personen agierte im Schutz der Hierarchie“.131
1965 wechselte Robert Taylor von der NASA zur IPTO und wurde ein Jahr später Sutherlands Nachfolger. Er schlug Charles Herzfeld, dem damaligen ARPA-Direktor, die Vernetzung der Computerzentren vor, die bei der Behörde unter Vertrag standen. Ihm wurden 1967 500.000 Dollar für die ersten Arbeiten zu einem experimentellen Netzwerk mit 4
Knoten bewilligt.132 In einem Interview von 1989 erinnert sich Taylor an das Gespräch:
„When I convinced Charlie Herzfeld [...] that I wanted to start the ARPANET, and he had
to take money away from some other part of the ARPA to get this thing off the ground, he
didn’t specifically ask me for a defense rational“.133
Taylor konnte Lawrence Roberts für das Projekt gewinnen, der bereits 1966 zwei Computer über eine Telefonleitung verbunden hatte und 1969 der vierte IPTO-Direktor werden
sollte. Roberts ist einer der ‚Väter’ des Internet, die heute entschieden eine militärische
Zielsetzung bestreiten. Man wollte lediglich ein effektives Netzwerk aufbauen, das Argument eines Atomschlags sei erst später hinzugekommen, da es sich bei der Bewilligung
neuer Forschungsgelder als nützlich erwies.134
Der Anteil der IPTO am Gesamtbudget der ARPA war zwar verhältnismäßig gering, stieg
aber kontinuierlich an. Abbildung 1 verdeutlicht, dass sich die finanzielle Ausstattung trotz
massiver Budgetkürzungen der Behörde Ende der 60er Jahre auch in absoluten Zahlen
erhöhte.
129
Vgl. Abbate, 66f..
Vgl. Norberg, 140f..
131 Werle, Selbstorganisation, 502.
132 Vgl. Abbate, 38f..
133 Taylor 1989 in einem Interview mit William Aspray vom Charles Babbage Institute. Zitiert nach Abbate, 78.
Die umfangreiche „DARPA/IPTO Oral History Collection“ der Universität von Minnesota ist leider nicht frei zugänglich (http://www.cbi.umn.edu/darpa/darpaoh.htm).
134 Vgl. Borchers, 129. Es gab tatsächlich keine ‚Mütter’ des ARPANET.
130
21
Abb. 1. ARPA/IPTO-Budget zwischen 1963 und 1984. 135
Auf zwei Treffen mit den Forschern unter IPTO-Vertrag im April und November 1967
wurde der Plan zum Ausbau des Netzwerkes konkretisiert. Auf dem ersten Treffen in Ann
Arbor brachte Wesley Clark, der Licklider in den 50er Jahren am Lincoln Laboratory mit
der Computertechnologie bekannt gemacht hatte,136 die Idee ein, vor jeden der Mainframes einen sogenannten Interface Message Processor (IMP) zu schalten. Auf diese Weise
sollte ein Subnetz aus homogenen Rechnern entstehen, das die Inkompatibilitätsprobleme der heterogenen Computerplattformen an den unterschiedlichen Standorten lösen
konnte.137 Das ARPANET war von Beginn an so konzipiert, dass Rechner jedes Herstellers in das Netzwerk integriert werden konnten.138
Auf dem zweiten Treffen im November vergab Roberts einen ersten ARPA-Vertrag an das
SRI (Stanford Research Institute) in Palo Alto, mit der Zielsetzung, „design and specification of a computer network“ zu untersuchen, was hauptsächlich von Elmer Shapiro bewerkstelligt wurde. Er fasste seine Ergebnisse unter dem Titel „A Study of Computer Network Design Parameters“ zusammmen, die später als Arbeitsgrundlage für die IMP-Software dienten. Die anderen, bisher durchgeführten Arbeiten waren über bestehende Projekte abgewickelt worden, was einer Zusatzleistung der Beteiligten gleichkam.139 Ob diese
auf einem besonderen Engagement oder einer allgemeinen Verpflichtung gegenüber der
ARPA gründete, bleibt unklar. Bis zu diesem Zeitpunkt war weder die Idee des „PacketSwitching“ oder eines verteilten Netzwerkes in das Projekt eingeflossen, noch wurden
135
Norberg, 22.
Vgl. Hafner, 37f..
137 Vgl. Salus, Casting, 20ff.. Die Großrechner verfügten über ein jeweils spezifisches Betriebssystem und
unterschiedliche Programmiersprachen, sodass eine ‚Verständigung’ der Rechner tatsächlich ein massives
Problem darstellte. Der Vorschlag eines IMP-Subnetzes wurde realisiert. Zum besseren Verständnis kann die
Karte mit den ersten 4 Knoten des ARPANET in Abbildung 4, Kapitel 2.3. betrachtet werden.
138 An dem Grundsatz der Plattform-Unabhängigkeit wird bis heute im Internet festgehalten. Die Seiten des
WWW lassen sich z.B. unabhängig vom Betriebssystem oder Rechnerhersteller betrachten.
139 Vgl. Salus, Casting, 25ff. und Hauben, Behind The Net. Shapiros Bericht ist unveröffentlicht. Staatliche
Einrichtungen unterstützen in den USA die Forschung durch einmalige Geldzuweisungen (grant) oder die
Vergabe von Forschungsaufträgen (contract). Vgl. Wheatley, 589. Bei der ARPA war das zuletzt genannte
Vorgehen üblich.
136
22
konkrete Nutzungsvorstellungen formuliert.140
Im März 1968 berichtete Robert Taylor dem neuen ARPA-Direktor Eberhardt Rechtin über
die Fortschritte und legte Larry Roberts „Program Plan“ mit dem Titel „Resource Sharing
[sic] Computer Network“ vor.141 Der BBN Completion Report142 bezieht sich auf dieses
Papier und berichtet, die dort genannte Zielsetzung sei: „to develop experience in interconnecting computers and to improve and increase computer research productivity
through resource sharing. Technical needs in scientific and military environments were
cited as justification“.143
Nun mussten Vertragspartner gefunden werden, die in der Lage waren das Netzwerk zu
realisieren. Die IPTO verschickte im Juli 1968 eine Ausschreibung für die Konstruktion
von Hard- und Software der IMPs unter dem Titel Request for Quotation (RFQ) an mehr
als 140 potentielle Interessenten, von denen jedoch nur ca. 12 ein Angebot abgaben. Den
Zuschlag bekam Anfang 1969 das kleine Unternehmen BBN – IBM, Control Data Corporation (CDC) und andere Großunternehmen der damaligen Computerindustrie hatten kein
Angebot abgegeben, da sie das Projekt für nicht realisierbar hielten. Die Auftragsvergabe
an BBN war dennoch überraschend.144 Die Installation der Leitungen wurde im September
1968, ebenfalls nach einer Ausschreibung, an den amerikanischen Telekommunikationsgiganten AT&T vergeben.145
Die restlichen Verträge wurden Institutionen bzw. Personen zugeteilt, die bereits in Kontakt zur ARPA standen oder an den bisherigen Arbeiten beteiligt waren. Leonard Kleinrock146 von der UCLA sollte theoretische Modelle erstellen und die Leistung des Netzwerks überwachen (Network Measurement Center). Das Labor von Engelbart147 am SRI
bekam die Aufgabe eines Network Information Centers (NIC) zugeteilt, was eine online
verfügbare Datenbank mit Verzeichnissen über das Personal an den verschiedenen Hoststandorten, ein Archiv mit relevanten Dokumenten und das Angebot von Informationen
über die Ressourcen des Netzwerks umfasste. Die in Network Working Group (NWG)
umbenannte Versammlung von Vertretern der ARPA-Computerzentren, hauptsächlich
Studenten, sollte sich mit der Entwicklung der Software für die Kommunikation zwischen
den Hosts befassen (Anwendungen bzw. Dienste sowie das grundlegende Netzwerkprotokoll) und gleichzeitig ein Forum anbieten, um über gewonnene Erfahrung und Experi-
140
Vgl. RFC 1000.
Vgl. Salus, Casting, 26f. und Hauben, Behind the Net.
142 Der „ARPANET Completion Report DRAFT“ wurde 1977 von BBN erstellt und wäre eine interessante
Quelle für die Frühphase des ARPANET. Er ist jedoch nie publiziert worden, sodass auf Auszüge in anderen
Arbeiten zurückgegriffen werden muss. Auch Larry Roberts „Program Plan“ ist unveröffentlicht.
143 BBN Completion Report, zitiert nach Salus, Casting, 26.
144 Vgl. Hafner, 92-94 und 132.
145 Vgl. Hafner, 132.
146 Kleinrock hatte sich bereits in seiner Dissertation von 1962 mit analytischen Modellen zur Netzwerktechnologie auseinandergesetzt. Vgl. Kapitel 2.2.2..
147 Engelbart forschte in den 60er Jahren am sog. oN Line System (NLS). Vgl. Kapitel 2.2.1..
141
23
mente zu diskutieren.148 Die Software zur Anbindung der Hosts an die IMPs war abhängig
von dem jeweiligen Computersystem und sollte deshalb von den Programmieren vor Ort
entwickelt werden. Diese Entscheidung war bedeutend, denn „ARPA’s assigning of responsibilities made the academic computer science community an active part of the
ARPANET development team”.149 Der Aufbau des Netzwerks war schon zu Beginn
dezentral angelegt.
Die am ARPANET beteiligten Akteure sind nur unvollständig charakterisiert, wenn man
sie auf die „Strategen des Pentagon“ reduziert. Es hatte sich ein relativ komplexes Gefüge
von individuellen Akteuren und Institutionen gebildet, wobei das DoD als Finanzier einen
zweifellos wichtigen Beitrag leistete. Die Vergabe von Forschungsaufträgen fiel aber in
den Aufgabenbereich der ARPA, deren Direktoren nur wenig Einfluss auf die IPTO ausübten. Die IPTO wiederum betreute bzw. koordinierte die Arbeiten an den Forschungsinstituten und Universitäten. Auch die Grundlagen für eine aktive Beteiligung der Nutzenden
wurden bereits vor der Realisierung gelegt. Auffällig ist die Dominanz von Akteuren aus
dem öffentlichen Bereich. Abgesehen von AT&T und BBN, deren Beiträge von der IPTO
angeregt sowie finanziert wurden, war die private Wirtschaft an dem Projekt ARPANET in
dieser Phase nicht beteiligt.
2.2.1. Licklider, Engelbart und Taylor - Computernutzung
Man konnte auf theoretische Vorleistungen zurückgreifen, wozu eine Umdeutung der Nutzungsmöglichkeiten von Computern zählt. Hier sollen die Arbeiten von Licklider, Engelbart
und Licklider/Taylor berücksichtigt werden,150 denen durch die enge Verzahnung mit dem
Projekt eine besondere Bedeutung zukommt.
Licklider dokumentierte in dem viel beachteten Aufsatz „Man-Computer Symbiosis“ von
1960, der auf seiner Forschung zu „Time Sharing“-Systemen bei BBN in den späten 50er
Jahren basierte,151 weitreichende Vorstellungen über die zukünftige Computernutzung:
„Man-computer symbiosis is an expected development in cooperative interaction
between men and electronic computers. It will involve very close coupling between
the human and the electronic members of the partnership. The main aims are 1) to
let computers facilitate formulative thinking as they now facilitate the solution of formulated problems, and 2) to enable men and computers to cooperate in making decisions and controlling complex situations without inflexible dependence on predetermined programs”.152
In den ersten Jahren sollte durch die Symbiose eine der wichtigsten Ressourcen eingespart werden: Zeit. Später würde der menschliche Verstand durch eine enge Kopplung an
148
Salus, Casting, 26f. und Abbate, 48f..
Alexander McKenzie in einem Interview von 1993. Zitiert nach Hauben, Behind the Net.
150 Paul A. Mayer hat in seinem Buch neben diesen Autoren auch Arbeiten von Vannevar Bush, Alan M. Turing, Ted Nelson, Alan Kay und Adele Goldberg abgedruckt. Vgl. Mayer, 23-138.
151 Vgl. Digital Equipment Corporation, Preface.
152 Licklider, Symbiosis, 1.
149
24
den Computer eine bisher unbekannte Leistungssteigerung erfahren.153
Im Vergleich zu der Computernutzung in den 50er Jahren waren diese Vorstellungen visionär. „Present-day computers are designed primarily to solve preformulated problems or
to process data according to predetermined procedures“.154 Um diese - hauptsächlich
arithmetischen - Aufgaben zu bewältigen, musste ein menschlicher „Operator“ Maschinen
in der Größe eines Zimmers bedienen, wobei die Ein- und Ausgabe von Informationen
oder Programmen nur über Lochkarten möglich war (Batch-Processing) und zu großen
Zeitverzögerungen führte.155 Auch der Netzwerkgedanke wird in „Man-Computer Symbiosis“ angesprochen. „It seems reasonable to envision, for a time 10 or 15 years hence, a
‘thinking Center’ […]. The picture readily enlarges itself into a network of such centers,
connected to one another by wide-band communication lines […]”.156
Diese Einschätzung macht Licklider jedoch nicht zu einem Pazifisten. Hafner und Lyon
behandelten seinen Aufsatz auf einer rein intellektuellen Ebene,157 berücksichtigen aber
nicht, dass der Autor selbst auf eine mögliche militärische Nutzung hinweist bzw. die Untauglichkeit der bisherigen Technologie aufzeigt:
„Imagine trying, for example, to direct a battle with the aid of a computer on such a
schedule as this. You formulate your problem today. Tomorrow you spend with a
programmer. Next week the computer devotes 5 minutes to assembling your program and 47 seconds to calculating the answer to your problem. You get a sheet of
paper 20 feet long, full of numbers that, instead of providing a final solution, only
suggest a tactic that should be explored by simulation. Obviously, the battle would
be over before the second step in its planning was begun”.158
In einem Memo von 1963 an die Computerzentren unter ARPA-Vertrag bezeichnete
Licklider in seiner Funktion als IPTO-Direktor die Informatiker als seine „Members and
Affiliates of the Intergalatic Computer Network“. In diesen leider nicht mehr verfügbaren
Papieren wird erstmals die Vernetzung der ARPA-Computerzentren anvisiert.159 „Lick had
a strong feeling that the computer was a communication device not an arithmetic aid“.160
Douglas Engelbart begann Ende 1959 am SRI die Forschung am Programm zur Steigerung des menschlichen Intellekts, das bis 1968 unter seiner Leitung fortgeführt wurde.
Anfangs basierte es auf einem Vertrag der Air Force, bis 1966 ARPA und NASA die Finanzierung übernahmen.161 Der Forschungsplan „Augmented Human Intellect Program“
vom März 1962 ähnelt Lickliders Artikel, den Engelbart in seinem Literaturverzeichnis
153
Vgl. ebd., 2-6.
Ebd., 3.
155 Walitsch, 233ff.. Der Ausdruck Großrechner kann durchaus auch auf den Preis bezogen werden. Mit dem
PDP1, dem ersten „Minicomputer“, kam 1961 ein Rechner auf den Markt, der erstmals weniger als eine Million
Dollar kostete. Vgl. ebd., 236.
156 Licklider, Symbiosis, 8.
157 Vgl. Hafner, 40f..
158 Licklider, Symbiosis, 4.
159 Vgl. Salus, Casting, 7.
160 Salus, Casting, 7.
161 Das Sloan Project der Stanford University hat auf der MouseSite viele Arbeiten Engelbarts archiviert.
154
25
angibt.162 Die Leistungsfähigkeit des menschlichen Intellekts sollte durch technologische
Hilfen (Computer) und eine optimierte Herangehensweise der Subjekte an intellektuelle
Probleme erhöht werden. „For this application, the stereotype of the computer as only a
mathematical instrument is too limiting […]. Our aim is to give help in manipulating any of
the concepts that the individual usefully symbolizes in his work, of which mathematical
concepts constitute only a limited portion in most real-life instances”.163 Wie zuvor Licklider
deutet Engelbart den ‚Rechenknecht’ zu einer effektiven, flexiblen Erweiterung der
menschlichen Fähigkeiten um. Er beschreibt detailliert den Plan für die weitere Vorgehensweise. Die beabsichtigte Hard- und Softwareentwicklung soll nicht im Einzelnen
dargelegt werden, es deutet sich aber bereits in dieser Phase die Idee einer Hypertextstruktur an.
In „Study Of The Development Of Human Intellect Augmentation Techniques. Final Report” - 1968 für die NASA erstellt - wird unter anderem das Konzept eines „oN Line Systems“ (NLS) vorgestellt. „We are concentrating fully upon becoming able to do all of our
daily work on line”.164 Vergleichbar mit einer Bibliothek sollten so alle relevanten Unterlagen verfügbar sein und dadurch die interne Kommunikation der Laborgemeinschaft optimiert werden. Die Dokumentation sollte eine „dynamic and plastic structure“ erhalten, die
kontinuierlich weiterentwickelt wird und über den jeweils aktuellen Stand der Arbeit informiert.165
Abb. 2. Engelbarts „Maus“-Patent von 1967.166
Engelbarts Beitrag wird häufig unterschätzt. Tim Berners Lee, der 1990/91 am europäischen Labor für Teilchenphysik (CERN) in der Nähe von Genf das World Wide Web
(WWW) entwickelte, stellt einen Zusammenhang seiner Ergebnisse mit der Forschung
162
Vgl. Engelbart, Augmented, 17.
Engelbart, Augmented, 2.
164 Engelbart, Final.
165 Vgl. ebd..
166 Engelbart, Patent.
163
26
Engelbarts in den 60er Jahren her.167 Die bei dem „Human Intellect Augmentation“-Programm entwickelte experimentelle Maus zur Verbesserung der Mensch-Computer-Interaktion ist inzwischen zu einem alltäglichen Arbeitsgerät geworden. Die Abbildung in Engelbarts U.S. Patent – eingereicht am 21.7.1967 - nimmt den Aufbau von Computerarbeitsplätzen vorweg, wie er sich in den 80er Jahren etablierte.
Im April 1968 veröffentlichte IPTO-Direktor Taylor gemeinsam mit seinem Vorgänger
Licklider den Artikel „The Computer as a Communication Device“, der deutlich auf das
kommunikative Potential der Technologie hinweist:
„In a few years, men will be able to communicate more effectively through a machine
than face to face […]. And we believe that we are entering a technological age in
which we will be able to interact with the richness of living information - not merely in
the passive way that we have become accustomed to using books and libraries, but
as active participants in an ongoing process, bringing something to it through our
interaction with it, and not simply receiving something from it by our connection to it
[…]. Creative, interactive communication requires a plastic or moldable medium that
can be modeled, a dynamic medium in which premises will flow into consequences,
and above all a common medium that can be contributed to and experimented with
by all. Such a medium is at hand - the programmed digital computer. Its presence
can change the nature and value of communication even more profoundly than did
the printing press and the picture tube, for, as we shall show, a well-programmed
computer can provide direct access both to informational resources and to the processes for making use of the resources”.168
Als der Artikel erschien, gab es lediglich ein halbes Dutzend Forschungsgemeinschaften,
die auf interaktive Computer zugreifen konnten, wie die Autoren erklären. Die Entwicklung
der angestrebten Systeme sei aber ein komplexer Vorgang, der eine Koordination der
Arbeiten erfordere. „[…] now the move is on to interconnect the separate communities and
thereby transform them into, let us call it, a supercommunity“.169 Es folgt eine detaillierte
Beschreibung des ARPANET, ohne sich explizit auf dieses Projekt zu beziehen. Wesentlich ist der Gedanke einer Kommunikation zwischen Menschen über das Netzwerk. Die
Folgen für die Gesellschaft werden ambivalent eingeschätzt:
„For the society, the impact will be good or bad, depending mainly on the question:
Will ‘to be on line’ be a privilege or a right? If only a favored segment of the population gets a chance to enjoy the advantage of intelligence amplification, the network
may exaggerate the discontinuity in the spectrum of intellectual opportunity.
On the other hand, if the network idea should prove to do for education what a few
have envisioned in hope, if not in concrete detailed plan, and if all minds should
prove to be responsive, surely the boon to humankind would be beyond measure”.170
Obwohl Licklider und Taylor in entscheidenden Positionen an dem Projekt beteiligt waren,
sollten ihre Ansichten nicht generalisiert werden. Die Frage nach den Auswirkungen der
Vernetzung auf die Gesellschaft wurde erst in den 80er Jahren im Zusammenhang mit
den Projekten der nationalen Telekommunikationsunternehmen (Btx in Deutschland, TE167
Vgl. Berners-Lee, 18.
Licklider und Taylor, 21f..
169 Ebd., 32.
170 Ebd., 40.
168
27
LETEL in Frankreich, etc.) aktuell. In den 90er Jahren wurde sie für das Internet wiederentdeckt und bleibt bis heute ungelöst.
2.2.2. Kleinrock, Baran und Davies - Netzwerktechnologie
Auch hinsichtlich der Netzwerktechnologie konnte man auf Ergebnisse der Forschung
zurückgreifen. Auf die Anfänge der Terminal-‚Netzwerke’ wurde bereits hingewiesen. Baran, Davies und Kleinrock beschäftigten sich vor der Realisierung des ARPANET explizit
mit der „Packet-Switching“-Technologie.
Leonard Kleinrocks Dissertation, die er zwischen 1959 und 1962 am Lincoln Laboratory
des MIT erstellte und 1964 in Buchform unter dem Titel „Communication Nets: Stochastic
Message Flow and Delay“ veröffentlichte, beschäftigte sich theoretisch mit der Leistung
von Kommunikationsnetzwerken. Erstmals tauchte der Gedanke auf, Botschaften bzw.
Dateien aufzuteilen, um die Auslastung der Kommunikationskanäle zu optimieren.171 Die
Arbeit von Paul Baran wurde in seinem Buch zitiert, nicht jedoch in der Dissertation. Kleinrock erklärte später, dass weder Barans noch Davies’ Arbeiten 1962 veröffentlicht waren.172 „In this work, he [Kleinrock] developed the basic principles of packet switching, thus
providing the fundamental underpinnings for that technology. These principles […] continue to provide a basis for today's Internet technology. Kleinrock is arguably the world's
leading authority and researcher in the field of computer network modelling, analysis and
design and a father of the Internet”.173 Mit diesen Worten charakterisiert der Forscher
inzwischen seinen Beitrag in einer kurzen Darstellung der Ereignisse.174
Paul Baran untersuchte 1962 im Auftrag der Air Force bei der RAND Corporation die
Möglichkeit einer angriffssicheren Kommunikationsstruktur. RAND (Research and Development) – ein unabhängiges Forschungsinstitut - war 1946 als gemeinnütziger Verein
gegründet worden, der sein Einkommen hauptsächlich aus Aufträgen der Bundesregierung bzw. der Air Force bestritt.175 Seit der Gründung wurde an einer angriffssicheren
Kommunikationsinfrastruktur geforscht. Baran war jedoch der erste, der das Problem mit
Hilfe von Computertechnologie lösen wollte.176
Peter H. Salus vermutet einen Zusammenhang mit einem Anschlag auf das amerikanische Militär im Mai 1961. Eine Gruppe von Saboteuren mit dem Namen „American Republican Army“ zerstörte in Utah drei Relais-Stationen, was zu Kommunikationsproblemen
171
Vgl. Norberg, 171 und Hafner, 81.
Vgl. Salus, Casting, 51.
173 Kleinrock.
174 Wie viele der frühen Protagonisten, hat auch Kleinrock nicht an den finanziellen Möglichkeiten des Internet
in den 90er Jahren partizipiert und es drängt sich der Verdacht auf, dass dies durch Prestige kompensiert
werden soll.
175 Vgl. Wheatley, 597.
176 Vgl. Hafner, 64.
172
28
geführt hatte.177 Die Kuba-Krise vom Oktober 1962, bei der die Welt tatsächlich einer
atomaren Katastrophe nahe war,178 ließ die bereits 1958 befürchtete Bedrohung durch
russische Raketen realer erscheinen.
Barans theoretische Arbeiten nahmen vieles vom Aufbau des ARPANET vorweg. Unabhängig von Kleinrock entwickelte er das Konzept des „Packet-Switching“179 und die Idee
eines verteilten Computernetzwerks, das ohne zentrale Knoten auskommt. Dateien werden demnach in kleine Pakete aufgeteilt, die selbständig und potentiell auf unterschiedlichen Routen den Weg zum Zielrechner finden. Bei zentralisierten bzw. dezentralisierten
Netzwerken, könnte das gesamte System durch den Ausfall weniger (zentraler) Knoten
oder Kabelverbindungen empfindlich getroffen werden, wie Abbildung 3, ein Karte aus
Barans abschließenden Berichten von 1964, verdeutlicht.
Abb. 3. Barans Netzwerkkonzeption von 1964. 180
In „On Distributed Communications“ ist die militärische Zielsetzung offensichtlich:
„We will soon be living in an era in which we cannot guarantee survivability of any
single point. However, we can still design systems in which system destruction requires the enemy to pay the price of destroying n of n stations. If n is made sufficiently large, it can be shown that highly survivable system structures can be built-even in the thermonuclear era. In order to build such networks and systems we will
have to use a large number of elements […]. In order to build a network with the survivability properties […], we must use a switching scheme able to find any possible
path that might exist after heavy damage. The routing doctrine should find the shortest possible path […]”.181
Barans Nutzungsvision, geprägt von der Logik des Kalten Krieges, scheint die Eingangs
177
Vgl. Salus, Casting, 5f..
Vgl. Krakau, 227.
179 Baran verwendet anstelle von „packets“ den Begriff „blocks“.
180 Baran.
181 Baran. Insgesamt handelte es sich um dreizehn Berichte, wovon elf 1964 unter dem Titel „On Distributed
Communications“ veröffentlicht wurden und zwei aus Gründen der Geheimhaltung unter Verschluss gehalten
wurden. Für die vorliegende Arbeit wurde die WWW-Version der RAND-Corporation verwendet.
178
29
zitierte Aussage Teutebergs zu bestätigen. Tatsächlich blieb seine Arbeit aber in einer
theoretischen Phase stecken und erreichte die Verantwortlichen der ARPA nur auf Umwegen. AT&T bestritt die Verletzlichkeit des Kommunikationssystems und verweigerte
trotz finanzieller Zusagen der Air Force die Zusammenarbeit, sodass sich Baran 1965
schließlich anderen Aufgaben zuwand.182
Ein drittes Projekt beschäftigte sich vor dem ARPANET mit der neuen Technologie. An
den National Physical Laboratories (NPL) in London wurde bereits 1968 – ein gutes Jahr
bevor die ersten Knoten in den USA installiert waren – ein Netzwerk in Betrieb genommen, in dem Daten verteilt auf Pakete verschickt wurden.183 Donald W. Davies und Roger
Scantlebury hatten bereits in den frühen 60er Jahren begonnen an dem Projekt zu arbeiten. Als Davies sein Konzept im März 1965 erstmals der Öffentlichkeit vorstellte,
machte ihn Arthur Lewellyn, ein Mitarbeiter des Pentagon, auf das Projekt der RAND Corporation aufmerksam. Kleinrock, Baran und die Forscher der NPL waren unabhängig
voneinander zu ähnlichen Ergebnissen gekommen.184
Im Gegensatz zum später realisierten ARPANET war das NPL Data Network jedoch lokal
begrenzt und bestand nur aus einem einzigen Knoten. Vinton Cerf bezeichnete es später
als „the first LAN [Local Area Network]“.185 Es wies erstaunliche Parallelen zu Barans Ansatz auf, unterschied sich aber hinsichtlich der Motivation. Militärische Überlegungen
spielten bei dem Londoner Projekt keine Rolle. Davies und Scantlebury hatten sich für
das „Packet-Switching“ entschieden, da sie ein leistungsfähiges, vor allem aber ökonomisches Netzwerk aufbauen wollten. Davies hatte durch Tests im Vorfeld festgestellt, dass
bei einer permanenten Verbindung die potentielle Übertragungskapazität der Leitungen
nur zu einem geringen Prozentsatz genutzt wurde.186 Im Zusammenhang mit dem Netzwerk der NPL wurden erstmals die Begriffe „Packet-Switching“ und „Protocol“ verwendet.187
Im Oktober 1967 lernte Larry Roberts das neue Konzept kennen. Auf dem ACM Symposium on Operating Systems Principles in Tennessee berichtete Scantlebury über das
NPL-Projekt.188 Sein Bericht machte Roberts auf die Arbeit der RAND aufmerksam. Nachdem er von dem Treffen zurückgekehrt war, las er erstmals Barans „On Distributed Communications“ und seit Ende 1967 traf sich der Forscher von RAND mit den Beteiligten des
ARPANET. In einem Interview erklärte Roberts später: „suddenly I learned how to route
packets. So we talked to Paul [Baran] and used all of his concepts and put together the
182
Vgl. Hafner, 72-75.
Vgl. Quarterman, 141f..
184 Vgl. Campbell-Kelly, 226.
185 Vgl. Salus, Casting, 22-25.
186 Vgl. Hafner, 76f. und Campbell-Kelly, 225ff..
187 Vgl. Campbell-Kelly, 226.
188 Vgl. Salus, Casting, 23f..
183
30
[ARPANET] proposal”.189 Im Juni 1968 beschrieb Roberts das geplante Netzwerk als „demonstration of the distributed [sic] network“.190
Barans Forschung bildete hinsichtlich der konsequenten Orientierung an militärischen
Bedürfnissen die Ausnahme. Bei den Arbeiten von Davies/Scantlebury und Kleinrock
stand dieser Aspekt nicht im Fordergrund. Auch die Motivation der ARPA-Verantwortlichen war vielschichtiger. Tatsächlich sprachen verschiedene Gründe dafür, das Projekt
nach dem Prinzip der Paketvermittlung aufzubauen. Die bereits gewonnenen, theoretischen Erkenntnisse bzw. Modelle konnten bei dieser Gelegenheit erstmals an einem
Prototyp getestet werden, der sich über einen ganzen Kontinent erstreckte. Für ein Interesse an Grundlagenforschung spricht auch die Tatsache, dass „the precise usage of
the ARPANET was not spelled in advance“.191
Die Ansätze von Kleinrock, Davies und Baran versprachen große Stabilität, da sie den
Ausfall von Knoten bzw. Leitungen kompensieren konnten, was bei dem damaligen Stand
der Computerentwicklung von großer Bedeutung war. Der störungsfreie Betrieb eines
Rechners über 24 Stunden am Tag und 7 Tage in der Woche war in den 60er Jahren eine
gewagte Vorstellung – meist mussten sie für mehrere Stunden in der Woche zu Wartungszwecken abgeschaltet werden.192 Zudem sprachen ökonomische Gründe für ein
Netzwerk im Allgemeinen und die „Packet-Switching“-Technologie im Besonderen. Die
Aufteilung der Daten in einzelne Pakete ermöglichte eine effizientere Nutzung der Leitungskapazitäten als das bisher übliche „Circuit-Switching“. Dass man bei der IPTO die
anfallenden Kosten in der Planung berücksichtigte, belegt die Mitschrift Engelbarts von
einem Treffen der Forscher unter ARPA-Vertrag im Oktober 1967. Roberts hatte dort den
finanziellen Aufwand für verschiedene Leitungstypen vorgestellt und schließlich die wirtschaftlichste Lösung vorgeschlagen.193
Das Netzwerk bot die Möglichkeit einer effizienteren Nutzung der Hard- bzw. Softwareressourcen an den verschiedenen Standorten: ein „Ressource Sharing“-Netzwerk als
Weiterentwicklung des Grundprinzips der „Time Sharing“-Systeme. Jedes neue Projekt
kostete die IPTO zwischen fünfhunderttausend und drei Millionen Dollar, abhängig von
dem verwendeten Computer und der Anzahl der geförderten Mitarbeiter. Zudem musste
entsprechende Software entwickelt werden – in den 60er Jahren waren Programme bzw.
Betriebssysteme Unikate, die für einen spezifischen Computer entwickelt wurden.194 Über
ein Netzwerk war es möglich auch von der Westküste auf einen Rechner des MIT zuzugreifen und damit dessen Ressourcen zu nutzen.
189
Zitiert nach Norberg, 166.
Salus, Casting, 24.
191 RFC 1000.
192 Vgl. Hafner, 92.
193 Vgl. Engelbart, Report.
194 Vgl. Hafner, 50f..
190
31
Die Idee zum Aufbau des ARPANET entstand in einer für die Behörde schwierigen finanziellen Situation. Sie hatte ein Drittel ihres Budgets verloren, was Kostenreduzierung zu
einem hochaktuellen Thema machte.195 Für die Nutzungsmöglichkeit des „Resource Sharing“ wurden später die ersten Protokolle entwickelt. Auch der Aufbau des später realisierten Netzwerks spricht gegen die These eines Kommunikationssystems, das atomare
Angriffe überstehen sollte: „[...] the ARPANET was ‚survivable’ from the beginning,
although its modes of connectivity and number of alternate paths were insufficient to survive even a modest nuclear attack“.196 Die Motivation zum Aufbau des ARPANET war
vielschichtig und kann nicht, wie in der deutschen Forschungsliteratur üblich, auf militärische Überlegungen reduziert werden.
2.2.3. Forschungseinrichtungen und Privatunternehmen
Bisher wurden hauptsächlich individuelle Akteure des ARPANET behandelt. Sie spielten
bei der Vergabe der Verträge eine große Rolle - die Personen ihrerseits waren aber eingebunden in Institutionen.
Der Beitrag von AT&T war nur gering und die Vergabe des Auftrags zur Verlegung der
Leitungen alles andere als eine Überraschung. Im Gegensatz zur europäischen Situation
war AT&T kein staatlicher Monopolbetrieb sondern ein Privatunternehmen, was jedoch
nicht bedeutet, dass es einem freien Wettbewerb ausgesetzt gewesen wäre. Der Konzern
dominierte die US-Telekommunikationsbranche in allen Produktsparten fast vollständig.
Unter dem Dach von AT&T waren die Bell Laboratories für Forschung und Entwicklung
zuständig, Western Electric für die Produktion der Telekommunikationsausrüstung, der
Mutterkonzern selbst für den Betrieb der Fernverbindungen und die lokalen Bell Operating
Companies für die Verwaltung der örtlichen Anschlüsse und die Vermittlung der Gespräche. Auf allen Bereichen wurde ein Marktanteil zwischen 70 und über 95 Prozent erreicht.197
Das Justizministerium hatte seit 1912 bei der Kartellbehörde mehrfach die marktbeherrschende Stellung des Konzerns angeklagt. 1934 erließ der Kongress den „Communication Act“, der AT&T den Status eines öffentlichen Infrastrukturbetriebs einräumte, woraus
die Verpflichtung zu einer Versorgung der Allgemeinheit entstand. Gleichzeitig wurde mit
der Federal Communications Commission (FCC) eine Kontrollbehörde etabliert. 1954
verpflichtete sich das Unternehmen auf Druck des Justizministeriums in keinem Bereich
außerhalb des Fernmeldewesens tätig zu werden. 1967, kurz vor der Installation des ARPANET, verfügte die FCC, dass auch Geräte anderer Hersteller an das Telefonnetz der
195
Vgl. Abbildung 1, Kapitel 2.2..
Alex McKenzie. Zitiert Salus, Myth. McKenzie arbeitete von 1967 bis 1976 bei BBN. Vgl. ebd..
197 Vgl. Luyken, 394.
196
32
AT&T angeschlossen werden durften.198 Keine dieser Maßnahmen konnte die Dominanz
brechen. Die Entscheidung von 1954 sollte den Konzern von anderen Geschäftsbereichen ausschließen, was AT&T u.a. durch Absprachen mit dem Computergiganten IBM
(International Business Machines Corp.) umging, gegen den 1969 eine Antitrust-Klage der
Regierung angestrengt wurde. Im selben Jahr ließ die FFC vermehrt Mitbewerber auf dem
Telekommunikationssektor zu, wovon die meisten jedoch nie die Gewinnzone erreichten
und bald wieder aufgeben mussten.199 An AT&T führte einfach kein Weg vorbei.
Mit einem großen Engagement des Konzerns konnte die IPTO nicht rechnen. Schon bei
Barans Projekt Anfang der 60er Jahre hatten die Verantwortlichen von AT&T wenig Kooperationsbereitschaft gezeigt. Man hielt „Packet-Switching“ während der 60er Jahre für
nicht realisierbar und setzte auf das traditionelle, leitungsvermittelnde (Bell-)System.200
AT&T stellte schließlich herkömmliche Telefonleitungen mit einer Übertragungskapazität
von 50 Kilobit pro Sekunde (Kbps) zur Verfügung,201 womit sich das Unternehmen auf
ureigenem Terrain befand. Der Beitrag am ARPANET war ein normaler Geschäftsvorgang, der durch einen Vertrag der Regierungsbehörde finanziert wurde.202
BBN war mit der Konstruktion und Programmierung der IMPs beauftragt worden, was den
größten Anteil des gesamten Budgets ausmachte. Die Auftragsvergabe war überraschend. Larry Roberts hatte das Unternehmen über das Projekt informiert, bevor die Ausschreibung veröffentlicht wurde, was einen Zeitvorteil verschaffte, den BBN nutzte um ein
ausgereiftes Angebot abzugeben.203 Die Entwicklung der Spezialrechner wurde von Frank
Heart geleitet, der den Anteil seines Unternehmens gerne höher bewertet sehen würde:
„Wir haben das Internet bei BBN überhaupt realisiert. Es ist wie mit Einstein. Der erzählt
etwas von e=mc² und die Leute vom Alamos Project bauen die Bombe“.204
1969 wurde die Zusammenarbeit mit BBN intensiviert: Das Unternehmen sollte ein Network Control Center (NCC) betreiben, dessen Aufgabenbereich die Überwachung der
Netzwerkleistung und Hilfestellung bei Problemfällen umfasste.205 BBN entschied sich bei
der Hardwareentwicklung mit dem Unternehmen Honeywell zusammenzuarbeiten, das
ebenfalls in der Nähe von Boston ansässig war und mit dem 516-Minicomputer einen verhältnismäßig preisgünstigen Rechner produzierte, der sich als Basis für die IMPs anbot.206
198
Vgl. Luyken, 394f..
Vgl. Luyken, 396f..
200 Vgl. Hafner, 72ff..
201 Vgl. Salus, Casting, 61 und 63. Ein Vergleich mit dem derzeitigen G-WiN Projekt des DFN-Vereins
verdeutlicht die Leistungssteigerung der Übertragungskapazitäten. Der auf Glasfasertechnologie basierende
deutsche Backbone verfügt über eine Übertragungskapazität von 2,5 Gigabit pro Sekunde (Gbps). Vgl.
http://www.dfn.de/win/gwin/ueberblick/. Dies entspricht einer Leistungssteigerung um mehr als das 50.000fache im Vergleich zu den ersten Leitungen des ARPANET.
202 Die ARPA mietete die Leitungen. Vgl. Norberg, 167.
203 Vgl. Norberg, 167f..
204 Heart in einem Interview mit Reuters. Zitiert nach Borchers, 129.
205 Vgl. Norberg, 173f..
206 Der Begriff Minicomputer soll nicht täuschen. Ein Honeywell 516 hatte die Größe eines Kühlschranks und
wog ca. 400 Kilogramm. In der von Frank Heart bevorzugten Robustversion war er zudem noch von einem
199
33
Für BBN war die Beteiligung ein finanzieller Erfolg. Das kleine Unternehmen expandierte
und konnte sich Anfang der 70er Jahre einen neuen Firmensitz leisten.207 Die Aufträge
der Regierung machten bis zu 80% des Umsatzes aus. Man ließ sich die Mitwirkung am
ARPANET teuer bezahlen, zu teuer nach Ansicht der Bundesregierung, die 1980 ein
Verfahren gegen BBN wegen manipulierter Stundenzettel anstrengte. Der Vorwurf lautete,
dass bei den Aufträgen zwischen 1972 und 1980 vorsätzlich zuviel berechnet worden sei.
Man einigte sich schließlich auf einen Vergleich, wonach das Unternehmen 700.000 Dollar zurückbezahlen musste und verurteilte zwei leitende Angestellte zu einer Bewährungsstrafe samt Geldbuße in Höhe von 20.000 Dollar.208
Eine wichtige Rolle spielten Forschungseinrichtungen und Universitäten. Kleinrock, Engelbart und Licklider waren keine akademischen ‚Einzelkämpfer’. Der Umfang ihrer Forschungsvorhaben und die damit verbundenen Kosten erforderten Teamarbeit in Laborgemeinschaften, denen auch Studenten und Doktoranden angehörten. Es wäre jedoch
falsch von einem traditionellen Universitätsbetrieb auszugehen, dessen Zielsetzung sich
an rein wissenschaftlichen Kriterien orientiert. Das MIT stellte die Elite der damaligen
Computerwissenschaft dar, gleichzeitig war es der größte Vertragspartner des Pentagon
in der akademischen Welt und somit ein Teil des ‚militärisch-industriellen Komplexes’.209
Die Gründung des Lincoln Laboratory am MIT basierte auf einem Vertrag der Air Force,
der die Forschung am SAGE (Semi Automatic Ground Environment) Projekt initiierte. Auf
einem zentralen Rechner sollten die Bilder der über die ganzen USA verteilten Radarstationen zur Überwachung des Luftraums ausgewertet werden – ein kontinentales, zentralisiertes Netzwerk.210 Auch IBM profitierte mit einem großzügigen Vertrag von dem „Billion
Dollar Projekt“, das bereits vor seiner Fertigstellung 1961 überholt war.211 Licklider schrieb
1978 über die Bedeutung von SAGE: „military command and control and military communications are prime network applications. [...] both interactive computing and networking
had their origins in the SAGE system”.212
MIT, UCLA oder SRI waren jedoch keine militärischen Institutionen, in denen abgeschirmt
von der Öffentlichkeit an Geheimprojekten gearbeitet werden konnte, sondern Universitäten bzw. Hochschulen. In einem Gespräch mit Peter H. Salus beschrieb Kleinrock seine
Laborgemeinschaft an der UCLA:
„I had a team of about 40 people driving to get the first node up. Crocker was head
of the software effort, and Postel and Cerf worked under Crocker. We had a number
massiven, grauen Stahlmantel umgeben. Vgl. Hafner, 174.
207 Vgl. Hafner, 200f.. Die Architektur des Gebäudes ähnelte einer Festung, was Hafner und Lyon auf befürchtete Auseinandersetzungen mit der Antikriegsbewegung zurückführen.
208 Vgl. Hafner, 307f.. BBN profitierte bei dem in den 70er Jahren aufgebauten TELENET auch von dem
gewonnenen Know-how. In Kapitel 3.3. wird dieser Aspekt detaillierter behandelt.
209 Vgl. Rosenzweig, 1541.
210 Vgl. Wildes, 283.
211 Vgl. Rosenzweig, 1540.
212 Licklider und Vezza, 1335.
34
of segments, including analytic, design, implementation, measurement, etc. Those
three (along with some other software aces) were interesting to supervise, since, as
with all hackers, they were very independent, and always pressing me for more resources (e.g., equipment, staff, travel money, software, etc.). They were a delight to
work with – full of ideas (some brilliant some flawed) – and the experience was exciting for all of us”.213
Kleinrocks Beschreibung aus einer zeitlichen Distanz von mehr als 20 Jahren mag die
Situation idealisieren, demonstriert aber wie engmaschig und beständig das soziale
Netzwerk der Protagonisten war, die häufig über Jahrzehnte bei der Entwicklung des
Projekts mitwirkten. Jon Postel sollte später unter anderem im Internet Activities Board
(IAB) eine entscheidende Rolle spielen und über einen Zeitraum von 28 Jahren die sog.
RFCs editieren.214 Vinton Cerf entwickelte zusammen mit Robert Kahn 1974 die Urform
von TCP/IP215 und auch der Name Stephan Crocker wird in dieser Arbeit noch häufiger
fallen. Alle waren zu diesem Zeitpunkt Studenten bzw. Doktoranden, standen (noch) außerhalb des etablierten Zirkels der akademisch institutionalisierten Wissensproduktion,
waren aber in zentralen Funktionen an dem Projekt beteiligt. Kleinrocks Aussage deutet
an, dass sich an den Hoststandorten Gemeinschaften gebildet hatten, auch wenn die
kommunikativen Möglichkeiten des technischen Mediums erst noch entwickelt werden
mussten.
Im Zusammenhang mit der Antikriegsbewegung Ende der 60er Jahre kam es an den Universitäten zu Protesten gegen Forschung im Auftrag des DoD. Es ist unwahrscheinlich,
dass die Laborgemeinschaften von diesen Entwicklungen vollständig abgeschirmt waren.
Am MIT zirkulierte im Dezember 1968 ein Papier von 50 Fakultätsmitgliedern, in dem das
Misstrauen deutlich zum Ausdruck kam. „Misuse of scientific and technical knowledge
presents a major threat to the existence of mankind. Through its actions in Vietnam our
government has shaken our confidence in its ability to make wise and human decisions”.216 Das Papier führte zur Gründung der „Union of Concerned Scientists”, die eine
Debatte über DoD-finanzierte, akademische Forschung anregte. In Stanford kam es im
April 1969 zu massiven Protesten der Studentenbewegung, bei denen eine Beendigung
der Forschung auf dem Gebiet der chemischen Kriegsführung und Aufstandsbekämpfung
thematisiert wurde. 8000 Studenten und Fakultätsmitglieder forderten die Protestierenden
dazu auf, die Forschung am Stanforder Campus zu beobachten.217
An der Universität von Illinois plante die ARPA ursprünglich einen neuen, leistungsfähigen
Rechner der Burroughs Corporation zu installieren. Protestierende Studenten vermuteten
einen Zusammenhang mit Luftangriffen des Militärs in Vietnam, sodass die Verantwortlichen der Universität befürchteten, die Sicherheit des Projekts nicht garantieren zu kön213
Salus, Casting, 53.
Vgl. Quarterman, 184 und RFC 2555.
215 Vgl. Kapitel 3.1.2..
216 Zitiert nach Rosenzweig, 1541.
217 Vgl. ebd..
214
35
nen. Man entschied sich für die NASA als alternativen Standort.218 Im September und
Oktober 1969 wurden die ersten Knoten des ARPANET installiert - die Planungen zu diesen Standorten waren während der politischen Proteste in vollem Gange.
MIT, Stanford, BBN und andere Einrichtungen bildeten auch die Keimzelle der ‚HackerKultur’. Der Jargon-File, eine interessante Quelle für deren Selbstverständnis, sieht seine
Ursprünge in den Laborgemeinschaften um die Großrechner dieser Forschungseinrichtungen:
„The original Jargon File was a collection of hacker jargon from technical cultures including the MIT AI Lab, the Stanford AI lab (SAIL), and others of the old ARPANET
AI/LISP/PDP-10 communities including Bolt, Beranek and Newman (BBN), Carnegie-Mellon University (CMU), and Worcester Polytechnic Institute (WPI).
The Jargon File [...] was begun by Raphael Finkel at Stanford in 1975 […]. Some
terms in it date back considerably earlier (frob and some senses of moby, for instance, go back to the Tech Model Railroad Club at MIT and are believed to date at
least back to the early 1960s)”.219
Die Hackerbewegung am MIT war eine weitgehend unpolitische, „autistisch ins ‚Hacken’
versunkene[n] Gruppe”,220 die sich nach Wagner und Kubicek bis in die 50er Jahre zurückverfolgen lässt. Dennoch kam es mit dieser Subkultur, die sich der Idee des „free sharing of information“ verpflichtet sah, zu Interessenskonflikten. Richard Stallmann, ein Programmierer vom MIT AI Lab führte z.B. einen „guerrilla war“ gegen die Passwörter auf
dem System des Instituts, woraufhin Verantwortliche des DoD androhten, den Rechner
vom späteren ARPANET abzutrennen, da sie Sicherheitslücken befürchteten.221
Von den MIT-Hackern unterschied sich die Szene in Kalifornien. Die Hippie- und Antikriegsbewegung um das Epizentrum San Franzisko war zwar meist technikfeindlich eingestellt, es gab aber Kontakte zu Hackern aus dem Umfeld von Stanford und Xerox’
PARC (Palo Alto Research Center). Viele lernten sich an der „Midpeninsula Free University“ kennen, die als Gegenveranstaltung zum traditionellen Schul- und Universitätsbetrieb
konzipiert war. An ihr ‚lehrten’ neben LSD-Papst Timothy Leary auch etliche Computerexperten von der Westküste.222 Unter ihnen war Lickliders Freund John McCarthy, der am
MIT und in Stanford im Auftrag der Air Force bzw. ARPA Forschung zur Künstlichen Intelligenz (KI) und „Time Sharing“-Systemen betrieb223 und bereits 1961 das „computer utility
model“ entworfen hatte, wonach Rechenzentren als „information utilities“ - vergleichbar
mit öffentlichen Bibliotheken – fungieren sollten, indem sie Programme und Informationen
218
Vgl. Hafner, 270f..
Raymond. Erklärung der Abkürzungen: AI = Artificial Intelligence (Künstliche Intelligenz), LISP = LISt
Processing language (von John McCarthy in den 50er Jahren für die AI entwickelte Programmiersprache),
PDP-10 = Programmed Data Processor model 10 (Einer der ersten Rechner, die für den „Time Sharing“Betrieb geeignet waren). Vgl. ebd..
220 Wagner, 205.
221 Vgl. Rosenzweig, 1542.
222 Vgl. Wagner, 205f..
223 Vgl. Hafner, 98 und 249 sowie Norberg, 89.
219
36
kostenlos zur Verfügung stellten.224 Die Mischung aus politischem Idealismus und
Technikbegeisterung dieser Hacker ließ eine neue Jugendkultur entstehen. Bereits Ende
der 60er Jahre zog die „People’s Computer Company“ mit einem gespendeten DEC-Minicomputer über das Land, um vor allem an Schulen die „Computer Literacy“ zu verbreiten.225
Die Kontakte der Bewegungen mit den hauptsächlich universitären Laborgemeinschaften,
die an den ARPA-Projekten arbeiteten, müssten im Einzelnen noch nachgewiesen werden. Hafner und Lyon berichten z.B. von Severo Ornstein, der bei BBN an der Hardwareentwicklung beteiligt war. Er trug einen Anstecker mit der Aufschrift RESIST und einem Ω,
dem bei Elektroingenieuren damals üblichen Symbol der Antikriegsbewegung, den er
auch bei Besprechungen im Pentagon nicht ablegte.226 Ein anderes Beispiel ist Jon
Postel, über den Vinton Cerf schrieb: „Bearded and sandaled, Jon was our resident hippie-patriarch at UCLA“.227 Es ist anzunehmen, dass die Vorstellungen der Hacker, Hippies
und Kriegsgegner die Atmosphäre in den Labors mitprägten. Spätestens seit den Ereignissen Anfang 1969 am MIT wussten die Verantwortlichen der ARPA, dass ihre Forschung von einer kritischen Öffentlichkeit beobachtet wurde.
2.2.4. NWG und RFC
Unter den Akteuren des ARPANET war die NWG die unkonventionellste Gruppierung. Im
Oktober 1968 nahm sie die Arbeit auf.228 Stephen D. Crocker, ein Gründungsmitglied,
beschrieb 1987 die Arbeit der informellen Gruppe in der ersten Zeit ihres Bestehens:
„The procurement of the ARPANET was initiated in the summer of 1968 --Remember Vietnam, flower children, etc? […]
The first few [NWG-]meetings were quite tenuous. We had no official charter. Most
of us were graduate students and we expected that a professional crew would show
up eventually to take over the problems we were dealing with.
[…] after a particularly delightful meeting in Utah [März 1969], it became clear to us
that we had better start writing down our discussions. We had accumulated a few
notes […] and we decided to put them together in a set of notes. I remember having
great fear that we would offend whomever the official protocol designers were, and I
spent a sleepless night composing humble words for our notes. The basic ground
rules were that anyone could say anything and that nothing was official. And to emphasize the point, I labeled the notes ‘Request for Comments’”.229
Crockers Einleitung konstruiert einen Zusammenhang des ARPANET bzw. der NWG mit
der Hippie- und Antikriegsbewegung. Da er selbst aktiv an dem Prozess beteiligt war und
seine Aussage knapp zwanzig Jahre nach den beschriebenen Ereignissen veröffentlicht
wurde, besteht die Gefahr einer nachträglichen Umdeutung. Ein personeller oder ideeller
224
Vgl. Wagner, 204.
Vgl. Wagner, 206.
226 Vgl. Hafner, 130.
227 RFC 2468. Fotos von Postel stützen die Charakterisierung Cerfs.
228 Vgl. Salus, Casting, 29.
229 RFC 1000.
225
37
Zusammenhang kann nicht umfassend untersucht werden. Die Arbeitsweise und Zusammensetzung der Gruppe lässt sich aber nachvollziehen. Die „Documentation Conventions”
vom April 1969 verdeutlichen den unkonventionellen, basisdemokratischen Ansatz: „Documentation of the NWG’s effort is through notes such as this. Notes may be produced at
any site by anybody and included in this series […]. Philosophical positions without examples or other specifics, specific suggestions or implementation techniques without introductory or background explication, and explicit questions without any attempted answers
are all acceptable. The minimum length for a NWG note [RFC] is one sentence”.230
Auch die von Crocker angeführte Überraschung der NWG-Mitglieder, dass ausgerechnet
ihnen die verantwortungsvolle Aufgabe der Softwareentwicklung (Netzwerkprotokoll und
Anwendungen für die Host-Host-Kommunikation) übertragen wurde, ist plausibel. Als die
ersten „Documentation Conventions“ veröffentlich wurden, setzte sich die NWG aus fünf
graduierten Studenten zusammen – professionelle Programmierer oder Angehörige des
computerwissenschaftlichen Establishments der Universitäten fehlten.231
Aus diesem Zusammenhang entstand die Tradition der Request for Comments (RFC), die
sich bis heute fortsetzt und über die noch immer neue Protokolle eingeführt werden. Bis
April 2000 wurden bereits mehr als 2800 dieser Dokumente veröffentlicht, die sich zwar
meist mit technischen Standards bzw. Protokollen beschäftigen,232 durchaus aber auch
Beiträge zu allgemeineren Themen enthalten.233 Sämtliche RFCs sind datiert und mit dem
Namen des Verfassers versehen, sodass sie eine interessante Quelle abgeben. Der
größte Teil ist überliefert und auf verschiedenen Servern online verfügbar.
2.3. Die Realisierung des ARPANET
Wesentlich für den Aufbau des Netzwerks waren die Fortschritte von BBN bei der Konstruktion der IMPs. Das Unternehmen hatte am Neujahrstag 1969 den Auftrag erhalten
und sollte bis September desselben Jahres die ersten Rechner liefern.234 Trotz erheblicher Probleme traf IMP Nummer 1 pünktlich am 30. August 1969 an der UCLA ein. Dieser
Standort war wegen Kleinrocks Interesse an der Evaluation der Netzwerkleistung gewählt
worden, auf das sich sein ARPA-Vertrag für das Network Measurement Center (NMC)
zurückführen lässt.235
Am ersten Oktober erhielt das SRI als zweiter Hoststandort einen IMP. In Palo Alto und
230
RFC 0003.
Steve Carr aus Utah, Jeff Rulifson und Bill Duvall vom SRI sowie Steve Crocker und Gerard Deloche von
der UCLA. Vgl. RFC 0003. Die Mitgliederzahl sollte sich jedoch bald erhöhen.
232 Vgl. Network Working Group, RFC-Index.
233 Es etablierte sich z.B. eine Tradition von dichtenden ARPANET-Pionieren, deren lyrischen ‚Werke’ über
RFCs tradiert werden. Covills „ARPAWOCKY“ (RFC 0527), Kleinrocks „ODE TO A QUEUE“ oder Cerfs „ROSENCRANTZ AND ETHERNET“ (beide RFC 1121) sind Beispiele für diesen Brauch.
234 In dem Buch von Hafner und Lyon wird die Arbeit bei BBN ausführlich beschrieben. Vgl. Hafner, 95-121
und 143-157.
235 Der Jahresetat betrug 200.000 Dollar. Vgl. Hafner, 161.
231
38
Los Angeles wurde die Software zur Anbindung der Mainframes rasch entwickelt, sodass
eine erste Verbindung zwischen zwei Hosts des ARPANET aufgebaut werden konnte.
Nach einigen Startproblemen236 und mehreren Testbotschaften kam Larry Roberts am 21.
November 1969 in Kleinrocks Labor nach Kalifornien und verfolgte die erste Telnet-Verbindung (Telecommunication Network Protocol) mit dem Rechner am 500 Kilometer entfernten SRI. Im November und Dezember folgten die Universitäten von Kalifornien in
Santa Barbara (UCSB) und Utah.237 Ende des Jahres 1969 bestand das ARPANET aus 4
Knoten mit jeweils unterschiedlichen Großrechnern.
Abb. 4. Die ersten Knoten des ARPANET.238
Die Kreise auf der frühen ARPANET-Karte in Abbildung 4 bezeichnen die IMP-Standorte
und die Quadrate die dazugehörigen Hosts bzw. entsprechenden Mainframes. Das Konzept des verteilten Netzwerks wurde nicht konsequent realisiert. Ein Ausfall des IMP am
SRI oder der Leitung zwischen SRI und der Universität von Utah hätte die zuletzt genannte Einrichtung vom restlichen Netzwerk abgetrennt.
„The contract called for four IMPs to be delivered to UCLA, SRI, UCSB and the University
of Utah [...]. Options existed for additional nodes if the first experiments were succesfull”.239 Die Experimente waren erfolgreich, sodass man den Vertrag mit BBN verlängerte.
Da das Unternehmen inzwischen Erfahrung mit den Spezialrechnern hatte, ging der wei236
Bereits am 10. Oktober wurde erstmals versucht eine Telnet-Verbindung aufzubauen. Kleinrock wollte von
Los Angeles aus auf den Mainframe in Engelbarts Labor zugreifen. Über eine traditionelle Telefonverbindung
wurde er informiert, was auf dem Rechner des SRI ankam. Das Kennwort lautete L O G I N und bereits beim
G stürzte der Computer ab. Vgl. Kleinrock.
237 Vgl. Salus, Casting, 55f..
238 Es handelt sich um eine der frühesten Karten des ARPANET, deren Urheber allerdings nicht mehr geklärt
werden kann. Sie wurde Peter H. Salus von Alex McKenzie zur Verfügung gestellt, der sie in sein Buch aufnahm. Vgl. Salus, Casting, 56.
239 RFC 1000.
39
tere Ausbau zügig voran. Abbildung 5 illustriert die Verteilung der Standorte im September
1971. Das Netzwerk war zwei Jahre nach der Installation der ersten IMPs auf insgesamt
18 Hosts angewachsen und jeder Knoten mit mindestens zwei weiteren verknüpft. Die mit
einem eingekreisten T gekennzeichneten Standorte verfügten über sog. Terminal Interface Message Processors (TIPs), eine Weiterentwicklung der IMPs durch BBN. An die
herkömmlichen Modelle konnten maximal vier Hosts angeschlossen werden. Ein TIP
wurde von bis zu 64 Terminals gleichzeitig angesteuert, ohne einen weiteren Rechner zu
benötigen, was den potentiellen Nutzerkreis erheblich erweiterte und auf Personen ausdehnte, die keinen Zugang zu den Großrechnern hatten.240
Abb. 5. Geographische Karte des ARPANET im September 1971. 241
Die erste Verbindung von Ost- zu Westküste wurde im April 1970 realisiert, als IMP
Nummer 5 bei BBN installiert und über eine provisorische Leitung mit der UCLA verbunden wurde. Im Juli 1970 ersetzte AT&T das Provisorium durch die damals üblichen Leitungen. BBN war damit direkt mit der RAND Corporation verknüpft und konnte das geplante NCC umsetzen. Kurz darauf folgte die zweite Verbindung über den Kontinent
zwischen MIT und der Universität von Utah.242 Die Wahl der ersten Knoten folgte zum
einen der inneren Logik des Netzwerks, indem diejenigen Standorte zuerst integriert wurden, die für den Betrieb bzw. die Weiterentwicklung wichtig waren. Zum anderen ist das
240
Vgl. Hafner, 204f..
Die Karte wurde für den „BBN Completion Report“ erstellt. Hier wurde der Abdruck von Peter H. Salus
verwendet. Vgl. Salus, Casting, 64. Die Standorte im Einzelnen: University of California at Los Angeles
(UCLA); Stanford Research Institute (SRI); University of California at Santa Barbara (UCSB); University of
Utah (UTAH); zwei Standorte bei Bolt, Beranek,and Newman (BBN); Massachusetts Institute of Technology
(MIT); Rand Corporation (RAND); Systems Development Corporation (SDC); Harvard University (HARVARD);
Lincoln Laboratory, MIT (LINCOLN); Stanford University (STANFORD); University of Illinois (ILLINOIS); Case
Western Reserve (CASE); Carnegie-Mellon University (CMU); Ames Research Center, NASA (AMES), Mitre
Corporation (MITRE) und Burroughs Corporation (BURROUGHS). Vgl. Hafner, 204 und 270 sowie Zakon.
242 Vgl. Salus, Casting, 59-65.
241
40
Prinzip des „Resource Sharing“ zu erkennen, da hauptsächlich die von der Behörde finanzierten Computerzentren vernetzt wurden.
2.4. Die Nutzung des Netzwerks
Die Nutzungsmöglichkeiten waren aufgrund fehlender Protokolle anfangs beschränkt. Als
das ARPANET noch aus vier Knoten bestand, gab es lediglich ein provisorisches „Network Control Program“, das später zum „Network Control Protocol“ (NCP) weiterentwickelt
wurde, und Telnet.243 Die Provisorien ermöglichten den Zugriff auf einen entfernten Rechner, auf dem Programme ausgeführt werden konnten. Prinzipiell reduzierte man dadurch
den Client-Rechner auf einen Terminal, d.h. strenggenommen fand noch keine Kommunikation zwischen gleichberechtigten Computern statt. Obwohl NCP bereits im Dezember
1970 entwickelt war, wurde es erst über das Jahr 1972 vollständig implementiert.244 Im
März 1971 übte Steve Crocker, Vorsitzender der NWG, Druck auf die Entwickler aus und
forderte eine rasche Implementierung von NCP und Telnet.245 Erst im Juli 1972 folgte eine
ausgereifte Version von FTP, „a protocol for file transfer between HOSTs (including terminal IMPs [TIPs]), on the ARPA Computer Network (ARPANET). The primary function of
FTP is to transfer files efficiently and reliably among HOSTs […]. The objectives of FTP
are 1) to promote sharing of files (computer programs and/or data), 2) to encourage indirect or implicit (via programs) use of remote computers, 3) to shield a user from variations
in file storage systems among HOSTs, and 4) to transfer data reliably and efficiently. FTP,
though usable directly by user at a terminal, is designed mainly for use by programs“.246
Diesem RFC von Bhushan war eine mehrmonatige Entwicklungsarbeit – mit abschließendem Workshop-Wochenende Mitte April 1972 - vorangegangen, die sich über die RFCs
309, 308, 265, 264, 238, 172, 171 und 114 zurückverfolgen lässt.247 Das standardisierte
FTP bedeutete eine fundamentale Erleichterung bzw. Erweiterung der Nutzungsmöglichkeiten. Die bisherigen Lösungen für einen Dateitransport waren nicht für alle Host-Standorte geeignet und erforderten genaue Kenntnisse über das jeweilige Dateisystem.
„I never dreamed these notes [RFCs] would distributed through the very medium we were
discussing in these notes”,248 berichtet Stephan Crocker über seine Anfangszeit bei der
NWG. Der Vertrieb wurde über den herkömmlichen Postweg abgewickelt. RFC 95 vom
Februar 1971 trägt z.B. den Titel „Distribution of NWG/RFCs Through the NIC“, was einen
Vertrieb über den Server des SRI vermuten lässt. In Unterpunkt 4 des Papiers betont
Crocker jedoch: „All mailing should be airmail or first class, depending upon distance”. Die
243
Vgl. Salus, Casting, 42. NCP ist der Vorläufer von TCP/IP.
Vgl. Leiner, 103.
245 Vgl. RFC 0111.
246 RFC 0354.
247 Vgl. Network Working Group, RFC-Index.
248 RFC 1000.
244
41
daran anschließende „mailing list” umfasst 27 Postanschriften und Telefonnummern.249
Das ARPANET war weder als Kommunikationsmittel geplant, noch wurde es zu Beginn
so genutzt. Die zuerst entwickelten Dienste (FTP und Telnet) eigneten sich hauptsächlich
zum „Resource Sharing“. Die Technologie des Netzwerks musste erst noch ‚umgenutzt’
werden, um tatsächlich eine Kommunikation zwischen Menschen herzustellen.
Hafner und Lyon nennen Zahlen für die quantitative Nutzung im Herbst 1971. Demnach
wurden 675.000 Datenpakete pro Tag transportiert, was einer Auslastung von ca. 2% der
potentiellen Kapazität von 30 Millionen Paketen täglich entspricht.250 Vinton Cerf musste
für Belastungstests im Auftrag des NMC Anfang Mai 1972 künstlichen Datenverkehr erzeugen um seine Messungen überhaupt durchführen zu können.251 Ende 1973 bezifferte
McKenzie vom NCC das tägliche Datenvolumen auf über 3,6 Millionen Pakete.252 Stimmen die Angaben von Hafner und Lyon, so ist ein deutlicher Anstieg in diesem Zeitraum
zu erkennen, obwohl das Netzwerk noch immer weit von seiner maximalen Auslastung
entfernt war. Die Zahl der Standorte stieg von 18 auf 41, was die Zunahme weiter relativiert.253 Dennoch bleibt ein Anstieg pro Host auf ca. 240% des Niveaus vom Herbst 1971,
der auf ein verändertes Nutzungsverhalten bzw. gestiegenes Interesse schließen lässt.
McKenzie schätzte im Januar 1971 die Größe der ARPANET-„community“ auf 2000 Mitglieder, verteilt auf 14 Hosts.254 Diese Zahl scheint hochgegriffen, ergibt sich dadurch
doch ein Durchschnitt von ca. 140 Personen an jedem Standort. Die Nutzung war von
Beginn an streng limitiert: Lediglich ein exklusiver Zirkel von Personen, die an den ARPAProjekten beteiligt waren, hatte Zugriff. Larry Robberts machte dies bereits auf einem
Treffen am 9. und 10. Oktober 1967 im Pentagon den Vertragspartnern klar, die sich an
dem Netzwerkprojekt beteiligen wollten. Engelbart notierte, dass jeder Host die Anfragen
nach einem Zugang prüfen solle, um sicherzustellen, dass ein Bezug zu den ARPA-Projekten bestehe. Zudem müsse jeder Standort gewährleisten, dass nur berechtigte Nutzer
über das Netzwerk Zugang zu den Dateien und Programmen ihres Servers erhielten.255
RFC 602 von 1973 belegt, dass diese Vorschriften teilweise nicht mit der gewünschten
Sorgfalt umgesetzt wurden. McKency berichtet von drei „dangerous security violations“
innerhalb weniger Wochen, vermutet aber, dass nur ein kleiner Teil der Vergehen entdeckt werde. Zwei Hosts seien zum Absturz gebracht worden und auf einem dritten System hätten zwei Studenten einer Highschool in Los Angeles die Passwörter geknackt.
Verantwortlich seien die jeweiligen Standorte. Häufig würden Passwörter gewählt, die
249
Vgl. RFC 0095.
Vgl. Hafner, 209.
251 Vgl. RFC 0334.
252 Im November 1973 wurden täglich 3,65 Millionen Pakete transportiert. Vgl. RFC 0601. McKenzie erhob
diese Zahlen bei BBN für das NCC und veröffentlichte sie seit Juli 1972 (RFC 0378) monatlich. Leider stehen
die betreffenden RFCs vor RFC 0601 nicht zur Verfügung. Vgl. Network Working Group.
253 Vgl. RFC 0601.
254 Vgl. Salus, Casting, 57.
255 Vgl. Engelbart, Report.
250
42
leicht zu erahnen seien, wie z.B. der eigene Name oder die Initialen. Die Telefonnummern
der TIPs, über die ein anonymer Zugang möglich war, würden eilig an die Wand gekritzelt
und damit veröffentlicht. Er mahnte die Standorte zu einer konsequenteren Umsetzung
der Sicherheitsbestimmungen.256
Den strengen ARPANET Zugangsbestimmungen stand eine liberale Haltung hinsichtlich
der inhaltlichen Nutzung und der Informationspolitik über die Netzwerktechnologie gegenüber. Es gab keine Vorschriften über Inhalte und schon auf den Konferenzen der American Federation of Information Processing Societies (AFIPS) 1970 und 1972 wurde die
Computerfachwelt über den Stand des Projekts informiert.257
2.5. ICCC 72 - die erste öffentliche Demonstration
Die erste öffentliche Demonstration des ARPANET sollte anlässlich der International
Conference on Computer Communication (ICCC) vom 24. bis 26. Oktober 1972 im Hilton
Hotel von Washington stattfinden. Robert Kahn, der von Larry Roberts mit der Organisation beauftragt wurde, definierte in RFC 371 vom 12. 7. 1972 die Zielsetzung:
„I am organizing a computer communication network demonstration to run in parallel
with the sessions. This demonstration will provide attendees with the opportunity to
gain first hand experience in the use of a computer network. The theme of the demonstration will be on the value of computer communication networks […]. I am hoping to present a broad sampling of computer based resources that will provide attendees with some perspective on the utility of computer communication networks”.258
Im Hilton sollte ein TIP installiert und mit dem ARPANET verbunden werden, auf den Interessenten über einen der mehr als 40 Terminals von verschiedenen Herstellern selbst
zugreifen sollten.
„A significant amount of preparation by ourselves, the NIC, and others is being devoted to making it convenient for naive users to sit down at a terminal and effectively
use ‘selected’ resources without assistance. This involves the generation of ‘explicit’
documentation in easy to understand terms -- a non-trivial task. However, we hope
this effort will also be useful for other application in the long run”.259
Die von Robert Kahn geforderte Dokumentation – eines der frühsten ausführlichen Handbücher für Nutzende in der Geschichte des Internet260 – umfasste schließlich 62 Seiten
und wurde unter dem Titel „Scenarios for using the ARPANET at the International Conference On Computer Communication“ verteilt.261 Abschließend forderte Kahn die ‚Netz-
256
Vgl. RFC 0602.
Vgl. Norberg, 177.
258 RFC 0371.
259 Ebd..
260 Die Bedeutung von einführenden Handbüchern für die Nutzenden wurde durchaus erkannt. Die Arbeiten
waren jedoch in der Regel auf den jeweiligen Hoststandort zugeschnitten. Seit Juli 1971 wurden die „Network
participants“ dazu aufgerufen, Kopien von ihren „basic manuals or handbooks“ an das NIC zu schicken, das
die weitere Distribution organisieren wollte. Vgl. RFC 0185. Ein Experiment an der UCSB mit 14 graduierten
Studenten hatte Anfang 1972 unter anderem ergeben, dass trotz eines zweiwöchigen Einführungsseminars
zum Gebrauch des Netzwerks weiterhin Bedarf an Handbüchern bestand. Vgl. RFC 0302.
261 Vgl. Salus, Casting, 72f.. Leider steht die Dokumentation nicht mehr zur Verfügung. Salus beschränkt sich
257
43
werk-Gemeinschaft’ zur Mithilfe bei den weiteren Vorbereitungen auf:
„We need the help of sites in the network community to pitch in and lend a hand.
This is a large undertaking and much too big to be pulled off without a large commitment in time and energy between now and October. Many of you are already active in planning for ICCC. For those of you who may not yet be involved, someone
will be contacting or will have contacted your technical liaison in the next few days.
We hope you will join us in this effort”.262
„ARPA except for Bob [Robert Kahn] does not seem to have set up any budget for this
show except what their contractors are essentially willing to give as part of their ongoing
research”,263 präzisiert Richard Watson in RFC 372 vom selben Tag. Er berichtet über
vage Zusagen von verschiedenen Hoststandorten: Kleinrock wollte Programme zur Leistungsmessung des Netzwerks vorstellen und Vezza sowie Kahn vom MIT eine Möglichkeit zum Ausdrucken des Bildschirminhalts. Aus Utah, Stanford, RAND und anderen
Standorten war bis zu diesem Zeitpunkt lediglich eine generelle Bereitschaft signalisiert
worden.264
Die schließlich realisierte Demonstration erlaubt einen detaillierteren Einblick in das inhaltliche Angebot bzw. die bisherigen Nutzungsmöglichkeiten. Die UCLA loggte sich in
Los Angeles ein, um von dort aus eine Datei von einem Server in Bosten herunterzuladen, die dann im Hilton ausgedruckt wurde. Das MIT präsentierte einen kleinen Roboter,
der von einem Rechner aus über einfache Befehle gesteuert werden konnte. Außerdem
gab es ein Schachprogramm, ein interaktives Quiz und verschiedene Spiele. Den größten
Praxisbezug hatte wahrscheinlich die Demonstration eines Systems zur Überwachung
des Luftraums, bei dem ein Rechner die Beobachtung eines Flugzeugs einem andern
übergab, sobald es eine geographische Grenze überschritt.265 Die Dialogprogramme vom
MIT und SRI waren die vielleicht originellsten Beiträge. Das Programm PARRY mimte
einen virtuellen Psychotiker, der auf Fragen mit vorgefertigten Antworten reagierte. Sein
Pendant vom MIT war „the doctor“, der aus eingegebenen Wörtern neue Fragen bildete.
Beide Programme sollten eine möglichst lebensechte Kommunikation vortäuschen.266
Man wollte mit der Demonstration die Nützlichkeit bzw. den Wert von Computernetzwerken aufzeigen und präsentierte hauptsächlich unterhaltsame Spielereien. Es gab bis zu
diesem Zeitpunkt kaum konkrete Nutzungsmöglichkeiten oder Angebote. Das ARPANET
befand sich 1972 noch in einer experimentellen Phase. Dennoch wurde die Veranstaltung
als Erfolg gewertet. Während der dreitägigen Konferenz betrug das Datenvolumen pro
in seinem Buch auf den Abdruck der Titelseite.
262 RFC 0371.
263 RFC 0372.
264 Vgl. ebd..
265 Wahrscheinlich war diese Demonstration ein ‚Abfallprodukt’ des SAGE-Projekts.
266 Vgl. Haffner, 215-220. Beide Programme wurden kurz vor der Demonstration über das ARPANET
miteinander verbunden. Das Ergebnis dieses bizarren Dialogs ist bei Hafner und Lyon nachzulesen. Vgl. ebd.,
219f..
44
Host und Tag ca. 88.000 Pakete267 - ein Niveau, das selbst die Durchschnittswerte Ende
1973 übertraf. Damit wurde die Demonstration zu einem ersten Belastungstest, der den
ARPA-Forschern und der internationalen Fachöffentlichkeit268 bewies, dass das
experimentelle, über einen ganzen Kontinent verteilte „Packet-Switching“-Netzwerk auch
in der Praxis funktionierte.
McKenzie hob in einem Gespräch mit Salus zwei Aspekte hervor, die die Bedeutung der
Konferenz für die weitere Entwicklung erklären:
„First, it convinced a lot of people that packet networking was real. They came to
scoff and they went away believers […]. Second, the organizational meeting of the
International Network Working Group (INWG) took place at ICCC 72. It was the first
time representatives of the ARPANET, the British National Physical Laboratory
(NPL) networking group, and the French CYCLADES project had been together in
one room. By the end of ICCC 72 there was INWG and Vint Cerf was
elected/appointed Chairperson”.269
3. Das heterogene ARPANET
Nach der ersten öffentlichen Demonstration wuchs das Netzwerk der ARPA in den 70er
Jahren kontinuierlich weiter. Im August 1981 umfasste es 216 Hosts, was einem monatlichen Zuwachs von durchschnittlich 1,5 Rechnern entspricht. Der Prozess verlief in diesem Zeitraum noch weitgehend linear.
250
200
150
100
50
0
Dez 80
Dez 79
Dez 78
Dez 77
Dez 76
Dez 75
Dez 74
Dez 73
Dez 72
Dez 71
Dez 70
Dez 69
ARPANET-Hosts
Abb. 5. Wachstum des ARPANET zwischen 1969 und 1980. 270
1975 wurde der Betrieb umorganisiert. Die ARPA, 1972 umbenannt in DARPA (Defense
Advanced Research Projects Agency), gab die Zuständigkeit für Verwaltung und Ausbau
des Netzwerks an die Defense Communications Agency (DCA) ab. Von nun an entschied
267
Vgl. Salus, Casting, 70.
Vinton Cerf nennt einige Namen der ICCC-Teilnehmer: „At that conference a collection of people convened: Donald Davies from the UK, National Physical Laboratory, who had been doing work on packet
switching concurrent with DARPA; Remi Despres who was involved with the French Reseau Communication
par Paquet (RCP) and later Transpac, their commercial X.25 network; Larry Roberts and Barry Wessler, both
of whom later joined and led BBN's Telenet; Gesualdo LeMoli, an Italian network researcher; Kjell Samuelson
from the Swedish Royal Institute; John Wedlake from British Telecom; Peter Kirstein from University College
London; Louis Pouzin who led the Cyclades/Cigale packet network research program at the Institute Recherche d'Informatique et d'Automatique (IRIA, now INRIA, in France). Roger Scantlebury from NPL with Donald
Davies may also have been in attendance. Alex McKenzie from BBN almost certainly was there”. Vgl. Cerf.
269 Zitiert nach Salus, Casting, 70f.. Die Arbeiten an dem französischen, experimentellen Netzwerk CYCLADES begannen 1972. Vgl. Quarterman, 148. Das Projekt wird in Kapitel 3.1. behandelt.
270 Das Diagramm wurde anhand der Informationen von Hobbes’ Internet Timeline erstellt. Vgl. Zakon. Die
vertikalen Linien deuten die Messpunkte an.
268
45
diese Behörde über die Installation neuer Standorte oder Leitungen. Der Vertrag mit BBN
wurde verlängert.271 Dass sich die Forschungsbehörde dieser Aufgabe entzog und sie
einer Kommunikationsbehörde übertrug, deutet an, dass sich der Charakter des Netzwerks gewandelt hatte. Bestand die Funktion des ARPANET bis 1972 hauptsächlich in
seiner Eigenschaft als Forschungsgegenstand, wie die Auslastungszahlen und Nutzungsmöglichkeiten belegten, so hatte sich aus dem Prototyp im Verlauf der 70er Jahre
ein nützliches Werkzeug entwickelt.272 Die DARPA selbst verlagerte bereits in den frühen
70er Jahren den Forschungsschwerpunkt auf alternative Trägermedien, was darauf hinweist, dass man die Entwicklung im wesentlichen für abgeschlossen hielt.273
An der Verteilung der Knoten lässt sich ein ambivalenter Charakter des Netzwerks ablesen. Die knapp 200 Standorte bildeten 1980 ein Netz über die gesamten USA, das an
Ost- und Westküste besonders engmaschig wurde, wie Abbildung 6 illustriert. In Hawaii,
London und Norwegen waren erstmals Rechner integriert, die außerhalb des nordamerikanischen Kontinents standen.
Abb. 6. Geographische Karte des ARPANET im Oktober 1980.274
Weiterhin stellten staatliche Bildungseinrichtungen einen hohen Prozentsatz. Zu den bereits genannten Hochschulen aus den ersten Jahren waren weitere hinzugekommen: University of Texas at Austin (TEXAS), New York University (NYU), University of Southern
271
Vgl. Hafner, 278f..
Worauf sich die neue Attraktivität gründete, wird im weiteren Verlauf der Arbeit dargelegt.
273 Die Projekte mit alternativen Trägermedien werden in Kapitel 3.1. behandelt.
274 Die Karte wurde dem „Atlas of Cyberspaces” entnommen. Vgl. Dodge. Pluribus IMPs/TIPs waren die dritte
bzw. vierte Generation der Netzwerkrechner. Seit 1975 produzierte BBN diese Weiterentwicklungen der
IMPs/TIPs, bei denen Rechner von Lockheed mit einem „flexible multiprocessor“ als Grundlage dienten. Vgl.
Salus, Casting, 36f.. C/30 bezeichnet IMPs der fünften Generation. In ANEWS-01 berichtet Major Joseph
Haughney über die Weiterentwicklung, die seit 1980 von BBN angeboten wurde. Vgl. ANEWS-01. Die Satellitenverbindungen nach England, Norwegen und Hawaii werden in Kapitel 3.1. behandelt. Die Anzahl der
Standorte weicht von den Hosts ab, da pro IMP meist mehr als ein Host betrieben wurde.
272
46
California (USC), Information Science Institute (ISI) der USC, etc.. Auch Privatunternehmen, die Labors mit einem ähnlichen Forschungsschwerpunkt unterhielten, hatten weiterhin Zugang. Neue Hosts waren u.a. bei der Computer Corporation of America (CCA), Xerox und der Digital Equipment Corporation (DEC) installiert worden.275
Im Unterschied zu den frühen 70er Jahren hatte jedoch die Bürokratie das Netz für sich
entdeckt. Pentagon, National Security Agency (NSA), National Bureau of Standards
(NBS) und DARPA betrieben selbst keine computerwissenschaftliche Forschung – sie
nutzten das Netzwerk für andere Zwecke.
Noch entschiedener wuchs die Präsenz des Militärs bzw. dessen Forschungseinrichtungen. Nun verfügte auch das Defense Communications Engineering Center (DCEC), Naval
Research Laboratory (NRL), Air Force Weapons Laboratory (AFWL), Rome Air Development Center (RADC), White Sands Missile Range (WSMR), der U.S. Army Yuma Proving
Ground (YUMA), U.S. Army Aberdeen Proving Ground (Aberdeen) und die Naval
Postgraduate School (NPS) über einen ARPANET-Rechner. Bei diesen Standorten lässt
sich zumindest ein Zusammenhang mit dem Gedanken der Teilung von teuren Computerressourcen für Informatiker vermuten. Die DCA ließ aber auch Knoten am Maxwell-Gunter
Air Force Base Complex (GUNTER), der Eglin Air Force Base (EGLIN), Robins Air Force
Base (ROBINS), Scott Air Force Base (SCOTT), Wright-Patterson Air Force Base
(WPAFB) und dem Army Fort Bragg (BRAGG) installieren.
Nachdem das ARPANET jahrelang nahezu ausschließlich Computerwissenschaftlern an
Universitäten und privaten Forschungseinrichtungen vorbehalten war, wurde es seit Mitte
der 70er Jahre zu einem hohen Prozentsatz von der staatlichen Bürokratie und dem Militär genutzt. Die heterogene Zusammensetzung der Standorte und ambivalente Nutzung
des Netzwerks – Prototyp zu Versuchszwecken vs. zunehmend bedeutendes Werkzeug –
lässt Spannungen vermuten. Einerseits testete man weiterhin neue Programme und Protokolle oder lotete die Belastbarkeitsgrenzen des Systems aus. Andererseits wurde ein
stabiler Betrieb gewünscht. Prinzipien der Geheimhaltung konkurrierten mit dem Ideal der
freien Forschung an Universitäten und dem Grundsatz eines Teils der Netznutzer, wonach Informationen generell frei zugänglich sein müssten. Bis Anfang der 80er Jahre blieben diese Probleme ungelöst und die Nutzenden des ARPANET mussten sich mit dem
ambivalenten Charakter des Netzwerks arrangieren.
275
Die Standorte der Rechner des ARPANET sind in der Sekundärliteratur an keiner Stelle systematisch
erfasst. Das Faible der Protagonisten für Abkürzungen macht eine vollständige Rekonstruktion nahezu
unmöglich. Die hier vorgenommenen Aufschlüsselungen sind hauptsächlich Edwards’ „The Closed World“ und
diversen Seiten des amerikanischen Militärs im WWW entnommen. Auch in zeitgenössischen Dokumenten
befinden sich vereinzelt Hinweise. Meist werden dort aber die selben Akronyme verwendet. Die folgende
Aufzählung erhebt keinen Anspruch auf Vollständigkeit, sondern versucht lediglich die Verteilung der Standorte zu charakterisieren.
47
3.1. Neue Netze und Kahns „internet problem“
Nach ICCC 72 wurde auch in anderen Ländern mit dem Aufbau von Forschungsnetzen
begonnen.276 Die Entwicklung verlief in diesem Jahrzehnt noch zu zaghaft um von einem
Netzwerk-Boom zu sprechen. Das ARPANET blieb das technisch ausgereifteste und
größte (Hostzahl und geographische Ausdehnung) Projekt seiner Zeit. Dennoch lässt sich
ein grundsätzliches Interesse an der neuen Technologie feststellen.
In Europa wurde (abgesehen von dem britischen NPL Data Network) in den frühen 70er
Jahren vor allem in Frankreich geforscht. Zwischen 1972 und 1975 realisierte man das
CYCLADES-Projekt, wobei die Informatiker Louis Pouzin und Herbert Zimmermann eine
wesentliche Rolle spielten. Finanziert und initiiert wurde das Netzwerk von der Delegation
à l’Informatique der französischen Regierung, die eine Möglichkeit zur Erforschung der
Technologie anhand eines Prototyps schaffen wollte und Kostenreduzierung durch Ressourcenteilung anvisierte. Mit der Umsetzung des Plans wurde das Institut de Recherche
d’Informatique et d’Automatique (IRIA) betraut, das die Arbeit an den im Land verteilten
Forschungseinrichtungen koordinierte. Wie das ARPANET war es „an object of research
and a plattform for other research”.277 Die Parallelen bei Organisation und Intention sind
offensichtlich. Auch hinsichtlich der Technik gab es Gemeinsamkeiten. Dem IMP-Subnetz
des ARPANET entsprach CIGALE und auch bei dem französischen Projekt wurden zuerst
Anwendungen entwickelt, die bezüglich ihrer Funktionalität Telnet und FTP entsprachen.278
Die Ähnlichkeit entstand nicht zufällig. Pouzin hatte Ende der 60er Jahre mehrere Monate
die Arbeit bei BBN verfolgt und bezog sich 1973 ausdrücklich auf die Vorleistungen des
ARPANET und NPL Data Network.279 Im November 1973 wurde das Netzwerk mit drei
Hosts und einem Rechner für die Paketvermittlung erstmals der Öffentlichkeit vorgestellt.
Als das Projekt 1981 auslief war es auf 20 Hosts angewachsen.280 CYCLADES war aber
mehr als eine Kopie des amerikanischen Modells. Die in Frankreich eingesetzten Protokolle bildeten die Grundlage des später entwickelten ISO-OSI Modells - ein Ansatz, der im
„protocol war“281 mit der Lösung des ARPANET konkurrieren sollte.282
Mitte der 70er Jahre wurden weitere Forschungsnetze installiert. In Deutschland setzten
die Bemühungen 1974 am Hahn-Meitner Institut (HMI) in Berlin ein, woraus die experimentellen Netzwerke HMI-NET 1 (1974-76) und HMI-NET 2 (1976-79) hervorgingen.
1976 folgte das BERNET (Berlin Network), das die Technische Universität, die Freie Uni276
Aus Platzgründen werden nur europäische Projekte berücksichtigt. Eine ähnliche Entwicklung gab es in
den 70er Jahren auch in Japan.
277 Quarterman, 148.
278 Vgl. Quarterman, 148f..
279 Vgl. Salus, Casting, 86f..
280 Vgl. Quarterman, 149-151.
281 Salus, Casting, 117.
282 Vgl. Salus, Casting, 87.
48
versität, das Konrad-Zuse-Zentrum für Informationstechnik und die Bundesanstalt für
Materialprüfung miteinander vernetzte.283 In Großbritannien forschte die Post und nahm
1975 EPSS (Experimental Packet-Switching Service) in Betrieb. In den ersten Veröffentlichungen zu EPSS zitierten die Autoren unter anderem Barans „On Distributed Communications“. Auf dem Projekt der britischen Post basierte das 1976 installierte SERCNET des
Science and Engineering Research Council (SERC), über das die Rechner verschiedener
Labors und Universitäten in England verbunden waren.284
Auch die Europäische Wirtschaftsgemeinschaft investierte in ein ehrgeiziges, supranationales Projekt. Nach dreijähriger Forschungstätigkeit wurden 1976 die ersten Hosts installiert. Im April 1978 präsentierte man das European Informatics Network (EIN) an fünf über
den Kontinent verteilten Standorten. EIN konnte sich nicht durchsetzen und wuchs nie
über die bereits zu Beginn installierten Knoten hinaus.285 Insgesamt setzte die Entwicklung in Europa (abgesehen von dem frühen NPL Experiment) mit einer deutlichen, charakteristischen Verspätung ein und blieb weit hinter der Bedeutung des amerikanischen
Vorbilds zurück. Wie in den USA dominierten Akteure aus öffentlich finanzierten Bereichen den Netzaufbau.
DARPA bzw. IPTO förderten neben dem hauseigenen Projekt unter der Leitung von Lawrence Roberts (1969-1973) ein Experiment der Universität von Hawaii. Die Telefonleitungen auf diesen Inseln waren wegen zu großer Störgeräusche ungeeignet für den Transport von Daten – es musste ein alternatives Trägermedium gefunden werden. Über Radiowellen war schließlich der Zugriff von Terminals, die über die Inseln verteilt installiert
wurden, auf den Zentralcomputer der Universität möglich.286 Anlässlich der AFIPS-Konferenz von 1970, auf der auch über den Entwicklungsstand des ARPANET informiert wurde,
präsentierte Norman Abramson von der Universität von Hawaii das „ALOHA System“
erstmals der Fachöffentlichkeit.287
Robert Kahn, der 1972 von BBN zur DARPA gewechselt war, um die Aktivitäten zur
drahtlosen Paketvermittlung zu koordinieren,288 wollte mit einem weiteren Projekt, dem
experimentellen Packet Radio Network (PRNET), die Erkenntnisse der bisherigen Forschung an militärische Bedürfnisse anpassen. Es war geplant, dass kleine, mobile Rechner in einem großflächigen Operationsgebiet über Funkverbindungen auf ein Netzwerk
zugreifen könnten, das dem verteilten Design des ARPANET entsprach. An verschiedenen Standorten der Bay Area von San Francisco wurden die ersten Knoten des PRNET
realisiert. Technische Probleme und explodierende Kosten führten jedoch dazu, dass es
283
Vgl. Salus, Casting, 88 und Quarterman, 147.
Vgl. Salus, Casting, 88f. und Quarterman, 142f..
285 Vgl. Salus, Casting, 89-91 und Quarterman, 152.
286 Vgl. Norberg, 180.
287 Vgl. Salus, Casting, 75.
288 Vgl. Hafner, 260-262.
284
49
nach wenigen Jahren eingestellt wurde.289
Ebenfalls 1972 initiierte der neue DARPA-Mitarbeiter ein Projekt zur Einbindung europäischer Standorte. Die teuren und störanfälligen Transatlantikleitungen verhinderten die
Installation eines Festnetzes. Die Funktechnologie als Trägermedium schied wegen ihrer
geringen Reichweite aus, die Relaisstationen im Abstand von wenigen Kilometern nötig
machte. Um den pazifischen Raum und Europa mit den USA zu vernetzen musste eine
alternative Lösung entwickelt werden.290 Für Satelliten, eine Technologie, die sich selbst
noch in der Entwicklungsphase befand, waren Ozeane kein Hindernis. Bei den Planungen
zum Atlantic Satellite Network (SATNET) entschied sich die Behörde gegen militärische
Erdtrabanten und verhandelte stattdessen mit der International Telecommunications Satellite Organization (Intelsat). Intelsat verfügte über das fortgeschrittenste Projekt der jungen Branche und bot seit Februar 1973 ein kommerzielles Kommunikationssystem an.291
Im Mai diesen Jahres wurde eine erste experimentelle Verbindung des ARPANET nach
Hawaii installiert und im September folgten Knoten in London und Norwegen. 1975 wurde
schließlich das externe SATNET in Betrieb genommen, das bis 1989 Einrichtungen in den
USA, England, Norwegen, Italien und Deutschland vernetzte.292
Die Entwicklung neuer Trägermedien für „Packet-Switching“-Netzwerke blieb nicht die einzige Folge des SATNET und PRNET. Wesentlicher war die Entscheidung, beide mit dem
APANET zu verbinden, das seine Funktionstüchtigkeit bereits in der Praxis bewiesen
hatte. Vinton Cerf berichtet von einem Treffen mit Kahn:
„Shortly after I went to Stanford [November 1972], Bob Kahn told me about a project
he had […], a packet radio project. This was to get a mobile networking environment
going. There was also work on a packet satellite system, which was a consequence
of work that had been done at the University of Hawaii, based on the ALOHA-Net
[…]. Bob Kahn described the packet radio and satellite systems, and the internet
problem, which was to get host computers to communicate across multiple packet
networks without knowing the network technology underneath”.293
Es ist erstaunlich, dass der Gedanke zur weiteren Vernetzung erst im Zusammenhang mit
SATNET und PRNET entstand. Die INWG, der u.a. Vertreter des NPL Data Network, des
ARPANET und des französischen CYCLADES-Projekts angehörten, war bereits auf der
ICCC im Oktober 1972 gegründet worden. Da Vinton Cerf selbst Vorsitzender dieser
Organisation war, besteht jedoch kein Grund an seiner oben zitierten Darstellung zu
zweifeln. Die Initiative zum Aufbau eines Netzwerks von Netzwerken kam von der IPTO.
289
Vgl. Norberg, 180.
Vgl. Hafner, 262f..
291 Vgl. Norberg, 181f..
292 Vgl. Salus, Casting, 79f.. Die Verbindung nach London wurde in den RFCs bekannt gegeben: „London
node is now up“, verkündete Adrian Stokes Anfang Oktober 1973. Vgl. RFC 0588.
293 Cerf.
290
50
3.1.1. Das CATENET-Projekt
Das neue Projekt mit dem Arbeitstitel CATENET (Concatenated Network)294 brachte ähnliche Probleme mit sich wie der Aufbau des ARPANET Ende der 60er Jahre. War man damals mit unterschiedlichen Zentralcomputern konfrontiert, die Inkompatibilitätsprobleme
mit sich brachten, so galt dasselbe nun für die unterschiedlichen Netzwerke. Das im ARPANET eingesetzte NCP nutzte andere Paketgrößen und Übertragungsgeschwindigkeiten als die Protokolle des SATNET, PRNET und der europäischen Projekte. Eine Homogenisierung wäre die technisch einfachste Lösung gewesen.
Ende 1972 definierte Robert Kahn die Konzeption der CATENET-Architektur, die vier
Grundprinzipien umfasste:
„• Each distinct network had to stand on its own, and no internal changes could be
required of any such network before being connected to the Internet.
• Communications would be on a best-effort basis. If a packet didn’t make it to the final destination, it would quickly be retransmitted from the source.
• Black boxes [...] would be used to connect the networks. No information would be
retained [...] about individual flows of packets passing through them, keeping them
simple and avoiding complicated adaptation and recovery from various failure
modes.
• There would be no global control at the operations level”.295
Wie die Konstrukteure des ARPANET Ende der 60er Jahre wählte Robert Kahn eine offene Architektur. Das Metanetzwerk sollte heterogene Projekte integrieren, ohne dass
diese ihre interne Struktur (Soft- und Hardware) anpassen mussten. Jedes der Einzelnetzwerke sollte für den Betrieb selbst verantwortlich sein, d.h. von einem zentralen Kontrollorgan wurde abgesehen. Stabilität und Funktionalität waren unverzichtbar. Kahn initiierte das „Internet Program“ der IPTO und konnte Vinton Cerf für die detaillierte Ausarbeitung gewinnen.296 Cerf hatte als NWG-Mitglied aktiv an der Entwicklung des ARPANET-Protokolls NCP mitgewirkt und verfügte wegen seines Postens als Vorsitzender der
INWG über ausgezeichnete internationale Kontakte.
Abbildung 7 illustriert den Aufbau des CATENET. In Analogie zu den IMPs des ARPANET
wurde vor jedes Netzwerk ein Gateway (G) geschaltet, das die Daten zwischen den Netzen austauschte. Für die einzelnen Netzwerke sollten sich die Gateways nicht von gewöhnlichen Hosts (H) unterscheiden. In einem RFC wurden diese Rechner später in Anlehnung an den römischen „god of gateways“ treffend als „Janus-Host“ bezeichnet.297 Um
eine Kommunikation über die Grenzen eines Netzwerks hinaus zu ermöglichen, musste
noch eine gemeinsame Basis entwickelt werden. Das bisherige Host-to-Host-Protokoll
Vgl. Hafner, 264. In IEN 048 berichtet Cerf über den Ursprung des Begriffs: „The term ‚catenet’ was
introduced by L. Pouzin in 1974 in his early paper on packet network interconnection. The U.S. DARPA research project on this subject has adopted the term to mean roughly, the collection of packet networks which
are connected together’”. IEN 048. Die Begriffe CATENET und ARPA-Internet wurden in den 70er Jahren
parallel verwendet. In den 80er Jahren setzte sich dafür die Bezeichnung Internet allgemein durch.
295 Leiner, 103f..
296 Vgl. Leiner, 104.
297 Vgl. RFC 0875.
294
51
Abb. 7. Cerfs Skizze des CATENET.298
NCP war auf das ARPANET zugeschnitten und eignete sich nicht für diese Aufgabe. Ursprünglich sollte es vom Transmission Control Protocol (TCP) abgelöst werden.299 1977
wurde Kahns Konzept in einem Experiment erstmals umgesetzt:
„The earliest demonstration of the triple network Internet was in July 1977 […]. Traffic passed from the mobile unit on the Packet Radio network [PRNET] across the
ARPANET over an internal point-to-point satellite link to University College London,
and then back through the SATNET into the ARPANET again, and then across the
ARPANET to the USC Information Sciences Institute […]. So the packets were travelling 94,000 miles round trip, as opposed to what would have been an 800-mile
round trip directly on the ARPANET. We didn't lose a bit!”.300
3.1.2. Internet-Protokolle
Vinton Cerf beschrieb in „How the Internet Came to Be“ die Entstehungsgeschichte der
Protokolle TCP/IP, die noch heute die Basis des Internet bilden. Nachdem Robert Kahn
den Anstoß gegeben hatte, veranstaltete Cerf, der einen Lehrstuhl für Computerwissenschaften und Elektrotechnik in Stanford angenommen hatte, eine Reihe von Seminaren,
um mit Studenten und Gästen der Universität an dem Problem zu arbeiten.301 Das Ergebnis wurde auf einem Treffen der INWG im September 1973 diskutiert und im Mai 1974
veröffentlichten Cerf und Kahn einen ersten Entwurf in Fachzeitschriften. Ende desselben
Jahres wurde TCP in Stanford, London und bei BBN zu Versuchszwecken implementiert.302
298
Cerfs Skizze ist bei Hafner und Lyon abgedruckt. Vgl. Hafner, 265. Die Ziffer 1822 über dem ARPANET
bezieht sich auf den BBN Report No. 1822 vom Mai 1969 mit dem Titel „Interface Message Processor: Specifications for the Interconnection of a Host and an IMP“. Das Dokument wurde mehrfach überarbeitet und war
für mehr als eine Dekade „the Bible of networking“. Vgl. Salus, Casting, 36. Die Angaben PR und SAT in den
Kästchen deuten an, dass die Einzelnetzwerke ihre bisherigen Protokolle behalten sollten.
299 Vgl. Hafner, 265f..
300 Cerf.
301 Cerf nennt Carl Sunshine, Richard Karp, Judy Estrin, Yogen Dalal, Jim Mathis, Darryl Rubin, Ron Crane,
John Shoch, Bob Metcalfe, Gerard Lelann, Dag Belsnes, Kuninobu Tanno und Jim Warren. Viele von ihnen
hatten später leitende Positionen bei Xerox, Apple, Microsoft und anderen Unternehmen. „Thinking about
computer networking problems has had a powerful influence on careers”. Vgl. Cerf.
302 Vgl. Cerf.
52
Die Entwicklung war von Beginn an arbeitsteilig, öffentlich und international. Sowohl bei
der INWG als auch den Studenten in Stanford waren Vertreter der europäischen Netzwerke involviert. Kahn und Cerf diskutierten das Protokoll häufig mit Vertretern des CYCLADES-Projekts und des NPL Data Network.303 Im Dezember 1974 veröffentlichten Vinton
Cerf, Yogen Dalal und Carl Sunshine (beide arbeiteten in seinem Labor in Stanford) erstmals ein RFC zum Thema TCP: „Specification of Internet Transmission Control Program“.304 Der Begriff Internet fällt damit zum ersten Mal in diesen Dokumenten. Im Juni
1978 wurde die Funktionalität auf das Protokollset TCP/IP verteilt.305 Vereinfacht dargestellt trennt TCP Dateien in einzelne Pakete auf und organisiert den Versand. Die Pakete
werden durchnummeriert und erhalten eine Prüfsumme, um die Vollständigkeit am Zielort
sicher zu stellen. IP steckt sie anschließend in einen ‚Briefumschlag’ mit Adressinformationen.306 Im Dezember 1979 wurden sie zum offiziellen Internetstandard des DoD erklärt,307 den man einen Monat später den Nutzern des ARPANET in zwei RFCs mitteilte.308 Mitte 1980 kündigte Postel schließlich ein neues Protokollhandbuch an: „The
internet family of protocols is replacing the old ARPANET protocols. To this end an Internet Protocol Handbook will be prepared by the Network Information Center. This Handbook is tentatively planned to be available at the end of 1980“.309 Die Protokollentwicklung
war damit im wesentlichen abgeschlossen.
Die Entstehung war jedoch nicht so harmonisch verlaufen wie bisher dargestellt. Netzwerke, die auf „Packet-Switching“-Technologie basierten, gab es Mitte der 70er Jahre
auch außerhalb des Einflussgebiets der DARPA. 1976 veröffentlichte das Consultative
Committee for International Telegraphy and Telephony (CCITT), eine Organisation, die
sich hauptsächlich aus nationalen Telefongesellschaften zusammensetzte, mit X.25 ein
erstes ‚Konkurrenzprodukt’. Das neue Protokoll wurde heftig kritisiert und konnte sich
nicht durchsetzen.310 Ein Manko war das Adressierungskonzept, das für jedes Land maximal 10 Netzwerke vorsah. TCP ermöglichte bereits in der ersten Version von 1974 die
Integration von 256 Netzwerken und erhöhte diese Zahl Anfang der 80er Jahre auf mehrere Millionen. Abbate führt die knappe Kalkulation bei X.25 auf die Dominanz der weitgehend staatlich monopolisierten Telekommunikationsgesellschaften zurück, die davon ausgingen, dass in Analogie zum Telefonnetz prinzipiell ein öffentliches Projekt pro Land aus-
303
Vgl. Hafner, 266ff..
RFC 0675. Einleitend danken die Autoren zahlreichen Personen für ihre Mitarbeit.
305 Vgl. IEN 40 und 41.
306 Vgl. IEN 123 und 124. Die Funktionalität von IP wird in diesen Dokumenten tatsächlich mit „envelopes“
illustriert.
307 Vgl. IEN 123 und 124.
308 Vgl. RFC 0760 und 0761.
309 RFC 0774. Im April 1976 war das erste „ARPANET Protcol Handbook“ erschienen. Ein Buch mit über 300
Seiten, das die wesentlichen Protokolle des ARPANET dokumentierte, bis auf die Spezifikationen des BBN
Report No. 1822, der selbst für das umfassende „ARPANET Protocol Handbook“ zu mächtig war.
310 Vgl. Salus, Casting, 110-112.
304
53
reichen würde.311
Ende der 70er Jahre versuchte die International Organization for Standardization (ISO)
einen allgemeingültigen Standard für die künftige Kommunikationsinfrastruktur zu definieren und veröffentlichte mehrere Versionen von OSI (Open System Interconnection). Das
abstrakte Modell war wesentlich komplexer aufgebaut und auch die Herangehensweise
der Organisation unterschied sich von der TCP/IP-Entwicklung. John Quarterman bemerkte in einem Gespräch mit Peter Salus:
„OSI specified before implementation. So specification took forever and implementation never really happened, except for bits and pieces. In addition, heavy government backing (by the EC – now the EU – and various national governments) led
some OSI participants to attempt to substitute the official authority for technical capability. OSI and IP started at about the same time (1977). OSI wandered off into the
weeds and IP won the race. Those governments that backed OSI bet on the wrong
horse”.312
Die Auseinandersetzungen entwickelten sich Ende der 70er und Anfang der 80er Jahre
zu einem regelrechten „protocol war“.313 Die Akteure des ARPANET, die TCP seit 1974 in
der Praxis getestet und dessen Funktionstüchtigkeit bewiesen hatten, waren nicht bereit
sich von der ISO und deren Bürokratie einen Standard diktieren zu lassen, der lediglich
aus einem abstrakten, theoretischen Modell bestand. Die ISO hingegen setzte bereits seit
den 40er Jahren internationale Standards für alles Mögliche und ging davon aus, dass
sich ihr Vorschlag durchsetzen würde.314 Bei Salus und Quarterman klingt die kompromisslose Haltung dieser Zeit noch nach. Danny Cohen versuchte in einem „Plea for
Peace“ die Diskussion in vernünftige Bahnen zu lenken: „This is an attempt to stop a war
[…]. Like all the religious wars of the past, logic is not the decisive tool. Power is. This holy
war is not the first one, and probably will not be the last one either. Our communication
world may split according to the language used. A certain book […] has an interesting
story about a similar phenomenon, the Tower of Babel”.315 Cohens Mahnung blieb eine
Ausnahme im „protocol war“.
Erst nachdem TCP/IP vollständig implementiert war und sich endgültig als Internet-Standard durchgesetzt hatte, ging man kompromissbereiter an die Sache heran:
„The Internet has become a test bed for development of other protocols. Since there
was no lower level OSI infrastructure available, Marshall Rose proposed [1987] that
the Internet could be used to try out X.400 and X.500 […] so there was a conscious
decision to help higher-level OSI protocols to be deployed in live environments before the lower-level protocols were available”.316
Auch wenn sich der Ansatz der ISO nicht in einer konkreten Form für das Internet durchsetzen konnte, scheiterte er nicht vollständig. OSI/ISO ist heute allgemein anerkannt als
311
Vgl. Abbate, 130-133.
Salus, Casting, 123.
313 Salus, Casting, 117.
314 Vgl. Hafner, 292.
315 IEN 137.
316 Cerf.
312
54
theoretisches Modell, „das die Kommunikation zwischen Rechnern bzw. Stationen in einem Netzwerk beschreibt und dabei sieben verschiedene Schichten der Kommunikation
darstellt“.317
Unbeeindruckt von den Auseinandersetzungen und bestärkt durch den DoD-Standard
wurde im November 1981 der „NCP/TCP Transition Plan“ veröffentlicht: „The time has
come to put these protocols [TCP/IP] into use in the operational ARPANET, and extend
the logical connectivity of the ARPANET hosts to include hosts in other networks participating in the ARPA Internet”.318 Die einzelnen Standorte sollten mit der Umstellung
spätestens am 1.1.1982 beginnen. Ende 1982 folgte die letzte Aufforderung: „If you have
NOT implemented TCP/IP, the end of the world is near! ***** 1 Jan 1983 is the cutover
date, folks! *****”.319 Ebenfalls 1983 entwickelten Programmierer der UCB (University of
California at Berkeley) mit finanzieller Unterstützung der DARPA eine neue Generation
des an Universitäten noch heute weit verbreiteten Betriebssystems Unix. In dem neuen
Berkley-Unix war TCP/IP bereits integriert, was dessen Verbreitung an den Hochschulen
entscheidend vorantrieb.320
3.1.3. Umstrukturierung des Entwicklungsprozesses
Ein ARPANET Newsletter (ANEWS) des Network Managers der DCA begleitete die Umstellung. Zwischen Juli 1980 und April 1983 wurden 24 dieser Dokumente über das NIC
an die Kontaktpersonen der einzelnen Hoststandorte (Technical Liaisons) verschickt.321
Anfangs erstellte vor allem Major Joseph Haughney von der Air Force die Beiträge. Als er
Ende 1981 seinen Posten aufgab um zivile Aufgaben zu übernehmen, wurde er von Major
Glynn Parker, der derselben Waffengattung angehörte, abgelöst.322 Regelmäßig informierte die DCA in den ANEWS über Weiterentwicklungen der Hardware und Seminarangebote zur geplanten TCP/IP Umstellung. Die Publikation wurde aber auch genutzt, um
die Technical Liaisons an ihre Kontrollpflichten zu erinnern.323
Für die TCP/IP-Entwicklung bzw. die Fortschritte des internationalen Vernetzungsprojekts
beschlossen die Akteure des „Internet Program“ ebenfalls eine neue Serie mit Dokumentationen. Die RFCs sollten sich auf Beiträge mit einem direkten Bezug zum ARPANET
beschränken. Zwischen März 1977 und September 1982 wurden insgesamt 204 Dokumente mit dem Titel Internet Experiment Notes (IEN) veröffentlicht. Nach 1982 erschienen
wieder alle relevanten Informationen als RFC.324
317
Voets, 378.
RFC 0801.
319 ANEWS-16.
320 Vgl. Rheingold, 109.
321 Vgl. US Defense Communications Agency (DCA), ARPANET Newsletter (ANEWS 1980 – 1983).
322 Vgl. ANEWS-08.
323 Vgl. Kapitel 3.2.1..
324 Vgl. Postel, Internet Experiment Notes (1980-1983).
318
55
Der anfangs personal geprägte Entwicklungsprozess begann sich zu institutionalisieren.
Noch während Cerfs Vorsitz bei der INWG wurden Kontakte zur International Federation
of Information Processing (IFIP) aufgebaut und 1974 erfolgte die vollständige organisatorische Einbindung. Die INWG wurde zur ersten Arbeitsgruppe des Technical Committee 6
(WG 6.1) der IFIP, deren Themengebiet computervermittelte Kommunikation war. 325 1979
folgte die Gründung des Internet Configuration Control Board (ICCC):
„In the early stages of the Internet research program, only a few researchers worked
to develop and test versions of the internet protocols. Over time, the size of this activity increased until, in 1979, it was necessary to form an informal committee to
guide the technical evolution of the protocol suite. This group was called the Internet
Configuration Control Board (ICCB) and was established by Dr. Vinton Cerf who was
then the DARPA program manager for the effort. Dr. David C. Clark of the Laboratory for Computer Science at Massachusetts Institute of Technology was named the
chairman of this committee”.326
Zusammenfassend lässt sich seit Mitte der 70er Jahre eine massive Umstrukturierung
feststellen. Der Entwicklungsprozess wurde institutionalisiert und internationalisiert, wobei
die DARPA über Kahns „Internet Program“ die technische Weiterentwicklung des Projekts
zwar weiterhin entscheidend vorantrieb, gleichzeitig aber einen Teil der bisherigen Dominanz abgab. Die Verwaltung des ARPANET fiel in den Aufgabenbereich der DCA und die
WG 6.1 der IFIP entzog sich einer direkten Kontrolle durch die DoD-Behörde.
30
25
Zuwachs an RFCs pro Monat
20
15
Zuwachs an RFCs pro Monat
im Jahresdurchschnitt
10
5
Mrz 83
Mrz 82
Mrz 81
Mrz 80
Mrz 79
Mrz 78
Mrz 77
Mrz 76
Mrz 75
Mrz 74
Mrz 73
Mrz 72
Mrz 71
Mrz 70
Mrz 69
0
Abb. 8. Erscheinungshäufigkeit der RFCs zwischen 1969 und 1983. 327
Eine Folge des Prozesses war ein Bedeutungsrückgang der RFCs. Jahrelang waren sie
das ‚Zentralorgan’ des ARPANET gewesen – Dokumente, die Standards auf informellem
Weg durchsetzten. Das Diagramm in Abbildung 8 zeigt einen deutlichen Einschnitt in der
Erscheinungshäufigkeit seit 1974. Zwischen 1971 und 1974, als sich das Augenmerk der
Forscher auf die Entwicklung des ARPANET und seiner Protokolle konzentrierte, erschienen durchschnittlich mehr als 10 RFCs pro Monat. Nach 1974 wurde nicht einmal mehr 50
Prozent dieses Niveaus erreicht.
Zwischen RFC 675 von Dezember 1974 und der Erklärung von TCP/IP zum Standard des
325
Vgl. Salus, Casting, 102-104 und Quarterman, 200.
RFC 1160.
327 Die Daten für dieses Diagramm wurden dem RFC-Index entnommen. Vgl. Network Working Group.
326
56
DoD in den RFCs 760 und 761 von Januar 1980 wurde kein einziger Beitrag über das
neue Netzwerkprotokoll veröffentlicht. Der leichte Anstieg 1983 hing mit der Umstellung
der ARPANET-Rechner zusammen. D. Smallberg berichtete Anfang diesen Jahres in der
RFC-Subserie „Who talks TCP?“ regelmäßig über die Fortschritte.328 Teilweise lässt sich
die reduzierte Erscheinungshäufigkeit mit dem Entstehen der IENs, ANEWs und anderer
alternativer Publikationen erklären. Die Bildung spezieller Institutionen spielte jedenfalls
eine wesentliche Rolle. Dort wurde das internationale Vernetzungsprojekt diskutiert und
den Nutzern des ARPANET nur noch die Ergebnisse mitgeteilt.329
Noch 1977 hatte Jon Postel verkündet: „To my knowledge no arpanet protocol at any level
has been stamped as official by ARPA”.330 Abgesehen von NCP findet sich tatsächlich
kein Hinweis auf offizielle Standards.331 Im April 1983 sollte sich die Situation grundlegend
ändern. Jon Postel veröffentlichte erstmals ein RFC mit dem Titel „Official protocols“. 332
Das Dokument enthielt eine Liste mit Protokollen, die verschiedenen Kategorien zugeordnet waren. Diejenigen der Kategorie „required“ mussten implementiert werden. Von diesem Zeitpunkt an wurde regelmäßig über offizielle Protokolle informiert.
Der Charakter des ARPANET hatte sich durch das Wachstum, die zunehmend heterogene Struktur der Nutzenden und das Managementkonzept der DCA in den späten 70er
Jahren gewandelt. 1980 wies die Kommunikationsbehörde die Technical Liaisons ausdrücklich auf den neuen Ansatz hin:
„When the network was small, a decentralized management approach was established due to the nature of the network and the small community of users. This promoted flexibility and synergy in network use. Now [Juli 1980] that the network has
grown to over 66 nodes and an estimated four to five thousand users, flexibility must
be tempered with management control to prevent waste and misuse”.333
3.2. E-Mails im ARPANET
Innerhalb weniger Jahre hatte sich das experimentelle ARPANET zu einem nützlichen
Werkzeug entwickelt, das auch von der Bürokratie geschätzt wurde. Ursprünglich war ein
„Resource Sharing“-Netzwerk anvisiert, wofür die IPTO die ersten Protokolle entwickeln
ließ. Die NWG, zuständig für diese Aufgabe, hielt sich an die Vorgaben: „It was clear we
needed to support remote login for interactive use -- later known as Telnet -- and we
328
Vgl. Network Working Group.
Seit Mitte der 70er Jahre entstanden neben den bereits aufgeführten Organisationen Mailing-Listen. Die
MSGGroup war z.B. an der Entwicklung der E-Mails beteiligt. Vgl. Kapitel 3.2.2..
330 MSGGroup # 0561.
331 Auch bei dem „offiziellen“ Protokoll NCP wurden die Nutzenden einbezogen. In RFC 0053 definiert Steve
Crocker den „Official Protocol Mechanism“. Demnach wurden betreffende Protokolle spezifiziert und allen
Hosts zugänglich gemacht. Anschließend konnten bis zu einem gewissen Stichtag Verbesserungsvorschläge
eingereicht werden. Sollte sich ein Vorschlag bei den Nutzenden durchsetzen, so entschieden die Verantwortlichen der ARPA, ob er umgesetzt werden sollte. Vgl. RFC 0053. Ohne ein standardisiertes Host-to-HostProtokoll wäre ein Netzwerkbetrieb nicht möglich.
332 RFC 0840.
333 ANEWS-01.
329
57
needed to move files from machine to machine [FTP]“,334 erläuterte Stephen Crocker. Für
die Welt außerhalb der computerwissenschaftlichen Forschungslabors war eine derartige
Nutzung zu diesem Zeitpunkt jedoch abwegig. 1973 hatte sich das Datenvolumen pro
Host im Vergleich zum Vorjahr dennoch mehr als verdoppelt.335 Worauf gründete die
plötzliche Attraktivität?
Während sich die Forschungsbehörde auf Experimente mit alternativen Trägermedien
und die internationale Vernetzung konzentrierte, drang mit den E-Mails eine Kommunikationstechnik in das Netzwerk, die auf „Time Sharing“-Systemen schon in den 60er Jahre
intensiv genutzt wurde. Arthur Norberg und Judy O’Neill deuten an, dass diese Nutzungsmöglichkeit bei den Planungen der DARPA keine Rolle gespielt hatte: „The use of
the ARPANET began to have an unexpected consequence. […] electronic mail had not
been a motivating factor for the development of the network. However it later became an
important part of the ARPANET’s usefulness”.336 Um es deutlicher zu formulieren: Die
Entwicklung der Protokolle und Software für elektronische Post wurde nicht von der
DARPA oder IPTO beauftragt und in offiziellen Stellungnahmen der Behörde wurde das
Thema bis 1976 ausgeklammert.337
Der Entwicklungsprozess illustriert den entscheidenden Beitrag engagierter Nutzer sowie
den problematischen Zusammenhang zwischen den mit einer Innovation verbundenen
Visionen und der später sozial etablierten Praxis. Die ersten E-Mail Experimente wurden
bereits 1971 von Roy Tomlinson bei BBN durchgeführt. Er passte ein zweiteiliges Programmset, SENDMSG (für das Versenden von Nachrichten) und READMAIL (zum Lesen), das ursprünglich für „Time Sharing“-Systeme entwickelt worden war, an die Umgebung des ARPANET an und nutzte die Funktionalität von FTP als Basis.338 Das Protokoll
zum Austausch von Dateien, von dem sich die Entwickler eine bessere Auslastung der
Ressourcen versprachen, wurde mit Tomlinsons Programm umfunktioniert. Das Netzwerk
ermöglichte nun eine Kommunikation zwischen Menschen, was sich auch im Adressierungskonzept niederschlug. Tomlinson hatte den Einfall, vor die Adresse des jeweiligen
Rechners den Empfänger der Nachricht einzufügen und die beiden Angaben durch das
Sonderzeichen @ abzutrennen (user@host).339
Noch im selben Jahr entstand eine lebhafte Diskussion über eigenständige E-Mail-Protokolle, die sich in den RFCs nachvollziehen lässt. Richard W. Watson vom SRI schlug im
Juli 1971 ein Mail Box Protocol vor, dass dem NIC die Distribution von Nachrichten und
Dokumenten ermöglichen sollte.340 Alex McKenzie bezog sich im September desselben
334
RFC 1000.
Vgl. Kapitel 2.4..
336 Norberg, 178.
337 Vgl. Hardy, Ian.
338 Vgl. ebd..
339 Vgl. Hafner, 227f. und Hardy, Ian.
340 Vgl. RFC 0196.
335
58
Jahres auf diesen Vorschlag und machte auf Probleme mit den TIPs aufmerksam, die er
aber für überwindbar hielt.341 In RFC 278 vom November 1971 wird von einem Treffen
des „file transfer committee“ berichtet, auf dem das Mail Box Protocol diskutiert wurde.
Man bestätigte den potentiellen Nutzen und machte einige Verbesserungsvorschläge.342
Im Februar 1973 sollte schließlich ein Treffen am SRI stattfinden. Michael Kudlick
beschrieb die Problematik: „There are already several subsystems existing on the Network whose function is to send and receive mail. The principal problem is to coordinate
and extend these subsystems [...]”.343 Es hatten sich verschiedene, alternative Systeme
entwickelt, die in der Praxis funktionierten. Nun galt es sie zu verbessern und vor allem
ein allgemein gültiges Format zu etablieren. Die von Kudlick beschriebene Situation war
eine direkte Folge des dezentralen, informellen und wenig koordinierten Prozesses.
Im März berichtete er über die Ergebnisse des Treffens, wonach eine E-Mail unter anderem mit folgenden, standardisierten Angaben versehen werden sollte: „To (user@host)“,
„From (return-address)“, „Author“, „Title (i.e. subject)“, „Text (text of the message)“. 344 Nur
wenige Tage später veröffentlichte James E. White einen Verbesserungsvorschlag des
NIC: Es sollte die Eingabe von mehreren Empfängeradressen für eine Nachricht möglich
sein, da das Zentrum plane die Distribution eines Journals über das Netz zu organisieren.345 Ohne es zu beabsichtigen war damit die Grundlage zur Bildung von Mailing-Listen
geschaffen. Die Entwicklung der technischen Voraussetzungen für eine verhältnismäßig
komfortable Nutzung des ARPANET als individuelles Kommunikationsmittel war 1973 im
wesentlichen abgeschlossen.
Nach weiteren Ergänzungen, die nicht im einzelnen dargelegt werden sollen, folgte im Mai
1977 der Versuch einen „Computermail-Putsch“346 durchzuführen. Ken Pogran, John Vittal und andere hatten ihren Vorschlag mit „Proposed Official Standard for the Format of
ARPA Network Messages“ betitelt, was die bereits sechs Jahre andauernde Diskussion
beenden sollte.347 Jon Postel reagierte damals noch schroff auf den Vorstoß:
„The officialness of standards is always a question at every level of protocol. To my
knowledge no arpanet protocol at any level has been stamped as official by ARPA.
The question of official protocols brings up the question of who are the officials anyway? Why should this collection of computer research organizations take orders
from anybody? It is clear that it is in everyones interest to work together and cooperate to evolve the best system we can. Perhaps there is too much emphasis on official and not enough emphasis on best specification so far. I prefer to view the situation as a kind of step by step evolution [...]. To make a big point of officialness about
one step may make it very hard to take the next step”.348
341
Vgl. RFC 0224.
Vgl. RFC 0278.
343 RFC 0453.
344 Vgl. RFC 0469.
345 Vgl. RFC 0479.
346 Hafner, 241.
347 Vgl. RFC 0724.
348 MSGGroup # 561.
342
59
In der überarbeiteten Version vermieden die Autoren das umstrittene Wort „official“ und
setzten de facto einen Standard, der für lange Zeit seine Gültigkeit behielt.349
Das Beispiel zeigt anschaulich die Vorgehensweise bei der Softwareentwicklung des ARPANET vor der Umstrukturierung Ende der 70er Jahre. Es wurden Programme bzw. Protokolle geschrieben und in der Praxis getestet. Bewiesen sie ihre Funktionstüchtigkeit und
fanden sie genug Anwender, so konnten sie sich gegen Alternativen durchsetzen und
dauerhaft etablieren – vor der Umstellung auf TCP/IP, bei der die DCA die Standards diktierte, gab es kein Gremium, das den Entscheidungsprozess zentralisiert hätte.
3.2.1. Das Netzwerk als Kommunikationsmittel
Stephan J. Lukasik, der im Januar 1971 DARPA-Direktor Eberhardt Rechtin abgelöst
hatte, und bis 1974 im Amt blieb,350 förderte nach Angaben von Larry Roberts die
unerwartete Entwicklung der Netzwerknutzenden: „Steve Lukasik decided it was a great
thing, and he made everybody in ARPA use it. So all these managers of ballistic missile
technology, who didn’t know what a computer was, had to start using electronic mail”.351
Licklider und Vezza berichten ebenfalls vom Faible des DARPA-Direktors für elektronische Post und seinem Engagement, die behördeninterne Kommunikation und den Kontakt mit den Vertragspartnern auf diesem Weg abzuwickeln.352 Lukasik unterstütze die
Einbettung der neuen Kommunikationstechnik in den Alltag und seit Mitte der 70er Jahre
förderte die Behörde auch die technische Weiterentwicklung, wie Raymond Panko 1977
darlegte:
„Before 1975, most computer mail development on the ARPANET was informal and
was often bootlegged onto other projects or written in users' spare time. But the
value of computer mail had become obvious to ARPA by the beginning of 1975.
ARPA […] had begun to use computer mail for its bread and butter communications,
and had become aware that a relatively mature communication medium was becoming available. After 1975, ARPA took a more active role in computer mail, forming two groups [MSGGroup und Header-People] that were to help devise network
standards for mail systems”.353
Eine von Lukasik beauftragte Studie ergab, dass bereits 1973 drei Viertel des gesamten
Datenverkehrs aus E-Mails bestand.354 „By 1975, the ARPANET directory listed well over
one thousand people who had network electronic mail address”.355 Das Netz hatte eine
erste, breit genutzte Anwendung. Es wurde nicht nur dienstliche Korrespondenz auf diesem Weg verschickt, zunehmend transportierten die Leitungen private Nachrichten und
349
Vgl. RFC 0733. In Unterpunkt V. wird als Beispiel für eine korrekt adressierte E-Mail der Name Alfred E.
Neuman, der ‚Held’ des MAD-(Comic)Magazins, verwendet. Vgl. ebd..
350 Vgl. Norberg, 8.
351 Larry Roberts in einem Interview von 1988. Zitiert nach Abbate, 84.
352 Vgl. Licklider und Vezza, 1344.
353 MSGGroup # 0456.
354 Vgl. Hafner, 230.
355 Norberg, 178.
60
Gerüchten zufolge wurden in Nordkalifornien Anfang der 70er Jahre sogar Drogengeschäfte über das ARPANET abgewickelt.356
Auch wenn das Netz bereits in den frühen 70er Jahren zu einem hohen Prozentsatz zu
Kommunikationszwecken genutzt wurde, betonten die Verantwortlichen weiterhin die Bedeutung des „Resource Sharing“. Eine intern durchgeführte Studie, die dem Kongress
vorgelegt wurde, ergab, dass 1973 Betriebskosten in Höhe von 2 Millionen Dollar angefallen seien, durch die Nutzung der verteilten Ressourcen aber Einsparungen von 6 Millionen Dollar möglich gewesen wären.357 Erst nachträglich wurde erkannt, dass die Entwicklung eines Kommunikationsmittels diesem Konzept entgegenkam. „The sharing of
information is the most important type of resource sharing".358 In den 60er Jahren hatten
Licklider und andere „Resource Sharing“, trotz weitreichender Vorstellungen über die
neue Technologie, lediglich technisch interpretiert.
Die Flut der eintreffenden E-Mails wurde für manche bald zu einem Problem. Jon Postel
schlug bereits im November 1975 mit RFC 706 „On the Junk Mail Problem” die Entwicklung von Filtern vor. „It would be useful for a Host to be able to decline messages from
sources it believes are misbehaving or are simply annoying”.359 Die Einbettung der neuen
Technologie war rasch vollzogen und steigerte die Attraktivität des Netzes. „ARPANET
users came to rely on email in their day-to-day activities, and the availability of email attracted new users to the network“.360
Die Ausbreitung wurde von Faktoren gefördert, die noch heute zutreffend sind: E-Mails
sind schneller als der herkömmliche Postweg („snail mail“361) und billiger als Telefonate
über weite Distanzen. Sie kommen auf jeden Fall an, unabhängig ob der Empfänger gerade anwesend ist oder nicht, und können flexibel beantwortet werden. Zudem wurde weniger Wert auf die formale Ausgestaltung gelegt, betonten Vezza und Licklider 1978:
„One of the advantages of the message system over letter mail was that, in an
ARPANET message, one could write tersely and type imperfectly, even to an older
person in a superior position and even to a person one did not know very well, and
the recipient took no offense. The formality and perfection that most people expect in
a typed letter did not become associated with network messages, probably because
the network was so much faster, so much more like the telephone”.362
Liest man die Beiträge der Mailing-Listen, so erhält man einen Eindruck von dieser neuen,
weniger formellen Kommunikationskultur der 70er Jahre. Obwohl das ARPANET (abgesehen von Teilen der militärischen Bürokratie) weiterhin Angehörigen der Universität vorbehalten war - folglich ein hohes Bildungsniveau vorausgesetzt werden kann - zeugen zahl-
356
Vgl. Hafner, 223.
Vgl. Abbate, 80f..
358 Vgl. Licklider und Vezza, 1330.
359 RFC 0706.
360 Abbate, 84.
361 Raymond.
362 Licklider und Vezza, 1331.
357
61
reiche Tipp- und Grammatikfehler von einem laxen Umgang mit den formalen Regeln der
Sprache.
Professionell wurden E-Mails sowohl vom akademischen als auch militärischen Teil genutzt. Computerwissenschaftler begannen die Distribution ihrer Beiträge über das Netzwerk zu organisieren, wobei die neue Kommunikationstechnik als Basis für ein „virtual
journal“ fungierte, das eine schnellere Ausbreitung der Ergebnisse erlaubte als die bisherigen (Print-)Medien der Wissenschaft.363 Der U.S. Army Material Development and
Readiness Report berichtete 1977, dass sich E-Mails positiv auf die Abwicklung ihrer Geschäfte ausgewirkt hätten. Die Kommunikation sei durch die neuen Möglichkeiten deutlicht verbessert worden.364
Neben diesen objektiven Vorteilen begünstigte ein grundsätzliches Interesse an der Materie die rasche Ausbreitung im ARPANET und wirkte sich zugleich auf die thematische
Ausgestaltung der Kommunikation aus:
„Things have not changed much. Most [ARPANET] e-mail concerned the interests of
its users (as it does today). The difference was that for most of the people with access to e-mail, the word 'computer' figured prominently in their resume. Topics
ranged from bug reports and meeting announcements to recipes for pretzels”.365
3.2.2. Mailing-Listen
Die thematische Ausgestaltung der individuellen Kommunikation (einschließlich der Bedeutung von Brezelrezepten) lässt sich im Einzelnen nicht mehr rekonstruieren. Seit 1975
begannen sich aber Mailing-Listen zu bestimmten Themen auszubreiten. Sie machten
von der Möglichkeit Gebrauch, Nachrichten an verschiedene Empfänger gleichzeitig zu
schicken. Ähnlich wie bei Zeitschriftenabonnements lässt sich ein Teilnehmer von dem
Verwalter der entsprechenden Liste in einen Verteiler aufnehmen. Nach diesem Verteiler
werden hinzukommende Artikel bzw. Beiträge an die Abonnenten verschickt.366
Die WINE-TASTER boten ein Forum für Weinfreunde und die SF-Lovers widmeten sich
der Sciencefiction-Literatur. Bei den NETWORK-HACKERS war Programmierung das
zentrale Thema und das HUMAN-NET untersuchte den menschlichen Faktor in Netzwerken und Computerwissenschaften.367 Welchen Stellenwert Mailing-Listen für die
363
Vgl. Roistacher, 18.
Vgl. Norberg, 195.
365 Tomlinson in einem Interview von April 1996. Zitiert nach Hardy, Ian. Bei den „bug reports“ handelt es sich
nicht um Berichte über Insekten. Def. bug = „An unwanted and unintended property of a program or piece of
hardware, esp. one that causes it to malfunction”. Vgl. Raymond.
366 Vgl. Hosenfeld, 112f..
367 Vgl. Hauben, Evolution. Die Beiträge dieser Mailing-Listen stehen nicht mehr vollständig zur Verfügung.
Von den WINE-TASTERS und NETWORK-HACKERS sind keine Dateien verfügbar. Die 1980 von Saul Jaffe
gegründete SF-Lovers-List ist noch heute im WWW aktiv und gestattet über ein Archiv einen Eindruck über
die Beiträge der 80er Jahre. Da sich die Auseinandersetzungen aber tatsächlich nur mit Sciencefiction beschäftigten, sind sie für die vorliegende Arbeit weniger interessant. Vgl. Jaffe. Die Mails des HUMAN-NET,
sowie die Beiträge von 21 weiteren Listen, die auch im USENET veröffentlicht wurden, sind für den Zeitraum
von Mai 1981 bis Mai 1982 archiviert. Vgl. Jones, USENET und Digest. Diese Selektion macht eine angemessene Untersuchung unmöglich.
364
62
Kommunikation eines Teils der ARPANET-Nutzenden einnahmen, lässt sich an der Bewertung im Jargon-File nachvollziehen.
„Mailing lists are one of the primary forms of hacker interaction, along with Usenet.
They predate Usenet, having originated with the first UUCP and ARPANET
connections. They are often used for private information-sharing [...]. Though some
of these maintain almost purely technical content [...], others (like the `sf-lovers' list
maintained for many years by Saul Jaffe) are recreational, and many are purely
social”.368
Nachdem die Leitungen des ARPANET anfangs kaum Daten transportierten, kam es gegen Ende der 70er Jahre zu ersten Engpässen. Bernie Cosell, der bei BBN an der IMPSoftware gearbeitet hatte,369 berichtet, dass es in diesem Zusammenhang zu Differenzen
mit den Verantwortlichen der Behörde kam: „ARPA was fairly liberal [...], but they did occasionally put their foot down. The ‘mailing list’ problem happened with SF-Lovers, about
the first really large-scale mailing list. BUT...unlike HUMAN-NETs, SF-LOVERS could
show *NO* legitimate reason for using ‘ARPA bandwidth’ and so actually got shut down
for a couple of months”.370
3.2.3. MSGGroup und die angemessene Nutzung des ARPANET
Die früheste Mailing-Liste des ARPANET war die von Steve Walker - Programmmanager
der DARPA bei der IPTO - initiierte MSGGroup.371 Er beschrieb in einer Nachricht vom
Juni 1975 die Zielsetzung des Experiments:
„My reason for seeking to establish a group of people concerned with message
processing was (and remains) to develop a sense of what is mandatory, what is nice
and what is not desirable in message services. We have had a lot of experience with
lots of services and should be able to collect our thoughts on the matter.
My goal at present was not to establish ‘another committee’ but to see if a dialog can
develop over the net […]. To the ‘newcomers’ incase you haven't already sensed it,
this whole thing is a new attempt, there is no background except for a few messages
sent around this week […]. I hope from all this to develop a long term strategy for
where message services should go on the ARPAnet and indeed in the DoD. Let's
have at it”.372
In einer zweiten Nachricht vom selben Tag erklärte sich Dave Farber bereit, die Verwaltung der Liste zu übernehmen.373 Er war verantwortlich für die Distribution der E-Mails und
versah sie teilweise mit Kommentaren, wobei er bald Unterstützung von Einar Stefferud
erhielt. Etwa 70 Personen tauschten sich über die Liste aus,374 die bis 1986 fortgeführt
wurde und schließlich mehr als 2600 E-Mails umfasste. Thematisch beschäftigten sich die
teilweise hitzig geführten Debatten in der Anfangszeit vor allem mit der Weiterentwicklung
368
Raymond. USENET und UUCP werden in den Kapiteln 4. und 4.2. behandelt.
Vgl. Hafner, 110-112.
370 Bernie Cosell im Januar 1993. Zitiert nach Hauben, Evolution.
371 Vgl. Hafner, 237. Die Beiträge der MSGGroup sind vollständig archiviert. Vgl. Farber.
372 MSGGroup # 002.
373 Vgl. MSGGroup # 003.
374 Raymond Panko nennt diese Zahl für das Jahr 1977. Vgl. MSGGroup # 0474.
369
63
der Software für E-Mails.375
Bereits in den ersten Beiträgen deutete sich die Bereitschaft zu heftigen verbalen Auseinandersetzungen an, die den Diskussionsstil zeitweise prägen sollte. Zwei Themenbereiche, die einen Einblick in die Arbeitsweise der Gruppe ermöglichen und darüber hinaus
zu Auseinandersetzungen über Grundfragen der Kommunikation im ARPANET führten,
sollen eingehender betrachtet werden: Die Finger- und Quasardebatte.
Die Diskussion um das Fingerprogramm wurde am 23. Februar 1979 von Dave Farber in
die MSGGroup getragen. Er veröffentlichte insgesamt fünf E-Mails einer internen Auseinandersetzung an der Carnegie Mellon Universität (CMU), die für die von ihm verwaltete
Mailing-Liste von großem Interesse seien. Mit dem Fingerprogramm war es möglich zu
erfahren, wann ein beliebiger Nutzer des ARPANET das letzte mal online war bzw. seine
E-Mails abgerufen hatte. Um die Privatsphäre zu schützen, hatte Ivor Durham das Programm umgeschrieben, sodass man selbst bestimmen konnte, ob diese Informationen
Finger zugänglich waren oder nicht. Die Grundeinstellungen des neuen Programms blockierten Finger. Für Durham war der Schutz der Privatsphäre von grundlegender Bedeutung. „The issues of privacy in such a medium are of paramount importance. I would really
like to be assured that others share and actively support the individual rights position. If
not, its time our community stood back to examine its attitudes and wonder why the general public doesn't trust computers!”.376
Schon an der CMU hatte Duhrams Vorstoß geteilte Reaktionen ausgelöst. Während manche sein Vorgehen begrüßten, empfanden es andere als paranoid und belegten ihn mit
Begriffen wie „spineless, socially irresponsible, petty politician and other less printable
descriptions“.377 Die Änderung des Programms wurde als Verstoß gegen die freie und
offene Atmosphäre bzw. das Gemeinschaftsgefühl der ARPANET-Nutzenden gewertet. „I
find myself angry that you implement something […] without considering the (more important) social ramifications. If we as computer scientists continue to punt such issues to
second place, who the hell is going to take responsibility for them?”.378 Aus der Änderung
des Finger-Programms war gleich zu Beginn eine Diskussion über die grundsätzliche
Frage entbrannt, ob das Interesse der wissenschaftlichen Netzwerk-Gemeinschaft höher
zu werten sei als der individuelle Schutz der Privatsphäre.
Noch am selben Tag wurden vier weitere E-Mails verschickt, die sich mit der FingerProblematik auseinander setzten. Am darauf folgenden Samstag waren es bereits zwanzig.379 Die Fronten verliefen parallel zur CMU-internen Diskussion: „paranoid bureauc-
375
Vgl. Farber.
MSGGroup # 0794.
377 MSGGroup # 0794.
378 MSGGroup # 0794.
379 Vgl. Farber.
376
64
rats“380 gegen „unthinking technologists“.381 Anfang März wand sich die MSGGroup wieder
anderen Themen zu. In knapp einer Woche waren 74 E-Mails zum Thema Finger und
Privatsphäre über den Verteiler der Mailing-Liste verschickt worden. Auf eine emotional
geprägte Phase der gegenseitigen Beschimpfung folgten etliche konstruktive Vorschläge,
die soziale und technische Faktoren berücksichtigten. Letztendlich verlief die Debatte
aber ergebnislos.382
Bei den HEADER-PEOPLE, einer unmoderierten Liste aus dem Umfeld des MIT, die sich
ebenfalls mit dem Thema E-Mail auseinander setzte, waren gegenseitige Beschimpfungen alltäglich. Das „Flaming“383 war dort so massiv, dass man „Unterwäsche aus Asbest“
tragen musste, wie ein Teilnehmer später erklärte.384
Für die MSGGroup war das Ausmaß der getippten Beleidigungen ungewöhnlich. „All I can
say is ‘What flames!!!’ I'm not sure I would have started if I had known the volume. I suspect that for many the issues of ‘PRIVACY’ and ‘FREE DISTRIBUTION OF KNOWLEDGE’ take on religious proportions. I believe in both strongly, placing PRIVACY in first
place”.385 Diese Form der Streitkultur wurde unterschiedlich bewertet. Einzelne Teilnehmer zogen es vor die Mailing-Liste zu verlassen. „I've seen enough trash over the privacy
issue to annoy me beyond my current level of endurance. I've wasted time drafting two
replies, and am mightily sick of the whole discussion. I leave you with this word of warning: there is a real world out there, whether you want it there or not, and it likes and values
privacy”.386 Andere schätzten den Unterhaltungswert der gegenseitigen Beschimpfungen.
„I enjoy reading, and occasionally participating in, group flaming over issues such as
this”,387 gab z.B. Rich Zellich offen zu.
Die Tradition des „Flaming“ im ARPANET wurde von den Spezifika der Kommunikation
über das Netzwerk gefördert. Die Auseinandersetzungen in den Mailing-Listen der 70er
Jahre blieben im Vergleich zu den Attacken im Usenet der 80er Jahre moderat. Der ARPANET-Zugang war noch immer limitiert, was dazu führte, dass die soziale Zusammensetzung dieser Diskussionszirkel vergleichsweise homogen war: Angehörige der Computerwissenschaften, die aufgrund ihrer Tätigkeit häufig in persönlichem Kontakt standen.388
380
MSGGroup # 0795.
MSGGroup # 0796.
382 Vgl. Farber.
383 „Flame (at MIT, orig. from the phrase `flaming asshole') = 1. vi. To post an email message intended to
insult and provoke. 2. vi. To speak incessantly and/or rabidly on some relatively uninteresting subject or with a
patently ridiculous attitude. 3. vt. Either of senses 1 or 2, directed with hostility at a particular person or people.
4. n. An instance of flaming. When a discussion degenerates into useless controversy, one might tell the participants ‘Now you're just flaming’ or ‘Stop all that flamage!’ to try to get them to cool down (so to speak). The
term may have been independently invented at several different places. It has been reported from MIT,
Carleton College and RPI (among many other places) from as far back as 1969, and from the University of
Virginia in the early 1960s”. Raymond.
384 Vgl. Hafner, 255.
385 MSGGroup # 0829.
386 MSGGroup # 0840.
387 MSGGroup # 0812.
388 Vgl. Hardy, Ian.
381
65
„The closed community of the ARPANET and its research orientation yield a situation different from what could be expected outside”.389 Erst mit der weiteren Ausbreitung des
Netzwerks stieg die Anonymität auf ein Niveau, das formale, soziale Regeln erforderte.
Bei den Mailing-Listen konnte zudem der Verwalter eingreifen, wenn eine Diskussion seiner Ansicht nach zu heftig wurde.
Weniger emotional, aber von derselben grundlegenden Bedeutung, war die Debatte um
den Domestic Android II (DA II). Philip Karlton, Student der CMU, berichtete im Mai 1977
von dem Produkt des Unternehmens Quasar Industries: ein Roboter, der eine erstaunliche Bandbreite von Fähigkeiten aufwies. Nach Angaben des Herstellers konnte das Multitalent mit dem sagenhaften Preis von 4000 Dollar Konversation betreiben, den Kindern
Französisch beibringen und grundlegende Aufgaben des Haushalts erledigen.390 Die CMU
betrieb seit 1970 im Auftrag der DARPA Grundlagenforschung zur KI,391 weshalb sich ein
Team von Studenten verpflichtet sah den Schwindel aufzudecken. Auf einer Demonstration in Pittsburgh enttarnten sie die Funktionsweise des DA II: der Roboter wurde von einem Mann aus dem Publikum ferngesteuert.392 Im Mai 1978, ein Jahr nach Beginn der
Diskussion, brachten Stefferud und Farber einen neuen Aspekt ein:
„MsgGroup files are open to the public. At least that public which can access the
files or who might gain access to a printout of the files by what ever path. There are
no known restrictions on distribution of the MsgGroup Transactions.
We are asking for potential problems when we criticize the QUASAR robot efforts via
MsgGroup. We are using US Government facilities to possibly put in a poor light the
activities of an ‘honest’ (and we must assume this) industrial corporation. This could
backlash on all of us including ARPA. It is therefore suggested that we carefully censor our comments on QUASAR and others to just reporting facts that are of technical
interest to the community”.393
Aus der Debatte um den Androiden von Quasar Industries, die bereits seit einem Jahr lief
ohne großes Aufsehen zu erregen,394 wurde mit diesem Einwand eine intensive
Grundsatzdiskussion über Selbstzensur und die angemessene Nutzung des Netzwerks,
die für einen Monat die MSGGroup dominieren sollte.395
Schon bei der Frage, ob die Mailing-Liste öffentlich sei, waren die Mitglieder geteilter Meinung. Mark Crispin wies darauf hin, dass nur eine limitierte Gruppe von Personen Zugriff
auf das ARPANET hätte, E-Mails und Beiträge von Mailing-Listen folglich eher mit einem
389
Myer und Vittal auf einer Konferenz über die Kommunikation im ARPANET von 1977. Zitiert nach Hardy,
Ian. Die Autoren unterschlagen die Präsenz der militärischen Bürokratie.
390 Vgl. MSGGroup # 0569.
391 Vgl. Norberg, 249f..
392 Vgl. MSGGroup # 0605.
393 MSGGroup # 0675.
394 In einem Jahr wurden lediglich acht E-Mails zum Thema Quasar veröffentlicht: MSGGroup # 0569, # 0573,
# 0605, # 0614, # 0662, # 0668, # 0669 und # 0672. Vgl. Farber.
395 Von Anfang Mai bis Anfang Juni wurden 18 Beiträge zu diesem Thema verfasst: MSGGroup # 0675, #
0676, # 0677, # 0678, # 0679, # 0680, # 0681, # 0682, # 0683, # 0684, # 0685, # 0686, # 0687, # 0695, #
0696, # 0697, # 0707, # 0708. Vgl. Farber.
66
„interoffice Memo“ als mit einer Zeitung zu vergleichen seien.396 Die Zugangsvorschriften
der DCA waren tatsächlich äußerst rigide: „Only military personnel or ARPANET sponsorvalidated persons working on government contracts or grants may use the ARPANET”.397
Sollte man einen unautorisierten Nutzer entdecken, so drohte die Behörde mit einer
Überprüfung der Kontrollmechanismen des entsprechenden Hosts. Bei unkooperativem
Verhalten der Verantwortlichen des jeweiligen Standortes konnte theoretisch der Netzwerkzugang entzogen werden.398 Mark Crispin lehnte jedenfalls jegliche Form von Selbstzensur ab und betonte, wenn die DARPA etwas gegen diesen offenen Meinungsaustausch hätte, wäre er schon längst unterbunden worden.399
„I have never seen any ARPA statement on proper or improper use of the network”,400
betonte Brian Reid. Debbie Deutsch wies auf die liberale Praxis hin: „Who hasn't used net
mail for personal communication? Who hasn't spent time playing some new game over
the net? Be honest […]. As long as the net is used for its primary purposes nobody is going to scream about the extra traffic generated by unofficial use”.401 Die Gegner der Zensur führten an, dass die MSGGroup gegründet worden sei, um die Kommunikationsmöglichkeiten des Netzwerks in der Praxis zu erforschen, weshalb eine thematische Beschränkung wenig Sinn mache. Die Öffentlichkeit und die DARPA würden letztendlich von
den Ergebnissen der Diskussion profitieren.402 Es gehöre zu den Aufgaben eines Wissenschaftlers den Wahrheitsgehalt von Berichten über neue Entwicklungen zu untersuchen. „Are we to allow any charlatan […] to run roughshod over scientific inquiry and freedom?”.403
Dave Farber, der weiterhin den öffentlichen Charakter des ARPANET betonte, forderte
die Mitglieder dazu auf, sich beim Thema Quasar an die Fakten zu halten und Äußerungen zu vermeiden, die als verleumderisch gedeutet werden könnten. Ansonsten setzte
man die DARPA, das DoD und den eigenen Netzwerkzugang vermeidbaren Gefahren
aus.404 Dave Crocker, der seit der Installation der ersten Knoten an der Entwicklung beteiligt war, berichtete von einer Kürzung seines Forschungsetats, nachdem in der Presse
Artikel auftaucht seien, die dem Verteidigungsministerium vorwarfen, es gäbe im ARPANET Aktivitäten zur Unterstützung von Abtreibungen. Crocker empfahl den Mitgliedern der
MSGGroup, den Entscheidungsträgern der Behörde derartige Situationen zu ersparen, da
sie die Tendenz hätten, konservative Lösungen anzustreben und Wahrheit bzw. Gerechtigkeit dann unbedeutend seien. Würde in der Presse lanciert, dass man Privatunterneh396
Vgl. MSGGroup # 0696.
ANEWS-08.
398 Vgl. ebd..
399 Vgl. MSGGroup # 0696.
400 MSGGroup # 0685.
401 MSGGroup # 0684.
402 Vgl. MSGGroup # 0680.
403 MSGGroup # 0682.
404 Vgl. MSGGroup # 0679.
397
67
men im ARPANET verleumde, so wäre mit einer engen Bindung der E-Mail-Nutzung an
die Forschungsaktivitäten zu rechnen.405
Bei Stefferud war ein grundsätzliches Misstrauen gegenüber Teilen des Pentagon zu erkennen: „Let me point out that the presense of the University people on the network is
viewed as LESS than desirable by some in the DOD. Some day we might have to defend
our right to access […]”.406 Diese Einschätzung wurde von Brian Reid geteilt: „I assume
that the military types within ARPA would probably like to restrict access to the network as
tightly as they could, and that the academic types would rather that there be free access. I
also assume that the military types would like us to restrict our use of the network to traffic
directly related to ARPA contract work”.407 1982 wurde einigen Nutzern der Zugang im Zusammenhang mit einem Kettenbrief entzogen, der sich im Netz rasch ausgebreitet
hatte.408 Ansonsten gibt es aber keine Hinweise auf eine konsequente Umsetzung oder
auch nur systematische Erfassung von Regeln über eine angemessene Nutzung.
Die Diskussion um den Androiden kam zu keinem abschließenden Ergebnis. Trotz der
Bedenken einzelner Teilnehmer wurden schließlich zwei weitere Beiträge über eine Demonstration in Los Angeles veröffentlicht, ehe sich die Gruppe endgültig anderen Themen
zuwand. In beiden Beiträgen wurde der Show-Charakter hervorgehoben, was darauf
schließen lässt, dass sich die Verkaufsstrategie von Quasar Industries geändert hatte.409
Im April 1979 äußerte Kevin McKenzie, ein Neuling bei der MSGGroup, sein Bedauern
über das Fehlen von Gesten und gesprochener Sprache bei computervermittelter, textbasierter Kommunikation. Dadurch könnten Mitteilungen falsch interpretiert werden oder
Bedeutungen verloren gehen.410 Auch Hiltz und Turoff hatten in ihrem 1978 veröffentlichten Artikel diese Mängel bei computerbasierten Konferenzsystemen festgestellt. Der
Reichtum von „face-to-face and even telefone conversations“411 ginge bei E-Mails verloren. Kevin McKenzies Lösungsvorschlag war ein Vorgriff auf die sog. Emoticons:412
„Perhaps we could extend the set of punctuation we use, i.e.: If I wish to indicate that
a particular sentence is meant with tongue-in-cheek, I would write it so: ‘Of course
you know I agree with all the current administration's policies -).’ The ‘-)’ indicates
tongue-in-cheek. This idea is not mine, but stolen from a Reader's Digest article”. 413
Postwendend folgte das Flaming. Gary Martins’ Beitrag vom selben Tag verwies auf die
begriffliche Klarheit Shakespeares. Die Schriftsprache müsse nicht verbessert werden
und es sei naiv anzunehmen, dass jemand lerne sich treffender auszudrücken, wenn ihm
405
Vgl. MSGGroup # 0686.
MSGGroup # 0681.
407 MSGGroup # 0685.
408 Vgl. ANEWS-11.
409 Vgl. MSGGroup # 0707 und # 0708.
410 Vgl. MSGGroup # 1015.
411 Turoff und Hiltz, 60.
412 Bei Halbach ist eine Tabelle mit heute üblichen Emoticons abgebildet. Interessant ist, dass sich Zeichen
etabliert haben, die kulturspezifische Unterschiede aufweisen. Einem Lächeln entspricht z.B. in Europa und
den USA „:-)“ in Japan hingegen „ˆ_ˆ“. Vgl. Halbach, Netzwerke, 301.
413 MSGGroup # 1015.
406
68
mehr Zeichen zur Verfügung stünden.414 Für die MSGGroup war das Thema damit erledigt und Kevin McKenzie enthielt sich in Zukunft der Liste.
3.3. Öffentliche Hand vs. Privatwirtschaft
Noch bevor die DARPA die Verantwortung für den Betrieb des Netzwerks an die DCA
abgab, startete Larry Roberts 1972 einen Versuch das Netzwerk zu privatisieren. Nach
Gesprächen mit BBN, FCC und anderen Behörden sowie einer Studie von Paul Baran,
welche die Vorteile eines privatwirtschaftlichen Betreibers aufzeigte, begann die Suche
nach einem geeigneten Unternehmen. AT&T wäre prädestiniert gewesen, zeigte aber
trotz intensiver Gespräche mit Roberts und Heart kein Interesse. 1975 wurde das Vorhaben aufgegeben, und DARPA-Direktor George Heilmeier übertrug die Verantwortung der
militärischen Kommunikationsbehörde.415
Etwa zur selben Zeit als in Europa die ersten Forschungsnetze aufgebaut wurden, begannen verschiedene Unternehmen auf dem nordamerikanischen Kontinent kommerzielle
Alternativen zum öffentlich finanzierten und nicht frei zugänglichen ARPANET aufzubauen. Zielsetzung der Projekte war von Anfang an die Schaffung eines Kommunikationsmittels. E-Mails hatten sich durchgesetzt und stimulierten die weitere Entwicklung. In
Europa wurde eine ähnliche Aktivität der Privatwirtschaft durch die Kontrolle der staatlichen Telefongesellschaften über das Leitungsnetz erschwert.416
Den ersten Versuch unternahm Packet Communications Incorporated (PCI), ein 1972 von
ehemaligen BBN Angestellten gegründetes Unternehmen. Ende 1973 erhielt PCI die
FCC-Zulassung, benötigte aber bis zum geplanten Start 1974 30 Millionen Dollar Betriebskapital. Es fanden sich keine Investoren und 1975 hörte das Unternehmen auf zu
existieren.417
Ebenfalls 1972 gründete BBN die Tochtergesellschaft TELENET Communication Incorporation. Larry Roberts, der mehr als vier Jahre lang die Entwicklung des ARPANET als
IPTO-Direktor begleitet hatte, wurde 1973 der zweite Vorsitzende dieses Unternehmens.418 TELENET installierte nach dem gescheiterten Versuch von PCI das erste
öffentliche, d.h. nicht unternehmensinterne, gewinnorientierte Netzwerk. Die jahrelange
Erfahrung der Muttergesellschaft und des neuen Vorsitzenden im Zusammenhang mit
dem ARPANET bedeutete einen Wettbewerbsvorteil gegenüber potentiellen Konkurrenten. BBN versuchte diesen weiter auszubauen, indem die Herausgabe des Quelltextes
der IMP-Software verweigert wurde. Das DoD hatte die Forschung vollständig finanziert
414
Vgl. MSGGroup # 1016.
Vgl. Abbate, 85f..
416 Vgl. Quarterman, 152f..
417 Vgl. Salus, Casting, 107f..
418 Vgl. Norberg, 16. Der Posten bei der IPTO blieb 6 Monate lang unbesetzt, bis sich Licklider bereit erklärte
ihn zu übernehmen. Vgl. ebd..
415
69
und dem Unternehmen zu einem beachtlichen Wachstum verholfen. Die DARPA intervenierte und erzwang schließlich die Veröffentlichung. Die Drohung, an das Unternehmen
keine Regierungsaufträge mehr zu vergeben, hatte als Druckmittel ausgereicht.419 1975
wurde der Service von TELENET in sieben Städten angeboten und bis 1978 war der
Zugriff auf das Netzwerk in 68 Städten möglich.420 TELENET hatte aber bereits mehr als
20 Millionen Dollar an Investitionen verschlungen und noch immer nicht die Gewinnzone
erreicht. Salus nennt zahlreiche Rechtsstreitigkeiten mit den großen Telekommunikationsunternehmen vor der FCC als Ursache für das finanzielle Scheitern des Projekts.421
BBN verkaufte das Netzwerk schließlich an General Telephone and Electronic (GTE).422
Das PCI und TELENET scheiterten lag nicht unbedingt an der Geschäftsidee. „By 1973
the computer data traffic was the fastest growing segment of the telecommunication market“.423 Die absoluten Zahlen waren noch vergleichsweise niedrig, dass man mit der
neuen Technologie in Zukunft Geld verdienen konnte, war aber bereits Mitte der 70er
Jahre abzusehen. AT&T erzielte 1973 mit der Installation von Datenleitungen einen Gewinn von 300 Millionen Dollar.424 Die Klagen der Telekommunikationsunternehmen vor
der FCC sollten zukünftige Marktanteile sichern.
Die führenden Unternehmen der Computerindustrie, DEC und IBM, begannen seit Mitte
der 70er Jahre ebenfalls Vernetzungsmöglichkeiten auf der Basis des „Packet-Switching“
anzubieten.425 Auch sie profitierten zumindest indirekt von der Grundlagenforschung der
DARPA. Sowohl IBMs System Network Architecture (SNA) als auf DECs DECNET setzten jedoch eine homogene Rechnerstruktur voraus und waren trotz hoher Kosten vor allem für kleinere Projekte konzipiert. Der Anschluss eines IBM-Mainframes an das SNA
kostete z.B. 300.000 Dollar.426 Beide Netzwerkkonzeptionen müssen als Versuch gedeutet werden, den Kunden enger und dauerhafter an das eigene Unternehmen bzw. dessen
Produkte zu binden.
Das Forschungszentrum PARC von Xerox trug wesentliches zur weiteren Ausbreitung
des Internet bei. Robert Metcalfe, der eine Dissertation über das ARPANET und ALOHANET geschrieben hatte, die von Harvard erst abgelehnt, nach der Ergänzung um die Ergebnisse aus Hawaii dann doch anerkannt wurde, leitete ein Projekt zur Vernetzung verschiedener Rechner innerhalb eines Gebäudes. 1973 wurde, das erste LAN (Local Area
Network), basierend auf einer schnellen Paketvermittlung, in Betrieb genommen.427 Metcalfe, der der Entwicklung den Namen Ethernet gab, war als Mitglied der NWG und INWG
419
Vgl. Abbate, 77 und Hafner, 276-278.
Vgl. Norberg, 179.
421 Vgl. Salus, Casting, 108f..
422 Vgl. Quarterman, 620.
423 Abbate, 91.
424 Vgl. ebd..
425 Vgl. Abbate, 90f. und Quarterman, 140f..
426 Vgl. Rosenzweig, 1550.
427 Vgl. Hafner, 281-284 und Salus, Casting, 77f..
420
70
seit der Installation der ersten Knoten am Aufbau des ARPANET beteiligt gewesen, 428
hatte die Broschüre für die ICCC-Demonstration verfasst und den Host des MIT angebunden.429 Die lokalen Netzwerke ermöglichten über TCP/IP eine rasche Integration neuer
Rechner in das Netz der Netze und schufen die Grundlage für eine effizientere Nutzung
eines Zugangs.430
Xerox profitierte wie zuvor TELENET und PCI von der Grundlagenforschung und der
Ausbildung ihrer Mitarbeiter. Die personellen Verflechtungen beschränkten sich nicht auf
Metcalfe. Robert Taylor, der 1966 den damaligen DARPA-Direktor überzeugt hatte, das
erste Netzwerk zu finanzieren, war 1973 der Leiter des Computer Science Lab im PARC.
Ihm folgten neben Metcalfe weitere ARPANET-Pioniere wie z.B. Will Crowther und Severo Ornstein nach Kalifornien.431
Zusammenfassend lässt sich feststellen, dass die Privatindustrie seit Mitte der 70er Jahre
versuchte das neue Geschäftsfeld zu erschließen. Die Projekte waren im Vergleich zum
ARPANET und selbst den Forschungsvorhaben in Europa noch wenig entwickelt. „In its
time it [ARPANET] was the largest, fastest, and most populated part of the Net“.432 Jedes
der kommerziellen Angebote basierte direkt oder indirekt auf den Vorleistungen der Regierungsbehörde.
„During this early period, the U.S. government, mainly ARPA, funded research and
development work on networks and supported the various networks in the ARPA
Internet by leasing and buying components and contracting out the system’s day-today operational management. The government also maintained responsibility for
overall policy […]. The U.S. government also awarded contracts for the support of
various aspects of Internet infrastructure”.433
Den Beitrag der Nutzenden unterschlägt Robert Kahn. Das offene, dezentrale Konzept
des ARPANET bezog sich auch auf die Software- bzw. Protokollentwicklung. Es ist ein
Verdienst des Managementkonzepts von DARPA und IPTO, solche Entwicklungen zuzulassen bzw. zu fördern, die dem experimentellen Charakter entgegenkamen. Die DCA
zentralisierte den Prozess seit Ende der 70er Jahre, um den gestiegenen Anforderungen
an das Netzwerk gerecht zu werden, unterband damit jedoch nicht das Engagement der
Nutzer bei der weiteren Entwicklung.
428
Vgl. Norberg, 184.
Vgl. Hafner, 216 und 281.
430 Quarterman geht sogar davon aus, dass das Ethernet den Anstoß zu Entwicklung von TCP/IP gegeben
hätte. Vgl. Quarterman, 144. Der Autor irrt in diesem Punkt, wie bereits dargelegt wurde.
431 Vgl. Hafner, 245.
432 Hardy, Edward. „Net“ bezeichnet bei Hardy dasselbe wie Matrix (Vgl. Kapitel 4.), also die Summe der
Einzelnetzwerke, die nicht vollständig mit dem ARPANET bzw. Internet verbunden waren, aber E-Mails austauschen konnten.
433 Kahn.
429
71
4. Matrix – „a more or less coherent system”
Der grundsätzliche Nutzen und die Realisierbarkeit der Netzwerktechnologie war in den
70er Jahren durch verschiedene, öffentlich finanzierte Projekte bewiesen worden. Die
Entwicklung verlief noch zaghaft und war bei rein wirtschaftlicher Betrachtung wenig attraktiv. In den 80er Jahren gewann der Prozess an Dynamik, wobei E-Mail, FTP und Telnet weiterhin die Basisfunktionen der Netzwerke bildeten. Vor allem die elektronische
Post erfreute sich großer Beliebtheit und regte die Nachfrage an. „Ohne die stärker werdenden Nutzungsanreize lässt sich die Entstehung vieler Computernetzwerke der 80er
Jahre nicht erklären“.434
Eine der wesentlichen, technischen Voraussetzungen für den Boom der Netzwerke, die
bis auf wenige Ausnahmen den Computer als Endgerät vorsahen, war die Mitte der 70er
Jahre langsam einsetzende „PC-Revolution“.435 Intel hatte bereits 1971 begonnen Prozessoren anzubieten, die theoretisch frei programmierbar waren, aber zur Steuerung von
Systemen (z.B. Fahrstühle) eingesetzt wurden. Einige Prozessorgenerationen später erschien 1975 mit dem Altair 8800 ein erster Computer für weniger als 400 Dollar. Diesem
Bausatz fehlte noch das Betriebssystem, was die Nutzbarkeit massiv einschränkte.436 Bereits zuvor hatten Studenten an der Westküste der USA den Prozessor für sich entdeckt
und beschäftigen sich mit der Idee, ihn als zentrales Element eines universell nutzbaren,
frei programmierbaren Computers zu verwenden. Aus der „People’s Computer Company“,
die Ende der 60er Jahre mit einem gespendeten DEC-Rechner „Computer Literacy“
verbreiten wollte, ging der „Homebrew Computer Club“ hervor. Dieser lose Zusammenschluss von „Hobbybastlern und Computerfreaks“437 im Dunstkreis des SRI bildete die
Keimzelle der Unternehmen des inzwischen legendären Silicon Valley. 438 1975 gründeten
Paul Allen und Bill Gates das Unternehmen Microsoft und ein Jahr später folgten Steve
Jobbs und Stephen Wozniak ihrem Beispiel mit der Firma Apple. Microsoft spezialisierte
sich auf Software bzw. das Betriebssystem MS-DOS (Microsoft – Disk Operating System),
während Apple die gesamte Produktpalette selbst entwickelte.439 Die Anfänge des zweiten
Unternehmens waren noch geprägt von der ‚Hacker-Kultur’ der 60er Jahre. Kopien der
Entwürfe zum ersten Apple-Rechner wurden frei verbreitet.440
Apple entwickelte sich bis Ende der 70er Jahre zu einem Erfolgsunternehmen und IBM,
der traditionsreiche Gigant der Computerindustrie, begann ebenfalls sich auf dem neuen
434
Werle, Selbstorganisation, 504.
Walitsch, 237.
436 Vgl. Walitsch, 238.
437 Schmidt, 164.
438 Vgl. Wagner, 206.
439 Vgl. Walitsch, 238. Bill Gates Vorstoß, für Software Geld zu verlangen, wurde von seinen ehemaligen Mitstreitern als Vergehen gegen die ‚Hacker-Ethik’ und dem Gedanken des „free sharing of information“ interpretiert. Vgl. Rheingold, 130.
440 Vgl. Wagner, 206.
435
72
Geschäftsfeld zu engagieren, setzte allerdings bei der Software auf eine Allianz mit
Microsoft.441 Bis Mitte der 80er Jahre setzten sich die „Mikrocomputer“ endgültig durch.
Die beiden Unternehmen entwickelten sich zu Kontrahenten und überboten sich gegenseitig mit immer leistungsfähigeren Rechnern. Apple brachte 1983 „Lisa“ und 1984 den
ersten „Macintosh“ auf den Markt - IBM antwortete mit dem XT (Extended Technologie)
und AT (Advanced Technologie) Personal Computer.442
Die Zeit der mächtigen Mainframes und kühlschrankgroßen Minicomputer ging zu Ende.
Um 1980 begann die Öffentlichkeit die Veränderung wahrzunehmen. In „Aus Politik und
Zeitgeschichte“ erschien ein Artikel, der geprägt ist von der Euphorie über die neuen
technologischen Möglichkeiten:
„Eine einzige neue Technologie wird unser aller Leben grundlegend verändern! [...]
Die Wunderwerke der Technik heißen in ihrer hochgezüchteten Art Mikroprozessoren und Mikrocomputer [...]. Sie mögen uns einschüchtern oder herausfordern, sogar eine magische Wirkung besitzen oder als Versuchung Gottes verstanden werden [...]. Doch ihre Fähigkeit [...] löst nicht mehr und nicht weniger als eine neue
technisch-wirtschaftliche Revolution aus [...]. Die dritte industrielle Revolution vervielfacht die menschliche Gehirnleistung mindestens in demselben Maße, wie die
erste und zweite industriell-revolutionäre Phase die Leistung der menschlichen Muskelkraft vervielfacht hat“.443
Preiswerte, leistungsfähige Rechner waren eine wesentliche Voraussetzung für die florierenden Netzwerke der 80er Jahre, ob sie dem Internet angehörten oder nicht.
Das ARPA-Internet konnte die Nachfrage nicht befriedigen – der Zugang war noch immer
streng limitiert. Zu den erfolgreichsten, weltweiten Projekten dieses Jahrzehnts gehörten
die „cooperative networks“, die Quarterman folgendermaßen von anderen Modellen absetzt: „[...] probably the loosest, not only because of the laissez-faire policies of some of
the networks included in it, but also because of their widely varying administrative structures [...]. The common factor is that they are run by at least a subset of their own users,
not by any outside agency. And most of them allow anyone with the necessary technical
capabilities to join. Finally, most of their funding comes from the sites, hosts, or users they
connect”.444 BITNET (Because It’s Time Network), UUCP (Unix to Unix CoPy) und Fidonet
waren die mächtigsten Vertreter dieser Kategorie. Nach Informationen von MIDS übertrafen sie in den 80er Jahren zeitweise die Größe des Internet.445
Bei UUCP handelt es sich streng genommen nicht um ein Netzwerk sondern um ein Protokoll. Es wurde 1976 von Mike Lesk an den Bell Laboratorien von AT&T entwickelt und
war innerhalb des Unternehmens ein großer Erfolg. 1977 wurde es überarbeitet und mit
der siebten Version des Betriebssystems Unix veröffentlicht, was UUCP, das vor allem
441
Vgl. Schmidt, 190-200.
Vgl. Walitsch, 239f..
443 Balkhausen, 3f..
444 Quarterman, 230.
445 Vgl. Anhang B..
442
73
den Austausch von E-Mails ermöglichte, in die Hochschulen brachte.446 Es war eines der
dezentralisiertesten Netze der Welt. Keine Autorität entschied über den Zugang. Jeder mit
Modem, Telefonleitung, der entsprechenden Software und Kontakt zu einem anderen
Host konnte partizipieren. Es gab zwar Karten und nichtregistrierte Rechner waren in dem
(virtuellen) Netzwerk nur schwer zu finden, die Registrierung konnte aber nicht erzwungen
werden.447 Gegen Ende der 80er Jahre umfasste es mehr als 10.000 Rechner, wovon die
meisten in Nordamerika standen, die Teilnetzwerke EUnet (European Unix network) und
JUnet (Japan Unix network) aber auch anderer Kontinente einschlossen.448 Im Unterschied zum Internet basierte das UUCP-System auf dem „Store-and-Forward“-Verfahren,
d.h. es reichte „eine Mail von Rechner zu Rechner bis zum Adressaten weiter. Die Laufzeiten [waren] oft sehr viel länger, [es konnte] schon mal ein, zwei Tage dauern, bis die
Nachricht ihr Ziel erreicht hat[te]“.449
BITNET wurde 1981 von Ira Fuchs initiiert und vernetzte ursprünglich „a collection of IBM
dinosaurs and VAXen“450 an universitären Rechenzentren. Die Anwendungen des akademisch geprägten Netzwerks eigneten sich anfangs vor allem für E-Mails und Mailing-Listen – FTP war nur eingeschränkt möglich und Telnet schied vollständig aus.451 1990 umfasste es 2300 Hosts in 32 Ländern, die sich auf drei Einzelnetze verteilten: das BITNET
selbst in den USA, Mexiko und verschiedenen asiatischen Staaten, NetNorth (Nothern
Network) in Kanada und EARN (European Academic Research Network) in Europa.452
In Deutschland und Europa wurde „die schillernde Welt der privaten [, internationalen]
Netzwerke“453 für Nutzer außerhalb der Universitäten von einem anderen Projekt erschlossen. Keukert schrieb in einem Artikel von 1991: „Noch vor wenigen Jahren war es
mit der DFÜ [Datenfernübertragung] in deutschen Landen nicht so weit her. Es gab einige
wenige Systeme und nahezu jeder in der Szene kannte jeden [...]. Nur das Fidonet
streckte seine Fühler aus den Vereinigten Staaten zu uns aus“.454 Das „worldwide hobbyist network”455 wurde 1983 von Tom Jennings als Zusammenschluss von MS-DOS-Rechnern gegründet und war im Gegensatz zu anderen „cooperative networks“ hierarchisch
strukturiert. Die höchste, kontinentale Ebene bildeten die „Zones“. 1990 gab es drei „Zones“ für Nordamerika (Zone 1), Asien (Zone 3) und Europa, Afrika sowie den Mittleren
446
Vgl. Hardy, Henry. UUCP wird häufig mit dem USENET verwechselt. Das USENET ist aber lediglich ein
Dienst, der auf UUCP aufbaut. Vgl. Kapitel 4.2..
447 Vgl. Quarterman, 251-254.
448 Vgl. Quarterman, 419-429 und 542-546.
449 Hosenfeld, 112.
450 Raymond. „VAX [Virtual Address eXtension] = The most successful minicomputer design in industry
history, possibly excepting its immediate ancestor, the PDP-11”. Vgl. ebd.. Das BITNET war also ursprünglich
nicht für die neue Generation der „Mikrocomputer” konzipiert.
451 Vgl. Salus, Casting, 174f..
452 Vgl. Quarterman, 230-235 und 429-433.
453 Keukert, 42.
454 Ebd..
455 Raymond.
74
Osten (Zone 2), an die über 400 „Nets“ anschlossen waren.456 Das Fidonet befand sich
noch Anfang der 90er Jahre in einer Phase des starken Wachstums, als bereits Artikel
zum Thema „BITNET is dying“ erschienen.457
Neben diesen mächtigen, weltweiten Netzwerken entstand mit den Bulletin Board Systemen (BBS) ein „Graswurzelelement“458 der computervermittelten Kommunikation. Tausende dieser meist lokalen, von Amateuren betriebenen Systeme erlaubten den Zugriff
auf einen zentralen Rechner, der zu bestimmten Zeiten mit dem Telefonnetz verbunden
war. Dort konnten Nachrichten oder Dateien für andere Teilnehmer hinterlassen werden.459 Rheingold berichtet ausführlich von WELL (Whole Earth ´Lectronic Link), dem damals vielleicht größten BBS460 - Keukert beschreibt die komplexe, kaum noch überschaubare Situation in Deutschland.461
Licklider und Vezza formulierten in ihrem Artikel von 1978 eine Frage, die spätestens
Mitte der 80er Jahre aktuell wurde. Droht eine Fragmentierung des computervermittelten
Kommunikationsraums?
„If we could look in the future at say, the year 2000, would we see a unity, a federation, or a fragmentation? That is: would we see a single multi-purpose network encompassing all applications and serving everyone? Or a more or less coherent system of intercommunicating networks? Or an incoherent assortment of isolated noncommunicating networks […]. The middle alternative - the more or less coherent
network of networks - appears to have a fairly high probability and also to be desirable”.462
Seit Mitte des Jahrzehnts kamen zunehmend Gateways zum Einsatz, die die einzelnen
Netzwerke untereinander verknüpften.463 Bei den „cooperative networks“ schufen sie zumindest für E-Mails die Möglichkeit einer Kommunikation über die Grenzen des eigenen
Netzwerks hinweg.464 Diese Entwicklung, von den „cooperative networks“ und dem Internet vorangetrieben, wurde nicht überall begrüßt. Die Nutzer der meist subkulturell geprägten BBSs befürchteten einen Identitätsverlust. „Die totale Vernetzung [...] zugunsten
eines Hyper-Netzes unter Verlust sämtlicher Originalität ist [...] nicht sinnvoll“.465 Die
Skeptiker konnten sich nicht durchsetzen. Es bildete sich ein Kommunikationsraum, in
den 80er und frühen 90er Jahren dominiert von Internet, BITNET, UUCP und Fidonet, für
456
Vgl. Quarterman, 254-259.
Vgl. Salus, Casting, 175 und Anhang B..
458 Rheingold, 20.
459 Vgl. Raymond.
460 Vgl. Rheingold, 31ff..
461 Keukert, passim.
462 Licklider und Vezza, 1342.
463 Quarterman, 112f..
464 Die Möglichkeit mit anderen Netzwerken zu kommunizieren, war für den Nutzenden trotz der Gateways
nicht einfach. Das Adressierungsschema des Internet unterschied sich grundlegend von dem der anderen
Systeme. Bei Quarterman ist eine Tabelle mit den verschiedenen Lösungen der Netzwerke angegeben, die
mit dem Internet verbunden waren, selbst aber nicht Teil des Metanetzwerkes waren. Sie vermittelt einen
Eindruck von den Schwierigkeiten, mit denen ein Internetnutzer konfrontiert war, der z.B. eine E-Mail an ein
Mitglied des BITNET versenden wollte. Vgl. Quarterman, 281.
465 Keukert, 54.
457
75
den Quarterman den Begriff Matrix prägte.466 Andere (häufig unternehmensinterne bzw.
kommerzielle) Konzepte entwickelten sich isoliert und standen nur geschlossenen Nutzergruppen zur Verfügung.467
1991 stand in der c’t: „Als Kommunikationsmedium sind Computernetze der richtige
Schritt in die Zukunft. Mit zukünftigen technischen Entwicklungen [...] werden Dienste
möglich sein, die heute nur die großen, wissenschaftlichen Netze [i.e. BITNET, Internet
sowie dessen Teilnetzwerke] ermöglichen“.468 Dass das Internet bis in die privaten Haushalte vordringen und den Kommunikationsraum schließlich dominieren würde, war noch
Anfang der 90er Jahre nicht abzusehen.
4.1. Das Internet als Netz von Netzwerken
Betrachtet man das Internet, so fällt der beschleunigte Zuwachs nach der Implementierung von TCP/IP auf, das die vollständige Anbindung weiterer Netzwerke ermöglichte.
Das Diagramm in Abbildung 9 mit logarithmischer Skalierung zeigt einen deutlichen Einschnitt in diesem Zeitraum. Zwischen Mai 1982 und August 1983 stieg die Zahl der Hosts
um mehr als 100 Prozent von 235 auf 562. Das lineare Wachstum der 70er Jahre ging
damit in eine exponentielle Phase über. 1984 umfasste das Internet 1000 Hosts und 1987
bereits mehr als 10.000. Gegen Ende des Jahrzehnts, war es auf ca. 300.000 Rechner
angewachsen.
1000000
100000
10000
1000
Internet Hosts
100
10
Dez 89
Dez 88
Dez 87
Dez 86
Dez 85
Dez 84
Dez 83
Dez 82
Dez 81
Dez 80
Dez 79
Dez 78
Dez 77
Dez 76
Dez 75
Dez 74
Dez 73
Dez 72
Dez 71
Dez 70
Dez 69
1
Abb. 9. Wachstum des Internet zwischen 1969 und 1990. 469
Die Anzahl der Einzelnetzwerke in dieser Phase ist in der Sekundärliteratur nicht systematisch erfasst. Jon Postel veröffentlichte aber seit 1977 regelmäßig RFCs mit dem Titel
466
Vgl. Quarterman, xxiii. Höflichs Rückführung des Begriffs auf lat. mater (= Mutter, Gebärmutter), woraus er
einen „Platz der Entzückung und erotischen Intensität [...]“ konstruiert, führt zu weit. Höflich, Computermythen,
496.
467 Dazu zählen die Projekte der nationalen Telefongesellschaften in Europa, bei denen erschwerend hinzukam, dass sie nicht auf den Computer als (flexibles, weil programmierbares) Endgerät setzten.
468 Keukert, 55.
469 Die Daten für dieses Diagramm wurden zwei Quellen entnommen. Die Hostzahlen des ARPANET bis 1981
beziehen sich auf Hobbes’ Internet Timeline. Vgl. Zakon. Die Zahlen nach 1981 basieren auf den Angaben
von Mark Lottor, dessen Erhebung zu diesem Zeitpunkt noch vom SRI finanziert wurde. Vgl. RFC 1296. Die
vertikalen Linien deuten die Bezugspunkte an.
76
„Assigned Numbers“, welche die jeweils aktuellen Werte der vom Netzwerk-Protokoll verwendeten Nummern dokumentierten.470 Aufschlussreich sind die Angaben zu IP, in denen
die „network numbers“ erfasst wurden. „Network numbers are assigned for networks that
are connected to the ARPA-Internet and DDN-Internet”.471 Im Einzelnen ergibt sich aus
der Durchsicht der RFCs folgende Entwicklung:472
Netzwerke
1977
1978
1979
1980
1981
1982
1983
1984
1985
1986
16
21
31
38
44
74
111
161
253
665
Nach 1986 wurden die einzelnen Netzwerknummern nicht mehr veröffentlicht. Die Zahlen
belegen, dass das exponentielle Wachstum durch die Integration weiterer Netzwerke eingeleitet wurde. Das ARPANET selbst war 1983 nur noch eines von insgesamt 111 Netzwerken des Internet. Setzt man die Hostzahlen mit diesen Angaben in Relation, so ist zu
beobachten, dass vor allem kleine und kleinste Projekte angeschlossen wurden, was die
Bedeutung der Xerox-Entwicklung unterstreicht. An den Hoststandorten des alten ARPANET (z.B. BBN, SRI oder UCLA) gruppierten sich bis zu 18 kleine (experimentelle) Netzwerke um die Knoten.473 Dem Projekt der Militärbehörden kam aufgrund seiner Größe,
geographischen Ausdehnung und Leistungsfähigkeit eine dominierende Stellung innerhalb des Konglomerats zu. Primus inter pares - der erste Backbone des Internet, an den
weitere Netzwerke angeschlossen wurden.
Das ARPANET hatte sich seit Mitte der 70er Jahre von der engen Bindung an die Forschung gelöst, und kam zunehmend in der militärischen sowie zivilen, staatlichen Bürokratie zum Einsatz. 1984 wurden die einzelnen Teilnetzwerke in den „Assigned Numbers“
folgendermaßen beschrieben: „There are four catagories of users of Internet Addresses:
Research, Defense, Government (Non-Defense), and Commercial”.474 Erstmals partizipierten kommerzielle Netzbetreiber an dem Projekt, das vollständig von der öffentlichen
Hand finanziert wurde und zuvor dem Militär, der Bürokratie und privaten sowie staatlichen Forschungseinrichtungen vorbehalten war. Die Beteiligung von Privatunternehmen
wie z.B. BBN oder DEC war bisher an Verträge der Regierung gebunden und beschränkte
sich auf Forschungslabors, die in den „Assigned Numbers“ zur Kategorie „Research“ zählten. 1984 wurden 16 Netzwerke als kommerziell eingestuft und bis 1986 stieg die Zahl auf
62.475 Sie stellten damit ca. 10 Prozent aller Netzwerke. Der tatsächliche Anteil dürfte wegen der äußerst variablen Hostzahlen geringer sein. Der Backbone, dessen Betrieb weiSpäter wurde diese Aufgabe von der IANA übernommen und damit ‚institutionalisiert’. Vgl. Kapitel 4.1.3..
RFC 0900. Mit den „assigned network numbers“ wurden auch Netzwerke erfasst, die zwar IP nutzten, nicht
aber Teil des Internet im engeren Sinne waren. Die Anzahl dieser Netzwerke ist aber so gering, dass sie vernachlässigt werden können.
472 Vgl. RFC 0739, 0750, 0758, 0770, 0790, 0820, 0870, 0900, 0943 und 0990. Die Angaben vor 1.1.1983
repräsentieren nicht die tatsächliche Größe des Internet. Die dort aufgeführten Netzwerke waren nur von
denjenigen Hosts erreichbar, die TCP/IP zu Versuchszwecken bereits implementiert hatten.
473 Vgl. RFC 0990.
474 RFC 0900.
475 Vgl. RFC 0900 und RFC 0990.
470
471
77
terhin vollständig von der öffentlichen Hand finanziert wurde, blieb im Besitz der amerikanischen Regierung.
Mit der zunehmenden Vernetzung stieß das herkömmliche Adressierungskonzept an
seine Grenzen. „The need to have a mapping between host names (e.g., USC-ISIF) and
ARPA Internet addresses [IP] (e.g., 10.2.0.52) is beginning to stress the existing mechanisms”.476 Mockapetris vom ISI schlug 1983 erstmals ein Domain Name System (DNS)
zur Lösung des Problems vor.477 Im Februar 1984 wurde es in einer überarbeiteten Form
vom ICCB und der DARPA zum offiziellen Standard erklärt und die Implementierung beschlossen.478 Im Oktober desselben Jahres erschien eine überarbeitete Version. „The domain system is a tree-structured global name space that has a few top level domains. The
top level domains are subdivided into second level domains. The second level domains
may be subdivided into third level domains, and so on”.479 Damit wies das Adressierungskonzept die noch heute übliche, hierarchische, von links nach rechts ansteigende Struktur
auf. DNS führte nicht nur zu einer Vereinfachung der Nutzung, sondern lässt Rückschlüsse auf den Betreiber zu. Neben den Länderkennungen, bestehend aus 2 Buchstaben (z.B. de für Deutschland), sah das ursprüngliche Konzept fünf „top level domains“ vor:
gov (Government), edu (Education), mil (Military), org (Organization) und com (Commercial).480 Die kommerziellen Teilbereiche waren 1984 zu einem zwar kleinen, aber festen
Bestandteil geworden.
1988, als das Internet mehrere hundert Teilnetzwerke und mehr als 50.000 Hosts umfasste, infizierte es Robert Morris mit seinem „Great Worm“, der sich mit großer Geschwindigkeit durch das Geflecht ‚fraß’ und es schließlich zum vollständigen Stillstand
brachte. Der Vorfall mit diesem eher zufällig entstandenen ‚Computervirus’ wurde von der
Washington Post aufgedeckt und diente als Aufhänger des ersten Artikels über das Internet.481 Die Aktion löste geteilte Reaktionen aus. Die Presse schrieb je nach Neigung von
einer Gefahr für die innere Sicherheit oder einem Geniestreich. Die Hackerszene
reagierte ebenfalls: „the RTM [Robert Tappan Morris] crack was a sort of devastating
watershed event in hacker history; certainly it did more to make non-hackers nervous
about the Internet than anything before or since […]. After the storm of negative publicity
that followed this blunder, Morris's username on ITS [Incompatible Time-sharing System]
was hacked […]”.482 Auch der Spiegel brachte zwei Berichte zu den Vorfällen. Die Begriffe
Internet, ARPANET sowie MILNET sind im ersten Artikel mit Anführungszeichen gekenn476
RFC 0882.
Vgl. ebd.. DNS wird auch als Domain Name Service bezeichnet.
478 Vgl. RFC 0897.
479 RFC 0920.
480 Vgl. ebd..
481 Vgl. Rosenzweig, 1530.
482 Vgl. RFC 1135 und Raymond. Die Entwicklung des ‘Wurms’ war zufällig, da der Autor des Programms die
eingetroffene Wirkung nicht beabsichtigt hatte: „Morris claimed that the worm that brought the Internet to its
knees was a benign experiment that got out of control as the result of a coding error”. Raymond.
477
78
zeichnet und der Autor weist auf ähnliche Zwischenfälle in „größeren Netzwerken“, wie
dem BITNET hin.483 In einem zweiten Artikel, der erschien, nachdem Morris gefasst
wurde, vermeidet der Autor das weitgehend unbekannte Wort Internet und berichtet stattdessen hauptsächlich über die betroffenen Zentren. Thomas Cheathem, Direktor der
Fakultät für Computertechnik in Harvard, wird mit den Worten zitiert: „Wir werden künftig
die Welt in die Zeit vor und in die Zeit nach dem Hack einteilen“.484 Der „Great Worm“ ist
inzwischen fast in Vergessenheit geraten, dennoch markiert er einen Wendepunkt:: die
Zeit bevor und nachdem eine breite Öffentlichkeit erstmals etwas von dem Internet las.
4.1.1. MILNET - der Rückzug der Militärs
Die zunehmend heterogene Struktur der Nutzenden führte zu Spannungen. Die Verwurzelung des ARPANET in der akademischen Welt stand dem Sicherheitsinteresse eines
militärischen Netzwerkes entgegen. Durch die Vernetzung mit weiteren Projekten wurde
das Problem verschärft. Die ambivalente Nutzung, einerseits als wichtiges Werkzeug für
alltägliche Geschäfte, andererseits als Experimentierfeld zur Weiterentwicklung der Technologie, führte zu divergierenden Interessen. Morris’ „Great Worm“ war nicht der erste
Zwischenfall dieser Art. Bereits im Oktober 1980 brach der Betrieb durch ein fehlerhaftes
Programm zusammen, das sich mit großer Geschwindigkeit ausgebreitet hatte.485 Diese
Vorfälle ließen sich bei einer experimentellen Nutzung kaum vermeiden. Auch im Zusammenhang mit der Umstellung auf TCP/IP musste das Netz mehrfach für den regulären
Datenverkehr gesperrt werden.486
Das U.S. Militär verfügte mit AUTODIN (Automatic Defense Integrated Network) über ein
eigenes Netzwerk. Schon 1980 entstanden Pläne, den militärischen Teil des ARPANET
abzutrennen und die betreffenden Knoten in das geplante Nachfolgeprojekt AUTODIN II
zu integrieren.487 Das Verteidigungsministerium vergab Verträge an verschiedene
Privatunternehmen, wobei die Hauptverantwortung Western Union übertragen wurde. Das
Unternehmen war allerdings mit der Realisierung von AUTODIN II überfordert, das sich
als Millionengrab entpuppte. „Cerf, Kahn, and a number of others prevailed and persuaded the military brass that the ARPANET protocols were reliable, available, and survivable”.488 1982 verkündete das DoD die „decision to cancel AUTODIN II in favor of an
ARPANET-based system, known as the Defense Data Network (DDN)”.489
Der schwelende Konflikt zwischen Akademikern und Militärs war damit jedoch noch nicht
483
Vgl. Der Spiegel 45 (1988), 294-296.
Der Spiegel, 47 (1988), 254.
485 Vgl. Zakon.
486 Das Netz war z.B. am 1. Oktober, 15. November und 13./14. Dezember 1982 jeweils für 24 Stunden
TCP/IP-Tests vorbehalten. Vgl. ANEWS-14 und 17.
487 Vgl. Quarterman, 289 und ANEWS-01.
488 Salus, Casting, 124-126.
489 ANEWS-12.
484
79
gelöst. Organisatorisch wurde das ARPANET mit diesem Schritt dem DDN eingegliedert.490 Ende März 1983 verschickte die DCA schließlich einen Brief an alle Militäreinrichtungen und Regierungsbehörden, die am ARPANET partizipierten, um sie über die Gründung des MILNET zu informieren:491
„Initially the MILNET will be fully integrated with the ARPANET until ARPANET and
MILNET resources can be reconfigured into separate networks. The reconfiguration
will be evolutionary, resulting in physically separate networks in early 1984. This
separation is being undertaken for two reasons:
a. To increase the level of resource protection afforded to MILNET hosts while providing reliable, survivable service; and,
b. To return the ARPANET to its original purpose as a small experimental research
network upon which to develop and test new computer and communication concepts and protocols”.492
Faktisch bedeutete die Gründung des MILNET, dass 68 der 113 Knoten abgetrennt wurden.493 Vier Gateways ermöglichten weiterhin die Kommunikation zwischen den Netzwerken. Sofern ein Host des militärischen Teils den vollen Internetzugang wünschte, war dies
möglich. Standorte des MILNET, die eine höhere Sicherheitsstufe benötigten, wurden in
einen geschlossenen Bereich ausgegliedert, der nur via E-Mail erreicht werden konnte.494
Der Vertrag mit BBN für den Betrieb des ARPANET wurde auf das militärische Netzwerk
ausgedehnt.495
Die Bildung des MILNET bedeutete noch keine vollständige ‚Entmilitarisierung’. Beide
Teile blieben dem von der DCA verwalteten DDN zugeordnet, welches wiederum den
größten Teilbereich des damaligen Internet ausmachte. Der Rückzug der Militärs in einen
eigenen, abtrennbaren Bereich brachte dennoch die wissenschaftliche Prägung der ersten Jahre zurück. Rasch etablierte sich dann die Unterscheidung von „ARPA-Internet“ und
„DDN-Internet“.496 An den strengen Zugangsbestimmungen änderte sich durch die Abtrennung des militärischen Teils nichts.
4.1.2. NSFNET - der neue Backbone
Die Vorteile der Technologie für die wissenschaftliche Kommunikation wurden inzwischen
auch außerhalb der Labors, die sich mit Projekten der DARPA beschäftigten, erkannt.497
Lawrence Landweber, Vorsitzender der computerwissenschaftlichen Fakultät an der Universität von Wisconsin, reichte 1979 einen Antrag zur Finanzierung eines Netzwerks bei
490
Vgl. ANEWS-12.
Vgl. ANEWS-23. Der Brief vom 30. März 1983 war dem ARPANET Newsletter beigefügt.
492 ANEWS-23.
493 Vgl. Hafner, 295.
494 Vgl. ANEWS-23.
495 Vgl. ANEWS-24.
496 Vgl. RFC 0900.
497 Die Initiatoren des CSNET beabsichtigten vor allem die Nutzung als Kommunikationsmittel. „The developers of CSNET noticed that electronic mail was the most popular service on the ARPANET. They proposed a
network to provide electronic mail only and used it to connect institutions that did not have ARPANET access
to those that did”. Quarterman, 299.
491
80
der NSF ein. Nach anfänglicher Ablehnung wurde das Projekt 1981 schließlich realisiert
und verschaffte Computer- und Ingenieurswissenschaften einen Zugang. Das CSNET
(Computer Science Network) weitete die Zugangsbestimmungen bald auf die gesamte
private und öffentliche Forschung aus - eine kommerzielle Nutzung war ausdrücklich
untersagt.498 1983 folgte die Installation von Gateways zum ARPANET.499 Während der
ersten fünf Jahre wurde das CSNET vollständig von der NSF finanziert, die BBN mit dessen Verwaltung beauftragte. Anschließend sollte es sich tragen.500 Die zeitliche Befristung
der öffentlichen Förderung war im Gegensatz zur Vorgehensweise der DARPA von Beginn an geplant.501 Der Aufbau des Netzwerks ähnelte dem Internet: Es verfügte über
Knoten mit entsprechenden Subnetzen auf verschiedenen Kontinenten, wies aber die
größte Dichte in den Vereinigten Staaten auf. Die direkte Verbindung zum Internet mit
vollständiger Funktionalität entwickelte sich gegen Ende der 80er Jahre zum entscheidenden Vorteil.502 1990 fusionierte das CSNET schließlich mit dem BITNET zur Corporation for Research and Educational Networking (CREN), das im weiteren Verlauf der 90er
Jahre vollständig vom Internet ‚absorbiert’ wurde.503
Das finanzielle Engagement der Stiftung beim Aufbau des CSNET kann als Vorgriff auf
ein ehrgeiziges, eigenes Projekt interpretiert werden, dessen Geschichte mit der Gründung der Office of Advanced Scientific Computing (OASC) 1984 beginnt. Die OASC initiierte zwei Programme: die Entwicklung von „supercomputer centers“ sowie den Aufbau
eines nationalen Netzwerkes, das den Zugang zu diesen Zentren ermöglichen sollte.
1985 wurden fünf dieser „supercomputer centers“ betrieben und mit der Realisierung des
NSFNET begonnen.504 NSF und DARPA beschlossen im selben Jahr, den Nutzern des
jeweils anderen Netzes vollen Zugang zu gewähren, wozu die Stiftung Übergänge an den
Computerzentren finanzierte. Der Aufbau des ersten NSFNET wurde noch von den Zentren (Universität von Illinois und Cornell Universität) selbst sowie BBN verwirklicht.505
In der zweiten Hälfte der 80er Jahre begann die NSF die „strategisch zentrale Rolle“506 für
den Ausbau des Internet zu übernehmen. 1987 überstieg das Datenaufkommen die Kapazitäten der 56 Kbps Leitung des ersten NSFNET, woraufhin die Stiftung im Juni eine
Ausschreibung mit dem Titel „Project Solicitation for Management and Operation of the
NSFNET Backbone Network“ veröffentlichte. Den Zuschlag für diesen auf fünf Jahre an-
498
Vgl. Salus, Casting, 194-199.
Vgl. Zakon.
500 Vgl. Quarterman, 295-300.
501 Vgl. Leib, Wissenschaftsnetze, 159.
502 Vgl. Quarterman, 295.
503 Vgl. Salus, Casting, 175.
504 Die Zentren waren in der Princeton Universität, der Universität von Kalifornien in San Diego, der Universität
von Illinois, der Cornell Universität und der Universität von Pittsburgh untergebracht. Vgl. Quarterman, 307.
505 Vgl. Quarterman, 306 – 308.
506 Leib, Wissenschaftsnetze, 159.
499
81
gesetzten Auftrag erhielt die Non-Profit-Organisation Merit.507 Merit, ein Konsortium der
Universitäten von Michigan, hatte bereits Anfang der 70er Jahre ein interuniversitäres
Netzwerk in dem Bundesstaat realisiert.508 Die Organisation wählte IBM als Partner für die
Soft- bzw. Hardware und das aufstrebende Telekommunikationsunternehmen MCI (Microwave Communications Inc.) für die Installation der Leitungen.
MCI war seit den späten 60er Jahren einer der aggressivsten Konkurrenten des Quasimonopolisten AT&T, hatte aber Anfang der 80er Jahre, als in den USA eine öffentliche
Diskussion über den Telekommunikationsmarkt entbrannte, noch immer nicht die Gewinnzone erreicht.509 In dem Untersuchungsbericht „Telecommunications in Transition –
The Status of Competition in the Telecommunication Industry” von 1981 wurde eine einzigartige Vormachtstellung von AT&T festgestellt.510 Das Unternehmen investierte zwar
mehr als zwei Millionen Dollar in eine Marketingkampagne, um den wachsenden Druck
aus Politik und Gesellschaft abzumildern,511 musste sich allerdings 1982 auf einen Vergleich einlassen, der die Entflechtung des Konzerns vorsah. Das Unternehmen wurde
zum Verkauf der lokalen Telefonbetriebsgesellschaften (Bell Operating Companies) gezwungen, befreite sich aber im Gegenzug von der engen Kontrolle durch die FCC. Faktisch bedeutete die Entscheidung, dass sich AT&T nun selbst auf dem Informationssektor
engagieren konnte, der dem Konzern bisher durch einen Vergleich mit dem Justizministerium von 1956 prinzipiell verwehrt war.512 Für MCI bot die Teilnahme an dem Projekt der
NSF eine günstige Gelegenheit, an dem neuen, umkämpften Wachstumsmarkt zu partizipieren.
„[…] there were many reasons why IBM and MCI chose to become part of the Merit
NSFNET partnership […]. However, from a business perspective, becoming involved
with the NSFNET backbone service might provide opportunities for ‘technology
transfer’. Broadly defined, technology transfer refers to the process by which the
products of government-funded research and development move out of restricted
use or research-only application to the private sector”.513
BBN hatte diese Vorteile mit der Gründung von TELENET bereits demonstriert. Merit, IBM
und MCI versuchten u.a. mit dem Gemeinschaftsunternehmen ANS (Advanced Network
Services Inc.) das gewonnene Know-how in ein finanziell erfolgreiches Projekt umzusetzen. ANS war nicht nur für den operativen Betrieb des NSFNET zuständig, sondern initiierte mit dem ANSNet ein eigenes, kommerzielles Netzwerk.514 Zudem bedeutete die Beteiligung kein finanzielles Risiko: Die Stiftung selbst und der Staat Michigan förderten den
Vgl. Frazer. Karen Frazers „Final Report“ wurde im Auftrag von Merit, basierend auf der finanziellen
Unterstützung der NSF (Grant No. NCR 8720904), erstellt. Vgl. ebd..
508 Vgl. Quarterman, 318. Das Merit Computer Network wurde später eines der regionalen Netzwerke des
NSFNET.
509 Vgl. Luyken, 397.
510 Vgl. Berg, 392f..
511 Vgl. Wigand, 387.
512 Vgl. Luyken, 395-397.
513 Frazer.
514 Vgl. Leib, Wissenschaftsnetze, 163.
507
82
Ausbau mit vierzehn bzw. fünf Millionen Dollar p.a..515 „Das NSFNET und mit ihm verschiedene, für das gesamte Internet relevante organisatorische Dienstleistungen wurden
vollständig aus öffentlichen Mitteln finanziert“.516 1988 installierte ANS schließlich die
zweite Generation des NSFNET (T1), dessen Leitungen bereits zwei Jahre später durch
den neuen T3-Standard ersetzt wurden. T3 ermöglichte eine Übertragungsrate von 45
Mbps,517 was einer Steigerung um mehr als das 800-fache im Vergleich zu den Leitungen
der ersten Generation entspricht.
Die Stiftung förderte auch die Gründung regionaler Netzwerke, wobei erneut das Modell
der Kostendeckung durch die Nutzer nach einer Anschubfinanzierung zum Einsatz kam.
Bis 1990 waren insgesamt siebzehn dieser Projekte an das NSFNET angeschlossen,518
die jeweils zahlreiche „campus-networks“ (akademisch und kommerziell) umfassten. Es
hatte sich eine dreigliedrige Struktur entwickelt mit dem NSF-Backbone auf der höchsten
Ebene.519 „Das ARPANET, dessen Betrieb [...] jährlich 14 Millionen Dollar kostete, wirkte
neben dem schnellen NSFNET geradezu arthritisch“.520 Im März 1990 wurde es nach
mehr als 20 Jahren bewegter Geschichte von Mark Pullen, dem letzten DARPA-Verantwortlichen dieses Projekts, abgeschaltet.
Leib und Werle sehen in dieser Entwicklung einen bedeutenden Einschnitt: „Der Einstieg
der NSF markierte [...] einen ‚crucial step’ in der Entwicklung eines integrierten amerikanischen Wissenschaftsnetzes, da nun eine reine Wissenschaftsorganisation für das Netz
verantwortlich zeichnete“.521 Die Bedeutung des Übergangs vom ARPANET als Backbone
zum NSFNET sollte jedoch nicht überinterpretiert werden. Das Netzwerk der DARPA war
längst zum Selbstläufer geworden und damit die anfangs kritischen Stimmen von Teilen
des amerikanischen Kongresses, die eine engere Orientierung der Behörde an militärisch
verwertbaren Projekten forderten, verstummt. Die Wissenschaft war auch unter der militärischen Verwaltung nur geringen Einschränkungen unterworfen und die Probleme der
Koexistenz von akademischer und militärisch bürokratischer Nutzung waren durch die
Abtrennung des MILNET größtenteils gelöst worden. DARPA bzw. DCA hatten zu keinem
Zeitpunkt formale Regeln für eine angemessene Nutzung ihrer Infrastruktur aufgestellt.
Die vergleichsweise überschaubare Größe erlaubte ein informelles Vorgehen, d.h. die
Behörden intervenierten lediglich im Bedarfsfall.522 Der Zugang war allerdings einer streng
definierten Gruppe von Personen vorbehalten. Die NSF kannte zwar keine vergleichbar
rigiden Zugangsbestimmungen, was dazu führte, das nach und nach allen Universitäts515
Vgl. Quarterman, 303.
Leib, Wissenschaftsnetze, 159.
517 Vgl. Frazer.
518 Vgl. Quarterman, 311–338.
519 Vgl. Quarterman, 301.
520 Hafner, 302.
521 Leib, Wissenschaftsnetze, 159.
522 Die Vorfälle im Zusammenhang mit der SF-Lover-List und dem Kettenbrief waren seltene Beispiele für eine
solche Intervention. Vgl. Kapitel 3.2.3..
516
83
mitgliedern der Internetzugang ermöglicht wurde, stellte aber erstmals formale Regeln für
die Nutzung des Backbone auf, die systematisch erfasst als Acceptable Use Policy (AUP)
veröffentlicht wurden. Obwohl die Privatwirtschaft eng mit der NSF bei der Weiterentwicklung zusammengearbeitet hatte und an die regionalen Netzwerke z.T. gewinnorientierte „campus networks“ angeschlossen waren, blieb eine kommerzielle Nutzung prinzipiell untersagt:
„GENERAL PRINCIPLE:
(1) NSFNET Backbone services are provided to support open research and education in and among US research and instructional institutions, plus research arms
of for-profit firms when engaged in open scholarly communication and research.
Use for other purposes is not acceptable.
SPECIFICALLY ACCEPTABLE USES: […]
(7) Announcements of new products or services for use in research or instruction,
but not advertising of any kind. […]
(9) Communication incidental to otherwise acceptable use, except for illegal or
specifically unacceptable use.
UNACCEPTABLE USES:
(10) Use for for-profit activities, unless covered by the General Principle or as a specifically acceptable use.
(11) Extensive use for private or personal business. This statement applies to the
use of the NSFNET Backbone only. NSF expects that connecting networks will
formulate their own use policies”.523
Das Verbot der kommerziellen Nutzung war die einzige Einschränkung der NSF, abgesehen von dem vagen Hinweis in Unterpunkt 9, dass sich die Kommunikation im Rahmen
der Legalität bewegen müsse. Bei rassistischen, sexistischen oder sonstigen Verstößen
setzte man offensichtlich auf die Selbstregulierung bzw. Eigenverantwortung der Nutzenden.524
Problematisch wurde in diesem Zusammenhang die dezentrale Organisation. Die NSF
konnte zwar Regeln für das eigene Netzwerk aufstellen, nicht aber für die angeschlossenen Projekte, die potentiell über eigene AUPs verfügten. Cerf beschrieb 1990 das Dilemma:
„The present day Internet encompasses networks that serve as intermediaries to access the federally-sponsored backbones. Many of these intermediate networks were
initiated under the sponsorship of the National Science Foundation. Some have
been founded without federal assistance as consortia of using organizations […]. A
great many industrial participants can be found on the intermediate level networks.
Their use of the federally-sponsored backbones is premised on the basis that the
523
NSF.
Das IAB veröffentlichte zwar mit dem RFC „Ethics and the Internet“ Richtlinien für eine angemessene
Nutzung, fasste sie allerdings sehr allgemein ab. Folgende Tätigkeiten wurden u.a. als Verstoß gegen die
Ethik gewertet: „disrupts the intended use of the Internet, [...] wastes resources (people, capacity, computer)
through such actions, [...] destroys the integrity of computer-based information [...]”. Vgl. RFC 1087. Das Papier war unter dem Eindruck von Morris’ Wurm entstanden (Vgl. RFC 1135), kritisierte folglich vor allem derartige Verstöße, und definierte nicht, was unter Integrität der computerbasierten Information zu verstehen ist.
Die Verletzung der Privatsphäre wurde inzwischen ausdrücklich als unethisch betrachtet. Seit der Fingerdebatte Ende der 70er Jahre hatte sich die Einstellung zu diesem Thema also gewandelt. Das IAB konnte allerdings vor allem in diesem Fall lediglich Empfehlungen abgeben. Die Festlegung von Regeln über eine angemessene Nutzung fiel in den Zuständigkeitsbereich des Netzwerkbetreibers.
524
84
traffic is in support of academic, scholarly or other research work. The criteria for use
of the intermediate level networks alone is sometimes more relaxed and, in the
cases of the newly-formed commercial networks, there are no restrictions at all”.525
Es stellt sich die Frage, welchen Stellenwert die AUP in der Praxis einnahm. „Insgesamt
hatte sich Ende der 80er Jahre ein interessant verschachtelter und schwierig zu kontrollierender public-private-mix herausgebildet. Unmittelbar öffentlich finanzierte, direkt und indirekt subventionierte, öffentlich geduldete, privat gesponserte sowie private, nicht gewinnorientierte und gewinnorientierte Aktivitäten koexisitierten, ergänzten sich und konkurrierten gelegentlich“.526 Es deutete sich eine Konfliktlinie an, die mit der Situation des ARPANET Mitte der 70er Jahre vergleichbar ist. Damals wollte die IPTO eine „partnership between the defense and the academic communities“527 herstellen, jetzt galt: „Merit could
provide the foundation for a […] partnership between academia, industry, and government”.528
Das NSFNET stellte sich als Erfolg heraus. Abbildung 10 zeigt den raschen, exponentiellen Anstieg in den 90er Jahren. Die 217 Netzwerke des ersten NSFNET waren bis
1995 auf mehr als 50.000 angewachsen.
55000
50000
45000
40000
35000
30000
Netzwerke insgesamt
25000
Netzwerke außerhalb der USA
20000
15000
10000
5000
95/03
94/10
94/05
93/12
93/07
93/02
92/09
92/04
91/11
91/06
91/01
90/08
90/03
89/10
89/05
88/12
88/07
0
Abb. 10. Anzahl der Einzelnetzwerke des NSFNET zwischen 1988 und 1995. 529
Deutlich zu erkennen ist der Zuwachs von Projekten außerhalb der USA. 1988 waren lediglich Netzwerke in Frankreich und Kanada an den Backbone angeschlossen. 1995 bot
die NSF ihren Service für Projekte in 93 Staaten an, die insgesamt mehr als sechs Millionen Rechner,530 verteilt über fast den gesamten Globus,531 miteinander verknüpften.
525
RFC 1174.
Leib, Wissenschaftsnetze, 163f..
527 Norberg, 13.
528 Frazer.
529 Das Diagramm wurde anhand der Informationen von Merit erstellt. Vgl. Merit Network Information Center,
Networks. Seit 1993 begannen die Netzbetreiber von CIX eine ähnliche, kommerzielle Internetinfrastruktur
aufzubauen. Über die Anzahl der dort integrierten Netzwerke gibt es keine Informationen. Vgl. Kapitel 4.4..
530 Vgl. Merit Network Information Center, computers.
531 Vgl. Frazer. Allerdings waren noch immer mehr als 50% der Netzwerke des NSFNET in den USA. Vgl.
Merit Network Information Center, Networks.
526
85
4.1.3. Internetentwicklung in Europa
Die Vereinigten Staaten verfügten in den 80er Jahren weiterhin über die fortgeschrittenste
Infrastruktur. Auf die außeramerikanischen Ableger von UUCP, Fidonet und BITNET
wurde bereits hingewiesen – sie stellten die größten Projekte dieses Jahrzehnts in Europa
bzw. Asien und erschlossen den Ostblock sowie Afrika Jahre vor dem Internet.532 „Verglichen mit den USA spielten in Europa wegen der hier noch schwach ausgeprägten Nachfrage nach Computerkommunikation Marktanreize eine geringere und staatliche Förderprogramme für Forschung und Entwicklung eine größere Rolle“.533 In dem Mutterland der
Technologie entstanden die ersten kommerziell erfolgreichen Segmente und die NSF
legte mit ihrem Finanzierungskonzept die Grundlage für eine Privatisierung – auf dem
alten Kontinent wurde erst systematisch mit dem Aufbau einer wissenschaftlichen Infrastruktur begonnen. Die Entwicklungen sind zu komplex um umfassend behandelt zu werden, weshalb der Blickwinkel auf die Bundesrepublik Deutschland bzw. westeuropäische
Gemeinschaftsprojekte fokussiert wird.534
Nach eher zaghaften Versuchen während der 70er Jahre,535 wurden zu Beginn der neuen
Dekade verschiedene Initiativen zur Gründung eines deutschen Wissenschaftsnetzes
gestartet. Das Bundesministerium für Forschung und Technologie (BMFT) gab ein Gutachten beim SRI in Auftrag und organisierte eine Reise für Vertreter der deutschen Wissenschaft in die USA. Sie sollten sich vor Ort über das ARPANET informieren.536 1982/3
wurde von Wissenschaftlern der unterschiedlichsten Institutionen ein Projektplan erstellt,
der eine flächendeckende Versorgung der deutschen Forschungszentren mit einer Netzinfrastruktur anvisierte. Als Trägerorganisation war ein genossenschaftlicher Zusammenschluss von Vertretern der Universitäten, Großforschungseinrichtungen und Unternehmen
der Datenverarbeitungsindustrie mit eigener Forschungsabteilung vorgesehen. 1984
wurde der Verein zur Förderung eines Deutschen Forschungsnetzes e.V. (DFN-Verein)
von 11 Gründungsmitgliedern ins Leben gerufen, in dessen Verwaltungsrat neben Vertretern der Wissenschaft und Wirtschaft auch die Politik einbezogen war. 537 § 2 der noch
heute gültigen Satzung definiert die Zielsetzung des Vereins:
„1. Der Verein fördert die Schaffung der wissenschaftlich-technischen Voraussetzungen für die Errichtung, den Betrieb und die Nutzung eines rechnergestützten Informations- und Kommunikationssystems für die öffentlich geförderte und die gemeinnützige Forschung in der Bundesrepublik Deutschland auf der Basis öffentlicher
Übertragungsnetze unter Beachtung der entsprechenden internationalen Standards
und Normen.
532
Vgl. Abbildung 13, Kapitel 4.4.3..
Werle, Selbstorganisation, 504.
534 In Osteuropa setzte die Entwicklung deutlich später ein und im westlichen Teil des Kontinents waren die
Projekte in Deutschland, Frankreich und England führend. Quarterman beschreibt die europäische Situation
bis 1990. Vgl. Quarterman, 417-509.
535 HMI-NET 1 und 2 sowie BERNET. Vgl. Kapitel 3.1..
536 Vgl. Leib, Wissenschaftsnetze, 170.
537 Vgl. Leib, Wissenschaftsnetze, 170f..
533
86
2. Der Verein verfolgt ausschließlich und unmittelbar gemeinnützige Zwecke im Sinne
der Aufgabenordnung. Er ist selbstlos tätig und verfolgt nicht in erster Linie eigenwirtschaftliche Zwecke [...]. Die Mitglieder dürfen keine Gewinnanteile und in ihrer
Eigenschaft als Mitglieder auch keine sonstigen Zuwendungen aus den Mitteln des
Vereins erhalten“.538
Die Entwicklung wurde anfangs von zwei Faktoren gebremst. Zum einen setzte man auf
den Protokollansatz der ISO, bei dem noch immer wichtige Anwendungen wie FTP oder
Telnet fehlten, was die Funktionalität auf E-Mails reduzierte. Bald folgten entsprechende
OSI-Protokolle, sodass dieser Mangel behoben war. Zum anderen besaß die Deutsche
Bundespost juristisch ein Monopol auf die Übertragung von Daten, kam aber bei der Installation der Leitungen (Datex-P) nur langsam voran und verfügte über eine Tarifstruktur,
die eine genaue Kalkulation im Vorfeld unmöglich machte, da Gebühren in Abhängigkeit
vom Datenvolumen erhoben wurden.539 1986 nahm das DFN (Deutsches Forschungsnetz) den Betrieb auf und bis Oktober 1987 waren die deutschen Universitäten vollständig
vernetzt. Über ein Gateway zum CSNET war der Zugriff auf das Internet bis zu diesem
Zeitpunkt nur indirekt und mit eingeschränkter Funktionalität möglich.540 1990 wurden die
Datex-P-Leitungen des DFN durch eigene ersetzt und damit das neue, leistungsfähigere
WiN (Wissenschaftsnetz) gegründet. Erst 1994 entschied sich der DFN-Verein für TCP/IP,
womit WiN ins Internet integriert wurde.541
Die Beschränkung auf ein isoliertes Netzwerk hätte im kleinräumigen Europa wenig Sinn
gemacht. Die „cooperative networks“ EARN und EUnet mit ihrer europa- bzw. weltweiten
Infrastruktur hatten bereits die Vorteile einer weiteren Vernetzung aufgezeigt. In anderen
westeuropäischen Staaten waren mit dem deutschen DFN bzw. WiN vergleichbare Projekte entstanden. 1986, nach mehreren informellen Treffen, gründeten die Vertreter der
nationalen Betreiberorganisationen RARE (Réseaux Associés pour la Recherche Européenne). Ziel der neuen Organisation, bei der Unternehmen die Mitgliedschaft verwehrt
blieb,542 war die Verbindung der nationalen Netzwerke, die Harmonisierung der Protokolle
und die Beschleunigung des Entwicklungsprozesses der OSI-Anwendungen.543 Spätestens 1990 war der Schulterschluss mit der ISO für die europäischen Wissenschaftsnetze
zum Problem geworden: „The United States presents a particular problem for interconnection: NSFNET uses TCP/IP, which RARE considers to be a stopgap solution. Thus,
many people do not want an NSFNET node on the European continent“.544 Salus berichtet, dass die Entscheidung von RARE sich nicht allgemein durchsetzten konnte: einige der
538
Verein zur Förderung eines Deutschen Forschungsnetzes e.V..
Vgl. Leib, Wissenschaftsnetze, 171 – 174.
540 Vgl. Quarterman, 456-458.
541 Vgl. Leib, Wissenschaftsnetze, 176-180.
542 Neben den Staaten der Europäischen Gemeinschaft partizipierten auch die anderen Länder Westeuropas
sowie Jugoslawien und die Türkei. Die Staaten des ehemaligen Ostblocks waren nicht beteiligt. Vertreter
anderer (supranationaler) Projekte (EARN, EUnet, BITNET, CSNET, CREN etc.) wurden einbezogen, hatten
allerdings nicht denselben Status wie die nationalen Vollmitglieder. Vgl. Quarterman, 188f..
543 Vgl. Leib, Wissenschaftsnetze, 175.
544 Quarterman, 191.
539
87
1990 existierenden europäischen Netzwerke nutzten bereits die Internetprotokolle.545
Die Entwicklung der TCP/IP-Netzwerke in Europa wurde von einer anderen, ursprünglich
autonomen Organisation begleitet. Ende 1989 gründeten die Befürworter des Internet
RIPE (Réseau IP Européen), „to ensure the necessary administrative and technical coordination to allow the operation and expansion of a pan-European IP network”.546 Im Gegensatz zu RARE wurden alle Betreiber von WANs (Wide Area Networks), die TCP/IP
nutzten, dazu aufgefordert der Organisation beizutreten. Auch kommerzielle Betreibergesellschaften konnten Mitglieder werden. Die neu gegründete Organisation erkannte die
Rückständigkeit der europäischen Internetentwicklung: „IP connectivity in Europe is not
based on a strong backbone network such as NSFnet or EARN. It is not clear whether
such a backbone will be feasible in the foreseeable future. This makes IP connectivity
problems much harder to solve technically, operationally and politically”.547 Da RIPE eine
Organisation ohne eigenes Netzwerk war, wurde lediglich ein zentrales Network Coordination Center (NCC) betrieben, das mit den NOCs der Einzelnetzwerke in Verbindung
stand. 1991 war auch im Zuständigkeitsbereich von RIPE der Anteil der kommerziellen
Netzbetreiber angewachsen. Die Koexistenz und zunehmende Vernetzung der regierungsfinanzierten Forschungsinfrastruktur mit gewinnorientierten Projekten führte zu ähnlichen Problemen wie in den USA. „Each of these types of networks have distinct and occasionally conflicting goals, operational standards, and policies“.548 1992 erfolgte der
organisatorische Zusammenschluss mit der Organisation für Wissenschaftsnetze. In einer
Selbstdarstellung diesen Jahres präsentierte sich RIPE erstmals als „IP activity of
RARE“.549 In dem Jahresbericht von 1995 bilanzierte RIPE NCC die Tätigkeit während der
ersten sechs Jahre: In Europa war wie in den USA das Wachstum exponentiell verlaufen.
Die Hostzahlen hatten sich von Jahr zu Jahr verdoppelt und bis Ende 1995 waren 2,2
Millionen europäische Rechner in das weltweite Metanetzwerk integriert.550
1993/4 wurde der erste Internet-Backbone Europas installiert. Die Träger der nationalen
Wissenschaftsnetze gründeten das Non-Profit-Unternehmen DANTE Ltd. (Delivery of Advanced Network Technology to Europe), das das Multiprotokollnetzwerk EuropaNET
(TCP/IP und X.25) initiierte. Die finanziellen Mittel kamen von der Europäischen Union
und den Betreibern der nationalen Forschungsnetze, die nun über eine leistungsfähige
Infrastruktur miteinander verbunden waren.551 Das Internet erhielt damit auch in Europa
eine Struktur, wie sie sich in den USA bereits mit der Gründung des NSFNET etabliert
545
Vgl. Salus, Casting, 193. Im selben Jahr gründeten RARE und EARN die Organisation TERENA (TransEuropean Research and Networking Association). Vgl. ebd..
546 ripe-001. RIPE dokumentiert die eigene Geschichte sehr transparent in einer Serie von Dokumenten, die
mit den RFCs vergleichbar ist. Vgl. RIPE NCC.
547 ripe-004.
548 ripe-045.
549 ripe-057.
550 Vgl. ripe-139.
551 Vgl. Leib, Wissenschaftsnetze, 180.
88
hatte.
4.1.4. Zentrale Organisationen im dezentralen Netz
Der weitgehend informelle, auf persönlichen Kontakten basierende Entwicklungsprozess
des überschaubaren ARPANET schien kein adäquates Modell für die veränderte Situation
in den 80er Jahren zu sein. Aus dem kleinen Forschungsnetzwerk hatte sich ein komplexes Gebilde mit heterogener, internationaler Akteurskonstellation entwickelt. Der Prototyp
war ein wichtiges, umfassend vernetztes Werkzeug geworden, was die Ansprüche an die
Funktionalität steigen ließ. Auf die neue Situation wurde mit einer Institutionalisierung der
technischen Weiterentwicklung und Verwaltung reagiert, ein Prozess, der mit der Gründung des ICCB Ende der 70er Jahre begonnen hatte. 1990 berichtete Vinton Cerf über
diese Entwicklung der 80er Jahre:
„Late that year [1983], the ICCB was reorganized by Dr. Barry Leiner, Cerf's successor at DARPA,552 around a series of task forces considering different technical aspects of internetting. The re-organized group was named the Internet Activities
Board [IAB].
As the Internet expanded, it drew support from U.S. Government organizations including DARPA, the National Science Foundation (NSF), the Department of Energy
(DOE) and the National Aeronautics and Space Administration (NASA).553 Key
managers in these organizations, responsible for computer networking research and
development, formed an informal Federal Research Internet Coordinating Committee (FRICC) to coordinate U.S. Government support for development and use of the
Internet system. The FRICC sponsored most of the U.S. research on internetting, including support for the Internet Activities Board and its subsidiary organizations”.554
Das IAB bezeichnete Cerf als koordinierendes, unabhängiges Komitee von Forschern und
interessierten, professionellen Internetnutzern. Jede Entscheidung der Organisation
würde veröffentlicht. „The principal vehicle by which the IAB decisions are propagated [...]
is the Request for Comment (RFC) note series”.555 Im Einzelnen nannte Cerf folgende
Aufgaben, die in den Zuständigkeitsbereich des IAB fielen: Etablierung von Internetstandards, Management der RFCs, Prüfung der Tätigkeit in den Unterorganisationen, strategische Planung, Repräsentation der internationalen Internetgemeinschaft und die Lösung
von technischen Problemen. Die Zahl der Task Forces wuchs kontinuierlich an, bis man
sie 1986 auf zwei Unterorganisationen aufteilte: Internet Engineering Task Force (IETF)
und Internet Research Task Force (IRTF).556 Die IETF war eine „large open community of
network designers, operators, vendors [sic], and researchers concerned with the Internet
552
Cerf wechselte Mitte Oktober 1982 zu MCI Telecommunications, um für das Unternehmen ein Netzwerk
zur Datenübertragung aufzubauen. In einer Extraausgabe des ARPANET Newsletters verabschiedete er sich
von seinen Kollegen. Vgl. ANEWS-15.
553 Diese Organisationen hatte eigene Netzwerke aufgebaut. Vgl. Kahn.
554 RFC 1160.
555 RFC 1160.
556 Vgl. Kahn.
89
and the Internet protocol suite”,557 die in Arbeitsgruppen bzw. Subkomitees (1990 gab es
mehr als 40 dieser Unterorganisationen) untergliedert war. Die IETF sollte nun den
Großteil der Vorschläge über neue Protokolle einbringen, die anschließend vom IAB geprüft wurden. Eine Internet Engineering Steering Group (IESG) war für das Management
der IETF und den Kontakt zur IAB zuständig. Der Aufgabenbereich der IRTF war ähnlich
und Cerf weist auf personelle Überschneidungen hin. Prinzipiell unterschied sich aber die
Zusammensetzung der Gruppen. „The IRTF is a community of network researchers, generally with an Internet focus”.558 Auch diese Organisation verfügte über eine Steering
Group (IRSG) und gliederte sich in Unterorganisationen (Research Groups) auf.
Der kleine, informelle Zirkel hatte sich zu Institutionen mit ordentlicher Satzung und ausdifferenzierter Struktur entwickelt. „Aus dem Netzwerk von Personen [des frühen ARPANET] wurde schrittweise ein Netz von Organisation“.559 In Einzelfällen besetzten die Protagonisten der 60er und 70er Jahre weiterhin Schlüsselpositionen: Vinton Cerf war Vorsitzender des IAB und David sowie Steve Crocker die Direktoren der IETF Suborganisationen für Netzwerkmanagement bzw. Sicherheitsfragen.560 Die personelle Kontinuität und
Dominanz individueller Akteure kommt bei der 1988 gegründeten Internet Assigned Numbers Authority (IANA)561 wahrscheinlich am deutlichsten zum Ausdruck. Die Funktion der
Organisation war folgendermaßen definiert:
„Many protocol specifications include numbers, keywords, and other parameters that
must be uniquely assigned […]. The IAB has delegated to the Internet Assigned
Numbers Authority (IANA) the task of assigning such protocol parameters for the
Internet. The IANA publishes tables of all currently assigned numbers and parameters in RFCs titled ‘Assigned Numbers’ […]. Programmers are often tempted to
choose a ‘random’ value, or guess the next unassigned value of a parameter; both
are hazardous […]. The IANA is tasked to avoid frivolous assignments and to distinguish different assignments uniquely”.562
Als Jon Postel 1998 starb, schrieb Vinton Cerf einen Nachruf unter dem Titel „I remember
IANA“, der als RFC veröffentlicht wurde. In diesem Dokument wird neben der tiefen Betroffenheit Cerfs die enge Verzahnung, fast schon Identität, der Organisation mit der Person Jon Postel deutlich:
„Someone had to keep track of all the protocols, the identifiers, networks and addresses and ultimately the names of all the things in the networked universe. And
someone had to keep track of all the information that erupted with volcanic force
from the intensity of the debates and discussions and endless invention that has
continued unabated for 30 years. That someone was Jonathan B. Postel, our Internet Assigned Numbers Authority, friend, engineer, confidant, leader, icon, and now,
first of the giants to depart from our midst. Jon, our beloved IANA, is gone”.563
557
RFC 1160.
RFC 1160.
559 Werle, Selbstorganisation, 502.
560 Vgl. RFC 1160.
561 Vgl. Zakon.
562 RFC 1310.
563 RFC 2468. Jon Postel leistete Wesentliches für die Entwicklung des Internet, wie die häufige Erwähnung
seines Namens in den vorangegangenen Kapiteln belegt. Andere wechselten in die Privatwirtschaft und ver558
90
Diese Beispiele sollten jedoch nicht über die grundlegende Tendenz zur Institutionalisierung der Internetentwicklung hinwegtäuschen. Zwei Aspekte sind hervorzuheben: Erstens
wurde die Privatwirtschaft in die Weiterentwicklung einbezogen. Die US-amerikanische
Regierung übernahm zwar mit FRICC weiterhin den Großteil der Finanzierung, in der
IETF waren aber erstmals Verkäufer von Internetprodukten vertreten und seit Ende der
80er Jahre begann diese Organisation sich zumindest teilweise über Mitgliedsbeiträge zu
finanzieren.564 Parallel zu den Netzbetreibern ist ein allmähliches Eindringen der Privatwirtschaft zu erkennen.
Zweitens löste sich die technische Entwicklung von dem engen DARPA-Kontext. Bis Anfang der 80er Jahre war das Engagement der Militärforschungsbehörde von zentraler
Bedeutung. Sie gab in wichtigen Punkten Richtlinien für die Weiterentwicklung vor, initiierte verschiedene Projekte und koordinierte den dezentralen Prozess. Schon nach dem
Weggang von Kahn und Leiner 1985 ließen die Aktivitäten nach565 und nun waren Institutionen geschaffen worden, die sich einer Kontrolle der Behörde entzogen.
Die Festlegung des IAB auf die RFCs führte zu einer beachtlichen Renaissance der Dokumente. Abbildung 11 illustriert, dass seit 1987 die Erscheinungshäufigkeit wieder deutlich anstieg und in den 90er Jahren sogar das Niveau der Anfangszeit übertraf. Der seit
1975 vorherrschende Trend wurde umgekehrt. Der Beschreibung Cerfs ist aber auch zu
entnehmen, dass das IAB, ähnlich wie die DCA und andere Organisationen im Zusammenhang mit der TCP/IP-Umstellung, primär Entscheidungen veröffentlichen wollte. In
den 70er Jahren wurden über diese Publikationen noch Protokolle diskutiert und gemeinsam entwickelt, die sich schließlich nach dem Konsensprinzip durchsetzten.
40
35
30
25
20
15
10
5
0
Zuwachs an RFCs pro Monat
Mrz 99
Mrz 97
Mrz 95
Mrz 93
Mrz 91
Mrz 89
Mrz 87
Mrz 85
Mrz 83
Mrz 81
Mrz 79
Mrz 77
Mrz 75
Mrz 73
Mrz 71
Mrz 69
Zuwachs an RFCs pro Monat
im Jahresdurchschnitt
Abb. 11. Erscheinungshäufigkeit der RFCs zwischen 1969 und 2000. 566
Die tatsächliche Bedeutung der neuen Organisationen (abgesehen von IANA) ist jedoch
schwer einzuschätzen. Die „heute noch bestehenden Gremien von Freiwilligen [IAB,
dienten Millionen - Jon Postel blieb beim ISI. Die Mithilfe bei der Entwicklung des Internet war sein Lebenswerk.
564 Vgl. Kahn.
565 Vgl. Leiner, 106.
566 Das Diagramm wurde anhand der Informationen im RFC-Index erstellt. Vgl. Network Working Group.
91
IETF, IRTF] haben, formell betrachtet, nur sehr geringe Möglichkeiten, für Betreiber und
Benutzer des Netzes verbindliche Entscheidungen zu treffen. Ihre historisch gewachsene
Autorität ist jedoch beträchtlich“.567 An dem Konzept, den Einzelnetzwerken eine größtmögliche Autonomie einzuräumen, wurde festgehalten, obwohl eine Einigung auf allgemein gültige Standards für einen funktionierenden Betrieb notwendig ist. Der Prozess
wurde durch die fortschreitende Vernetzung zunehmend kompliziert. Weder DARPA,
DCA, NSF noch die neu geschaffenen Organisationen hatten die Möglichkeit den Betreibern Standards zu diktieren. Die Entscheidungen des IAB werden damit faktisch zu Vorschlägen. „The Internet, [seit 1983] a loosely-organized international collaboration of
autonomous, interconnected networks, supports host-to-host communication through voluntary adherence to open protocols and procedures defined by Internet Standards”.568 Die
Etablierung von Standards konnte und kann nur auf freiwilliger Basis realisiert werden.
Wie entschieden die Organisationen aber, welches Protokoll den Rang eines (vorgeschlagenen) Standards erhielt?
Lyman Chapin definierte 1992 für das IAB den „Internet Standards Process“. Jeder Vorschlag musste demnach drei „maturity levels“ durchlaufen, über die jeweils in einem RFC
informiert wurde. Hatte sich ein Vorschlag in einer experimentellen Phase bewährt, so
wurde er zum Proposed Standard erhoben. Wenn mindestens zwei Spezifikationen entwickelt waren und eine angemessene, praktische Erfahrung vorlag, konnte die Ernennung
zum Draft Standard erfolgen. Der letzte Schritt war der Internet Standard, „characterized
by a high degree of technical maturity and by a generally held belief that the specified
protocol or service provides significant benefit to the Internet community”.569 Ob sich der
Standard schließlich durchsetzten würde, war damit jedoch nicht entschieden. Ausgenommen von dem Prozess blieben Lösungen, die nicht frei zugänglich waren, d.h. bei
denen Patente o.ä. die Nutzung bzw. Verfügbarkeit einschränkten. Es gab keine Reduzierung der Vorschläge auf Organisationen – das IAB rechnete ausdrücklich mit der weiteren
Mitarbeit der Internetnutzenden.570
4.2. USENET - „Poor man’s Arpanet“
Mit dem USENET, dessen Anfänge bis ins Jahr 1979 zurückreichen, etablierte sich im
Verlauf der 80er Jahre eine neue, nicht geplante Anwendung, die – wie zuvor bei den EMails – nie offiziell beauftragt wurde. Die Kommunikationstechnik der Newsgroups oder
Netnews basierte auf der Kreativität engagierter Nutzer und entwickelte sich unabhängig
von den Institutionen bzw. Labors, die sich professionell mit der Internetentwicklung be567
Werle, Selbstorganisation, 508.
RFC 1310.
569 RFC 1310.
570 Vgl. RFC 1310.
568
92
fassten.
Die Wurzeln des Dienstes lagen erstmals außerhalb des ARPANET bzw. Internet. Die
graduierten Studenten Tom Truscott, Jim Ellis, Stephan Daniel und Steve Bellovin,
schrieben 1979 ein kleines Programm (A news), das auf UUCP aufsetzte und das Dateisystem eines (über Modem und Telefonnetz) verbundenen Rechners überprüfte. Waren
neue Dateien hinzugekommen, so wurden sie automatisch kopiert. Auf diese Weise war
der Austausch von Nachrichten (News) möglich.571 Technisch gesehen handelt es sich
um eines der Projekte, die auf dem „Store-and-Forward“-Verfahren basierten. Die ersten
drei Knoten des virtuellen Netzwerks standen an den Hochschulen der Studenten: ein
Rechner der Universität von Nordkalifornien und zwei der Duke-Universität.572
Auf einem Treffen der akademischen Unix-Nutzer im Januar 1980 (USENIX), als das
Projekt bereits auf 15 Rechner angewachsen war,573 informierten sie die Anwesenden
über ihre Entwicklung, die Version A der „news“, und verteilten die „Invitation to a General
Access UNIX Network“:
„The initially most significant service will be to provide a rapid access newsletter.
Any node can submit an article, which will in due course propagate to all nodes. A
‘news’ program has been designed which can perform this service. The first articles
will probably concern bug fixes, trouble reports, and general cries for help. Certain
categories of news, such as ‘have/want’ articles, may become sufficiently popular as
to warrant separate newsgroups […]. The mail command provides a convenient
means for responding to intriguing articles. In general, small groups of users with
common interests will use mail to communicate. If the group size grows sufficiently,
they will probably start an additional news group […]. This is a sloppy proposal. Let's
start a committee. No thanks! Yes, there are problems. Several amateurs collaborated on this plan. But let's get started now. Once the net is in place, we can start a
committee. And they will actually use the net, so they will know what the real problems are".574
Es gab tatsächlich einige Probleme und bereits ein Jahr nach USENIX erschien die Version B des Programms.575 In der USENET-History-List beschrieb Stephan Daniel im
Januar 1993, weshalb sie das Projekt initiiert hatten: „It was commonly accepted at the
time that to join the Arpanet took political connections and $100,000. I don't know if that
assumption was true […]. The ‘Poor man's Arpanet’ was our way of joining the CS [Computer Science] community”.576 1980 bestand das ARPANET lediglich aus ca. 200 Hosts
und der Zugriff auf das Netz war prinzipiell nur Personen möglich, die an den Projekten
der Behörde beteiligt waren oder in der staatlichen bzw. militärischen Bürokratie arbeiteten. Weder politische Verbindungen noch hohe Geldbeträge hätten den Studenten zu
diesem Zeitpunkt offiziell den Eintritt in den exklusiven Zirkel verschafft. Dennoch zeigt
571
Vgl. Hauben, Evolution.
Vgl. Salus, Casting, 135.
573 Vgl. Hauben, Evolution.
574 Invitation to a General Access Unix Network. Zitiert nach Hauben, Evolution.
575 Vgl. Hardy, Henry.
576 Stephan Daniel in einem Beitrag der Usenet-history-list vom 25.1.93. Vgl. Jones, mailinglist.
572
93
sich an diesem Beispiel, dass die Möglichkeiten des Netzwerks eine Faszination ausübten, deren Wirkung nicht auf das ARPANET beschränkt blieb und indirekt die Entwicklung
neuer Projekte förderte.
„It is hard to believe in retrospect, but we were initially disappointed at how few people
joined us. We attributed this lack more to the cost of autodialers [Modems] than lack of
desire”.577 Daniels Enttäuschung über die spärliche Nachfrage dürfte sich bald gelegt haben. Die folgende Tabelle zeigt das rasante Wachstum des USENET nach der schwierigen Anfangsphase:578
1979 1980 1981 1982 1983 1984 1985 1986
1987
1988
1990 1992
1994
Newsgroups
3
3?
-
-
-
-
-
241
259
381
1300
4302
10696
Articles / day
2
10
20
35
120
225
375
946
957
1933
4500 17556
72755
Hosts
3
15
150
400
600
900
1300
2200
5200
7800
33000 63000 180000
Readers
10?
20?
-
-
10000
-
-
53000 100000 141000
-
-
-
Spätestens 1983/4 wurden täglich so viele Nachrichten verschickt, dass eine einzelne
Person überfordert gewesen wäre, alle zu lesen. Gleichzeitig stieg die Zahl der integrierten Rechner kontinuierlich an. Zwischen 1982 und 1985 war die Anzahl der Hosts etwa
gleich groß wie die des Internet, lag teilweise sogar über dessen Niveau.579 Vergleicht
man das Wachstum des USENET mit dem von UUCP, dessen Infrastruktur in den ersten
Jahren hauptsächlich genutzt wurde, so lässt sich vermuten, dass es wesentlich zum Erfolg dieses Netzwerks beitrug.
Worin liegt aber der Unterschied zu den Mailing-Listen des ARPANET, der aus dem
USENET einem „anarchischen weltweiten Kommunikation[sraum]“580 machte? MailingListen basieren auf der E-Mail-Technologie, können aber als Vorläufer der News betrachtet werden. Die Funktionsweise beider Systeme ist ähnlich: Mitglieder der einzelnen
Newsgroups senden (posten) Nachrichten an einen zentralen Rechner (Server), der sie
anderen Teilnehmern zur Verfügung stellt. Auf diese Weise entstehen ‚Schwarze Bretter’
im Internet oder anderen Netzen. Im Gegensatz zu den Mailing-Listen verbleiben die einzelnen Beiträge für eine gewisse Zeit auf den Servern, sodass die Diskussion von Neumitgliedern zurückverfolgt werden kann.581 Wesentlicher ist jedoch, dass die (bei den Mailing-Listen zentrale) Figur des Adressverwalters entfällt, der die einzelnen Beiträge an die
Abonnenten verschickt. Diese nutzten ihre Position, wie z.B. Dave Farber und Einar Stefferud bei der MSGGroup, um Beiträge zu kommentieren, neue Aspekte einzubringen oder
mäßigend auf die Mitglieder einzuwirken, wenn eine Diskussion zu heftig wurde. Da bei
577
Ebd..
Vgl. Quarterman, 248 (bis 1988) und Zakon (seit 1990).
579 Die Angaben zum Internet sind in Kapitel 4.1. aufgeführt. Der Vergleich von Hostzahlen der jeweiligen
Netzwerke ist nur eingeschränkt aussagekräftig. Die Anzahl der Nutzer pro Host differiert stark und lässt sich
nur schätzen. Quartermans Angaben zu den aktuell aktiven Nutzern (readers) sind folglich nur Richtwerte.
580 Rheingold, 19.
581 Vgl. Hosenfeld, 113.
578
94
den Newsgroups keine Distribution im eigentlichen Sinn stattfindet, sondern die Beiträge
lediglich auf Servern zugänglich gemacht werden, entfällt die Notwendigkeit einer vergleichbaren Zentralinstanz.582
Technisch betrachtet ermöglichte das USENET eine interaktive, hierarchiefreie Kommunikation. Setzt man jedoch die geschätzte Anzahl der aktiven Nutzer mit den täglich verfassten Artikeln in Relation, so wird deutlich, dass es in der Regel relativ passiv konsumiert wurde. Der durchschnittliche „Usenetter“ verfasste zwischen 1983 und 1988 lediglich 3,5 bis 6,5 Artikel pro Jahr. Das „anarchische“ USENET bestand also auch in der
Frühphase zu einem Großteil aus sog. Lurkers („One of the `silent majority' in a electronic
forum, [...] who posts occasionally or not at all but is known to read the group's postings
regularly”).583
Die ersten drei Newsgroups hießen net.general, net.v7bugs und net.test.584 Sie wiesen
bereits das heute noch übliche, hierarchische, von rechts nach links ansteigende Gliederungsprinzip auf. Die zweite „top-level“-Hierarchie wurde fa („from ARPANET“), die Inhalte
der begehrten Mailing-Listen in das USENET transportierte. Viele Beiträge dieser beiden
Kategorien aus dem Zeitraum Mai 1981 bis Mai 1982 sind noch erhalten und belegen,
dass sich die Diskussionen schnell von der vorausgesagten, technischen Thematik („bug
fixes, trouble reports, and general cries for help“) gelöst hatten.585
Nach einer erneuten Überarbeitung des „news“-Programms 1984 war die Bildung moderierter Gruppen möglich.586 Es gab mehrere Gründe, die für diese Neuerung sprachen, bei
der die Praxis der Mailing-Listen des ARPANET Pate stand. Viele Artikel kopierten die
Informationen anderer Beiträge und auf einzelne Anfragen kamen teilweise mehrere Antworten mit gleichlautendem Inhalt, wodurch das Datenvolumen unnötig anstieg, was das
System an die Grenzen seiner Belastbarkeit führte. Neben technischen Problemen war es
vereinzelt zur Verletzung von Urheberrechten und undifferenzierten oder beleidigenden
Beiträgen gekommen. Den bereits existierenden Hierarchien net und fa wurde mit mod
(„moderated“) eine dritte hinzugefügt.587 mod.announce, thematisch mit der weiterhin
existierenden net.general identisch, war die erste moderierte Newsgroup.588
Es gab Rechner des USENET, die einen Großteil der Daten über den gesamten Kontinent
oder darüber hinaus transportierten, was ihnen eine besondere Bedeutung verschaffte.
Die Verwalter dieser Rechner bezeichneten sich, wie eine gleichlautende Mailing-Liste,
über die sie sich koordinierten, als ‚Backbone’. Um 1985 begannen die Bestrebungen
582
Auch Mailing-Listen sind theoretisch ohne Adressverwalter möglich. Die beschriebene Ausprägung war
aber die übliche Organisationsform im ARPANET.
583 Raymond.
584 Vgl. Quarterman, 244.
585 Vgl. Jones, Oldnews.
586 Vgl. Salus, Casting, 136.
587 Vgl. Hardy, Henry.
588 Vgl. Quarterman, 245.
95
einzelner Personen aus diesem Zusammenhang, Einfluss auf die Inhalte der Newsgroups
zu nehmen.589
Im Zusammenhang mit einer Neuauflage des „news“-Programms von 1986 wurde eine
komplette Reorganisation möglich. Die ‚Schwarzen Bretter’ konnten nun in insgesamt
sieben thematisch gegliederte „top-level“-Hierarchien unterteilt werden: comp (computerbezogene Inhalte), misc (nicht zu klassifizierende Themen), news (Weiterentwicklung und
Verwaltung des USENET), rec (Hobbys und Freizeit), sci (Wissenschaft), soc (Gesellschaft im weitesten Sinne) und talk (Debatten ohne Anspruch auf konkrete Ergebnisse).590
Bis April 1987 sollte die Umstellung vollzogen werden. Als Anfang diesen Jahres die
Gründung von net.rec.drugs, einer Diskussionsgruppe über Drogen, von den Betreibern
des ‚Backbone’ abgelehnt wurde, eskalierte der bisher schwelende Konflikt.591 Es entbrannte ein „massive and now-legendary ‚flame war’“, der die Kommunikation prägen
sollte.592 Das USENET hatte zu diesem Zeitpunkt bereits mehr als 100.000 Mitglieder,
was bedeutet, dass sich die heftige Streitkultur im Schutz der Anonymität bei den weiterhin meist unmoderierten Newsgroups frei entfalten konnte. Ungefähr zur selben Zeit entstand mit der „Netiquette“ ein Set von Normen, das den Informationsaustausch und die
Kommunikation über Netzwerke regeln sollte. Der Bedarf an einer solchen Selbstregulierung entstand u.a. wegen des rauhen Umgangstons im USENET, auch wenn Werle externe Einflüsse vermutet.593 1988 schickte Brian Reid594 schließlich eine E-Mail an die
Mitglieder des ‚Backbone’: „To end the suspense, I have just created alt.sex. That meant
that the alt [altered oder alternative] network now carried alt.sex and alt.drugs. It was
therefore artistically necessary to create alt.rock-n-roll, which I have also done. I have no
idea what sort of traffic it will carry”.595 Damit war ein neuer Teilbereich entstanden, der
sich der Kontrolle des ‚Backbone’ entzog und in „Zen and the Art of the Internet”, einer
Einführung von 1992, mit den Worten „true anarchy; anything and everything can and
does appear; subjects include sex, the Simpsons, and privacy” charakterisiert wird.596 Wenige Monate nach der Aktion von Brian Reid dankten die Mitglieder des ‚Backbone’ offiziell ab.597 „Das Netz interpretiert Zensur als Fehler und umgeht sie“.598 Die beschriebenen Ereignisse im USENET 1986/87 trugen zur Vorstellung des herrschaftsfreien, nicht zu
regulierenden und anarchischen Kommunikationsraums Internet bei.
Vgl. Salus, Casting, 140 – 142. ‚Backbone’ wurde in diesem Zusammenhang in Anführungszeichen gesetzt, da das USENET kein Netzwerk im eigentlichen Sinne war und deshalb auch nicht über eigene Leitungen oder Backbones verfügte.
590 Vgl. Kehoe.
591 Vgl. Salus, Casting, 140 – 142.
592 Vgl. Hardy, Henry. Auch im Jargon File wird bei dem Begriff „Flaming” stets auf das USENET verwiesen.
Vgl. Raymond.
593 Vgl. Werle, Wissenschaftsnetz. RFC 1855 bieten einen Einblick in die Regeln der Netiquette
594 Es lässt sich nicht klären, ob er mit dem Teilnehmer der MSGGroup identisch ist.
595 Zitiert nach Hardy, Henry.
596 Kehoe.
597 Vgl. Hardy, Henry.
598 Rheingold, 19.
589
96
Der Gründungsprozess einer Newsgroup der oben genannten „top-level“-Hierarchien
blieb aber auch nach dem Abdanken der alten Eliten in ein festes Regelwerk eingebunden. Zuerst hatte der Antragsteller ein formales Request for Discussion (RFD) an
news.announce.newsgroups zu stellen, das dort diskutiert wurde. Waren alle Detailfragen
geklärt, folgte ein Call For Votes (CFV). Das Ergebnis der Abstimmung wurde anschließend wieder in news.announce.newsgroups veröffentlicht, um es nochmals auf Fehler zu
prüfen. Hatte sich eine deutliche Mehrheit für den Vorschlag ausgesprochen, so konnte
die Gründung erfolgen. Fiel der CFV negativ aus, so bestand die Möglichkeit nach sechs
Monaten ein neues RFD zu stellen.599 Dieser Prozess hält sich zwar formal an demokratische Regeln, räumt aber einer neuen Elite von besonders aktiven Nutzern große Macht
ein.
Welchen Stellenwert einzelne Themen im USENET einnahmen, lässt sich im Detail nicht
mehr nachvollziehen. Das Adressierungskonzept erlaubt Rückschlüsse: Besteht ein Diskussionszirkel aus zu vielen Mitgliedern, so wird eine neue (Unter-)Gruppe gebildet, weshalb sich bei intensiv genutzten Themen eine besonders ausdifferenzierte Struktur entwickelt. Noch 1994 galt, dass „computerbezogene Inhalte einen breiten Raum ein[nehmen],
so daß die comp-Hierarchie entsprechend fein gegliedert ist“.600
4.2.1 Newsgroups im Internet
Wie schaffte die Anwendung den Sprung ins Internet? Die gemeinsame Geschichte von
USENET und ARPANET begann bereits 1980. Mit der UCB wurde erstmals eine Universität integriert, an der ein ARPANET-Knoten installiert war. Bald realisierten Studenten der
Hochschule in Berkeley eine inoffizielle (nach DCA-Richtlinien illegitime) Schnittstelle zwischen den Netzwerken.601 Im Juni 1983 tauchte der Begriff USENET erstmals in einem
RFC auf. Mark Horten (Student der UCB) schlug eine Möglichkeit für den Austausch von
„USENET-Messages“ vor. Neben technischen Details informierte er über die Funktionsweise bzw. Infrastruktur des News-Netzes: „USENET is not a physical network, but rather
a logical network resting on top of several existing physical networks. These networks
include, but are not limited to, UUCP, the ARPANET […]”.602 1983 stand die Anwendung
den ARPANET-Nutzern auch offiziell zur Verfügung und konnte die Infrastruktur des
Netzwerks nutzen. Die Koexistenz blieb nicht frei von Konflikten bzw. Hierarchien. Daniel
berichtet über die Situation in den frühen 80er Jahren aus der Sicht eines Nutzers des
USENET: „adding the Arpanet lists to Usenet [und vice versa] initially contributed to the
sense of being poor cousins. It was initially very hard to contribute to those lists, and when
599
Vgl. Kehoe.
Hosenfeld, 113.
601 Vgl. Hauben, Evolution.
602 RFC 0850.
600
97
you did you were more likely to get a response to your return address than to the content
of your letter. It definitely felt second class to be in read-only mode on human-nets and sflovers”.603
Die anfängliche Arroganz von Teilen der ‚ARPANET-Gemeinde’ hatte sich bald gelegt.
1986 kam der Vorschlag für ein TCP/IP-basiertes NNTP (Network News Tranfer Protocol)
zum Austausch von Nachrichten. „There are popularly two methods of distributing such
news: the Internet method of direct mailing [Mailing-Lists], and the USENET news system”,604 erläuterten die Autoren, ehe sie die Vorzüge der zweiten Methode aufzählten.
NNTP sollte nach den gleichen Prinzipien wie das USENET funktionieren.605 Mit dem
neuen Protokoll wurde ein wachsender Prozentsatz des Datenvolumens über die ARPANET-Leitungen transportiert,606 wobei gleichzeitig die Verbreitung der Kommunikationstechnik im Internet kontinuierlich anstieg. 1994 „a lot of newbies and journalists began
to refer to ‘Internet newsgroups’ as though Usenet was and always had been just another
Internet service. This ignorance greatly annoys experienced Usenetters”.607 Dass die Ursprünge der Kommunikationsmöglichkeit bereits in Vergessenheit geraten waren, spricht
für dessen allgemeine Durchsetzung im Netz der Netze. Ein Artikel der c’t berichtet über
ein tieferliegendes Missverständniss, das den Stellenwert der Anwendung Anfang der
90er Jahre verdeutlicht: „Mittlerweile gibt es verschiedene News-Netze, die ihre Nachrichten teilweise untereinander austauschen. Im Internet dominierend ist das Usenet, das
oft auch mit ‚dem Internet’ selbst verwechselt wird”.608 Vertauscht man den Begriff USENET mit WWW, eine der jüngsten Anwendungen, so wäre das Zitat noch heute uneingeschränkt gültig.
4.3. Neue Anwendungen für neue Nutzer
Anfang der 90er Jahre gab es eine Reihe weiterer Veränderungen. Der Artikel einer
Fachzeitschrift von 1993 mit dem Titel „Weltweit vernetzt – Struktur und Dienste des Internet“ führt neben E-Mails, FTP, Telnet und den inzwischen selbstverständlich gewordenen Newsgroups, drei neue Begriffe ein: „Archie“, „WAIS“ (Wide Area Information Service)
und „Gopher“.609
Archie bezeichnet Server, die Datenbanken über FTP-Ressourcen im Internet zur Verfügung stellten. Über eine Telnetverbindung konnte auf einen der entsprechenden Rechner
zugegriffen werden, dessen Informationsstand mindestens einmal im Monat aktualisiert
603
Stephan Daniel in einem Beitrag der Usenet-history-list vom 25.1.93. Vgl. Jones, mailinglist.
RFC 0977.
605 Vgl. ebd..
606 Vgl. Hardy, Henry.
607 Raymond. Der Begriff „newbie“ bezeichnet einen Usenetanfänger. Vgl. ebd..
608 Hosenfeld, 113.
609 Vgl. Köhntopp, 84. Obwohl zu diesem Zeitpunkt bereits entwickelt, wird das WWW in diesem Artikel mit
keinem Wort erwähnt.
604
98
wurde. Archie präsentierte die Ergebnisse der Suche als Liste von IP-Adressen auf dem
Client-Rechner.610 Die McGill-Universität in Kanada betrieb 1990 den ersten Archie-Server
und bis 1992 waren in den Archiven über 800 FTP-Adressen mit mehr als einer Million
Dateien erfasst.611 WAIS war ein weiterer Versuch die Recherche zu vereinfachen. Die
Software ermöglichte die Abfrage verschiedener Datenbanken (auch zeitgleich) mit demselben Programm in einer einheitlichen Form. Für den Nutzer hatte der neue Ansatz den
Vorteil, sich nicht mehr bei jeder Recherche auf neue Such- bzw. Bedienungsmechanismen einstellen zu müssen.612
Archie und WAIS waren streng genommen keine neuen Anwendungen, sondern lediglich
neue Nutzungsformen oder Weiterentwicklungen der bestehenden Dienste FTP und Telnet. Anders verhält es sich mit Gopher. In den RFCs wurde zwar erst 1993 über das
„distributed document search and retrieval protocol“ informiert,613 den ersten Server installierte die Universität von Minnesota aber bereits 1991. Die Wachstumsraten in den ersten
Jahren der 90er lagen zwischen 200 und 1000 Prozent.614 Es entwickelte sich ein Netz
von Gopher-Servern, die untereinander durch Querverweise verknüpft waren, was eine
erhebliche Vereinfachung der Bedienbarkeit mit sich brachte. Die lokal oder auf anderen
Servern verfügbaren Informationen wurden in Form von hierarchischen, verschachtelten
Menüs präsentiert. Je nach Auswahl wurde entweder die Datei angezeigt oder an einen
anderen Rechner weiterverbunden. Teilweise war auch der Transport multimedialer Inhalte (Tondokumente und Bilder) möglich. Wer statt der üblichen Menüstruktur eine Indexsuche bevorzugte, konnte auf Veronica, das Äquivalent des Gopher-Space zu Archie
(FTP-Server) zurückgreifen.615 1993 erhob die Universität erstmals Lizenzgebühren für die
Nutzung ihrer Software. Sie wollte von der großen Beliebtheit finanziell profitieren, stellte
die Entwicklung Bildungseinrichtungen und gemeinnützigen Organisationen aber weiterhin kostenlos zur Verfügung. „Dies wurde in der Internetgemeinde und auch an den Universitäten als Verrat betrachtet [...]. Die Industrie ließ Gopher fallen wie eine heiße Kartoffel“.616
Wie sind die Reaktionen auf die Lizenzierung zu bewerten? Universitäten und Nutzer sahen in der Initiative aus Minnesota einen Verstoß gegen die Ethik des Internet. Es war
üblich Neuentwicklungen kostenlos zu verbreiten. DARPA sowie NSF hatte mit ihrer Politik stets aktiv am Transfer der Technologie mitgewirkt. Als der Personenkreis im Umfeld
der Behörde in den 80er Jahren durch Organisationen ersetzt wurde, war Lizenzfreiheit
eine grundlegende Voraussetzung für potentielle Internetstandards. Von dieser Vorge610
Vgl. Hosenfeld, 114.
Vgl. Kehoe.
612 Vgl. Hosenfeld, 116.
613 Vgl. RFC 1436.
614 Vgl. Salus, Casting, 230.
615 Vgl. Hosenfeld, 114-116.
616 Berners-Lee, 115f..
611
99
hensweise hatte die Privatwirtschaft jahrzehntelang profitiert und war nicht bereit auf die
Privilegien zu verzichten, zumal sich zu diesem Zeitpunkt bereits eine nicht-lizenzierte
Alternative mit ähnlicher Funktionalität andeutete. Der Erfolg von Gopher stellte sich als
Strohfeuer heraus. Wenn der Jargon File den Dienst mit „a type of Internet service first
floated around 1991 and obsolesced around 1995 by the World Wide Web”617 beschreibt
und damit andeutet, Gopher sei zu diesem Zeitpunkt veraltet gewesen, wird unterschlagen, dass nicht nur technische Gründe den späteren Erfolg des WWW bedingten.
Auch wenn die in diesem Kapitel dargestellten Anwendungen heute bereits weitgehend
vergessen sind, lässt sich die Grundtendenz zur Vereinfachung der Bedienung feststellen.
Peter Deutsch, der an der Entwicklung von Archie beteiligt war, charakterisierte die Situation zu Beginn der 90er Jahre folgendermaßen:
„[...] there has been a number of changes [seit 1990] in the way we perceive and
make use of the net. Of course, the number of users continues to climb at a dizzying
place and the sheer volume of traffic continues to climb along with the population,
but there’s more to it than that [...]. The Internet is no longer just an interesting experimental testbed [...]. The net is now a daily tool for hundreds of thousands of
people who couldn’t tell an IP packet from a burst of tty line noise”.618
CSNET und NSFNET mit den angeschlossenen Netzwerken der mittleren Ebene eröffneten immer größeren Benutzergruppen den Zugang zum Internet. Auch kommerzielle
Anbieter begannen sich für das Metanetz zu interessieren. Bei einem Großteil der neuen
Nutzer konnte kein genuines Interesse an Computer- bzw. Netzwerktechnologie vorausgesetzt werden. Die Vereinfachung erhöhte die Attraktivität bei neuen Nutzern. Das Internet umfasste 1990 bereits ca. 300.000 Rechner und die Quantität der potentiell verfügbaren Informationen war ohne Hilfsmittel kaum noch zu bewältigen.
Die strukturellen Veränderungen schlugen sich auch in den RFCs nieder. Mit den FYIs
(For Your Information) wurde im März 1990 eine neue Subserie etabliert, die sich nicht mit
der Entwicklung neuer Protokolle beschäftigte:
„The FYI series of notes is designed to provide Internet users with a central repository of information about any topics which relate to the Internet [...]. The FYIs are
intended for a wide audience. Some FYIs will cater to beginners, while others will
discuss more advanced topics. An FYI may be submitted by anyone who has
something to contribute and has the time to do so”.619
Zu den FYIs, die sich ausdrücklich an Anfänger richteten, gehörte das von der User Services Working Group der IETF produzierte „FYI on Questions and Answers - Answers to
Commonly asked ‘New Internet User’ Questions”, ein Dokument, das regelmäßig aktualisiert wurde.620 Es sollte Basiswissen über das Internet, dessen Protokolle, Dokumentationen, Organisationen und Anwendungen vermitteln.
617
Raymond.
Zitiert nach Salus, Casting, 229. „tty = A terminal of the teletype variety, characterized by a noisy
mechanical printer”. Vgl. Raymond.
619 RFC 1150.
620 Vgl. RFC 1177, RFC 1206, RFC 1325, RFC 1594 und RFC 2664.
618
100
4.3.1. WWW – „Internet’s killer-app“
In den „Questions and Answers“ von 1994 taucht im Unterkapitel zu den Anwendungen
ein neuer Begriff auf. Neben Gopher, Telnet, FTP, Newsgroups, E-Mail und Mailing-Listen
wird nun auch auf die Frage geantwortet „What is the World Wide Web? What is Mosaic?“. Das Thema wird an letzter Stelle in zehn Zeilen abgehandelt und nimmt damit bedeutend weniger Raum ein als alle anderen Dienste.621 1999 wurde das vorerst letzte FYI
der Serie veröffentlicht, an dem sich eine massive Veränderung ablesen lässt. Die Begriffe Archie, Gopher, Telnet, Newsgroups oder USENET werden nicht mehr erwähnt. Die
Frage „What Can I do on the Internet?“ wird mit „Surfing”, „Searching”, „E-Mail”, „File
Transfer”, „Chat” und „Games” beantwortet. Die alles dominierende Anwendung ist das
WWW.622 Nach Informationen von Merit übertraf der neue Dienst im April 1995 erstmals
FTP hinsichtlich der Anzahl der Pakete, die vom NSFNET transportiert wurden (21% des
gesamten Datenvolumens).623 Seit Mitte der 90er Jahre ist das WWW „Internet's killer
app[lication]“.624
Der Ursprung lag erstmals außerhalb der Vereinigten Staaten. Tim Berners-Lee und Robert Cailliau, beide angestellt am europäischen Labor für Teilchenphysik CERN (Conseil
Européen pour la Recherche Nucléaire) in der Nähe von Genf, schlugen 1989 vor, an
einem Hypertextsystem für Netzwerke zu arbeiten. 1990 erhielt das Projekt den Namen
WWW und Anfang des nächsten Jahres folgte die Veröffentlichung eines ersten, kostenlosen „Line-mode“-Browsers im Internet. Wenige Monate später, Ende 1991, wurde am
Stanford Linear Accelerator Center der erste Server installiert. Im Bereich der Hochenergiephysik ist eine Koordination der Grundlagenforschung aufgrund der immensen Kosten
für die benötigten Apparate und die hohe Spezialisierung der Fachkräfte unverzichtbar.
Der Teilchenbeschleuniger des CERN mit einem Umfang von 27 Kilometern ist eine der
weltweit größten Forschungsapparaturen dieser Art, die jährlich von ca. 6000 Gastwissenschaftlern für Experimente genutzt wird. Die Kommunikation dieser über den ganzen
Globus verteilten Forscher sollte mit dem WWW verbessert werden.625
Was unterscheidet das WWW von anderen Diensten? Vorraussetzung für die Funktionsweise ist das Adressierungskonzept der URLs (Uniform Resource Locator), die BernersLee den Internetnutzenden in einem RFC vorstellte. Ein URL kann als Erweiterung der
Domain, die einen Internetrechner identifiziert (‚übersetzte’ IP-Adresse), und den Angaben
über verwendeten Dienst bzw. Protokoll (z.B. http://www) verstanden werden. Mit URLs
621
Vgl. RFC 1594.
Vgl. RFC 2664. Newsgroups und Telnet gibt es weiterhin im Internet. Dass sie in der Einführung für neue
Internetnutzer nicht mehr erwähnt werden, weist auf einen relativen Bedeutungsrückgang hin. Diese Dienste
werden nur noch von einer Gruppe interessierter Nutzer verwendet.
623 Vgl. Frazer.
624 Raymond.
625 Vgl. Cailliau, 72-76.
622
101
werden einzelne Objekte bzw. Dokumente oder sogar bestimmte Bereiche in diesen Objekten identifizierbar.626 Dieses Adressierungskonzept ist die Basis für die Hyperlinks des
WWW. Durch Links können Elemente eines Dokuments mit anderen Elementen verknüpft
werden, die in demselben Dokument, auf demselben Rechner oder irgendwo im Internet
vorhanden sind. Meist handelt es sich bei den Verknüpfungen um farblich gekennzeichnete, anzuklickende Textstellen.627 Es entsteht ein Netz von Dokumenten, dessen unübersichtliche und frei gestaltbare Struktur sich von dem hierarchisch gegliederten Gophernetz
unterscheidet. Im WWW ist theoretisch alles mit allem verknüpfbar.
Das grundlegende Prinzip ist Hypertext, nach dem auch das Protokoll HTTP (Hypertext
Transfer Protocol) und HTML (Hypertext Markup Language), die ‚Sprache’ des Web, benannt sind. Das Prinzip selbst ist älter als das WWW und das Internet. Berners-Lee dankt
in seinem „Web-Report“ Vannevar Bush, Ted Nelson sowie Douglas Engelbart, den Vordenkern des Hypertextes, und Donald Davies, Paul Baran, Vint Cerf, Bob Kahn und deren
Kollegen, den Wegbereitern der Infrastruktur.628 Vannevar Bushs Artikel „As We May
Think“ erschien bereits 1945. Er beschreibt die (mechanische) Maschine Memex, die bei
der Bewältigung großer Informationsmengen behilflich sein sollte, indem sie in Analogie
zur assoziativen Struktur des menschlichen Denkvorgangs Verknüpfungen zu anderen
Information und Anmerkungen, gespeichert auf Mikrofilmdokumenten, einfügt.629 Douglas
Engelbarts Arbeiten am NLS im Zusammenhang mit der Forschung zur Steigerung des
menschlichen Intellekts am SRI wurde bereits vorgestellt. Er kannte die Arbeit von Vannevar Bush, wie das Literaturverzeichnis eines Textes von 1962 belegt.630 Ted Nelson,
der Mitte der 70er Jahre mit dem Buch „Computer Lib/Dream Machines“ Kultstatus in der
Hackerszene erlangt hatte,631 kreierte Anfang der 60er Jahre - im Zusammenhang mit
seinem nie vollständig realisierten System Xanadu, eine Art Memex der zweiten Generation, das eine universale Weltbibliothek schaffen sollte - die Begriffe Hypertext und Hypermedia.632 In dem Aufsatz „A New Home for the Mind“ von 1982 nimmt Nelson die Idee
wieder auf. „It [das Prinzip der Links] permits fully nonsequential writing. Writings have
been sequential because pages have been sequential. What is the alternative? Why, hypertext – nonsequential writing [...]. Any sequence is generally arbitrary, and what is right
for one reader may be wrong for another”.633 Berners-Lee äußert sich bescheiden über
den eigenen Beitrag. „Ich kam zufällig zur rechten Zeit [...], nachdem der Hypertext und
das Internet ihre Volljährigkeit erreicht hatten. Die einzige Aufgabe, die mir blieb, war es,
626
Vgl. RFC 1630. In dem Dokument wird noch die heute veraltete Bezeichnung URI (Universal Resource
Identifiers) verwendet. URIs und URLs sind dasselbe.
627 Vgl. Voets, 247.
628 Vgl. Berners-Lee, 17-19.
629 Vgl. Bush, passim.
630 Vgl. Engelbart, Framework, 96.
631 Vgl. Wagner, 206.
632 Vgl. Mayer, 18.
633 Nelson, 121f..
102
die beiden miteinander zu verheiraten“.634
Das WWW ist aber mehr als die Ehe von Hypertext und Internet, es integriert „die Internet-Dienste EMail, News, FTP, Telnet, Gopher und WAIS durch das Hypermedia-Konzept
zu einem Ganzen unter einheitlicher Oberfläche und ergänzt sie um weitere Möglichkeiten. Der Informationsfluß bewegt sich neuerdings [...] auch in beide Richtungen, das heißt
vom WWW-Server zum User und umgekehrt“.635 Der integrierende Griff über die Grenzen
der eigenen Anwendung hinaus, auch wenn es anfangs keine Möglichkeit zur direkten
Interaktion im WWW gab, war äußerst erfolgreich. Inzwischen ist der Dienst im Netz der
Netze derart dominant, dass „die Begriffe »Web« und »Internet« bereits Synonyme geworden“636 sind. Die einheitliche Oberfläche oder Mensch/WWW-Schnittstelle wird bestimmt vom Browser, einem Programm, dessen primäre Funktion das Anzeigen von
HTML-Seiten ist. Der große Stellenwert dieser Software kam schon in den „Questions and
Answers“ von 1994 zum Ausdruck, als gefragt wurde: „What is Mosaic?“.637 Mosaic, 1993
entwickelt am National Center for Supercomputing Applications (NCSA), war der erste
multimediafähige Browser. An ihm lässt sich die wachsende Bedeutung kommerzieller
Teilbereiche des Internet demonstrieren. Marc Andreessen, ein Student der Universität
von Illinois, der zur Finanzierung seines Studiums am NCSA arbeitete, und Eric Bina, ein
Programmierer des Zentrums, hatten Mosaic entworfen und stellten ihn kostenlos zur
Verfügung.638 In diesem Jahr gab es im gesamten Internet lediglich 250 WWW-Server.
Zwölf Monate später hatte sich diese Zahl verzehnfacht und Ende 1995 umfasste das
Web bereits ca. 50.000 Rechner.639 Anfang 1994 begegnete Andreessen Jim Clark, einem Unternehmer des Silikon Valley, der auf der Suche nach lohnenden Investitionen
war. Sie gründeten schließlich das Unternehmen Netscape, mit dem Ziel, ein überarbeitetes Mosaic anzubieten. Ende 1995 war Netscape auf über 500 Mitarbeiter angewachsen
und an der Wall Street machte sich Goldgräberstimmung breit. Das Unternehmen erreichte bald einen Marktanteil von ca. 90% und das hauseigene Produkt, ursprünglich
kostenlos und frei kopierbar, wurde nun für 39 Dollar auf dem US-amerikanischen Markt
angeboten.640 Microsoft brachte 1995 mit dem Internet Explorer ein ‚kostenloses’ Konkurrenzprodukt auf den Markt und löste damit den „Browser-War“641 aus, der noch heute die
amerikanischen Gerichte beschäftigt.642
634
Berners-Lee, 19.
Hosenfeld, 118.
636 Cailliau, 70.
637 RFC 1594.
638 Vgl. Wilke, Peter, 162f..
639 Vgl. Cailliau, 73.
640 Vgl. Wilke, Peter, 162f..
641 Zakon.
642 Der Internet-Explorer wurde mit dem Betriebssystem Windows 95 vertrieben, was dem Browser einen
entscheidenden, wettbewerbsverzerrenden Vorteilt verschaffte. Gleichzeitig wurde das Betriebssystem erheblich teurer.
635
103
4.4. Kommerzialisierung und Privatisierung
Die Entwicklung des Browsers Mosaic von einem öffentlich finanzierten, kostenlosen Programm zum Verkaufsschlager des gewinnorientierten Unternehmens Netscape ist nicht
das erste Beispiel für die Kommerzialisierung der Internetsoftware. Bereits 1985 gab es
so viele kommerzielle Anbieter von TCP/IP-basierten Produkten, dass sie mit der INTEROP eine eigene Messe organisierten, die ständig wachsende Besucherzahlen aufwies.643 Bei der Gründung der IETF 1986 wurden die Vertreter des neuen Wirtschaftszweigs von Anfang an einbezogen.644 Dieser Prozess wurde von den Verantwortlichen der
DARPA und NSF nicht nur geduldet sondern aktiv gefördert. Das Protokollset TCP/IP war
stets frei verfügbar und als sich ein Informationsdefizit bei den gewinnorientierten Anbietern herausstellte, veranstaltete das IAB 1985 in Zusammenarbeit mit Daniel Lynch einen
Workshop für 250 Vertreter der betreffenden Unternehmen, auf dem DARPA-Forscher
referierten.645 Die Initiatoren des Internet betrieben aktiven Technologie-Tranfer.
Eine weitere Möglichkeit das Internet kommerziell zu nutzen, ist das Anbieten von Internetserviceleistungen. Auch davon wurde bereits Ende der 80er Jahre Gebrauch gemacht.
Schon das ARPA-Internet hatte kommerzielle Teilbereiche aufgewiesen und die an das
NSFNET angeschlossenen Netzwerke der mittleren Ebene waren zu einem nicht unerheblichen Teil gewinnorientiert. Cerf berichtet von seiner Initiative, den kommerziellen EMail-Service von MCI mit dem Internet zu verbinden: „It wasn't clear that this would be
acceptable from the standpoint of federal policy, but I thought that it was important to begin exploring the question. By 1990, an experimental mail relay was running at the Corporation for National Research Initiatives (CNRI) linking MCI Mail with the Internet”.646
Im März 1990 wurde in Harvard ein Workshop zum Thema Kommerzialisierung des Internet abgehalten, an dem Vertreter aus Wissenschaft, Politik und Wirtschaft teilnahmen.
Finanziert wurde die Veranstaltung von der NSF und dem Office of Technology Assessment (OTA), das den US-amerikanischen Kongress als beratende Instanz im Informations- und Kommunikationssektor unterstützte.647 Brian Kahin informierte über die Ergebnisse des Workshops:
„In the past, many companies were connected to the old ARPANET when it was entirely underwritten by the federal government. Now, corporate R&D [Research and
Development] facilities are already connected to, and are sometimes voting members of, mid-level networks. There are mail connections from the Internet to commercial services such as MCIMAIL, SprintMail, and Compuserve. DASnet provides a
commercial mail gateway to and from the Internet and commercial mail services.
643
Vgl. Salus, Casting, 235.
Vgl. RFC 1160.
645 Vgl. Leiner, 107.
646 Cerf. CNRI ist eine 1986 gegründete Non-Profit-Organisation, die sich aus Akteuren der Wirtschaft,
Wissenschaft und Politik zusammensetzt. Die Organisation initiiert, finanziert und koordiniert Projekte im
Bereich der Informationsinfrastruktur. Vgl. Werle, Wissenschaftsnetz.
647 Vgl. RFC 1192 und Leib, 162. Das OTA wurde 1995 aufgelöst.
644
104
UUNET, a nonprofit corporation, markets TCP/IP services (Alternet) with access to
the Internet as well as mail services. Performance Systems International (PSI), a
startup company which now operates NYSERNET (the New York State regional
network, partially funded by NSF) is aggressively marketing Internet-connected
TCP/IP services on the East and West Coasts [...]. However, in all these cases, any
use of the NSFNET backbone must, in principle, support the ‘purpose of the
NSFNET’ [...]. Whereas the NSF funding of mid-level networks varies greatly [...] the
backbone is available as a free good to the NSF-funded mid-level networks. It is also
used free of charge by other authorized networks, including networks not considered
part of NSFNET: CSNET, BITNET, UUNET, and PSI, as well as the research networks of other federal agencies”.648
„The ‘purpose of the NSFNET’” war in der AUP festgehalten. Selbst bei großzügigster
Auslegung entsprach die tatsächliche Nutzung, z.B. der E-Mail-Anbieter, nicht diesen
Richtlinien. Laut AUP waren nur Forschungsabteilungen von gewinnorientierten Unternehmen für den Datentransport via NSFNET zugelassen, sofern sie an öffentlichen Forschungsvorhaben beteiligt waren. Für einen kommerziellen E-Mail-Service oder andere
TCP/IP-Dienstleister trafen diese Bestimmungen keinesfalls zu. Das breite Spannungsfeld
der Akteure Anfang der 90er Jahre spiegelt sich auch in den neu gegründeten Organisationen wieder. Die EFF (Electronic Frontier Foundation), gegründet 1990, machte sich zur
Aufgabe das ‚elektronische Grenzgebiet’ zu zivilisieren. Der „Cyberspace“ sollte zu einem
nützlichen Medium nicht nur für technische Eliten sondern für alle werden. Mit der Forderung nach freiem Fluss von Kommunikation und Information wurde die Tradition der ‚Hackerethik’ aus den 60er und 70er Jahre fortgesetzt.649 Andererseits gründete sich mit CIX
(Commercial Internet eXchange) 1991 erstmals eine Interessensorganisation von kommerziellen Internetprovidern.650 Die Gründungsmitglieder AlterNet, PSINet und CERFnet651 vereinbarten die Daten zwischen ihren Kunden ohne öffentlich finanzierte Infrastruktur zu transportieren und damit die Einschränkungen der kommerziellen Nutzung durch
AUPs zu umgehen. 1993 trat ANS der Organisation bei und PSINet sowie AlterNet schufen (wie ein Jahr zuvor die NSF) eine T3-Infrastruktur.652 Es begannen sich kommerzielle
(Internet-)Alternativen zum NSF-Backbone zu entwickeln. „The predictable (and intended)
result of encouraging commercial network traffic at the local and regional levels, while
denying its access to national-scale transport, was the emergence and growth of ‘private’,
competitive, long-haul networks [...]”.653
1994 entstanden die ersten Einkaufshallen.654 25 Jahre nach der Installation der ARPA648
RFC 1192. UUNET wurde 1987 gegründet. Es war die erste Organisation, die UUCP- und USENET-Zugänge kommerziell anbot. Erst später wurde die Produktpalette auf den Zugang zu verschiedenen Netzen und
Diensten (einschließlich Internet) ausgeweitet und unter dem Namen AlterNet vertrieben. Vgl. Salus, Casting,
177f. und 240.
649 Vgl. Kehoe.
650 Vgl. Leib, 165.
651 Das CERFnet (California Education and Research Federation network) war eines der NSF-Projekte, die
sich nach einer Anlaufzeit selbst finanzieren mussten. Vgl. Quarterman, 288f..
652 Vgl. Salus, Casting, 226f..
653 Leiner, 105.
654 Vgl. Zakon.
105
NET-Knoten am SRI und der UCLA hielt damit der E-Commerce (Electronic-Commerce)
Einzug ins Internet. In den „Questions and Answers“ von 1999 werden den Internetneulingen u.a. folgende Nutzungsmöglichkeiten vorgestellt:
„Other popular activities include electronic shopping, banking, and investing. Many
retailers describe and display pictures of their products on the Internet enabling people to buy on line. Shopping also includes purchasing services such as an airline
ticket or ordering groceries. Many banks allow people to transfer funds, check available funds, pay bills and other such activities while on the Internet with an account
number and ID. Lastly, many people invest while on the Internet in everything from
stocks and bonds to real estate”.655
Diese Darstellung verdeutlicht, wie massiv sich der Charakter des Internet in den 90er
Jahren veränderte, nimmt aber teilweise die weitere Entwicklung vorweg, denn bereits um
1990 entstand eine Diskussion, ob eine staatliche Finanzierung der Infrastruktur angesichts der forcierten kommerziellen Nutzung noch gerechtfertigt sei. Der nächste logische
Schritt war die Privatisierung der noch immer öffentlich finanzierten Bereiche.
Brian Kahin schrieb zu diesem Thema: „In some respects, the Internet is [1990] already
substantially privatized. The physical circuits are owned by the private sector, and the
logical networks are usually managed and operated by the private sector”.656 Mit diesem
Stand der Privatisierung konnten die Entscheidungsträger kaum zufrieden sein, kamen
die dafür benötigten Finanzmittel doch weiterhin größtenteils von der öffentlichen Hand.
Für viele, auch kommerzielle Netzbetreiber war der NSF-Backbone ein „Free Good“, was
einer Subventionierung dieser Unternehmen gleichkam, wie Kahin feststellte. Zudem
würde damit ein undisziplinierter Umgang mit den Kapazitäten gefördert und die Investitionen in private Backbone-Netzwerke gehemmt. Der Markt für kommerzielle Netzwerke
sei durch die Praxis des NSFNET eingeengt, da man immer mehr potentiellen Kunden die
Möglichkeit einräume, die staatlich subventionierte Infrastruktur zu nutzen.657
1992 lief der fünf Jahre zuvor abgeschlossene Vertrag der NSF mit Merit aus. Die Vereinbarung wurde zwar nochmals um achtzehn Monate verlängert, gleichzeitig aber eine Umstrukturierung beschlossen. Ein erster Vorschlag wurde noch im selben Jahr veröffentlicht, was den beteiligten Akteuren die Möglichkeit gab, ihn zu kommentieren. Im Frühjahr
1993 publiziert man schließlich eine Ausschreibung und ein Jahr später fiel die Entscheidung: MCI sollte einen „very high speed Backbone Network Service“ (vBNS) zur Vernetzung von 5 Supercomputerzentren der NSF aufbauen, der allerdings der Forschung vorbehalten blieb. An Merit wurde die Aufgabe des „Routing Arbiters” vergeben, was die
Verwaltung der Routingtabellen und Datenbanken über Internetanbieter umfasste. Insgesamt vier Network Access Points (NAPs), die als Schnittstellen zwischen kommerziellen
Internetanbietern fungieren sollten, wurden auf Sprint, MFS Datanet, Bellcore, Ameritech
655
RFC 2664.
RFC 1192.
657 Vgl. ebd..
656
106
und Pacific Bell verteilt. Sie sollten die bisherige Funktion des NSFNET-Backbone übernehmen. Der letzte Teil betraf die Netzwerke der mittleren Ebene. Bei insgesamt siebzehn
Projekten diesen Typs wurde beschlossen, die NSF-Förderung um vier Jahre zu verlängern, womit die kommerziellen Internet Service Provider bezahlt werden sollten, die nun
für eine Verbindung zu den NAPs benötigt wurden - ein sanfter Übergang, der eine Aufrechterhaltung der Internetverbindung garantierte.658 Am 30. April 1995 wurde schließlich
der Service des NSF-Backbone vollständig eingestellt. Seit 1986 waren 200 Millionen
Dollar in das Projekt investiert worden, wobei der größte Teil von der Stiftung selbst und
dem Staat Michigan beigesteuert wurde.659 Aus dem vom NSFNET dominierten Internet
war zu diesem Zeitpunkt ein weltweites Netz der Netze geworden, das viele der zuvor eigenständigen, isolierten Konzepte ‚absorbierte’. Die Entwicklung der kommerziellen und
wissenschaftlichen Backbonebetreiber gewann an Dynamik. Das Projekt Mapnet der
CAIDA (Cooperative Association for Internet Data Analysis), finanziert von der NSF, vermittelt einen Eindruck von der aktuellen, unübersichtlichen Situation. Die Karte zeigt
knapp 50 kontinentale und transkontinentale Netzwerke der höchsten Ebene, die der Forschung und der privaten Wirtschaft zugeordnet werden können.660 Für kleinere, kommerzielle Netzwerke begann der Anschluss an das Internet seit 1995 ebenfalls zu einer wesentlichen Voraussetzung für den weiteren Fortbestand zu werden.661
In dem Bereich der Weiterentwicklung und Verwaltung ist in den 90er Jahren ebenfalls ein
Rückzug des Staates bzw. ein verstärktes Engagement der Privatwirtschaft zu beobachten. 1992 wurde die Internet Society (ISOC) als Non-Profit-Organisation von der Privatwirtschaft gegründet und noch im selben Jahr erfolgte die organisatorische Eingliederung
des IAB (umbenannt in Internet Architectures Board) in den neuen Dachverband.662 1995
erhob Network Solutions Inc. erstmals Gebühren für die Registrierung von kommerziellen
Domainadressen. Die NSF hatte diesen Service, der garantiert, dass Domains weltweit
nur einmal vergeben werden und deshalb für einen reibungslosen Betrieb unerlässlich ist,
1993 an das Unternehmen abgegeben. 1995 hatte die Stiftung die Subventionen für diesen Bereich, ca. 5 Millionen Dollar p.a., eingestellt. Die edu-Domains des Bildungssektors
blieben weiterhin von den Gebühren befreit.663 Erst 1998 übernahm ICANN (Internet Corporation for Assigned Names and Numbers), eine Non-Profit-Organisation, die sich als
breite Koalition von „Internet's business, technical, academic, and user communities“ versteht, die bisher staatlich finanzierte Funktion der IANA und anderer Organisationen.
ICANN ist heute zuständig für die Vergabe von IP-Adressen, Verwaltung der Domainna-
658
Vgl. Frazer.
Vgl. Leiner, 106.
660 Vgl. Curlee.
661 Vgl. Werle, Selbstorganisation, 512.
662 Vgl. Kahn.
663 Vgl. Zakon und Zimmer, Online-Dienste, 478.
659
107
men, Entscheidung über neue Topleveldomains und Zuweisung von Protokoll-Parametern. Insgesamt drei Suborganisationen unterstützen die Adressverwaltung in verschiedenen Erdteilen: RIPE NCC für Europa, ARIN (American Registry for Internet Numbers) und
APNIC (Asia Pacific region Network Information Center).664
Die öffentliche Hand zog sich nicht vollständig zurück. Im Gegenteil: Das Internet wurde
zu einem Politikum, über das auf höchster Ebene diskutiert wurde. 1991, noch während
George Bushs Amtszeit, initiierte der damalige Senator Al Gore den US High Perfomance
Computing Act, der ein National Research and Education Network (NREN) etablierte. Im
Gegensatz zum Aufbau des ARPANET oder NSFNET sollte für dieses Projekt von Anfang
an eine kommerzielle, privatwirtschaftliche Basis geschaffen werden. Anders verhält es
sich mit dem 1996 ins Leben gerufenen Programm „Internet 2“, das Grundlagenforschung
betreibt und beteiligten Einrichtungen ein Hochgeschwindigkeitsnetz anbieten soll. Die
öffentliche Hand investierte 500 Millionen Dollar in das Projekt.665 Bei beiden Programmen
ging die Initiative von der US-amerikanischen Politik aus. Mit dem von Bill Clinton und Al
Gore angeregten US National Information Infrastructure (NII) Act von 1993, der die infrastrukturelle Basis für die kommende Informationsgesellschaft schaffen soll und sich ausdrücklich an dem Modell des Internet und den Leistungen der DARPA orientiert, leitete die
Regierung ein ehrgeiziges Projekt ein, das in Deutschland verkürzt unter dem Stichwort
Datenautobahn (eine Übersetzung des von Gore geprägten Begriffs „Information Superhighway“)666 diskutiert wird. Die Rolle des Staates beim Aufbau der NII, die u.a. der gesamten Bevölkerung Zugriff auf Einrichtungen der öffentlichen Verwaltung, des Bildungssektors und Gesundheitssystems ermöglichen soll, ist im wesentlichen auf Regulierung
und Moderation beschränkt. Nach einer Anschubfinanzierung soll die NII von der privaten
Wirtschaft aufgebaut werden.667 Die Zielsetzung der Initiative geht weit über das Internet
hinaus und umfasst nahezu alle Übertragungswege und Medien, strebt also ein universell
vernetztes Gemeinwesen mit vollständiger medialer Konvergenz an.668 Um 1995, also mit
der charakteristischen Verspätung, wurden in Europa ähnliche Projekte gestartet.669
4.4.1. Kommerzielle Online-Dienste
Seit Mitte der 90er Jahre ist ein starkes Wachstum der zentralisierten, kommerziellen und
ursprünglich isolierten Online-Dienste zu beobachten. CompuServe, das älteste Unternehmen der Branche, wurde bereits 1969 in den USA gegründet und verkaufte anfangs
Computerressourcen auf „Time Sharing“-Basis. Das Angebot, seit 1979 auch für Privat664
Vgl. ICANN.
Vgl. Leib, 167-169.
666 Vgl. Cebrián, 49.
667 Vgl. Schmid, Medien, 401f. und 406f..
668 Vgl. Rosenbach, 92f..
669 Vgl. German, 17-18.
665
108
kunden zugänglich, bestand später vor allem aus kostenpflichtigen Informationen und
Datenbanken diverser Unternehmen sowie internen Diskussionsgruppen. 1989 wurde die
Produktpalette durch die Möglichkeit ergänzt, E-Mails über das Internet zu verschicken
und zu empfangen. America Online (AOL) ist der Senkrechtstarter der Branche. Die Geschichte des Unternehmens beginnt zwar 1985, aber erst am Ende des Jahrzehnts begann das Engagement als Online-Dienst. Das Angebot ähnelt dem von CompuServe,
wenngleich AOL durch eine Allianz mit Bertelsmann gewisse Vorteile hinsichtlich des angebotenen Inhalts hatte. 1995 überholte AOL den bisherigen Branchenprimus CompuServe und nur zwei Jahre später erfolgte die Übernahme. Erst Mitte der 90er Jahre begann sich der Konzern von Bill Gates mit dem Microsoft Network (MSN) auf dem Markt zu
engagieren.670 Auch Unternehmen der Elektro-, Computer- und Telekommunikationsindustrie initiierten Projekte, beschränkten die Aktivitäten anfangs allerdings auf den USMarkt. Mitte der 90er Jahre waren dort vor allem Prodigy (IBM und Sears Roebuck), GEnie (General Electric) und Delphi (MCI und Rupert Murdochs News International) von Bedeutung.671 In Deutschland mutierte Btx (Bildschirmtext), 1984 eingeführt und letztendlich
gescheitert,672 über das ebenfalls kränkelnde Datex-J (Data Exchange für Jedermann),673
zum Erfolgsunternehmen T-Online (Telekom Online).674 Keiner der genannten OnlineDienste ist Teil des Internet. Wilke fasst die Unterschiede zusammen:
„Kommerzielle Online-Dienste machen über Telefonleitung und Modem gegen Gebühren Informationen verschiedenster Art am Personal Computer zugänglich [...].
Kennzeichnend für die Online-Dienste ist die hohe Aktualität und die ständige Verfügbarkeit. Im Unterschied zum Internet, das wegen der fehlenden Ordnung die gezielte Suche erschwert [...] bieten die Online-Dienste ihre Angebote in einer nutzerfreundlichen Strukturierung an. Dafür muß dann auch gezahlt werden [...]“.675
Jochen Zimmer stellte im Oktober 1995 fest, dass „Online-Dienste binnen weniger Monate
von einem Flop zu einem Topthema“676 wurden. Worauf gründete dieser plötzliche Erfolg?
1995 war es zu einer allgemeinen Erweiterung der Produktpalette gekommen - das Angebot der traditionellen Online-Dienste CompuServe, AOL und Prodigy umfasste erstmals
die Möglichkeit mit umfassender Funktionalität auf das Internet zuzugreifen.677 Auch das
in diesem Jahr eingeführte T-Online erlaubte im Gegensatz zu Datex-J die Nutzung von
E-Mails, WWW und anderen Diensten.678 Die Verbindungen sind seitdem mit Einbahnstraßen vergleichbar: Zwar können AOL-Kunden die – meist freien - Angebote des Internet,
z.B. FTP- oder WWW-Server, nutzen, der Zugriff aus dem Internet auf den eigentlichen,
Vgl. Alpar, 270 – 278 und Wilke, Multimedia, 754.
Vgl. Zimmer, Online-Dienste, 483. Apple eWorld und Europe Online bleiben hier unerwähnt, da sie 1996,
ein Jahr nach der Markeinführung, bereits wieder verschwunden waren.
672 Vgl. Königshausen, passim.
673 Vgl. Zimmer, Online-Dienste, 483.
674 Vgl. Schmid, Evolution, 149-152.
675 Wilke, Multimedia, 754.
676 Zimmer, Online-Dienste, 476.
677 Vgl. Zakon.
678 Vgl. Schmid, Evolution, 151.
670
671
109
internen Bereich des Online-Dienstes ist aber nicht möglich. Er bleibt (mit Ausnahme der
Möglichkeit E-Mails in beide Richtungen zu versenden) den Kunden des jeweiligen
Dienstes vorbehalten. Umfragen zufolge bindet sich ca. die Hälfte aller Internetnutzer in
Europa vertraglich an eines dieser Unternehmen – ein Anteil, der über Jahre bei gleichzeitig starkem Anstieg der Nutzerzahlen, relativ stabil blieb.679
Die Verflechtung der Branche mit Medienkonzernen, schon 1995 bei AOL/Bertelsmann
und Delphi/Murdoch zu erkennen, wurde zunehmend enger. Generell ist in der Medienlandschaft seit Mitte der 90er Jahre ein „Klimawechsel“ zu beobachten. Die Entwicklung
wurde von immer neuen „Megafusionen“ bestimmt, an denen u.a. Microsoft (NBC-Network) und MCI (Murdoch) beteiligt waren. Angeheizt von der NII-Initiative680 entspannte
sich ein Kampf um Inhalte für das große Geschäft der Zukunft, dessen vorläufiger Höhepunkt die angekündigte Übernahme von Time Warner durch AOL im Januar 2000 war.
Die Interneteuphorie hatte dem Online-Dienst ein Aktienvermögen von 257 Milliarden DMark bei einem jährlichen Umsatz von 8,5 Milliarden beschert (DaimlerChrysler repräsentierte zu diesem Zeitpunkt einen Aktienwert von ‚nur’ 149 Milliarden mit einem Umsatz
von ca. 300 Milliarden).681 Die Visionen von AOL sind klar zu erkennen: Printmedien,
Fernsehsender, Film- sowie Musikproduktion (EMI) und Online-Dienst, vereint unter einem Dach mit einheitlicher Marketingstrategie und gegenseitiger Unterstützung, ergänzt
durch die Aussicht auf eine digitale Distribution über das eigene Netz. Ein „konglomerater“682 Konzentrationsprozess, der nicht nur kartell- bzw. wettbewerbsrechtlich problematisch ist, sondern die unabhängige, pluralistische Medienlandschaft gefährdet, die „zum
unverzichtbaren Bestandteil liberal-demokratischer Systeme“683 gehört.
4.4.2. Durchsetzung in Europa und den USA
Mit der Privatisierung und dem Erfolg der privaten Online-Dienste in den 90er Jahren
drangen neue Nutzergruppen in das Internet. Das Wachstum verlief weiterhin exponentiell, was bei einer Beschränkung auf private und öffentliche Forschungseinrichtungen
oder Universitäten aufgrund der Sättigungsgrenze nicht möglich gewesen wäre. Die Dynamik des Prozesses wird erst mit linearer Skalierung erkennbar - exponentielles
Wachstum bedeutet eine fortlaufende Steigerung der Zuwachsraten. Die Entwicklung vor
der Privatisierung erscheint bei einer rein quantitativen Betrachtung fast unbedeutend.
In einem 1998 erschienenen Sammelband warnt Kubicek: „alle Graphiken, die das expo-
679
Vgl. Anhang D..
Vgl. Kleinsteuber, Konzentrationsprozesse, 27f..
681 Vgl. Bredow, 92. Der Vergleich von Umsatzzahlen und Aktienwert ist problematisch. Die Zahlen sollen
lediglich verdeutlichen, welchen Vertrauensvorschuss die Aktionäre den Unternehmen der Branche entgegenbrachten.
682 Knoche, 732.
683 Kleinsteuber, Konzentrationsprozesse, 31.
680
110
nentielle Wachstum der Internetrechner und –teilnehmer zeigen, [sind] irreführend. Die
Diffusion von neuen Medien folgt stets einer S-förmigen Kurve. Die entscheidende Frage
ist, wann die Kurve für das Internet aus der exponentiellen Phase in die Sättigungsphase
abknickt“.684 Es ist anzunehmen, dass die Recherchen für seine Arbeit 1997 durchgeführt
wurden. Zwischen Juli 1997 und Januar 2000 hat sich die Anzahl der Internetrechner von
20 Millionen auf über 70 Millionen erhöht, also mehr als verdreifacht. Kubiceks Einschätzung der weiteren Entwicklung ist damit nicht widerlegt, noch sind aber keine Anzeichen
für eine Sättigungsphase zu erkennen.
80000000
70000000
60000000
50000000
40000000
Internet Hosts
30000000
20000000
10000000
Nov 99
Nov 98
Nov 97
Nov 96
Nov 95
Nov 94
Nov 93
Nov 92
Nov 91
Nov 90
Nov 89
Nov 88
0
Abb. 12. Wachstum des Internet zwischen 1988 und 2000. 685
Konkrete Angaben über Nutzerzahlen sind tatsächlich schwierig und deshalb irreführend.
Eine der Ursachen ist die heterogene und dezentrale Struktur, denn auch nach der Privatisierung blieb das Internet „a loosely-organized international collaboration of autonomous,
interconnected networks“.686 Es gibt keine Zentralstelle, die Nutzerzahlen systematisch
erfasst. Was bleibt sind Angaben über Hosts, für die verhältnismäßig zuverlässige Daten
vorliegen. Von wie vielen Personen die Rechner jedoch genutzt werden, lässt sich nur
grob schätzen. Aufgrund den Angaben von McKenzie ergab sich ein Durchschnitt von 140
Nutzern pro Host im ARPANET der frühen 70er Jahre.687 Damals dominierten die großen,
sehr teuren und entsprechend intensiv genutzten Mainframes die Computerlandschaft. Im
Juli 1980 schätzte Major Joseph Haughney, Network Manager der DCA, die Anzahl der
Nutzer auf vier- bis fünftausend.688 Demnach teilten sich jeweils 20 bis 25 Personen einen
Host. Das BBS WELL war über lediglich einen Computer mit dem Internet verbunden,
684
Kubicek, Internet, 66f..
Das Diagramm wurde für den Zeitraum bis 1997 anhand der Informationen von Merit erstellt. Merit bezieht
sich auf Lottor, der seine Ergebnisse bis 1991 als RFC (RFC 1296) veröffentlicht hatte. Die Erhebungen wurden anfangs vom SRI, später von den „Network Wizards“ finanziert .Vgl. Merit Network Information Center,
computers. Die Angaben nach Juli 1997 sind dem Internet Domain Survey des Internet Software Consortiums
entnommen. Vgl. Internet Software Consortium, Survey.
686 RFC 1310.
687 Vgl. Kapitel 2.4..
688 Vgl. A-News 01.
685
111
repräsentierte aber Tausende, die in dem System miteinander kommunizierten.689 Die
Nutzerzahlen pro Internetrechner unterliegen einem zeitlichen Wandel und können im
Einzelfall stark differieren. Peter H. Salus schätzt jeweils durchschnittlich 3,5 bis 10 Nutzer
in den 90er Jahren und bezieht sich auf Quarterman sowie die ISOC, will sich aber auf
keinen der Werte festlegen.690 Mit diesen Multiplikatoren ergibt sich für Juli 1995 eine Anzahl von 23 bis 66 Millionen Internetnutzern und für Januar 2000 von 252 Millionen bis
720 Millionen. Für die 80er und frühen 90er Jahre besteht zudem das Problem der Definition, was unter einem Internetzugang zu verstehen ist. Sollen alle Nutzer der Matrix hinzugezählt werden, obwohl sie teilweise lediglich via E-Mail und Newsgroups mit dem Internet in Verbindung standen (i.e. UUCP, BITNET, CompuServe bis 1995, etc.) oder gilt
nur der vollständige Zugang (inklusive Telnet, FTP, WWW). Ein grundlegendes, methodisches Problem ist das Fehlen einer klaren Definition des Begriffs Internetnutzer, der
strenggenommen nicht mit den Personen gleichgesetzt werden kann, die über einen Zugang verfügen. Jochen Zimmer zitiert z.B. eine Untersuchung, wonach sich im Durchschnitt 1,4 Personen den Anschluss bei den kommerziellen Online-Dienste teilen.691 Zählen Personen, die ab und zu bei Freunden oder Bekannten ‚surfen’? Angaben über die
Anzahl der Internetnutzenden sollten generell kritisch betrachtet werden. Mehr als grobe
Schätzungen sind nicht möglich, die aufgrund der Dynamik des Wachstumsprozesses
zudem schnell veraltet sind.
Mitte der 90er Jahre entdeckten Geistes- und Sozialwissenschaften den Forschungsgegenstand der computerwissenschaftlichen Fakultäten, der sich vor vielen Jahren zu einem
wertvollen Werkzeug entwickelt hatte, als Thema. In Soziologie, Politik- und Kommunikationswissenschaften entstanden Arbeiten, die sich mit dem Internet und den Menschen,
die darin kommunizieren, Informationen sammeln oder sich amüsieren, auseinander
setzten. Nun wurden erstmals systematisch Daten erhoben. Die Durchführung herkömmlicher Umfragen war und ist beim Internet relativ schwierig, da der Verbreitungsgrad in der
Bevölkerung im Vergleich zu anderen Medien gering ist und deshalb die klassischen
Instrumente der Markt- und Meinungsforschungsinstitute (mündliche Befragungen bzw.
Telefoninterviews) an die Grenzen der Rentabilität stoßen.692 Internetinterne Erhebungen,
bei denen Batinic zwischen reaktiven und nicht-reaktiven Verfahren unterscheidet, bieten
sich als Alternative an. Im Rahmen dieser Arbeit soll vor allem die demographische Zusammensetzung dargestellt werden, die sich nur über reaktive Verfahren erfassen
lässt.693 Die prominentesten Methoden dieser Kategorie sind Fragebögen im WWW oder
689
Vgl. Rheingold, 105.
Vgl. Salus, Casting, 220f..
691 Vgl. Zimmer, Profile, 488.
692 Vgl. Batinic, 196. Die Arbeit von Batinic u.a. wurde 1997 veröffentlicht und zitiert eine Allensbachstudie von
1995, wonach lediglich 3% der Gesamtbevölkerung das Internet nutzen. Von 1000 Befragte würden folglich
nur 30 in die zu untersuchende Kategorie fallen. Vgl. ebd., 197.
693 Bei nicht-reaktiven Verfahren könnten z.B. Server-Log-Analysen, protokollierte Eingaben bei Suchmaschi690
112
E-Mail-Formulare, die allerdings eine aktive Rolle von den Teilnehmern erfordern. Sie
müssen nicht nur ausgefüllt, sondern im unübersichtlichen Web gefunden werden, was zu
einer „Selbstselektion“ führt, die zur Folge haben kann, dass bestimmte Personengruppen
(Nutzer mit billigem bzw. kostenlosem Zugang oder überdurchschnittlicher Aktivität) überrepräsentiert sind.694
Zwei internetinterne Untersuchungen sind hervorzuheben: der WWW User Survey des
Graphic, Visualization & Usability Centers (GVU) der technischen Hochschule von Georgia sowie die von Susanne Fittkau und Holger Maas 1995 initiierte Studie W3B. Beide
wurden über einen Zeitraum von fünf Jahren etwa halbjährlich durchgeführt, weisen hohe
Fallzahlen auf und verwenden dieselbe Methodik, was Vergleiche erlaubt, die vor allem
deshalb interessant sind, da sich die GVU-Surveys hauptsächlich auf die USA konzentrieren, W3B dagegen deutsche bzw. (seit 1998) europäische Teilnehmer rekrutiert.695
Die jeweils ersten Erhebungen aus den Jahren 1995 bzw. 1994 haben charakteristische
Übereinstimmungen. In beiden liegt der Männeranteil bei über 90% und etwa die Hälfte
aller Internetnutzer ist dem Bereich der Hochschulen zuzuordnen. Entsprechen hoch ist
das Bildungsniveau. In der ersten Studie von Fittkau und Maas wird die Frage nach dem
Schulabschluss von 95% mit Abitur beantwortet. Besonders attraktiv scheint das Internet
Mitte der 90er für die 20 bis 30-Jährigen zu sein. In den USA stellen sie mehr als die
Hälfte aller Teilnehmer und in Deutschland liegt das Durchschnittsalter mit 29 Jahren
ebenfalls in diesem Bereich.696 Frauen, Senioren oder Personen unter 20 anzutreffen, war
noch 1995 keine leichte Aufgabe. Bis Ende der 90er Jahre zeichnen sich massive Veränderung der demographischen Struktur ab. Der Frauenanteil in Europa und den USA steigt
kontinuierlich an. W3B beziffert ihn im April/Mai 2000 mit 25% und GVU nennt im April
1998 für die USA 41%.697 Auch der Anteil der Personen mit abgeschlossenem Abitur nähert sich dem Durchschnitt der Allgemeinbevölkerung, stabilisiert sich aber seit 1998 mit
ca. 60% auf hohem Niveau. Am deutlichsten ist der Wandel bei den Studenten. Sie verloren in Deutschland bereits 1996 ihre Spitzenposition an die Angestellten, die heute fast
die Hälfte aller Internetnutzer stellen. Der Anteil der Studenten und Doktoranden sinkt bis
Ende 1999 auf 15%. In den USA bezeichnen sich bereits Ende 1998 nur noch 12% als
„Student“ oder „Researcher“. Hinsichtlich der Alterstruktur ist in den USA und Europa ein
Trend zur Nivellierung der Unterschiede bei den über 20-Jährigen zu beobachten. Fast
ein Fünftel aller Teilnehmer des letzten GVU-Surveys ist über 50 und die 40 bis 50-Jährinen des WWW (z.B. Altavista bzw. Yahoo) oder das Verhalten in Chat-Räumen untersucht werden.
694 Vgl. Batinic, 197-199.
695 Vgl. Fittkau und Rossignac.
696 Die Ergebnisse der beiden Umfragen wurden in tabellarischer Form in den Anhang aufgenommen. Im
WWW sind sie auf viele HTML-Seiten verteilt, sodass ein Vergleich der Werte sehr mühsam gewesen wäre.
Vgl. Anhang C. und D..
697 Im Oktober 1998, der bisher letzten Erhebung des GVU, fällt der Frauenanteil auf 36%. Dies bedeutet
jedoch noch keine Trendumkehr. Bei dem 10. Survey war die Beteiligung mit ca. 4200 auswertbaren Fragebögen deutlich geringer als noch ein halbes Jahr zuvor. Vgl. Anhang D..
113
gen bilden die stärkste Gruppe der neunten und zehnten Umfrage. Auch in Deutschland
und Europa steigt der Altersdurchschnitt kontinuierlich an. Im Jahr 2000 nutzt die Gruppe
der 30 bis 40-Jährigen das Internet am intensivsten. Erstaunlicherweise sinkt der Anteil
der unter 20-jährigen in beiden Erhebungen auf ca. 5%.698 Als Ergebnis bleibt festzuhalten, dass eine eindeutige Tendenz zur Angleichung der demographischen Struktur an die
Gesamtbevölkerung zu erkennen ist. Der von Marschall 1999 festgestellte elitäre Charakter der Onlinekommunikation699 beginnt sich also in Europa und Nordamerika aufzulösen. Der Prozess ist in den USA weiter fortgeschritten, aber keinesfalls abgeschlossen –
noch immer gibt es signifikante Unterschiede.
1996 erscheinen die ersten internetexternen Umfragen, bei denen das Problem der
Selbstselektion entfällt. Sie bestätigen eine Rückständigkeit zu den Vereinigten Staaten,
die sich auch in der Computerdichte manifestiert. In den USA hatten 1996 durchschnittlich
doppelt so viele Haushalte das für eine Onlinenutzung noch immer unverzichtbare Endgerät.700 Mit den ARD/ZDF-Online-Studien der Jahre 1997 bis 1999 liegen seriöse Untersuchungen vor, die zwar geringere Teilnehmerzahlen aufweisen als die internen Erhebungen, aber auf einem zuverlässigen Sample von jeweils ca. 1000 Onlinenutzern über
14 Jahren basieren, das anhand von bis zu 10.000 „bevölkerungsrepräsentativen Interviews“ erstellt wurde.701 Auf der Grundlage dieser Daten errechneten die Autoren einen
Anteil der Onlinenutzer in der erwachsenen Gesamtbevölkerung von 6,1% für das Jahr
1997, warnten aber vor einer zu euphorischen Einschätzung der weiteren Entwicklung:
„eine Ausweitung des Onlinepotentials in der Bundesrepublik auf einen Anteil von über 10
Prozent in der Bevölkerung [kann] wohl nur dann erreicht werden [...], wenn verschiedene
Barrieren abgebaut werden“.702 Jochen Zimmer urteilte 1996, „daß eine gleichmäßige und
rasche Ausbreitung von Onlinediensten in alle Bevölkerungsschichten [...] keineswegs
gesichert ist“.703 Die vorsichtige Haltung wurde in den ARD/ZDF-Online-Studien angesichts der weiteren Untersuchungen aufgegeben. Bereits ein Jahr später wurde die prognostizierte Hürde genommen (1998: 10,4%) und 1999 war der Anteil auf 17,7% angewachsen, was 11,2 Millionen erwachsenen Bundesbürgern entspricht. Für die USA geben
die Autoren einen deutlich höheren Prozentsatz (40%) an,704 stellen aber beeindruckt von
der Entwicklung fest: „Das Internet entwickelt sich nun auch in Deutschland [bei quantitativer Betrachtung] zu einem Massenmedium“.705
Die Daten der letzten ARD/ZDF-Online-Studie wurden im April/Mai 1999 erhoben. Die
698
Vgl. Anhang C. und D.. Eine geringe Bereitschaft, sich an den Umfragen zu beteiligen, könnte die Ursache
für den erstaunlich niedrigen Anteil der unter 20-Jährigen sein.
699 Vgl. Marschall, 158.
700 Vgl. Zimmer, Profile, 487.
701 Vgl. Eimeren, 1998, 423.
702 Eimeren, 1997, 556.
703 Zimmer, Profile, 492.
704 Vgl. Eimeren, 1997, 548; Eimeren, 1998, 426 und Eimeren, 1999, 401.
705 Eimeren, 1999, 402.
114
DENIC eG (Deutsches Network Information Center), zuständig für die zentrale Registrierung der de-Domains und die Administration des Internet in Zusammenarbeit mit entsprechenden internationalen Organisationen (RIPE NCC bzw. ICANN),706 gibt für diesen Zeitraum 1,6 Millionen Internetrechner in Deutschland an,707 woraus sich errechnen lässt,
dass ein Host durchschnittlich von 7 Personen genutzt wird. Diese Größenordnung ist
durchaus realistisch und stützt die Ergebnisse der Online-Studie. Die Zahlen zur Demographie der Nutzenden bestätigen, trotz partieller Abweichungen, den Trend der internetinternen Erhebungen, sodass sie nicht einzeln aufgeführt werden müssen. Der Anteil von
Jugendlichen ist jedoch signifikant höher. Insgesamt „zeichnet sich 1999 ein partieller
Strukturwandel in Richtung älterer, formal niedriger ausgebildeter und nicht berufstätiger
Bevölkerungsschichten ab [...]. Die zunehmende Verbreitung des Mediums Internet in
breiten Gesellschaftsschichten ist auch hinsichtlich der Kriterien Bildung, Berufstätigkeit
und Geschlecht festzustellen“.708 Wesentlich für die beachtlichte Zunahme und die Veränderung der demographischen Struktur ist die private Nutzung. 72% aller Befragten können von zu Hause aus auf das Internet zugreifen (42% nur von zu Hause).709 Die Durchsetzungsphase oder Diffusion der neuen Technik ist inzwischen weit vorangeschritten.
Längst ist die kritische Schwelle genommen, jenseits derer sich Innovationen eigendynamisch, inkrementell weiterentwickeln.710 Ob das Internet den Verbreitungsgrad traditioneller Massenmedien erreichen wird, ist schwer vorauszusagen.
4.4.3. Das Internet und traditionelle Medien
Betrachtet man die Entwicklung Mitte der 90er Jahre im Spiegel eines Nachrichtenmagazins, so lässt sich die erstaunliche Karriere des Netzwerkkonglomerats nachzeichnen.
Noch 1993 war es Thema. Es erschienen zwar zwei Artikel, die sich dem Komplex Computernetze zuordnen lassen, sie behandeln aber Mailboxsysteme und den Online-Dienst
CompuServe.711 Auch in einem Beitrag zur Zukunft der Informationsgesellschaft, der in
die Serie „Trends 2000“ eingegliedert war, setzt sich der Autor vor allem mit dem Medium
Fernsehen auseinander.712 Der Jargon-File stellt fest, „1994 was [...] the year the
mainstream culture discovered the Internet“.713 Tatsächlich erschien im Februar 1994 in
Augsteins Presseerzeugnis nach mehrjähriger Abstinenz714 wieder ein Artikel, der das
706
Vgl. DENIC eG, Dokumente.
Vgl. DENIC eG, Statistiken.
708 Eimeren, 1999, 405. Der Bedeutungsrückgang der Studenten – eines der auffälligsten Ergebnisse der
W3B-Untersuchungen – war 1997, als die erste ARD/ZDF-Online-Studie erschien, bereits vollzogen und wird
dort deshalb nicht mehr erwähnt. Vgl. Anhang D..
709 Vgl. Eimeren, 1999, 402.
710 Vgl. Weyer, 40-45.
711 Vgl. Der Spiegel 17 (1993), 270-272 und 43 (1993), 233-240.
712 Vgl. Degler, passim.
713 Raymond.
714 1988 war über Morris’ „Great Worm“ berichtet worden. Vgl. Kapitel 4.1..
707
115
Thema Internet zumindest am Rande behandelt: die explodierende Nachfrage hatte zu
ersten Staus auf dem ‚Datenhighway’ und stundenlangen Totalausfällen bei AOL geführt.
Der Online-Dienst bot zu diesem Zeitpunkt lediglich die Möglichkeit E-Mails mit dem Internet auszutauschen, das nach einer Schätzung des Autors zu diesem Zeitpunkt von 20
Millionen Personen genutzt wurde.715 Im März verkündete das Nachrichtenmagazin stolz:
„Der SPIEGEL geht ‚online’: Im April wird er sein eigenes Datenangebot beim Kommunikationsdienst Compuserve präsentieren, an den weltweit mehr als 1,7 Millionen Computerbenutzer angeschlossen sind“.716 Im ersten Anlauf begnügte man sich mit dem Auftritt
bei einem der kommerziellen Online-Dienste. Im Oktober folgte der Internetauftritt des
Spiegels im WWW.717 Als im November 1994 ein Artikel über das von Microsoft geplante
MSN erschien, schaffte das Netz der Netze den Sprung in den Wirtschaftsteil.718 Bisher
waren die Berichte stets mit den Begriffen „Hochschule“, „Wissenschaft“, „Computer“,
„Medien“ oder „Gesellschaft“ kategorisiert worden.
Im März 1996 widmete der Spiegel dem Thema eine erste Titelgeschichte: „Die Welt online – D@s Netz“. Der Artikel, der „diese körperlose Wirklichkeit, in der sich Science Fiction, Wildwest-Stimmung und anarchistischer Pioniergeist treffen“719 beschreibt, leitete
gleichzeitig eine Serie ein. Bereits der zweite Teil „Goldgräber im Cyberspace“ ist dem
kommerziellen Potential des Internet gewidmet und geprägt von der Euphorie über die
prognostizierten Umsätze.720 Innerhalb weniger Monate war in der Berichterstattung aus
dem wissenschaftlich bzw. universitär geprägten Internet, von dem kaum jemand etwas
gehört hatte, das man eigentlich nicht verstand, geschweige denn von anderen Netzwerkkonzepten abgrenzen konnte, ein Medium geworden, dem man zutraute die gesamte
Wirtschaft und Gesellschaft zu revolutionieren.
Die spätestens 1996 einsetzende Omnipräsenz in traditionellen Medien entwickelte sich
zum Wachstumsmotor. „Auch die starke öffentliche Thematisierung des Internets in den
letzten Jahren veranlaßte viele Anwender, sich näher mit dem neuen Medium auseinanderzusetzen. So ist die zweite große Motivationsgruppe [neben Nützlichkeitserwägungen]
für die Einrichtung eines privaten Online-/Internetzugangs am ehesten über das Motiv
‚Zeitgeist’ beschreibbar“.721 Von der Medienpräsenz eines Themas lassen sich jedoch nur
bedingt Rückschlüsse auf dessen tatsächliche (mediale und gesellschaftliche) Bedeutung
ziehen. Das Verhältnis zu den traditionellen Massenmedien ist damit nur unvollständig
charakterisiert.722
715
Vgl. Der Spiegel 7 (1994), 165-168.
Der Spiegel 11 (1994), 3.
717 Vgl. Der Spiegel 43 (1994), 3.
718 Vgl. Der Spiegel 47 (1994), 100f..
719 Madzia, 67.
720 Vgl. Der Spiegel, 12 (1996), 116-132.
721 Eimeren, 1999, 403.
722 Auf die vieldiskutierte Frage der Konvergenz soll hier nicht eingegangen werden. Der ARD/ZDF-Online716
116
Als am 12. September 1998 der Untersuchungsausschuss zur Clinton/Lewinsky-Affäre
vor die Pressevertreter trat, verteilte der dafür zuständige Senator nicht wie sonst üblich
Material in gedruckter Form, sondern diktierte die URLs des „Star-Report“. Minuten später
sendete CNN Bilder von Redakteuren, die den Text auf ihrem Computerbildschirm kommentierten. Die Nachrichten erschienen im Internet, CNN blieb die Rolle eines Kommentators. Rainer Kuhlen bezeichnet dieses Ereignis in Analogie zu Neil Armstrongs großem
TV-Auftritt von 1969 als „Mondlandung des Internet“.723 In den Medien- und Kommunikationswissenschaften wurde der in diesem Zusammenhang wichtige Begriff der „Leitmedien“ geprägt. Eine Leitfunktion von Presseerzeugnissen kann sich aufgrund inhaltlicher
oder formaler Eigenschaften ergeben, d.h. durch das frühzeitige Aufgreifen von Themen
(Agenda-Setting) bzw. die Schaffung von Bezugsrahmen (Framing), die dann von anderen Medien aufgegriffen werden, oder durch die besondere Art der Gestaltung bzw. des
Layouts. Unterscheidet man zwischen technisch unterschiedlichen Mitteln zur Massenkommunikation, so kann man beobachten, dass das Fernsehen in den 60er Jahren zum
Leitmedium wurde, wobei Radio und Printmedien ihre bisherige Funktion abgaben.724 Der
„Star-Report“ ist das bekannteste Beispiel einer zumindest punktuellen Leitfunktion des
Internet. Die Entwicklung vollzieht sich sonst eher schleichend und weniger spektakulär.
Die Angabe von URLs bzw. E-Mail-Adressen bei Fernsehwerbespots oder Zeitungsanzeigen ist fast schon inflationär und das Design von Werbebotschaften orientiert sich zunehmend an der bunten Welt des WWW. Die Zitierhäufigkeit durch Journalisten, denen in
diesem Zusammenhang eine Multiplikatorfunktion zukommt, würde sich anbieten, die
These zu verifizieren. Noch fehlt allerdings entsprechendes statistisches Material.
Der „Star-Report“ war nicht das erste Ereignis, bei dem Journalisten auf Informationen
aus Computernetzen angewiesen waren. Die Nachrichten über die blutige Niederschlagung der Studentenproteste auf dem Tienanmenplatz gelangten zuerst auf diesem Wege
an die Weltöffentlichkeit,725 wurde dann aber von Fernsehbildern dominiert. Als Gorbatschow im August 1991 interniert wurde, besetzten die Putschisten zwar Radio- sowie
Fernsehstationen, vergaßen aber die Datenleitungen zu kappen. Über das ein Jahr zuvor
installierte Netzwerk gelangten E-Mails ins benachbarte Finnland und von dort in internationale Netzwerke. Den Unterstützern Gorbatschows um Jelzin ermöglichte die Infrastruktur eine Kommunikation untereinander und mit der restlichen Welt. In der Presse der
USA wurden die elektronischen Nachrichten aus Russland ausgiebig zitiert.726
Report untersucht die Frage, wie sich die Onlinenutzung auf den Konsum anderer Medien auswirkt. Vgl. Eimeren, 1997-1999, passim.
723 Vgl. Kuhlen, 91-96.
724 Vgl. Wilke, Leitmedien, 303ff..
725 Vgl. Kühnert, 230.
726 Vgl. Halbach, Netzwerke, 292f..
117
4.5. Globale „Internet-Connectivity“?
Die E-Mails aus Russland und China gelangten nur auf Umwegen ins Internet. Damals
hatten weder die Länder des ehemaligen Ostblocks noch die Staaten Afrikas Zugang. Bis
Ende der 80er Jahre blieb die Verbreitung im wesentlichen auf die Industrienationen Europas und Nordamerikas beschränkt.727 Die Möglichkeit der Onlinekommunikation wurde
im Verlauf der 80er Jahre von den „cooperative networks“ BITNET, UUCP und Fidonet
oder anderen, mit diesen Systemen verwandten Netzwerken, in weite Teile der Welt gebracht. Die Karten in Abbildung 13 illustrieren die Situation zu Beginn der 90er Jahre und
kontrastieren damit den Verbreitungsgrad Mitte 1997.
Abb. 13. Landwebers „Connectivity Maps“ von Februar 1991 und Juni 1997. 728
Kaum ein Land der Erde verfügt nicht über die inzwischen begehrte „Internet Connectivity“. Ist also tatsächlich ein globaler Kommunikationsraum entstanden, der das Gefälle
zwischen Nord- und Südhalbkugel beseitigen könnte und den Ländern der ‚Dritten Welt’
eine gleichberechtigte Nutzung des Mediums gestattet, an das in Europa und den USA
große Hoffnungen geknüpft werden? Lawrence Landwebers Karten deuten eine nahezu
vollständige Globalisierung an.
Betrachtet man jedoch die Hosts in Relation zu den einzelnen Domains bzw. Länderkennungen, so ergibt sich ein anderes Bild. Nach einer Aufschlüsselung des ISC (Internet
727
In Japan begann der Aufbau von Netzwerken ähnlich früh wie in Europa. Auch Australien schuf deutlich
vor den Ländern des Ostblocks und Afrika eine entsprechende Infrastruktur. Aus Platzgründen wurden diese
Entwicklungen ausgespart. Vgl. Salus, Casting, 88 und 192 sowie Quarterman, 515-530 und 535-551.
728 Die Karten wurden von Lawrence Landweber, dem Initiator des CSNET, erstellt und von der
computerwissenschaftliche Fakultät der Universität von Wisconsin im Internet veröffentlicht. Vgl. Landweber.
118
Software Consortium), auf den die ISOC verweist, sind ein Drittel aller Hosts, d.h. mehr
als 24 Millionen, der Toplevel-Domain com zugeordnet, die vor allem amerikanische,
kommerzielle Betreiber repräsentiert. Die westeuropäischen Staaten, Japan, Kanada und
Australien nehmen Spitzenpositionen ein. Auf Platz 31 erscheint mit Südafrika (ca.
167.000 Hosts) ein erstes Land des schwarzen Kontinents, dem erst an 77. Stelle Ägypten (4.640 Hosts) folgt. Viele Staaten des Kontinents verfügen über weniger als 100 Internetrechner, sind in Landwebers Karten aber unter der Kategorie „Internet-Connectivity“
erfasst.729
Natürlich können deutsche oder auch afrikanische Unternehmer bzw. Privatpersonen einen Rechner des Bereichs der Domain com nutzen, indem sie dort z.B. einen WWW-Server betreiben bzw. Speicherplatz für den eigenen Internetauftritt anmieten. Die Zugriffsmöglichkeiten sind aber eindeutig begrenzt. In einem Land mit weniger als 100 Hosts ist
selbst bei intensivster Auslastung die Nutzung auf wenige tausend Personen beschränkt.
Betrachtet man die Datenströme der weltweiten Netze – in verschiedenen Darstellungen
visualisiert – so gewinnt man den Eindruck, der afrikanische Kontinent sei für die Bits und
Bytes nicht existent.730 Diesen Zustand zu ändern, würde immense Investitionen benötigen. Wesentliche Voraussetzung für eine massenhafte Verbreitung, d.h. Nutzungsmöglichkeiten in Privathaushalten oder Unternehmen ohne eigenen Internetrechner, ist ein
funktionierendes Telefonsystem, über das von einem ansonsten isolierten Computer die
Verbindung zum nächsten Knoten hergestellt wird. In Afrika, Asien und Lateinamerika gibt
es auf diesem Gebiet massive Defizite.731 Noch 1995 hat mehr als die Hälfte der Weltbevölkerung nie in ihrem Leben telefoniert.732 Das von Brüne angeführte Iridium-Projekt, ein
weltweites, satellitengestütztes Telefonsystem, von dem sich 12 afrikanische Staaten versprachen in strukturschwachen Regionen auf den Aufbau eines teuren Festnetzes verzichten zu können,733 ging inzwischen pleite. Nach einer Meldung der Frankfurter Rundschau vom 20.3.2000 sollen die Satelliten im Orbit verglühen. Die Vorstellung, der Kontinent könne das Industriezeitalter einfach überspringen, entpuppt sich als Trugschluss.
Noch gilt: „Kein Platz für Afrikas Dörfer im Global Village“.734 Abgesehen von infrastrukturellen Problemen (wozu auch eine flächendeckende Stromversorgung gezählt werden
muss) sind Alphabetisierung und Englischkenntnisse unverzichtbare Voraussetzungen.
Es gibt zwar einzelne Beispiele für die Partizipation von Schwellenländern an der Internationalisierung der Arbeit und Produktion über die Netzwerke, meist werden damit jedoch
„die Strukturen der internationalen Arbeitsteilung ab[gebildet], wie sie historisch hinläng729
Vgl. Anhang E..
Dies gilt sowohl für das USENET der 80er Jahre als auch für das Internet der 90er Jahre. Vgl. Salus, Casting, 150 und Borchers, 133.
731 Vgl. Marschall, 157.
732 Vgl. German, 23.
733 Vgl. Brüne, 214.
734 Goergen, 38.
730
119
lich bekannt sind“.735
„For the society, the impact will be good or bad, depending mainly on the question: Will ‘to
be on line’ be a privilege or a right? If only a favored segment of the population gets a
chance to enjoy the advantage [...], the network may exaggerate the discontinuity [...]”.736
Die „Grenzenlosigkeit“ stellt sich (bisher) spätestens in der sog. Dritten Welt als „Mythos“
heraus, denn „wer sich im Außerhalb befindet, hat Pech gehabt“ 737 – das Internet als Ausgrenzungsmechanismus. So beeindruckend die Entwicklung während der 90er Jahre in
vielen Ländern verlief, von einer Globalisierung kann nicht gesprochen werden.
5. Das Erbe der Vergangenheit und die Aufgaben der Zukunft
Betrachtet man den gesamten Entwicklungszeitraum, so fällt auf, dass wesentliche Entscheidungen bereits in der Anfangsphase getroffen wurden. Sie waren mitverantwortlich
für den Erfolg des Internet und prägen es bis heute. Die Prinzipien kamen der militärischen Logik eines angriffssicheren Kommunikationsmittels entgegen, können aber nicht
darauf reduziert werden. Militärische, pragmatische, wissenschaftliche und ökonomische
Motive vermischten sich bei der Entwicklung des ARPANET sowie dessen Protokolle, die
im Ergebnis die Interessen der involvierten Akteure wiederspiegeln.
Die Dezentralität hinsichtlich Organisation, Technik und Netztopologie ist eines der konstantesten Charakteristika, manifestiert in den Protokollen, dem verteilten Design des
ARPANET - ohne zentrale Rechner oder Leitungen - und der dezentralen Entwicklung,
Verwaltung sowie Realisierung des Projekts. NCP und TCP/IP, basierend auf dem Prinzip
des „Packet-Switching“, konnten den Ausfall einzelner Knoten oder Leitungen durch die
Nutzung alternativer Routen kompensieren und erlaubten eine effizientere Auslastung der
Kapazitäten. DARPA bzw. IPTO finanzierten das Projekt zwar vollständig, betrieben
selbst aber keine Forschung, sondern koordinierten und delegierten die von verschiedenen universitären sowie privatwirtschaftlichen Einrichtungen durchgeführten Aufgaben.
Die einzelnen Hoststandorte realisierten die Anbindung an das Netzwerk eigenverantwortlich. Als das ARPANET mit anderen Projekten zusammenwuchs, hielt man an dieser
Konzeption fest und baute sie weiter aus. Den Einzelnetzwerken wurde in den frühen 80er
Jahren eine nahezu vollständige Autonomie zugestanden. Sie stellten Finanzierung, Ausbau sowie Verwaltung ihrer Projekte sicher und vergaben eigenverantwortlich Zugriffsrechte. Die Entscheidungsbefugnis der militärischen Behörden endete an den Grenzen
des ARPANET, das 1983 zum ersten Backbone avanciert war.
Auch das Grundprinzip der Heterogenität wurde bereits zu Beginn festgelegt. Das ARPA735
Becker, 38. Der Autor nennt Indien, Jamaika und die europäischen Staaten des ehemaligen Ostblocks.
Vgl. ebd., 31-34.
736 Licklider und Taylor, 40.
737 Debatin, 487.
120
NET umfasste Rechner diverser Hersteller und unterschiedlichster Betriebssysteme, obwohl eine Homogenisierung der technisch einfachere Weg gewesen wäre. Heute ist es
selbstverständlich, dass das Internet unabhängig vom Hersteller des Computers oder
Betriebssystems genutzt werden kann. Auch der später realisierte Zusammenschluss von
Netzwerken umfasste Projekte der unterschiedlichsten Größe, Technik und Zielsetzung.
Auffällig ist die über den gesamten Zeitraum offene Konzeption hinsichtlich der Informationspolitik und Nutzung. Die weitgehend skeptische Fachwelt wurde von Beginn an detailliert und offensiv informiert, was dem überstrapazierten Bild eines Militärprojekts widerspricht. Bereits in den 70er Jahren entwickelten sich in Europa und den USA wissenschaftliche sowie kommerzielle Projekte auf dieser technologischen Basis. Dass Privatunternehmen profitierten, entsprach den Absichten der Verantwortlichen. Die entwickelte
Software war stets frei verfügbar und das IAB machte in den 80er Jahren Lizenzfreiheit
zur Voraussetzung für Internetstandards. Die Diffusion öffentlich finanzierter Forschung in
den privatwirtschaftlichen Bereich, von Karen Frazer als „technology transfer“738 bezeichnet, gelang teilweise durch gewinnorientierte Projekte der involvierten Unternehmen wie
BBNs TELENET oder das ANSNet von Merit, IBM und MCI, wurde aber auch aktiv gefördert. Dass den Verkäufern von TCP/IP-Produkten Schulungen angeboten wurden oder
die NSF nach einer Anschubfinanzierung die Förderung der Netzwerke auf mittlerer
Ebene einstellte, dann aber eine kommerzielle Nutzung tolerierte, lässt darauf schließen,
dass mit der Erforschung und dem Aufbau der Infrastruktur bereits früh „industriepolitische
Ziele“739 verfolgt wurden. Die konkrete Nutzung des Netzwerks wurde nicht festgelegt. Die
liberale, offene Praxis der Militärbehörden bildete einen Kontrast zu den rigiden Zugangsbestimmungen, auf deren Einhaltung die DCA seit Mitte der 70er Jahre zunehmend Wert
legte. Als die NSF später eine AUP aufstellte, wurde lediglich eine kommerzielle Nutzung
ausschlossen.
In den 60er Jahren wurde von der ARPA Grundlagenforschung betrieben und mit dem
ARPANET eine radikale Innovation geschaffen. Die Erfolgsaussichten waren ungewiss
und ob sich ein Markt für die Technologie entwickeln würde, war nicht abzusehen. Der
Beitrag der Privatwirtschaft war äußerst gering und stets an Verträge der öffentlichen
Hand gebunden. CDC, IBM und andere etablierte Unternehmen der damaligen Computerindustrie zeigten kein Interesse. AT&T, der traditionsreiche, US-amerikanische Telekommunikationsgigant, hielt das Projekt für undurchführbar und hatte Paul Baran wenige
Jahre zuvor die Zusammenarbeit verweigert. Etablierte Institutionen neigen zu inkrementellen Lösungen, die auf bestehende Nutzungs- bzw. Nachfragestrukturen zurückgreifen
können und damit das Risiko minimieren. Die Förderung der Grundlagenforschung durch
die öffentliche Hand war beim Innovationsprozess von zentraler Bedeutung und erwies
738
739
Frazer.
Leib, Wissenschaftsnetze, 181.
121
sich bei der weiteren Verbreitung als vorteilhaft. Nachdem die Realisierbarkeit demonstriert war, profitierte die gesamte Branche von den Vorleistungen der DARPA und NSF.
Die Privatwirtschaft hatte andere Lösungen vorgesehen. Unternehmen der Computerindustrie, z.B. DEC (DECNET) und IBM (SNA), setzten bei ihren Netzwerken in den 70er
Jahren eine homogene Plattform mit Rechnern der eigenen Produktion voraus. BBN versuchte die IMP-Software vor potentiellen Konkurrenten zu schützen. Statt „technology
transfer“ zielte die Privatindustrie auf Sicherung bzw. Ausbau von Marktanteilen.
Die Theorie der technologischen Korridore bzw. Pfadabhängigkeiten sollte nicht überstrapaziert werden, dennoch kann die offene, dezentrale und heterogene Struktur auf technischer sowie organisatorischer Ebene als ein bisher stabiler „sozio-technischer Kern“ des
Internet interpretiert werden. Weyers These, wonach bei Innovationen die Generierung
dieser Grundstruktur von den Akteuren der Frühphase geleistet wird,740 kann am Beispiel
des Internet bestätigt werden. Ihre Nutzungsvisionen dienen nach Weyer jedoch primär
der Mobilisierung weiterer Akteure, verlieren dann aber schnell an Bedeutung bzw. werden durch neue Visionen ersetzt.741
Tatsächlich ist die kurze Geschichte des Internet von einer großen Variabilität der Anwendungen gekennzeichnet, mit denen jeweils charakteristische Absichten verbunden waren.
Die Initiatoren des ARPANET hatten ein „Resource Sharing”-Netzwerk anvisiert, d.h.
Kostensenkung durch effizientere Nutzung der verteilten Hard- und Software. Angesichts
der Budgetkürzungen Ende der 60er Jahre verhalf diese Vorstellung dem Projekt bei behördeninternen Verteilungskämpfen zu Forschungsgeldern und diente später vor dem
amerikanischen Kongress neben militärischen Nutzungsvisionen zur Legitimation. In der
Praxis wurde von diesen Möglichkeiten nur wenig Gebrauch gemacht.
Anfang der 70er Jahre tauchten die ersten E-Mails auf und prägten bald das Erscheinungsbild des ARPANET. Aus dem Computernetzwerk war ein Kommunikationsmittel
geworden, das sich von dem engen computerwissenschaftlichen Kontext löste, neue Nutzergruppen erschloss und sich in Bereichen etablierte, die kein grundsätzliches Interesse
an Netzwerktechnologie hatten. Die Ausbreitung führte zu einer zunehmend heterogenen
Struktur der Akteure mit teilweise konkurrierenden Interessen und hatte letztendlich die
Abtrennung des militärischen Teils zur Folge.
Die Möglichkeit elektronische Nachrichten auszutauschen, wurde zum Wachstumsmotor
für den Netzaufbau im Allgemeinen. Der Zugang zum ARPANET war limitiert, was indirekt
die Entwicklung kommerzieller und wissenschaftlicher Alternativprojekte in Europa und
den USA förderte. Diese vom ARPANET bzw. Internet anfangs isolierten Netzwerke,
wozu mächtige, transkontinentale Projekte wie UUCP oder BITNET zählten, hatten zwar
einen deutlich reduzierten Funktionsumfang, boten aber alle die Möglichkeit E-Mails zu
740
741
Vgl. Weyer, 35-40.
Vgl. Weyer, 38.
122
verschicken.
Mit der elektronischen Post sollte die Kommunikation der Forschung sowie der zivilen
bzw. militärischen Bürokratie über das ARPANET optimiert, nicht aber revolutioniert werden. Der Einsatz von E-Mails in Behörden oder Verwaltungen versprach gewisse Vorteile
gegenüber dem Briefverkehr oder Telefon. Auch die Distribution von wissenschaftlichen
Erkenntnissen konnte beschleunigt werden. Der Schreibstil mag weniger formalisiert gewesen sein, an den Hierarchien des realen Lebens sollte sich dadurch nichts ändern.
Bereits Mitte der 70er Jahre etablierten sich mit den Mailing-Listen erste gruppenbezogene Kommunikationsmöglichkeiten. Anfangs experimentell geprägt, entstanden bald
neue Listen zu unterschiedlichen Themen, in denen phasenweise ein reger Meinungsaustausch stattfand, was das Netzwerk erstmals an die Grenzen seiner Belastbarkeit
führte. Die Anziehungskraft blieb nicht auf das ARPANET beschränkt und gab den Impuls
zur Bildung des USENET. Anfangs nur via UUCP nutzbar, diffundierten die ‚Schwarzen
Bretter’ bald ins Internet und dominierten es bis in die frühen 90er Jahre. Für private Nutzer außerhalb von Universitäten und Unternehmen entstand in diesem Zeitraum mit den
häufig improvisierten, subkulturell geprägten Mailbox-Systemen eine Möglichkeit, an der
(zumindest in Teilöffentlichkeiten) inzwischen begehrten Onlinekommunikation zu partizipieren. In diesem Zeitraum entstand die Vorstellung von dem interaktiven, anarchischen
und internationalen Kommunikationsraum der Computernetze.
Anfang der 90er Jahre setzte sich ein neuer Dienst durch. Das WWW bedeutete nicht nur
eine Erleichterung der Nutzungsmöglichkeiten, wie andere Neuerungen zu Beginn dieses
Jahrzehnts, sondern beeindruckte durch Multimedialität. Bilder, Videos und Tondokumente wurden erstmals vollständig in eine einheitliche Oberfläche integriert. Damit verbunden war die Vorstellung, dass das Internet in naher Zukunft das Mediensystem revolutioniert und das multimedialen Web zu einem umfassenden Hypermedium mutiert. Totale mediale Konvergenz lautet die neue Vision, die u.a. von der amerikanischen NII-Initiative transportiert wurde: Radio, Fernsehen und Zeitung sollten nicht nur die Distributionskanäle auf Datennetze umstellen, sondern zu einem neuen, interaktiven Ganzen verschmelzen. Im Hypertextprinzip des WWW wurden die Visionen von Vannevar Bush und
Ted Nelson wiederentdeckt - das Internet als globaler Wissensspeicher, in dem Informationen frei verfügbar, assoziativ verknüpft und jederzeit abrufbar sind: Nemex bzw. Xanadu
in Vollendung, ein passendes Modell für die kommende Informationsgesellschaft. Mitte
der 90er Jahre entdeckte die Privatwirtschaft, dass über das Netzwerk auch Handel betrieben werden konnte. Mit den ersten Einkaufshallen seit 1994 hielt der E-Commerce
Einzug in das bis dahin universitär geprägte Konglomerat. In manchen Vorstellungen erweiterte sich das Bild zu einer Revolutionierung der gesamten Wirtschaft. Wer die Zeichen der Zeit nicht erkennt, hat Pech gehabt und wird sich bald nicht mehr behaupten
können, lautete die neue Devise. Unterstützt und transportiert wurden die Visionen der
123
90er Jahre von den traditionellen Medien. Das Internet stieg in kürzester Zeit zum Statussymbol und Synonym für Modernität auf.
Mit jeder der technischen Neuerungen waren Vorstellungen verbunden, die eine Erweiterung und Neustrukturierung der Akteurskonstellationen bewirkten. Zu den computerwissenschaftlichen Labors gesellten sich erst Behörden und fachfremde Fakultäten der
Hochschulen. In den 80er Jahren folgten technophile Privatnutzer und die ersten kommerziell erfolgreichen Projekte. Seit Mitte der 90er Jahre investierte die Privatindustrie immense Summen, Medienkonzerne fusionierten mit Online-Diensten, Netzbetreibern bzw.
Softwareproduzenten und der Internetauftritt eines Unternehmens wurde fast schon obligatorisch. Inzwischen kann etwa ein Drittel aller Hosts der Domain com zugeordnet werden. Der Online-Anschluss drang zeitgleich bis in die Privathaushalte vor und das bisher
kaum wahrgenommene Internet wurde zu einem Politikum.
Inzwischen ist es ein soziales und ökonomisches Faktum von gesamtgesellschaftlicher
Bedeutung. In den USA sind 40% der Bevölkerung vernetzt, in Deutschland und Europa
knapp 20%. Sättigungstendenzen sind noch keine zu erkennen und die soziodemographische Zusammensetzung der Nutzenden in den Industrienationen beginnt sich dem Bevölkerungsdurchschnitt anzugleichen. Brian Reid schrieb 1979 in der MSGGroup: „with each
major advance in communication technology there has been a corresponding revolution in
the way ordinary people live their lives [...]. Alphabetic writing permitted the accumulation
and exchange of knowledge. Gutenberg's movable type allowed printing to be for Everyman. Television has caused a revolution of some kind [...]”.742 Im Internet haben sich virtuelle Gemeinschaften gebildet und bei Einzelnen dominiert die digitale Parallelwelt bereits
den Alltag. Mit der Internetökonomie ist ein neuer Wirtschaftszweig entstanden und die
ersten Radiostationen des Web sind auf Sendung. Dennoch: Der prognostizierte revolutionäre, gesamtgesellschaftliche und mediale Umbruch ist bisher ausgeblieben.
Die Variabilität und Vielfalt der Nutzungsmöglichkeiten (und –visionen) ist erstaunlich und
unterscheidet das Internet von anderen technischen Medien. Neben den behandelten
Diensten haben sich Multi User Dungeons (MUD), Internet Relay Chat (IRC) und verschiede Messenger-Systeme ausgebreitet - eine Liste, die sich fast beliebig erweitern
ließe und durch anwendungsinterne Ausdifferenzierung und Weiterentwicklung zusätzlich
verkompliziert wird. Förderlich waren die Eigenarten des Computers, dessen Potential
Licklider und Taylor bereits 1968 erkannten: „Creative, interactive communication requires
a plastic or moldable medium that can be modeled, a dynamic medium in which premises
will flow into consequences [...]. Such a medium is at hand - the programmed digital computer”.743 Diese Tatsache allein erklärt jedoch nicht die für das Internet charakteristische
Entwicklungsschnelligkeit. Andere Konzepte wie z.B. das BITNET nutzten ebenfalls den
742
743
MSGGroup # 0844.
Licklider und Taylor, 22.
124
Computer, waren aber weitaus statischer und verfügten nie über eine vergleichbar umfassende Funktionalität. Das Internet hatte den Vorteil, dass es bis weit in die 90er Jahre
staatlich subventioniert wurde. Eine Finanzierung durch die öffentliche Hand ist aber
ebenfalls kein Garant für Innovationen. In Europa verlief der Prozess bedeutend langsamer, wenngleich der Aufbau der wissenschaftlichen Infrastruktur ebenfalls vollständig vom
Staat geleistet wurde. Auch die Projekte der nationalen Telefongesellschaften scheiterten.
Hervorzuheben ist die Bedeutung der Nutzenden: Die E-Mail-Experimente von Roy Tomlinson und anderen, das USENET-Projekt von Tom Truscott und seinen Kommilitonen
sowie das am CERN entwickelte WWW, die große Entwicklungssprünge bei den Anwendungen auslösten, waren ohne Auftrag der DARPA oder NSF initiiert worden. „From its inception, the Internet has been, and is expected to remain, an evolving system whose participants regularly factor new requirements and technology into the design and implementation of the global Internet”.744 NWG, ICCB oder IAB mit entsprechenden Suborganisationen, die prinzipiell für diese Aufgabe vorgesehen waren, konnten lediglich reagieren. Über HTTP wurde in den RFCs erst 1996 informiert und im Gegensatz zu Telnet bzw.
FTP hat das Protokoll bis heute nicht den Rang eines Internet Standards.745
Trotz konkreter Nutzung blieb das Projekt über den gesamten Zeitraum „an object of research and a platform for other research”746 - Forschungsgegenstand mit experimentellem
Charakter und Werkzeug der Wissenschaft. Dieser Umstand hatte zur Folge, dass zumindest ein Teil der Nutzer entsprechend ausgebildet und interessiert war. Experimente wurden nicht nur toleriert, sondern waren institutionell festgelegt. Auch bei Protokollen mit
offiziellem Auftrag wurde nach dem Grundsatz ‚Implementierung vor Standardisierung’
verfahren. Im Gegensatz zur Vorgehensweise der ISO musste TCP/IP die Funktionstüchtigkeit in der Praxis beweisen, ehe die Entwicklung für abgeschlossen erklärt wurde und
eine Standardisierung erfolgte. Die experimentelle Nutzung und dezentrale Entwicklung
brachte vereinzelt Probleme mit sich, führte zu divergierenden Interessen, Betriebsausfällen und teilweise improvisierten, inkompatiblen bzw. wenig komfortablen Lösungen.
Andererseits konnte sich auf diese Weise das kreative Potential frei entfalten.
Dieses Verfahren scheint nicht mehr in die Realität des Internet der späten 90er Jahre zu
passen, gilt aber prinzipiell noch heute. An die Stelle motivierter Hacker oder wissenschaftlicher Institutionen sind nun privatwirtschaftliche, gewinnorientierte Unternehmen
getreten. Sie müssen sich an den Bedürfnissen des Marktes orientieren, was zu ausgereifteren und komfortableren Produkten führt. Dass es dabei auch zu inkompatiblen Lösungen kommen kann, wie die unterschiedlichen Ansätze für DHTML (Dynamic Hyper744
RFC 1310.
Vgl. RFC 1945. Im Juni 1999 wurde die zweite Generation des Protokolls (HTTP 1.1.), die bisher nur
experimentell auf verschiedenen Servern eingesetzt wird, von dem IAB zum Draft Standard erhoben. Vgl.
RFC 2616.
746 Quarterman, 148.
745
125
Text Markup Language) der Browser von Microsoft und Netscape belegen, die den Standards des dafür prinzipiell zuständigen, von der IETF unabhängigen „Industrie-Konsortium[s]“747 W3C weit vorauseilen, ist prinzipiell nicht neu. Gewandelt hat sich die Zielsetzung. Trotz der diffizilen Situation mit diversen, konkurrierenden Lösungen z.B. bei der
Entwicklung der E-Mails bzw. entsprechender Software, die zu teilweise verbitterten Grabenkämpfen führte, war Postels Feststellung von 1977 konsensfähig: „It is clear that it is
in everyones interest to work together and cooperate to evolve the best system we
can“.748 Die primäre Zielsetzung der Privatindustrie ist zumindest mittelfristig das Erwirtschaften von Gewinnen, Microsofts und Netscapes Bemühungen folglich der Versuch den
Konkurrenten auszustechen. Welche der alternativen Lösungen sich durchsetzt, wird von
Marketingaktivitäten und anderen Mechanismen mitentschieden. Lizenzen treten an die
Stelle des Ideals „free sharing of information“. Setzt sich ein Konkurrent durch, so kann
das letztendlich innovationshemmende Folgen haben. Wie hätte sich das Internet entwickelt, wenn Tomlinsons’ Idee durch Lizenzen geschützt oder das WWW bei IBM anstelle
von CERN entstanden wäre?
Schon die technische Variabilität der vergangen Jahrzehnte verdeutlicht die Schwierigkeit
von Prognosen über die weitere Entwicklung. Eine lineare Fortsetzung beobachtbarer
Trends scheidet jedenfalls aus. Hanno Kühnerts Essay von 1997 trägt Titel: „Wenn das
Internet sich nicht ändert, wird es zerfallen“.749 Es wird sich ändern und dass es zerfällt, ist
wenig wahrscheinlich. Seit Jahren wird an Lösungen für höhere Übertragungsraten der
‚letzten Meile’ geforscht, d.h. der Verbindung zwischen Internetknoten und heimischem
PC, dem bisherigen ‚Nadelöhr’. Mit dem „Highspeed-Web-Zugang“,750 ist dann eine komfortable Film- und Musikdistribution prinzipiell möglich - Medienkonzerne und OnlineDienste sitzen bereits in den Startlöchern. Alternative Endgeräte, wie mobile Kleinstcomputer, Handys oder TV-Boxen, die eine Nutzung ohne Rechner zulassen, sind entwickelt
und werden in den nächsten Jahren den Charakter des Internet erneut beeinflussen.
Entscheidender ist aber der brüchige Zusammenhang zwischen technischen Möglichkeiten und etablierter Nutzungspraxis. Interaktivität ist bei Medien häufig ein Frühphasenphänomen, das bei massenhafter Nutzung trotz gleichbleibender technischer Möglichkeiten an Bedeutung verliert.751 Die meisten Autoren schätzen das bidirektionale Kommunikationspotential und leiten daraus weitreichende, demokratietheoretische bzw. interaktiv
mediale Visionen ab. Prinzipiell kann jeder Nutzer zum Sender werden, wodurch die
Trennung traditioneller Medien und Massenkommunikationssysteme aufgehoben wird und
eine Interaktivität entsteht, die weit über gesteigerte Selektionsmöglichkeiten hinausgeht.
747
Leib, Wissenschaftsnetze, 168.
MSGGroup # 561.
749 Kühnert, 225.
750 Zurawski, 34.
751 Vgl. Wittke, 97 und Kubicek, Massenmedium, 220f..
748
126
Ob das jedoch den Bedürfnissen breiter Bevölkerungsschichten entspricht ist eher unwahrscheinlich.
Das USENET, der Dienst des Internet, der diesen Vorstellungen am Nächsten kommt,
war auch in den 80er Jahren weit weniger interaktiv als allgemein angenommen und
wurde meist passiv in Anspruch genommen. In der ARD/ZDF-Online Studie 1999 waren
Informationsbeschaffung und E-Mails die wichtigsten Motive für die Einrichtung eines Onlinezugangs. Der Kontakt mit vielen Menschen spielte nur bei einem Drittel der Befragten
eine Rolle, und das Anbieten von Informationen tauchte überhaupt nicht auf.752 Lediglich
die Hälfte der Befragten hatte die potentiell interaktiven Anwendungen Newsgroups, Gesprächsforen oder Chat mindestens einmal genutzt.753 Auch in internetinternen Umfragen
ist der kommunikative Aspekt, abgesehen von E-Mails, nur von untergeordneter Bedeutung. Trotz des wahrscheinlich überdurchschnittlich aktiven Samples dominieren Informationsbeschaffung, Individualkommunikation und das Herunterladen von Software.754 Die
Sprache der Hacker hat für diese Nutzer eigene Begriffe geschaffen: Lurker („One of the
‘silent majority' in a electronic forum, [...] who posts occasionally or not at all but is known
to read the group's postings regularly”), Lamer („a person who downloads much, but who
never uploads”) oder Leech („One who consumes knowledge without generating new
software, cracks, or techniques”),755 klassische Rezipienten maletzgescher Prägung im
interaktiven Netz. Schon die Kommunikationschancen sind ungleich verteilt. Im WWW
sind zwar zwei beliebige Seiten über durchschnittlich 19 Links miteinander verbunden,
d.h. mehr oder weniger ‚benachbart’. Die Verteilung der Verweise ist aber nicht gleichmäßig, sondern umgekehrt proportional zur Häufigkeit der Seiten. Es gibt viermal mehr Angebote, auf die 10 Links verweisen, als solche mit 20 Links. Bevorzugt werden Seiten vernetzt, die bereits gut besucht sind.756 Wenn sich ein Nutzer des WWW entschließt, selbst
eine Kommunikatorfunktion einzunehmen, was Zeit, Geld und technisches Wissen erfordert, ist es fraglich, ob sein Angebot gefunden bzw. in Anspruch genommen wird.
Eng verknüpft mit dem interaktiven Potential ist die Vorstellung eines hierarchie- und herrschaftsfreien Kommunikationsraums, der sich bei genauerer Betrachtung der historischen
und aktuellen Verhältnisse jedoch als Mythos herausstellt. Das Netz war anfangs nur einer klar definierten Personengruppe zugänglich und an den Hoststandorten hatten „Technical Liaisons“ die Entscheidungsbefugnis über die Vergabe von Zugangsrechten, wobei
sie sich an die Vorschriften der Militärbehörden zu halten hatten. Die Mailing-Listen wurden von einem Verwalter dominiert und im USENET folgte den Betreibern des ‚Backbone’
752
Vgl. Eimeren, 1999, 404.
Vgl. ebd., 405. Foren entsprechen hinsichtlich der Funktionalität den USENET, sind aber in das WWW
eingegliedert.
754 Vgl. Fittkau.
755 Raymond.
756 Vgl. Kopp, 54-56.
753
127
eine Elite von aktiven Nutzern. Die Umstellung des ARPANET auf TCP/IP wurde von der
DCA nicht empfohlen sondern angeordnet. Die weitgehend liberale Praxis von DARPA,
DCA und NSF sollte nicht über die tatsächlichen Machtverhältnisse in den Netzwerken
der Organisationen hinwegtäuschen. Im Internet behielten die Betreiber der Einzelnetze
eine weitgehende administrative Autonomie, was die Möglichkeit zur Kontrolle der eigenen Infrastruktur einschließt. Provider entscheiden über die Inhalte auf ihren Servern und
sind selbstverständlich an nationale Gesetze gebunden.
Bezüglich der Weiterentwicklung entschied zuerst eine kleine Gruppe von Einzelpersonen
über die wesentlichen Fragen, bis sie von den zentralen Organisationen des Internet abgelöst wurden, die sich zunächst aus internationalen Forschern, Ingenieuren bzw. Vertretern der Bürokratie zusammensetzten. Bald wurden sie durch Mitglieder der Privatwirtschaft ergänzt, die schließlich dominierten. Eine demokratische Legitimation von Betreibergesellschaften, Providern oder zentralen Institutionen gab und gibt es trotz z.T. weitreichender Befugnisse nicht.757 Das Internet ist nicht hierarchiefrei, die Machtverhältnisse
sind aufgrund der heterogenen, dezentralen und internationalen Struktur lediglich fragmentiert und schwer zu durchschauen bzw. zu kontrollieren.
Das Informationsinteresse der Internetnutzer scheint der Vision eines globalen Wissensspeichers entgegenzukommen, mit der große, bildungspolitische Hoffnungen verbunden
sind. Tatsächlich gibt es Informationen, die auf anderem Weg nicht oder nur sehr aufwendig recherchiert werden können. Die Charakteristika des Mediums erlauben eine schnelle,
internationale und kostengünstige Distribution von Nachrichten, was dem Einzelnen theoretisch die Möglichkeit eröffnet, Informationen ungefiltert bzw. aus erster Hand abzurufen
oder zumindest über variable Perspektiven ein detailliertes Bild zu gewinnen. Lokale oder
in Massenmedien unterrepräsentierte Nachrichten werden im Idealfall global verfügbar.
Dadurch entfällt allerdings die Vorselektion, Wertung und Aufbereitung der Informationen
durch nationale Gesetze, Verlage oder professionelle Redaktionen. Sind breite Bevölkerungsschichten bereit bzw. in der Lage diese Mehrarbeit zu leisten? Wer sich z.B. über
die Verbrechen des Nationalsozialismus informieren möchte, stößt in den einschlägigen
Suchmaschinen758 auf über 400.000 Treffer. Seriöse Seiten wie ein Projekt der University
of the West of England759 stehen unkommentiert neben Angeboten von Holocaustleugnern wie Ernst Zündel oder Fred Leuchter.760 Ein Rezipient ist mit immensen quantitativen
sowie qualitativen Selektionsanforderungen konfrontiert und die Gefahr, sich falsch zu
informieren, ist in diesem konkreten Beispiel sogar von politischer Bedeutung.
Über Informationsangebot und –nachfrage sollte kein falscher Eindruck entstehen. Zu
757
Die ICANN lässt im Oktober 2000 erstmals fünf der neunzehn Direktoren von den Internetnutzern wählen.
Die restlichen Positionen werden von politischen und privatwirtschaftlichen Organisationen vergeben.
758 Z.B. http://www.altavista.com.
759 Vgl. http://www.ess.uwe.ac.uk/genocide/Holocaust.htm.
760 Vgl. z.B. http://www.revisionism.com/.
128
vielen Themen gibt es bisher ein eher dürftiges Angebot und Informationen, deren Erstellung oder Präsentation mit hohen Kosten verbunden waren, sind auch im Internet nicht
frei verfügbar. Datenbanken wichtiger Tageszeitungen oder die für diese Arbeit potentiell
interessante „DARPA/IPTO Oral History Collection“ der Universität von Minnesota sind
nur gegen Gebühren zugänglich. Zu Beginn des neuen Jahrtausends sind Bibliotheken
bzw. Bücher noch immer der umfassendste Wissensspeicher der Menschheit. Ihre Existenz allein bedeutet jedoch nicht automatisch ein höheres Bildungsniveau in der Bevölkerung. Es gibt zwar Internetangebote, die Funktionen des traditionellen Bildungssystems
übernehmen könnten, besonders beliebt ist bisher aber die Unterhaltung im weitesten
Sinne, einschließlich der Bereiche unterhalb der Gürtellinie, die seit Jahren eine herausragende Stellung einnehmen.
Einkäufe oder Bankgeschäfte über das Internet zu erledigen verspricht objektive Vorteile:
Komfort, Unabhängigkeit von Ladenöffnungszeiten, Markttransparenz und Preisnachlässe. Der E-Commerce hat in einigen Bereichen die kritische Schwelle bereits hinter sich
gelassen, etliche Unternehmen erwirtschaften solide Gewinne und es gibt kaum ein Produkt oder eine Dienstleistung, die nicht vertreten wäre. Euphorische Vorstellungen über
die weitere Entwicklung des Onlinehandels bzw. die kommende Bedeutung des Internet
für die Wirtschaft basieren auf einer weitgehend linearen Fortführung von Tendenzen. Die
Verlagerung auf das Internet bedeutet nicht zuletzt, dass „ein Teil der Tätigkeiten und
Funktionen, die zuvor von kommerziellen Dienstleitstern erbracht wurden, auf die Konsumenten“761 verschoben wird. Bei der Kontoführung ergeben sich Synergieeffekte, im Handel geht das Rationalisierungspotential meist zu Lasten des Kunden. Ob dass den Wünschen der Gesamtbevölkerung entspricht und sich aus wachsenden Umsätzen ein Ende
des Einzelhandels voraussagen lässt, oder Bill Gates These zutrifft, wonach Banken die
zum Aussterben verurteilten Dinosaurier der Onlineökonomie seien,762 ist zumindest fraglich. Trotz der steigenden Tendenz ist der E-Commerce für die meisten Nutzer in aktuellen Umfragen lediglich von marginaler Bedeutung und weist erkennbare Präferenzen für
einzelne Produkte (Computerartikel und Bücher) auf.763 Global betrachtet spiegeln sich in
der Verbreitung des Internet die ökonomischen Verhältnisse der realen Welt wieder, d.h.
die Hosts stehen fast ausschließlich in den Industrienationen. Das grenzenlose Netz fungiert bisher als Ausgrenzungsmechanismus, der das globale Ungleichgewicht zementiert,
anstatt der ‚Dritten Welt’ eine reelle Chance zu bieten.
Die mit dem Internet verbundenen Visionen lassen sich meist auf eine technikdeterministische, angebotsfixierte Betrachtungsweise bzw. eine lineare Fortsetzung oder Generalisierung beobachtbarer Trends und Nutzungspraktiken zurückführen. Hyperlinks bedeuten
761
Wittke, Online, 100.
Vgl. Noam, 150.
763 Vgl. Eimeren, 99, 404f. und Fittkau.
762
129
aber nicht per se, dass alles mit allem vernetzt wird, bidirektionale Kommunikationsangebote oder –praktiken bedeuten nicht, dass sie massenhaft nachgefragt werden und aus
der aktuellen Resistenz gegenüber staatlichen Regulierungsbemühungen konstituiert sich
noch kein anarchischer, herrschaftsfreier Raum.
Das Internet hat ein für die Branche beeindruckendens Alter. Die Entwicklungssprünge
der Computertechnologie von mächtigen Mainframes in computerwissenschaftlichen Labors zu den ungleich leistungsfähigeren PCs auf den Schreibtischen hat es nicht nur mühelos überstanden, sondern davon letztendlich profitiert. Die Verbreitung der Technologie
verlief rasant: Seit 1983 verdoppelte sich die Anzahl der integrierten Rechner von Jahr zu
Jahr und vorsichtige Einschätzungen mussten bereits mehrfach korrigiert werden. Das
technische Potential zur Verwirklichung der Visionen ist zweifellos gegeben und die „Akzeptanzbereitschaft“ der Bevölkerung ist höher als Mitte der 90er Jahre allgemein angenommen wurde.764 Bis zur Verwirklichung der Ideale der US-amerikanischen NII, der
digitalen „Telepolis“, dem „Ende der Gutenberg-Galaxis“, der „Kommunikationsrevolution“
oder vollständigen Onlineökonomie ist es jedoch noch ein weiter Weg.
Hanno Kühnerts Appell, dass das Netz sich ändern müsse, bezog sich weniger auf den
technische Entwicklungsstand als auf ethische, juristische und politische Normen.765 In
dieser Hinsicht wirkt das Internet noch erstaunlich unreif. DARPA, DCA sowie NSF intervenierten lediglich in Ausnahmefällen und überließen die Problematik weitgehend den
Nutzern. In der AUP des NSFNET fand sich lediglich der vage Hinweis, dass sich die Nutzung der Infrastruktur im Rahmen der Legalität bewegen müsse und das IAB äußerte sich
erst 1989 unter dem Eindruck von Morris’ „Great Worm“ zu dem Themenkomplex „Ethics
and the Internet“. Die Selbstregulierung bzw. Eigenverantwortung erwies sich in den 70er
und 80er Jahren als weitgehend tragfähiges Modell, auch wenn das „weiche Protokoll“766
eine deutlich geringere Entwicklungsgeschwindigkeit aufwies als sein technisches Äquivalent. Dass die Privatsphäre auch bei Onlinekommunikation geschützt werden sollte, war
noch Ende der 70er Jahre zumindest umstritten, wie die Diskussion der MSGGroup belegt. Auf die Tradition des „Flaming“ in Mailing-Listen oder Newsgroups wurde erst in den
80er Jahren mit der „Netiquette“ reagiert. Der Standardisierungsprozess dieser Normen
war und ist äußerst schwierig. Ob Urheberrechte eingehalten werden müssen, blieb stets
umstritten und auf Regulierungsversuche wurde, wie die Diskussion der MSGGroup sowie
Brian Reids Aktion im USENET belegt, unabhängig von Inhalten äußerst sensibel bis
konsequent ablehnend reagiert. Die vergleichsweise homogene, akademisch dominierte
Struktur der Nutzenden und überschaubare Größe der Netzwerke ließen viele der heute
aktuellen Probleme gar nicht erst aufkommen. Durch Kommerzialisierung und Privatisie764
Vgl. Zimmer, 492.
Vgl. Kühnert, 229-232.
766 Rost, 28.
765
130
rung seit Anfang der 90er Jahre entwickelte sich aus dem exklusiven Wissenschaftsnetz
jedoch ein Medium für den Massenmarkt. Mit der Öffnung stießen neue Nutzergruppen
hinzu, die sich zum großen Teil weder einer ‚Hacker-Ethik’ noch sonstigen sozial etablierten Regeln der Onlinekommunikation verpflichtet sahen. Die Frage nach der angemessenen Nutzung ist längst kein behördeninternes Problem mehr, sondern von gesamtgesellschaftlicher Bedeutung. Dennoch wird teilweise noch heute das „Konzept der 80er
Jahre des mündigen, verantwortungsbewußten Internetbürgers, der sich mit technischen
[und sozialen] Mitteln gegen alles schützen kann, was ihn beeinträchtigt, [...] gegen äußere Einflußnahme, Kontrolle und Zensur gesetzt“.767
Angesichts der Probleme mit politischem Extremismus, illegaler Pornographie, Verletzung
von Urheberrechten etc. ist es zweifelhaft, ob das Konzept der Selbstregulation noch ausreicht. Es gilt den Zahlungsverkehr, die Kommunikation des Einzelnen sowie das gesamte
System vor Angriffen zu schützen. Längst beschäftigen sich Akteure aus Politik und Wirtschaft mit dieser Thematik, bisher jedoch ohne Ergebnis. Hinsichtlich der Elemente sozialer und kultureller Natur bleibt das großtechnische System Internet bisher unterentwickelt. Die Regulierungsresistenz ist größtenteils in der Struktur begründet, die man in den
60er und 80er Jahren festlegte. Die heterogene, dezentrale und offene Konzeption, verbunden mit der internationalen Ausbreitung, macht nationale Gesetze nahezu wirkungslos. Juristische Lösungen bedürften einer globalen Reichweite. Die vollständige staatliche
Kontrolle der Knoten mit Auslandsverbindungen (inklusive der Überwachung von Kommunikation via E-Mail), technisch möglich und in China praktiziert,768 kann in Demokratien
nicht angestrebt werden. Es gibt alternative Lösungen: Filter, die das Öffnen von anstößigen Webseiten verhindern, oder Verschlüsselungsprogramme, welche die Kommunikation
schützen sollen, indem Dateien für Dritte unbrauchbar gemacht werden. Sie sind jedoch
reaktiv und teilweise leicht zu umgehen. „A combination of ehtics, technology, and law are
needed to ensure the effective development [...] of the Internet”,769 stellte Robert Kahn
1994 fest. Dies kann nur durch eine Bündelung der bisherigen Konzepte unter Einbeziehung der involvierten Akteure aus Forschung, Wirtschaft und Politik sowie den Nutzern
selbst erreicht werden. Der Aufbau der Netze hat sich in den Industrienationen inzwischen
weitgehend verselbständigt - ein Rückzug der öffentlichen Hand wäre jedoch angesichts
der aktuellen Probleme der falsche Weg.
Wenn sich das ökonomische, kommunikative, bildungspolitische sowie demokratische
Potential der Technologie entfalten soll wie Visionen suggerieren, muss weit mehr getan
werden. Deregulation bedeutet nicht zwangsläufig freien Wettbewerb mit vielfältigem Angebot. AT&T hat das jahrzehntelang beeindruckend illustriert. Soll verhindert werden,
767
Werle, Wissenschaftsnetz.
Vgl. Noam, 147.
769 Kahn.
768
131
dass einzelne Unternehmen eine marktbeherrschende Stellung einnehmen, was nicht nur
den Innovationsprozess gefährdet und negative Folgen für den Konsumenten mit sich
bringt, sondern angesichts der Konzentrationstendenzen im Mediensystem die pluralistische, unabhängige Presse in Frage stellt, muss das öffentliche Engagement intensiviert
werden. Es gilt die Grundversorgung sicherzustellen, will man nicht bestehende innergesellschaftliche und globale Disparitäten verschärfen. Investitionen in die „Informationsund Sprachkompetenz, Flexibilität und Mobilität“770 der Bevölkerung sind dann unverzichtbar und können nicht auf Schulen beschränkt werden. Letztendlich müssen sich Mentalitäten ändern. In einem Interview vor wenigen Monaten beklagte Berners-Lee: „Mich fragen tatsächlich ständig Leute, was ich vom Web halte, wo es doch nun vollendet sei.
Dagegen muß ich aufs schärfste protestieren: Das Web ist keinesfalls fertig!“.771 Ebenso
unvollkommen wie das Web ist das Internet in seiner Gesamtheit, das sich trotz der Beliebtheit bei Vertretern der freien Marktwirtschaft als öffentliche Daueraufgabe entpuppt.
770
771
Werth, 27.
Miedel, 56.
132
Literaturverzeichnis
Abbate, Janet: From ARPANet to Internet: a history of ARPA-sponsored computernetworks. 1966-1988, Reading 1994.
Ahvenainen, Jorma: The role of telegraphs in the 19th century revolution of communications, in: North, Michael (Hg.): Kommunikationsrevolutionen: die neuen Medien des 16.
und 19. Jahrhunderts, Köln u.a. 1995, S. 73-81.
Alpar, Paul: Kommerzielle Nutzung des Internet: Unterstützung von Marketing, Produktion, Logistik und Querschnittsfunktionen durch das Internet und kommerzielle OnlineDienste, Berlin u.a. 1996.
Balkhausen, Dieter: Mikroelektronik – die dritte industrielle Revolution, in: Aus Politik und
Zeitgeschichte 7 (1980), S. 3-13.
Baran, Paul: On Distributed Communications, Santa Monica 1964, WWW-Ressource,
URL (01.03.2000): http://www.rand.org/publications/RM/RM3420/.
Batinic, Bernard / Bosnjak, Michael / Breiter, Andreas: Der „Internetler” – Empirische Ergebnisse zum Netznutzungsverhalten, in: Gräf, Lorenz und Krajewski, Markus (Hg.): Soziologie des Internet: handeln im elektronischen Netzwerk, Frankfurt 1997, S.196-215.
Becker, Jörg und Salamanca, Daniel: Globalisierung, elektronische Netze und der Export
von Arbeit, in: Aus Politik und Zeitgeschichte 42 (1997), S. 31-38.
Berg, Manfred: Die innere Entwicklung der USA seit dem Zweiten Weltkrieg, in: Adams,
Willi Paul / Czempiel, Ernst-Otto / Ostendorf, Berndt / Shell, Kurt L. / Spahn, P. Bernd /
Zöller, Michael (Hg.): Länderbericht USA. Band I, Bonn 1992, S. 186-215.
Berners-Lee, Tim: Der Web-Report. Der Schöpfer des World Wide Webs über das grenzenlose Potential des Internets, München 1999.
Bickenbach, Matthias und Maye, Harun: Zwischen fest und flüssig – Das Medium Internet
und die Entdeckung seiner Metaphern, in: Gräf, Lorenz und Krajewski, Markus (Hg.): Soziologie des Internet: handeln im elektronischen Netzwerk, Frankfurt 1997, S. 80-98.
Bolz, Norbert: Am Ende der Gutenberg-Galaxis. Die neuen Kommunikationsverhältnisse,
München 1993.
Borchers, Detlef / Benning, Maria / Kuri, Jürgen: ‚Hätt ich dich heut erwartet…’. Das Internet hat Geburtstag – oder nicht?, in: c’t 21 (1999), S. 128-133.
Braun, Ingo: Geflügelte Saurier. Zur intersystemischen Vernetzung großer technischer
Netze, in: ebd. und Bernward, Joerges (Hg.): Technik ohne Grenzen, Frankfurt 1994, S.
446-500.
Bredow, Rafaela von und Jung, Alexander: Internet. Die Online-Revolution, in: Der Spiegel 2 (2000), S. 92-101.
Brüne, Stefan: Die afrikanische Informationsgesellschaft. Akteure, Abhängigkeiten, Potentiale, in: Donges, Patrick / Jarren, Otfried / Schatz, Heribert (Hg.): Globalisierung der
Medien? Medienpolitik in der Informationsgesellschaft, Wiesbaden 1999, S. 211-230.
Bühl, Achim: Cybersociety: Mythos und Realität der Informationsgesellschaft, Köln 1996.
Bülling, Franz: Das Internet als Leitbild für globale Kommunikation?, in: Mai, Manfred und
Neumann-Braun, Klaus (Hg.): Von den „Neuen Medien“ zu Multimedia: Gesellschaftliche
und politische Aspekte. Dokumentation der Tagung Medien und Gesellschaft im Spannungsfeld von Technik, Ökonomie und Recht, Baden-Baden 1998, S. 34-57.
133
Bush, Vannevar: As We May Think, in: Mayer, Paul A. (Hg.): Computer Media and Communication, New York 1999, S. 23-36.
Cailliau, Robert: Zur Technikgeschichte des Internet, in: Leggewie, Claus und Maar,
Christa (Hg.): Internet & Politik. Von der Zuschauer- zur Beteiligungsdemokratie?, Köln
1998, S. 70-84.
Campbell-Kelly, Martin: Data Communications at the National Physical Laboratory (19651975), in: Annals of the History of Computing 3/4 (1988), S. 221-247.
Cebrián, Juan Luis: Im Netz – Die hypnotisierte Gesellschaft. Der neue Bericht an den
Club of Rome, Stuttgart 1999.
Cerf, Vinton: How the Internet Came to Be, Bell Labs 1993, WWW-Ressource, URL
(01.04.2000): http://www.bell-labs.com/user/zhwang/vcerf.html.
Curlee, Robert: Mapnet. Macroscopic Internet Visualization and Measurement, CAIDA
2000, WWW-Ressource, URL (01.07.2000):
http://www.caida.org/tools/visualization/mapnet/.
Debatin, Bernhard: Allwissenheit und Grenzenlosigkeit: Mythen um Computernetze, in:
Wilke, Jürgen (Hg.): Massenmedien und Zeitgeschichte, Konstanz 1999, S. 481-493.
Degler, Hans Dieter: Wissenszwerge unter Druck. Folge XII: Die Krise auf dem Weg ins
Informationszeitalter, in: Der Spiegel 14 (1993), S. 150-158.
DENIC eG: Dokumente / Über die DENIC eG, WWW-Ressource, URL (01.07.2000):
http://www.denic.de/doc/DENIC/index.html.
DENIC eG: Statistiken. Wachstum Hosts, WWW-Ressource, URL (01.07.2000):
http://www.denic.de/images/diagramme/Hosts_fancy_de.xls.
Digital Equipment Corporation (Hg.): In Memoriam: J.C.R. Licklider 1915-1990, Palo Alto
1990.
Ditfurth, Christian von: Internet für Historiker, Frankfurt / New York 1988.
Dodge, Martin: An Atlas of Cyberspaces, University College London / Center for Advanced Spatial Analysis 2000, WWW-Ressource, URL (01.04.2000):
http://www.geog.ucl.ac.uk/casa/martin/atlas/atlas.html.
Edwards, Paul N.: The Closed World. Computers and the Politics of Discourse in Cold
War America, Cambridge / London 1996.
Eimeren, Birgit van / Gerhard, Heinz / Oehmichen, Ekkehardt / Schröter, Christian:
ARD/ZDF-Online-Studie 1997: Onlinenutzung in Deutschland. Nutzung und Bewertung
der Onlineangebote von Radio- und Fernsehsendern, in: Media Perspektiven 10 (1997),
S. 548-556.
Eimeren, Birgit van / Gerhard, Heinz / Oehmichen, Ekkehardt / Schröter, Christian:
ARD/ZDF-Online-Studie 1998: Online-Medien gewinnen an Bedeutung. Nutzung von Internet und Onlineangebote elektronischer Medien in Deutschland, in: Media Perspektiven
8 (1998), S. 423-435.
Eimeren, Birgit van / Gerhard, Heinz / Oehmichen, Ekkehardt / Mende, Annette / Grajcyk,
Andreas / Schröter, Christian: ARD/ZDF-Online-Studie 1999: Wird Online Alltagsmedium?
Nutzung von Online-Medien in Deutschland, in: Media Perspektiven 8 (1999), S. 401-414.
Engelbart, Douglas C.: A Conceptual Framework for the Augmentation of Man’s Intellect,
in: Mayer, Paul A. (Hg.): Computer Media and Communication. A Reader, New York
1999, S. 72-96.
134
Engelbart, Douglas C.: Augmented Human Intellect Program, Menlo Park 1962, in: Lenoir,
Tim (Principal Investigator): Sloan Project. MouseSite, Stanford University / History and
Philosophy of Science Department o.J., WWW-Ressource, URL (01.05.2000):
http://sloan.stanford.edu/mousesite/EngelbartPapers/B5_F1_AugmPap2.html.
Engelbart, Douglas C.: Report on Computer Network Meeting. October 9/10 1967, in: Lenoir, Tim (Principal Investigator): Sloan Project. MouseSite, Stanford University / History
and Philosophy of Science Department o.J., WWW-Ressource, URL (01.05.2000):
http://sloan.stanford.edu/mousesite/EngelbartPapers/B1_F20_CompuMtg.html.
Engelbart, Douglas C.: Study Of The Development Of Human Intellect Augmentation
Techniques. Final Report, Menlo Park 1968, in: Lenoir, Tim (Principal Investigator): Sloan
Project. MouseSite, Stanford University / History and Philosophy of Science Department
o.J., WWW-Ressource, URL (01.05.2000):
http://sloan.stanford.edu/mousesite/Archive/Post68/FinalReport1968/study68index.html.
Engelbart, Douglas C.: U.S. Patent on the Computer Mouse 21 June 1976, in: Lenoir, Tim
(Principal Investigator): Sloan Project. MouseSite, Stanford University / History and Philosophy of Science Department o.J., WWW-Ressource, URL (01.05.2000):
http://sloan.stanford.edu/MouseSite/Archive/patent/mousepatent.PDF.
Farber, Dave und Stefferud, Einar: MSGGroup (1975-1986), WWW-Ressource, URL
(01.07.2000): http://world.std.com/references/obi/Networking/archives/msggroup/.
MSGGroup # 0002 Walker, Steve: Message Group Status, 1975.
MSGGroup # 0003 Farber, Dave: Mailing List for Message Group, 1975.
MSGGroup # 0456 Panko, Raymond R.: CB Computer Mail Draft, 1977.
MSGGroup # 0474 Panko, Raymond R.: Draft Survey of ARPANET Computer Mail,
1977.
MSGGroup # 0561 Postel, Jon: Comments on RFC 724, 1977.
MSGGroup # 0569 Karlton, Philip: “Domestic Android” for sale, 1977.
MSGGroup # 0605 Reid, Brian: For Your Information (about Robots, not Messages),
1977.
MSGGroup # 0675 Farber, Dave und Stefferud, Einar: The Quasar Discussion,
1978.
MSGGroup # 0679 Farber, Dave: Re: Comment on Quasar Discussion Question,
1978.
MSGGroup # 0680 Reid, Brian: MSGGroup, 1978.
MSGGroup # 0681 Stefferud, Einar: Re: MSGGroup, 1978.
MSGGroup # 0682 Crispin, Mark: Quasar and the censorship of MsgGroup, 1978.
MSGGroup # 0684 Deutsch, Debbie: Re: The Quasar Discussion, 1978.
MSGGroup # 0685 Reid, Brian: Quasar, MsgGroup, and proper use of the ARPAnet,
1978.
MSGGroup # 0686 Crocker, Dave: Politics vs. Legalities, 1978.
MSGGroup # 0696 Crispin, Mark: in reply to Jake’s message about advertising,
1978.
135
MSGGroup # 0707 Goodfellow, Geoffrey S.: Klatu/Quasar shows at the NCC, 1978.
MSGGroup # 0708 Stefferud, Einar: Re: Klatu/Quasar shows at the NCC, 1978.
MSGGroup # 0794 Farber, Dave: The CMU Finger Program and Privacy, 1979.
MSGGroup # 0795 McLure, Stuart: Re: The CMU Finger Program and Privacy,
1979.
MSGGroup # 0796 Cotton, Ira W.: A defense of the rights of the individual, 1979.
MSGGroup # 0812 Zellich, Rich: FINGERing and other fun issues, 1979.
MSGGroup # 0829 McGehearty, Patrick: FINGER flames, 1979.
MSGGroup # 0840 Newcomer, Joe: Remove me <NEWCOMER> from the list,
1979.
MSGGroup # 0844 Reid, Brian: Technology, Society, and History, 1979.
MSGGroup # 938 Ahenderson, Austin: Open and closed systems, communications
and research, 1979.
MSGGroup # 1015 McKenzie, Kevin: METHICS and the Fast Draw (cont’d), 1979.
MSGGroup # 1016 Martins, Gary R.: Text-ural Tricks, 1979.
Fiske, John: Introduction to communication studies, London 1989.
Fittkau, Susanne und Maaß, Holger: W3B-Umfragen (1995-2000), WWW-Ressource,
URL (01.06.2000): http://www.w3b.de.
Frazer, Karen D.: NSFNET: A Partnership for High-Speed Networking. Final Report 19871995, Merit Network 2000, WWW-Ressource, URL (01.04.2000):
http://www.merit.edu/merit/archive/nsfnet/final.report/phenom.html.
Gall, Lothar: Das Argument der Geschichte. Überlegungen zum gegenwärtigen Standort
der Geschichtswissenschaft, in: HZ 264 (1997), S. 1-20.
German, Christiano: Politische (Irr-)Wege in die globale Informationsgesellschaft, in: Aus
Politik und Zeitgeschichte 32 (1996), S.16-25.
Goergen, Roman: Global Village, in: Internet World 8 (1999), S. 38-43.
Goertz, Lutz: Wie interaktiv sind Medien? Auf dem Weg zu einer Definition von Interaktivität, in: Rundfunk und Fernsehen 4 (1995), S. 477-493.
Grüne, Heinz und Urlings, Stephan: Motive der Onlinenutzung. Ergebnisse der psychologischen Studie „Die Seele im Netz“, in: Media Perspektiven 9 (1996), S. 493-498.
Haase, Frank: Stern und Netz. Anmerkungen zur Geschichte der Telegraphie im 19.
Jahrhundert, in: Hörisch, Jochen und Wetzel, Michael (Hg.): Armaturen der Sinne, München 1990, S. 43-62.
Hafner, Katie und Lyon, Matthew: Arpa Kadabra oder die Geschichte des Internet, Heidelberg 2000.
Halbach, Wulf R.: Netzwerke, in: ebd. und Faßler, Manfred (Hg.): Geschichte der Medien,
München 1998, S. 269-308.
Halbach, Wulf R. und Faßler, Manfred: Einleitung in eine Mediengeschichte, in: ebd.
(Hg.): Geschichte der Medien, München 1998, S. 17-54.
136
Hardy, Edward Henry: The History of the Net, unpublished Master Thesis, Allendale 1993,
WWW-Ressource, URL (01.05.2000): http://www.ocean.ic.net/ftp/doc/nethist.html.
Hardy, Ian R.: The Evolution of ARPANET email, unpublished Senior Thesis, Berkeley
1996, WWW-Ressource, URL (01.05.2000):
http://ifla.inist.fr/documents/internet/hari1.text.
Hauben, Michael: Behind the Net: The untold history of the Arpanet, in: ebd. und Hauben,
Ronda: The Netizens and the wonderful world of the Net: an anthology, Washington University at St. Louis / Wuarchive o.J., FTP-Ressource, URL (09.03.2000):
ftp://wuarchive.wustl.edu/doc/misc/acn/netbook/.
Hauben, Ronda: The evolution of Usenet News: The poor man’s Arpanet, in: ebd. und
Hauben, Michael: The Netizens and the wonderful world of the Net: an anthology, Washington University at St. Louis / Wuarchive o.J., FTP-Ressource, URL (09.03.2000):
ftp://wuarchive.wustl.edu/doc/misc/acn/netbook/.
Hellige, Hans Dieter: Von der programmatischen zur empirischen Technikgeneseforschung: Ein technikhistorisches Analyseinstrument für die prospektive Technikbewertung,
in: Technikgeschichte 60 (1993), S. 186-223.
Hickethier, Knut: Zwischen Gutenberg-Galaxis und Bilder-Universum. Medien als neues
Paradigma, die Welt zu erklären, in: Geschichte und Gesellschaft 25 (1999), S. 146-172.
Höflich, Joachim R.: Computermythen und die Wirklichkeit des Gebrauchs. Kommentar zu
Bernhard Debatin, in: Wilke, Jürgen (Hg.): Massenmedien und Zeitgeschichte, Konstanz
1999, S. 494-498.
Höflich, Joachim, R.: Vom dispersen Publikum zu „elektronischen Gemeinschaften". Plädoyer für einen erweiterten kommunikationswissenschaftlichen Blickwinkel, in: Rundfunk
und Fernsehen 4 (1995), S. 518-537.
Hoffmann-Riem, Wolfgang und Vesting, Thomas: Ende der Massenkommunikation? Zum
Strukturwandel der technischen Medien, in: Media Perspektiven 8 (1994), S. 382-391.
Hofmann, Jeanette: Politik im Internet – Ordnungselemente einer dezentralen Welt, in:
Hartmann, Christian und Hüttig, Christoph (Hg.): Netzdiskurs - Das Internet und der
Strukturwandel von Kommunikation und Öffentlichkeit, Loccumer Protokoll 67 (1997),
WWW-Ressource, URL (29.02.2000):
http://www.loccum.de/materialien/netztagung/hofmann.doc.
Hosenfeld, Friedhelm: Keimzelle. Von EMail bis WWW – die wichtigsten Dienste im Internet, in: c’t 10 (1994), S. 112-118.
ICANN: Internet Corporation for Asigned Names and Numbers, 2000, WWW-Ressource,
URL (01.07.2000): http://www.icann.org.
Internet Software Consortium (ISC): Internet Domain Survey. January 2000. Number of
Hosts advertised in the DNS, WWW-Ressource, URL (01.08.2000):
http://www.isc.org/ds/WWW-200001/report.html.
Internet Software Consortium (ISC): Distribution by Top-Level Domain Name by Host
Count, WWW-Ressource, URL (01.08.2000): http://www.isc.org/ds/WWW-200001/distbynum.html.
Jaffe, Saul: SF-Lovers Digest, Rutgers State University of New Jersey 2000, WWW-Ressource, URL (01.05.2000): http://sflovers.rutgers.edu/digest/review.html.
Jarren, Otfried: Internet – neue Chancen für die politische Kommunikation?, in: Aus Politik
und Zeitgeschichte 40 (1998), S.13-21.
137
Jones, Bruce: usenet.hist mailinglist-Archive, University of California at San Diego / Department of Communication 1997, WWW-Ressource, URL (01.03.2000):
http://communication.ucsd.edu/bjones/Usenet.Hist/Nethist/index.html.
Jones, Bruce / Spencer, Henry / Wiseman, Henry: The Usenet Oldnews Archive, University of California at San Diego / Department of Communication 1996, WWW-Ressource,
URL (01.03.2000): http://www.communication.ucsd.edu/A-News.
Jones, Bruce / Spencer, Henry / Wiseman, Henry: Human-NETS Digest, University of
California at San Diego / Department of Communication 1996, WWW-Ressource, URL
(01.03.2000): http://www.communication.ucsd.edu/A-News/FA.human-nets/FA.humannets-index.html.
Kahn, Robert E.: The Role of Government in the Evolution of the Internet, in: National
Academy of Engineering (Hg.): Revolution in the U.S. Information Infrastructure, National
Academy Press 1994, WWW-Ressource, URL (29.02.2000):
http://www.nap.edu/readingroom/books/newpath/chap2.html.
Kehoe, Brendan P.: Zen and the Art of the Internet. A Beginner’s Guide to the Internet.
First Edition, Louisiana State University / Department of Computer Science 1992, WWWRessource, URL (01.06.2000): http://www.csc. lsu.edu/tutorial/Zen/zen-1.0_toc.html.
Keukert, Michael: Schoß- und Höllenhunde. Die schillernde Welt der privaten Netzwerke
in Deutschland, in: c’t 3 (1991), S.42-55.
Kleinrock, Leonard: The Birth of the Internet. Leonard Kleinrock’s Personal History/Biography, University of California at Los Angeles / Computer Science Department
1996, WWW-Ressource, URL (01.05.2000):
http://millennium.cs.ucla.edu/LK/Inet/birth.html.
Kleinsteuber, Hans J.: Konzentrationsprozesse im Mediensystem der USA, in: Aus Politik
und Zeitgeschichte 8-9 (1996), S. 22-31.
Knoche, Manfred: Strukturwandel der Öffentlichkeit nach dem Konzentrationsprinzip, in:
Wilke, Jürgen (Hg.): Massenmedien und Zeitgeschichte, Konstanz 1999, S. 731-748.
Köhntopp, Kristian: Weltweit vernetzt. Struktur und Dienste des Internet, in: c’t 2 (1993),
S. 82-85.
Königshausen, Georg: Btx – ursprüngliches Konzept gescheitert. Bestandsaufnahme
nach der Einführung von Datex-J, in: Media Perspektiven 8 (1993), S. 388-393.
Kopp, Niki: Das Web wird vermessen, in: Internet World 12 (1999), S. 54-56.
Krakau, Knud: Außenbeziehung der USA. 1945-1991, in: Adams, Willi Paul / Czempiel,
Ernst-Otto / Ostendorf, Berndt / Shell, Kurt L. / Spahn, P. Bernd / Zöller, Michael (Hg.):
Länderbericht USA. Band I, Bonn 1992, S. 216-255.
Krotz, Friedrich: Elektronisch mediatisierte Kommunikation. Überlegungen zur Konzeption
einiger zukünftiger Forschungsfelder der Kommunikationswissenschaft, in: Rundfunk und
Fernsehen 4 (1995), S. 445-462.
Kubicek, Herbert: Das Internet auf dem Weg zum Massenmedium? – Ein Versuch, Lehren
aus der Geschichte alter und neuer Medien zu ziehen, in: Werle, Raymund und Lang,
Christa (Hg.): Modell Internet? Entwicklungsperspektiven neuer Kommunikationsnetze,
Frankfurt / New York 1997, S. 213-239.
Kubicek, Herbert: Das Internet 1995-2005, in: Leggewie, Claus und Maar, Christa (Hg.):
Internet & Politik. Von der Zuschauer- zur Beteiligungsdemokratie?, Köln 1998, S. 55-69.
138
Kühnert, Hanno: Wenn das Internet sich nicht ändert, wird es zerfallen, in: Schöttker,
Detlev (Hg.): Von der Stimme zum Internet: Texte aus der Geschichte der Medienanalyse,
Göttingen 1999, S. 225-232.
Kuhlen, Rainer: Die Mondlandung des Internet. Die Bundestagswahl 1998 in den elektronischen Kommunikationsforen, Konstanz 1998.
Landweber, Larry: International Connectivity Maps, University of Wisconsin at Madison /
Computer Science Department o.J., FTP-Ressource, URL (01.03.2000):
ftp://ftp.cs.wisc.edu/connectivity_table/.
Leib, Volker und Werle, Raymund: Wissenschaftsnetze in Europa und den USA – Die
Rolle staatlicher Akteure bei ihrer Bereitstellung, in: Werle, Raymund und Lang, Christa
(Hg.): Modell Internet? Entwicklungsperspektiven neuer Kommunikationsnetze, Frankfurt /
New York 1997, S. 157-185.
Leiner, Barry M./ Cerf, Vinton G./ Clark, David D. u.a.: The Past and Future History of the
Internet, in: Communications of the ACM 40/2 (1997), S. 102-108.
Licklider, J.C.R.: Man-Computer Symbiosis, in: Digital Equipment Corporation (Hg.): In
Memoriam: J.C.R. Licklider 1915-1990, Palo Alto 1990, S. 1-20.
Licklider, J.C.R. und Taylor, Robert W.: The Computer as a Communication Device, in:
Digital Equipment Corporation (Hg.): In Memoriam: J.C.R. Licklider 1915-1990, Palo Alto
1990, S. 21-41.
Licklider, J.C.R. und Vezza, Albert: Applications of Information Networks, in: Proceedings
of the IEEE 66/11 (1978), S. 1330-1345.
Linke, Angelika / Nussbaumer, Markus / Portmann, Paul R.: Studienbuch Linguistik, Tübingen 1994.
Luyken, Georg Michael: Die AT&T ’83: zum strukturellen Umbruch und inhaltlichen Neuaufbau in der US-Telekommunikationsindustrie, in: Media Perspektiven 6 (1983), S. 394401.
Madzia, Klaus: Klick in die Zukunft, in: Der Spiegel 11 (1996), S. 66-99.
Maletzke, Gerhard: Psychologie der Massenkommunikation. Theorie und Systematik,
Hamburg 1963.
Marschall, Stefan: Das Internet als globaler Raum öffentlicher medialer Kommunikation?,
in: Donges, Patrick / Jarren, Otfried / Schatz , Heribert (Hg.): Globalisierung der Medien?
Medienpolitik in der Informationsgesellschaft, Wiesbaden 1999, S. 151-170.
Matrix Information and Directory Services (MIDS): Internet, BITNET, UUCP, FidoNet, to
July 1998 (log scale), o.O. 1999, WWW-Ressource, URL (01.07.2000):
http://www.mids.org/mmq/504/big/ibuf.html.
Mayer, Paul A. (Hg.): Computer Media and Communication. A Reader, New York 1999.
Merit Network Information Center: History of NSFNET Growth by Networks, Merit 1995,
FTP-Ressource, URL (01.07.2000): ftp://nic.merit.edu/nsfnet/statistics/history.netcount.
Merit Network Information Center: Growth of computers and domain names, Merit 1997,
FTP-Ressource, URL (01.07.2000): ftp://nic.merit.edu/nsfnet/statistics/history.hosts.
Meyer-Stamer, Jörg: Das Internet als Beispiel dezentraler Techniksteuerung – Konsequenzen für Technologiepolitik in Deutschland, in: Kleinsteuber, Hans J. (Hg.): Der „Information Superhighway“: amerikanische Visionen und Erfahrungen, Opladen 1996, S.
139-147.
139
Miedel, Wolfgang: „Das Web ist noch nicht vollendet“, in: Internet World 1 (2000), S. 5456.
Münker, Stefan: Mythos Internet, Frankfurt 1997.
Musch, Jochen: Die Geschichte des Netzes: ein historischer Abriß, in: Batinic, Bernhard:
Internet für Psychologen, Göttingen 1997, S. 15-39.
Nelson, Ted: A New Home for the Mind, in: Mayer, Paul A. (Hg.): Computer Media and
Communication. A Reader, New York 1999, S. 120-128.
Network Working Group: RFC-Index, University of Southern California / Information Sciences Institute 2000, FTP-Ressource, URL (01.06.2000):
ftp://ftp.isi.edu/in-notes/rfc-index.txt/.
RFC 0003 Crocker, Steve: Documentation Conventions, 1969.
RFC 0053 Crocker, Steve: An Official Protocol Mechanism, 1970.
RFC 0095 Crocker, Steve: Distribution of NWG/RFCs Through the NIC, 1971.
RFC 0111 Crocker, Steve: Pressure from the Chairman, 1971.
RFC 0185 North, Jeanne: NIC Distribution of Manuals and Handbooks, 1971.
RFC 0196 Watson, Richard W.: A Mail Box Protocol, 1971.
RFC 0224 McKenzie, Alex: Comments on Mailbox Protocol, 1971.
RFC 0278 Bhushan, Abhay u.a.: Revision of the Mail Box Protocol, 1971.
RFC 0302 Bryan, Roland: Exercising the ARPANET, 1972.
RFC 0334 McKenzie: Network Use on MAY 8, 1972.
RFC 0354 Bhushan, Abhay: The File Transfer Protocol, 1972.
RFC 0371 Kahn, Robert: Demonstration at International Computer Communications
Conference, 1972.
RFC 0372 Watson, Richard W.: Notes on a Conversation with Bob Kahn on the
ICCC, 1972.
RFC 0453 Kudlick, Michael D.: Meeting Announcement to Discuss a Network Mail
System, 1973.
RFC 0469 Kudlick, Michael D.: Network mail meeting summary, 1973.
RFC 0479 White, James E.: Use of FTP by the NIC Journal, 1973.
RFC 0527 Covill, D. L.: ARPAWOCKY, 1973.
RFC 0588 Stokes, Adrian V.: The London node is now up, 1973.
RFC 0601 McKenzie, A.: Traffic Statistics (November 1973), 1973.
RFC 0602 Metcalfe, Bob: "The Stockings Were Hung by the Chimney with Care",
1973.
RFC 0675 Cerf, Vinton u.a.: Specifications of Internet Transmission Control Program, 1974.
RFC 0706 Postel, Jon: On the Junk Mail Problem, 1975.
140
RFC 0724 Crocker, David H. u.a.: Proposed official standard for the format of ARPA
Network messages, 1977.
RFC 0733 Crocker, David H. u.a.: Standard for the Format of ARPA Network Text
Messages, 1977.
RFC 0739 Postel, Jon: Assigned Numbers, 1977.
RFC 0750 Postel, Jon: Assigned Numbers, 1978.
RFC 0758 Postel, Jon: Assigned Numbers, 1979.
RFC 0760 Postel, Jon: DoD Standard Internet Protocol, 1980.
RFC 0761 Postel, Jon: DoD Standard Transmission Control Protocol, 1980.
RFC 0770 Postel, Jon: Assigned Numbers, 1980.
RFC 0774 Postel, Jon: Internet Protocol Handbook, 1980.
RFC 0790 Postel, Jon: Assigned Numbers, 1981.
RFC 0801 Postel, Jon: NCP/TCP TRANSITION PLAN, 1981.
RFC 0820 Postel, Jon und Vernon, J.: Assigned Numbers, 1983.
RFC 0840 Postel, Jon: Official protocols, 1983.
RFC 0850 Horton, M.R.: Standard for Interchange of USENET Messages, 1983.
RFC 0870 Reynolds, Joyce und Postel, Jon: Assigned Numbers, 1983.
RFC 0875 Padlipsky, M.A.: Gateways, Architectures, and Heffalumps, 1983.
RFC 0882 Mockapetris, P.: Domain Names – Concepts and Facilities, 1983.
RFC 0897 Postel, Jon: Domain Name System Implementation Schedule, 1984.
RFC 0900 Reynolds, Joyce und Postel, Jon: Assigned Numbers, 1984.
RFC 0920 Postel, Jon und Reynolds, Joyce: Domain Requirements, 1984.
RFC 0943 Reynolds, Joyce und Postel, Jon: Assigned Numbers, 1985.
RFC 0977 Kantor, Brian und Lapsley, Phil: Network News Transfer Protocol, 1986.
RFC 0990 Reynolds, Joyce und Postel, Jon: Assigned Numbers, 1986.
RFC 1000 Reynolds, Joyce und Postel, Jon: The Request For Comments Reference
Guide, 1987.
RFC 1087 Internet Activities Board: Ethics and the Internet, 1989.
RFC 1121 Postel, Jon u.a.: Act One – The Poems, 1989.
RFC 1135 Reynolds, Joyce: The Helminthiasis of the Internet, 1989.
RFC 1150 Malkin, G.S. und Reynolds, Joyce: FYI on FYI: Introduction to the FYI
Notes, 1990.
RFC 1160 Cerf, Vinton: The Internet Activities Board, 1990.
RFC 1174 Cerf, Vinton: IAB Recommended Policy on Distributing Internet Identifier
Assignment and IAB Recommended Policy Change to Internet "Connected" Status,
1990.
141
RFC 1177 Malkin, G.S., Marine, A.N. und Reynolds, J.K.: FYI on Questions and Answers: Answers to commonly asked "new internet user" questions, 1990.
RFC 1192 Kahin, Brian: Commercialization of the Internet, 1990.
RFC 1206 Malkin, G.S. und Marine, A.N.: FYI on Questions and Answers: Answers
to commonly asked "new Internet user" questions, 1991.
RFC 1296 Lottor, Mark: Internet Growth (1981-1991), 1992.
RFC 1310 Chapin, Lyman: The Internet Standards Process, 1992.
RFC 1325 Malkin, G.S. und Marine, A.N.: FYI on Questions and Answers: Answers
to Commonly asked "New Internet User" Questions, 1992.
RFC 1436 Anklesaria, F. u.a.: The Internet Gopher Protocol (a distributed document
search and retrieval protocol), 1993.
RFC 1594 Marine, A. / Reynolds, J. / Malkin, G.: FYI on Questions and Answers Answers to Commonly asked "New Internet User" Questions, 1994.
RFC 1630 Berners-Lee, Tim: Uniform Resource Identifiers in WWW. A Unifying
Syntax for the Expression of Names and Addresses of Objects on the Network as
used in the World-Wide Web, 1994.
RFC 1855 Hambridge, Sally: Netiquette Guidelines, 1995.
RFC 1935 Quarterman, Jon und Carl-Mitchell, S.: What is the Internet, Anyway?,
1996.
RFC 1945 Berners-Lee, T. / Fielding, R. / Frystyk H.: Hypertext Transfer Protocol -HTTP/1.0., 1996.
RFC 2468 Cerf, Vinton: I Remember IANA, 1998.
RFC 2555 Network Working Group: 30 Years of RFC, 1999.
RFC 2616 Fielding, R. / Gettys, J. Mogul / J. Frystyk, H. / Masinter, L. / Leach, P. /
Berners-Lee, T.: Hypertext Transfer Protocol -- HTTP/1.1., 1999.
RFC 2664 Plzak, R., Wells, A. und Krol, E.: FYI on Questions and Answers - Answers to Commonly Asked "New Internet User" Questions, 1999.
Neverla, Irene: Das Medium denken. Zur sozialen Konstruktion des Netz-Mediums, in:
ebd. (Hg.): Das Netz-Medium. Kommunikationswissenschaftliche Aspekte eines Mediums
in Entwicklung, Opladen/Wiesbaden 1998, S.17-36.
Noam, Eli: Anarchie in den Netzen? Regulierung und Deregulierung des Internet, in: Leggewie, Claus und Maar, Christa (Hg.): Internet & Politik. Von der Zuschauer- zur Beteiligungsdemokratie?, Köln 1998, S. 145-158.
Norberg, Arthur L. und O’Neill, Judy E.: Transforming in Computer Technology: Information Processing for the Pentagon 1962 – 1986, Baltimore 1996.
NSF: NSFNET Backbone Services Acceptable Use Policy, Merit 1992, FTP-Ressource,
URL (01.07.2000): ftp://nic.merit.edu/nsfnet/acceptable.use.policy.
o.A.: :-) oder :-(. Der US-Informationsdienst Compuserve lockt deutsche PC-Benutzer ins
weltumspannende Computernetz, in: Der Spiegel 17 (1993), S. 270-272.
o.A.: Auf die Knie. Ein Virus wurde in amerikanische Datennetze eingeschleust – der erste
schwere Fall einer Computer-Infektion, in: Der Spiegel 45 (1988), S. 294-296.
142
o.A.: „Die großen Systeme reizten Robert“. Ein US-Student löste mit einem Virusprogramm einen Schock in der Computerszene aus, in: Der Spiegel 47 (1988), S. 252-265.
o.A.: Ganz schön belastet. Verkehrsstau auf der Datenautobahn: Millionen von Computerfans drängen ins weltumspannende Rechnernetz „Internet“, in: Der Spiegel 7 (1994), S.
165-168.
o.A.: Goldgräber im Cyberspace. Internet (II): Das Geschäft der Zukunft – ganze Branchen werden sich verändern, in: Der Spiegel 12 (1996), S. 116-132.
o.A.: Hausmitteilung, in: Der Spiegel 11 (1994), S.3.
o.A.: Hausmitteilung, in: Der Spiegel 43 (1994), S.3.
o.A.: Verbotene Bilder. Über Datennetze und PC vertreiben Kinderporno-Händler weltweit
ihre Ware, in: Der Spiegel 43 (1993), S. 233-240.
o.A.: Weltpostamt von Bill. Software-Gigant Microsoft strebt jetzt auch auf dem Milliardenmarkt der Datennetze die Vormacht an, in: Der Spiegel 47 (1994), S. 100-101.
Postel, Jon: Internet Experiment Notes (1980-1983), University of Southern California /
Information Sciences Institute 2000, FTP-Ressource, URL (01.06.2000): ftp://ftp.isi.edu/innotes/ien/.
IEN 040 Postel, Jon: Specification of Internetwork Transmission Control Protocol Version 4, 1978.
IEN 041 Postel, Jon: Internetwork Protocol Specification - Version 4, 1978.
IEN 048 Cerf, Vinton: The CATENET Model for Internetworking, 1978.
IEN 123 Postel, Jon: DoD Standard Internet Protocol, 1979.
IEN 124 Postel, Jon: DoD Standard Transmission Control Protokoll, 1979.
IEN 137 Cohen, Danny: On Holy Wars and a Plea for Peace, 1980.
Quarterman, John S.: The Matrix. Computer Networks and Conferencing Systems Worldwide, o.O. 1990.
Raymond, Eric S.: Jargon File 4.2., McGill University / Earth and Planetary Sciences
2000, WWW-Ressource, URL (01.06.2000):
http://www.eps.mcgill.ca/jargon/jargon.html.
Reindl, Josef: Partikularstaatliche Politik und technische Dynamik: Die drahtgebundene
Telegraphie und der Deutsch-Östereichische Telegraphenverein von 1850, in: Teuteberg,
Hans-Jürgen und Neutsch, Cornelius (Hg.): Vom Flügeltelegraphen zum Internet: Geschichte der modernen Telekommunikation, Stuttgart 1998, S. 27-47.
Rheingold, Howard: Virtuelle Gemeinschaften. Soziale Beziehungen im Zeitalter des
Computers, Bonn / Paris / Reading 1994.
RIPE NCC: RIPE Document Store. All RIPE Documents, WWW-Ressource, URL
(01.03.2000): http://www.ripe.net/ripe/docs/alltitle.html.
ripe-001 Blokzijl, R.: RIPE Terms of Reference, 1989.
ripe-004 Blokzijl, R. und Karrenberg, Daniel: Task Force Description, 1989.
ripe-045 Kowack, Glenn: Relationship between A & R networks and Commercial
networks, 1991.
143
ripe-057 Karrenberg, Daniel: General information about RIPE and the RIPE NCC,
1992.
ripe-139 Orange, Carol: Reseaux IP Européens Network Coordination Center. Annual Report 1995, 1996.
Roistacher, Richard: The Virtual Journal, in: Computer Networks 2 (1978), S. 18-24.
Rosenbach, Marcel: Von der Agenda for Action zum Telecommunications Act von 1996 –
US-Kommunikationspolitik zwischen Deregulierung und öffentlichem Interesse, in:
Kleinsteuber, Hans J. (Hg.): Der „Information Superhighway“: amerikanische Visionen und
Erfahrungen, Opladen 1996, S. 89-119.
Rosenzweig, Roy: Wizards, Bureaucrats, Warriors & Hackers: Writing the History of the
Internet, in: American Historical Review 103/12 (1998), S. 1530-1552.
Rossignac, Jarek / Kehoe, Colleen / Pitkow, Jim / Rogers, Juan / Aggarwal, Gaurav /
Sutton, Kate / Malholtra, Naresh: GVU’s WWW User Surveys, Georgia Institute of Technologie / Graphics, Visualization & Usability (GVU) Center 2000, WWW-Ressource, URL
(01.06.2000): http://www.gvu.gatech.edu.
Rost, Martin: Anmerkungen zu einer Soziologie des Internet, in: Gräf, Lorenz und Krajewski, Markus (Hg.): Soziologie des Internet: handeln im elektronischen Netzwerk,
Frankfurt 1997, S.14-39.
Rötzer, Florian: Telepolis. Urbanität im digitalen Zeitalter, Mannheim 1995.
Salus, Peter H.: Casting the Net. From ARPANet to Internet and Beyond, Reading u.a.
1995.
Salus, Peter H.: Myth and History, Matrix Information and Directory Services (MIDS) 2000,
WWW-Ressource, URL (01.05.2000): http://www.mids.org/mn/1002/myth.html.
Sauter, Udo: Geschichte der Vereinigten Staaten von Amerika, Stuttgart 1994.
Schäfers, Anja: Im Mittelpunkt der Mensch: Neue Medien und historischer Vergleich, in:
Neverla, Irene (Hg.): Das Netz-Medium. Kommunikationswissenschaftliche Aspekte eines
Mediums in Entwicklung, Opladen/Wiesbaden 1998, S. 89-110.
Shell, Kurt L.: Kongreß und Präsident, in: Adams, Willi Paul / Czempiel, Ernst-Otto /
Ostendorf, Berndt / Shell, Kurt L. / Spahn, P. Bernd / Zöller, Michael (Hg.): Länderbericht
USA. Band I, Bonn 1992, S. 357-396.
Schmid, Ulrich: Kabelfernsehen – Bildschirmtext – Internet. Auf dem Weg zur „Media Activa?“, in: Wilke, Jürgen (Hg.): Massenmedien und Zeitgeschichte, Konstanz 1999, S. 518532.
Schmid, Ulrich und Kubicek, Herbert: Von den „alten“ Medien lernen. Organisatorischer
und institutioneller Gestaltungsbedarf interaktiver Medien, in: Media Perspektiven 8
(1994), S. 401-408.
Schmidt, Johannes F. K.: Der Personal Computer (1974-1985). Architektonische Innovation und vertikale Desintegration, in: Weyer, Johannes / Kirchner, Ulrich / Riedl, Lars /
Schmidt, Johannes F. K.: Technik, die Gesellschaft schafft: soziale Netzwerke als Ort der
Technikgenese, Berlin 1997, S. 147-225.
Schneider, Volker: Evolution im Cyberspace: Die Anpassung nationaler Bildschirmtextsysteme an das Internet, in: Werle, Raymund und Lang, Christa (Hg.): Modell Internet?
Entwicklungsperspektiven neuer Kommunikationsnetze, Frankfurt / New York 1997, S.
133-153.
144
Stondage, Tom: The Victorian Internet. The Remarkable Story of the Telegraph & the
Nineteenth Century’s On-Line Pioneers, New York 1998.
Teuteberg, Hans-Jürgen: Strukturmerkmale multimedialer Revolutionierung von Wirtschaft, Gesellschaft und Kultur an der Wende zum 21.Jahrhundert, in: ebd. und Neutsch
(Hg.): Vom Flügeltelegraphen zum Internet: Geschichte der modernen Telekommunikation, Stuttgart 1998, S. 294-408.
Teuteberg, Hans-Jürgen und Neutsch, Cornelius (Hg.): Vom Flügeltelegraphen zum Internet: Geschichte der modernen Telekommunikation, Stuttgart 1998.
Thomas, Frank: Telefonieren in Deutschland. Organisatorische, technische und räumliche
Entwicklung eines großtechnischen Systems, Frankfurt / New York 1995.
Turoff, Murray und Hiltz, Roxanne: Meeting through your Computer, in: IEEE Spectrum 5
(1977), S. 58-64.
Ulrich, Otto: Computer, Wertewandel und Demokratie. Öffnet die Informationsgesellschaft
die Chancen für mehr politische Patizipation?, in: Aus Politik und Zeitgeschichte 25
(1984), S. 14-25.
US Defense Communications Agency (DCA): ARPANET Newsletter (ANEWS 1980 –
1983), University of Southern California / Information Sciences Institute 2000, FTP-Ressource, URL (01.06.2000): ftp://ftp.isi.edu/in-notes/misc/ARPANET_News.mail.
ANEWS-01 Joseph Haughney, Juli 1980.
ANEWS-08 Joseph Haughney, September 1981.
ANEWS-11 Glynn Parker, März 1982.
ANEWS-12 Glynn Parker, Juni 1982.
ANEWS-14 Jack Snively, September 1982.
ANEWS-15 Vinton Cerf, September 1982.
ANEWS-16 Jack Snively, September 1982.
ANEWS-17 Jack Snively, November 1982.
ANEWS-23 Heidi B. Heiden, April 1984.
ANEWS-24 Heidi B. Heiden, April 1984.
Verein zur Förderung eines Deutschen Forschungsnetzes e.V.: Satzung des DFN-Vereins, Juli 1992, WWW-Ressource, URL (01.05.2000): http://www.dfn.de/dfn/satzung.html.
Voets, Stephan und Hamel, Reinhard: Das große ECON PC-Lexikon, Düsseldorf / München 1999.
Vowe, Gerhard: Zwischen Anarchie und Zensur. Zur Regulierung internationaler computervermittelter Kommunikation, in: Hartmann, Christian und Hüttig, Christoph (Hg.): Netzdiskurs - Das Internet und der Strukturwandel von Kommunikation und Öffentlichkeit, Loccumer Protokoll 67 (1997), WWW-Ressource, URL (29.02.2000):
http://www.loccum.de/materialien/netztagung/vowe.doc.
Wagner, Heiderose und Kubicek, Herbert: Community Networks und der Information
Highway – Von der Counterculture zum Mainstream, in: Kleinsteuber, Hans J. (Hg.): Der
„Information Superhighway“: amerikanische Visionen und Erfahrungen, Opladen 1996, S.
201-235.
145
Walitsch, Herwig: Computer, in: Hiebel, Hans H. u.a. (Hg.): Die Medien: Logik – Leistung
– Geschichte, München 1998, S. 227-253.
Walter, Rolf: Die Kommunikationsrevolution im 19. Jahrhundert und ihre Effekte auf
Märkte und Preise, in: North, Michael (Hg.): Kommunikationsrevolutionen: die neuen Medien des 16. und 19. Jahrhunderts, Köln u.a. 1995, S. 178-190.
Werle, Raymund: Vom Wissenschaftsnetz zum Kommerznetz – Zur Entstehung und Entwicklung des Internet, in: Hartmann, Christian und Hüttig, Christoph (Hg.): Netzdiskurs Das Internet und der Strukturwandel von Kommunikation und Öffentlichkeit, Loccumer
Protokoll Nr. 67 (1997), WWW-Ressource, URL (29.02.2000):
http://www.loccum.de/materialien/netztagung/werle.doc.
Werle, Raymund: Zwischen Selbstorganisation und Steuerung. Geschichte und aktuelle
Probleme des Internet, in: Wilke, Jürgen: Massenmedien und Zeitgeschichte, Konstanz
1999, S. 499-517.
Werth, Christoph H.: Die Herausforderung des Staates in der Informationsgesellschaft, in:
Aus Politik und Zeitgeschichte 40 (1998), S. 22-29.
Weyer, Johannes: Konturen einer netzwerktheoretischen Techniksoziologie, in: Weyer,
Johannes / Kirchner, Ulrich / Riedl, Lars / Schmidt, Johannes F. K.: Technik, die Gesellschaft schafft: soziale Netzwerke als Ort der Technikgenese, Berlin 1997, S. 23-52.
Wheatley, Steven C.: Wissenschaftsförderung, in: Adams, Willi Paul / Czempiel, E.-O. /
Ostendorf, B. / Shell, K. L. / Spahn, P. B. / Zöller, M. (Hg.): Länderbericht USA. Band II,
Bonn 1992, S. 588-597.
Wigand, Rolf T.: Die Deregulation der amerikanischen Kommunikationsindustrie, in: Media Perspektiven 6 (1983), S. 385-401.
Wildes, Karl L. und Lindgren, Nilo A.: A Centrury Of Electrical Engineering and Computer
Science at MIT. 1882-1982, Cambridge/London 1985.
Wilke, Jürgen: Leitmedien und Zielgruppenorgane, in: ebd. (Hg.): Mediengeschichte der
Bundesrepublik Deutschland, Bonn 1999, S. 302-330.
Wilke, Jürgen: Zukunft Multimedia, in: ebd. (Hg.): Mediengeschichte der Bundesrepublik
Deutschland, Bonn 1999, S. 751-774.
Wilke, Peter: The Virtual Internet Economy – Informations Industries und die Entwicklung
des Internet in den USA, in: Kleinsteuber, Hans J. (Hg.): Der „Information Superhighway“:
amerikanische Visionen und Erfahrungen, Opladen 1996, S. 151-170.
Wittke, Volker: Online in die Do-it-yourself-Gesellschaft? – Zu Widersprüchen in der Entwicklung von Online-Diensten und denkbaren Lösungsformen, in: Werle, Raymund und
Lang, Christa (Hg.): Modell Internet? Entwicklungsperspektiven neuer Kommunikationsnetze, Frankfurt / New York 1997, S. 93-114.
Zakon, Robert H.: Hobbes’ Internet Timeline v5.0, Internet Society 2000, WWW-Ressource, URL (25.02.2000): http://www.isco.org/guest/zakon/Internet/History/HIT.html.
Zimmer, Jochen: Online-Dienste für ein Massenpublikum? Die Expansion des OnlineMarktes in Deutschland, in: Media Perspektiven 10 (1995), S. 476-488.
Zimmer, Jochen: Profile und Potentiale der Onlinenutzung. Ergebnisse erster OnlineMarktstudien in Deutschland, in: Media Perspektiven 9 (1996), S. 487-492.
Zittel, Thomas: Über die Demokratie in der vernetzten Gesellschaft. Das Internet als Medium der politischen Kommunikation, in: Aus Politik und Zeitgeschichte 42 (1997), S. 2329.
146
Zurawski, André u.a.: Highspeed-Web-Zugang, in: Internet Professionell 10 (1999), S. 3455.
147
Abkürzungsverzeichnis
1822
AFIPS
AI
ANEWS
ANS
AOL
ARPA/DARPA
ARPANET
AT&T
AUTODIN
AUP
BBN
BBS
BelWü
BERNET
BITNET
Btx
CATENET
CCITT
CIX
CMU
CNRI
CREN
CSNET
DANTE
Datex-J
DCA
DDN
DEC
DENIC
DFN
DFN-Verein
DFÜ
DNS
DoD
DoE
EARN
EFF
EIN
E-Mail
EPSS
EU
EUnet
FCC
FTP
FRICC
FYI
Gbps
GTE
HMI
HTML
HTTP
IAB
BBN Report No. 1822
American Federation of Information Processing Societies
Artificial Intelligence
ARPANET Newsletter
Advanced Network Services Incorporation
America Online
(Defense) Advanced Research Projects Agency
ARPA Network
American Telephone and Telegraph Company
Automatic Defense Integrated Network
Acceptable Use Policy
Bold, Beranek & Newman
Bulletin Board System
Baden-Württembergs extended LAN
Berlin Network
Because It’s Time Network
Bildschirmtext
Concatenated Network
Consultative Committee for International Telegraphy and
Telephony
Commercial Internet eXchange
Carnegie Mellon University
Corporation for National Research Initiatives
Corporation for Research and Educational Networking
Computer Science Network
Delivery of Advanced Network Technology to Europe
Data Exchange für Jedermann
Defense Communications Agency
Defense Data Network
Digital Equipment Corporation
Deutsches Network Information Center
Deutsches Forschungsnetz
Verein zur Förderung eines Deutschen Forschungsnetzes
e.V.
Datenfernübertragung
Domain Name System / Service
Department of Defense
Department of Energy
European Academic Research Network
Electronic Frontier Foundation
European Informatics Network
Electronic Mail
Experimental Packet-Switching Service
Europäische Union
European Unix network
Federal Communications Commission
File Transfer Protocol
Federal Research Internet Coordinating Commitee
For Your Information
Gigabit pro Sekunde
General Telephone and Electronic
Hahn-Meitner Institut
Hypertext Markup Language
Hyper Text Transfer Protocol
Internet Activities/Architectures Board
148
IANA
IBM
ICANN
ICCB
ICCC
IEG
IEN
IETF
IESG
IFIP
Intelsat
INWG
IMP
IPTO
IRIA
IRTF
IRSG
IRC
ISC
ISI
ISO
ISOC
JUnet
Kbps
KI
LAN
Mbps
MCI
MIDS
MILNET
MIT
MSGGroup
NASA
NCC
NCP
NIC
NLS
NMC
NNTP
NOC
NPL
NSF
NSFNET
NWG
OASC
OSI
PARC
PC
PCI
PDP
PRNET
PSI
RAND
RARE
RFC
RIPE
SAGE
Internet Assigned Numbers Authority
International Business Machines Corporation
Internet Corporation for Assigned Names and Numbers
Internet Configuration Control Board
International Conference on Computer Communication
Internet Engineering Group
Internet Experiment Note
Internet Engineering Task Force
Internet Engineering Steering Group
International Federation of Information Processing
International Telecommunications Satellite Organization
International Network Working Group
Interface Message Processor
Information Processing Techniques Office
Institut de Recherche d’Informatique et d’Automatique
Internet Research Task Force
Internet Research Steering Group
Internet Relay Chat
Internet Software Consortium
Information Science Institute (USC)
International Organization for Standardization
Internet Society
Japan Unix network
Kilobit pro Sekunde
Künstliche Intelligenz
Local Area Network
Megabit pro Sekunde
Microwave Communications Inc.
Matrix Information and Directory Services, Inc.
Military Network
Massachusetts Institute of Technologie
Message Services Group
National Aeronautics and Space Administration
Network Control/Coordination Center
Network Control Program/Protocol
Network Information Center
oN Line System
Network Measurement Center
Network News Transfer Protocol
Network Operation Center
National Physical Laboratories
National Science Foundation
National Science Foundation Network
Network Working Group
Office of Advanced Scientific Computing
Open System Interconnection
Palo Alto Research Center
Personal Computer
Packet Communications Incorporated
Programmed Data Processor
Packet Radio Network
Performance Systems International
Research and Development Corporation
Réseaux Associés pour la Recherche Européenne
Request For Comment
Réseau IP Européen
Semi Automatic Ground Enviroment
149
SATNET
SDC
SERCnet
SRI
TCP/IP
TELENET
Telnet
TIP
UCB
UCLA
UCSB
URL
USC
USENET
UUCP
WAN
WiN
WWW
Atlantic Satellite Network
System Development Corporation
Science and Engineering Research Council Network
Stanford Research Institute
Transmission Control Protocol / Internet Protocol
TELENET Communication Incorporation
Telecommunication Network Protocol
Terminal Interface Message Processor
University of California at Berkeley
University of California at Los Angeles
University of California at Santa Barbara
Uniform Resource Locator
University of Southern California
User’s Network
Unix to Unix CoPy
Wide Area Network
Wissenschaftsnetz
World Wide Web
150
Anhang A. http://www.ucla.edu
Anhang A.1. Internet Explorer
Anhang A.2. NeoTrace
151
Anhang B. MIDS: Internet, UUCP, Bitnet, FidoNet to July 1998
(Vgl. Matrix Information and Directory Services)
152
Anhang C. GVU’s WWW User Survey
(Vgl. Rossignac)
1. Umfrage 5. Umfrage
Jan. 1994 Okt. 1995
Einkommen (in
Tausend US-$ p.a.)
10. Umfrage
Oktober 1998
total
total
USA
Europa
andere
USA
Europa
andere
4.700
5,1%
94,9%
6,3%
28,3%
26,9%
16,2%
10,7%
7,7%
3,9%
-
23.348
29%
71%
13%
18%
16%
13%
11%
19%
8%
1,9%
8,2%
10.624
41,2%
58,8%
12,4%
13,7%
14,6%
11,4%
10,4%
20,4%
17,0%
1,2%
3,1%
9,6%
731
16,3%
83,7%
12,5%
29,0%
27,2%
13,7%
6,6%
8,0%
2,9%
0,1%
2,1%
9,7%
1.233
30,5%
69,5%
18,5%
20,1%
17,8%
12,8%
9,7%
12,8%
7,1%
1,0%
4,0%
15,4%
4.254
35,8%
64,2%
5,7%
11,0%
15,0%
13,0%
11,7%
23,5%
18,5%
1,8%
1,2%
6,8%
369
18,4%
81,6%
6,8%
24,7%
25,5%
18,2%
8,7%
11,9%
3,9%
0,5%
2,7%
6,0%
399
23,6%
76,4%
7,5%
17,5%
18,8%
16,5%
10,8%
16,8%
10,9%
1,3%
1,0%
8,8%
3,4%
4,0%
3,0%
4,7%
3,1%
1,4%
4,8%
28,6%
32,6%
18,6%
23,0%
30,4%
14,4%
20,8%
31,6%
30,4%
28,9%
30,2%
33,6%
33,6%
36,8%
16,9%
4,4%
13,7%
2,4%
24,6%
5,5%
11,4%
3,6%
17,2%
3,4%
29,0%
7,6%
19,0%
4,3%
3,6%
2,9%
2,3%
4,0%
3,5%
1,9%
3,3%
1,2%
1,2%
5,3%
3,6%
0,8%
3,5%
1,3%
-
14,1%
2,9%
4,0%
7,1%
21,6%
44,7%
5,6%
-
-
-
-
-
-
Berufstätigkeit
Bildungsstand
Alter
Teilnehmer
Frauenanteil
Männeranteil
Unter 20
21-25
26-30
31-35
36-40
41-50
Über 50
k.A.
Grammar School
High School
Vocation/Technical
School (2 years)
Some College
College Graduate
(4 year)
Master’s Degree (MS)
Doctoral Degree (DS)
Professional Degree
(MD, JD, etc.)
Other
UGrad. Student
Administration
Business
Faculty
Grad. Student
Professional
Other
Computer Related
Management
Professional
Educator and/or
Student
Other
Upper Management
Trained Professional
Middle Management
Skilled Laborer
Junior Management
Consultant
Administrativ Staff
Temporary Employee
Support Staff
Researcher
Student
Self-employed/Partner
Other
k.A.
under 10
10-20
20-30
30-40
40-50
50-75
75-100
over 100
9. Umfrage
April 1998
21,4%
11,4%
22,5%
35,4%
11,1%
15,6%
22,9%
10,2%
18,3%
24,9%
31,5%
34,4%
19,8%
6,4%
14,2%
-
-
-
-
16,7%
4,0%
5,6%
9,2%
11,6%
11,1%
21,2%
10,1%
10,5%
153
17%
11,5%
9,6%
10,7%
12,2%
7,8%
18,2%
6,0%
7,1%
18,5%
8,6%
10,3%
10,8%
10,0%
10,2%
17,2%
6,6%
7,8%
-
6,8%
28,5%
11,0%
3,1%
3,9%
4,7%
4,4%
1,0%
7,5%
2,7%
9,4%
9,9%
6,9%
17,2%
2,1%
4,0%
7,4%
11,1%
11,3%
21,4%
12,5%
13,1%
7,0%
16,3%
8,1%
1,9%
6,0%
9,8%
1,4%
1,6%
4,6%
12,2%
19,5%
7,9%
3,8%
18,2%
6,5%
9,8%
7,6%
12,7%
11,7%
19,0%
7,0%
7,6%
9,8%
26,1%
8,0%
1,0%
5,0%
8,0%
3,3%
1,3%
5,8%
4,0%
11,5%
12,8%
3,5%
18,3%
5,5%
8,0%
6,5%
14,5%
9,8%
19%
8,8%
9,5%
8,7%
3,5%
Selbständige
Schüler / AzuBi
154
-
-
Familie/Verwandte
Internet-Café
Sonstiges
34,2%
-
Freunde/Bekannte
Schule/Universität
32,1%
Internet-by-Call
-
33
Jahre
-
35
Jahre
8,1%
4,5%
2,4%
8,0%
16,3%
43,6%
17,1%
63,9%
23,4%
8,8%
3,9%
15,5%
84,5%
-
04/05
1998
4,3%
6,2%
3,9%
5,5%
22,2%
42,2%
-
32,5%
46,6%
-
7,6%
4,3%
1,6%
9,9%
16,1%
44,6%
15,9%
64,0%
23,8%
8,6%
3,5%
17,2%
82,8%
16.755
10/11
1998
35,1%
8,7%
20-29 Jahre
19 oder jünger
-
30,5%
15,2%
40-49 Jahre
30-39 Jahre
10,4%
Über 50Jahre
8,1%
4,5%
1,7%
10,8%
14,2%
45,7%
15%
59,6%
26,7%
9,6%
4,2%
23,2%
76,8%
17.904
04/05
1999
3,6%
4,3%
3,5%
3,5%
16,4%
41,1%
22,3%
25,3%
47,6%
6,5%
31,8%
32,6%
17,2%
11,9%
8,6%
5,1%
1,5%
7,7%
15,1%
49,0%
13,1%
59,8%
27,1%
10,6%
2,4%
22,5%
3,5%
4,3%
4,4%
3,8%
14,9%
37,5%
27,8%
22,2%
49,5%
4,8%
30,4%
33,9%
18,6%
12,4%
-
-
-
-
-
-
-
62,3%
-
-
-
26,1%
73,9%
Über
30.000
Über
25.000
77,5%
04/05
2000
10/11
1999
Berufliche Tätigkeit
Firma/Arbeitgeber
27,6%
31
Jahre
45,5%
30
Jahre
7,3%
4,5%
7,1%
2,9%
5,0%
7,2%
16,7%
44%
17,4%
69,8%
21,6%
6,8%
1,8%
12,2%
87,8%
16.403
10/11
1997
3,7%
7,7%
14,9%
39,2%
22,4%
71,6%
19,8%
6,4%
2,2%
10,5%
89,5%
16.299
04/05
1997
Access-Provider
29
Jahre
29
Jahre
Alter
6,3%
3,9%
5,1%
5,8%
12,7%
36,4%
29,8%
78,4%
16,0%
4,2%
1,4%
9,2%
90,8%
7.445
10/11
1996
Online-Dienst
4,1%
3,7%
3,4%
3,3%
Sonstige
6,8%
5,0%
10,3%
30,0%
40,4%
Beamte
-
32,6%
85,8%
9,9%
2,9%
1,4%
9%
91%
3.012
04/05
1996
Schulabschluss
Doktoranden
48,2%
Angestellte
0,9%
Hauptschule
Studenten
0,1%
(noch) keinen
4,5%
6,2%
Frauenanteil
94,5%
93,8%
Männeranteil
Mittlere Reife
1.880
Teilnehmerzahl
Abitur
10/11
1995
Erhebungszeitraum
Anhang D. W3B-Umfragen
(Vgl. Fittkau)
Internetzugang
Anhang E. Distribution by Topleveldomain (Januar 2000)
(Vgl. Internet Software Consortium, Distribution)
Domain
TOTAL
com
net
edu
jp
uk
us
mil
de
ca
au
org
nl
fr
gov
it
fi
tw
se
br
es
mx
no
dk
be
ch
kr
at
nz
ru
pl
za
sg
unknown
ar
il
arpa
hk
hu
cz
tr
pt
gr
cn
ie
my
co
cl
th
ee
is
ua
sk
uy
ro
in
su
id
si
ae
ve
hr
lv
lt
ph
bg
Hosts
72398092
24863331
16853655
6085137
2636541
1901812
1875663
1751866
1702486
1669664
1090468
959827
820944
779879
777750
658307
631248
597036
594627
446444
415641
404873
401889
336928
320840
306073
283459
274173
271003
214704
183057
167635
148249
146830
142470
139946
117501
114882
113695
112748
90929
90757
77954
71769
59681
59012
40565
40190
40176
29682
29598
26713
25906
25385
24689
23445
21882
21052
20535
19718
14281
14147
13823
12701
12394
11854
Domain
TOTAL
yu
lu
pe
nu
int
cr
do
cy
tt
pk
lb
eg
kw
to
kz
cc
sa
bm
kg
gl
bw
zw
na
cx
ec
gt
py
mk
bn
pr
md
pa
lk
mt
ac
bh
ni
fo
sv
ma
bo
ge
by
pf
mu
am
om
sz
ci
jo
ke
vi
ba
ad
ir
gp
bt
zm
sm
gi
li
st
tm
ky
mc
Commercial
Networks
Educational
Japan
United Kingdom
United States
US Military
Germany
Canada
Australia
Organizations
Netherlands
France
Government
Italy
Finland
Taiwan, Province Of China
Sweden
Brazil
Spain
Mexico
Norway
Denmark
Belgium
Switzerland
Korea, Republic Of
Austria
New Zealand
Russian Federation
Poland
South Africa
Singapore
Unknown
Argentina
Israel
Mistakes
Hong Kong
Hungary
Czech Republic
Turkey
Portugal
Greece
China
Ireland
Malaysia
Colombia
Chile
Thailand
Estonia
Iceland
Ukraine
Slovakia (Slovak Republic)
Uruguay
Romania
India
Soviet Union
Indonesia
Slovenia
United Arab Emirates
Venezuela
Croatia
Latvia
Lithuania
Philippines
Bulgaria
155
Hosts
72398092
9982
9670
9230
8991
8727
7471
6754
6294
4852
4735
4729
4640
4069
3992
3750
3183
2828
2825
2402
2235
2226
2073
2043
1976
1922
1772
1660
1462
1398
1310
1267
1235
1209
1206
1128
1117
1028
997
975
961
948
936
901
867
823
809
678
661
629
612
602
596
588
567
564
549
542
537
532
505
476
447
444
434
420
Yugoslavia
Luxembourg
Peru
Niue
International Organizations
Costa Rica
Dominican Republic
Cyprus
Trinidad And Tobago
Pakistan
Lebanon
Egypt
Kuwait
Tonga
Kazakhstan
Cocos (Keeling) Islands
Saudi Arabia
Bermuda
Kyrgyzstan
Greenland
Botswana
Zimbabwe
Namibia
Christmas Island
Ecuador
Guatemala
Paraguay
Macedonia
Brunei Darussalam
Puerto Rico
Moldova, Republic Of
Panama
Sri Lanka
Malta
AscensionIsland
Bahrain
Nicaragua
Faroe Islands
El Salvador
Morocco
Bolivia
Georgia
Belarus
French Polynesia
Mauritius
Armenia
Oman
Swaziland
Cote D'Ivoire
Jordan
Kenya
Virgin Islands (U.S.)
Bosnia And Herzegowina
Andorra
Iran (Islamic Republic Of)
Guadeloupe
Bhutan
Zambia
San Marino
Gibraltar
Liechtenstein
Sao Tome And Principe
Turkmenistan
Cayman Islands
Monaco
Domain
TOTAL
jm
fj
aw
mg
pg
mq
sn
fm
np
bz
ai
rw
mv
ag
tj
tz
bf
sb
uz
sh
tc
dm
cu
as
mo
mz
nc
kh
vu
hm
ug
vn
az
gf
gu
tg
hn
gh
io
an
nf
ms
tn
aq
al
et
ng
sl
bb
mr
je
ls
mn
ck
gs
tf
vg
ki
dj
km
ne
Hosts
72398092
367
359
353
337
337
329
306
295
290
276
262
259
228
225
221
218
211
210
200
188
185
181
169
166
162
162
157
155
150
148
139
126
125
125
120
120
119
110
109
97
97
96
96
94
83
81
77
75
68
59
54
50
50
48
46
46
44
42
40
33
32
Domain
TOTAL
qa
ye
bj
dz
im
gb
gg
va
gy
gw
lc
gm
ml
cd
kn
cf
mp
ws
ao
er
cm
iq
td
bs
mm
cg
gd
ly
pn
ga
mh
nr
sc
so
tv
af
bd
bi
cv
gn
ht
mw
pm
pw
re
sy
bv
fk
gq
la
lr
sd
sj
sr
tk
tp
um
vc
wf
yt
zr
Jamaica
Fiji
Aruba
Madagascar
Papua New Guinea
Martinique
Senegal
Micronesia
Nepal
Belize
Anguilla
Rwanda
Maldives
Antigua And Barbuda
Tajikistan
Tanzania
Burkina Faso
Solomon Islands
Uzbekistan
St. Helena
Turks And Caicos Islands
Dominica
Cuba
American Samoa
Macau
Mozambique
New Caledonia
Cambodia
Vanuatu
Heard And Mc Donald Islands
Uganda
Viet Nam
Azerbaijan
French Guiana
Guam
Togo
Honduras
Ghana
British Indian Ocean Ter.
Netherlands Antilles
Norfolk Island
Montserrat
Tunisia
Antarctica
Albania
Ethiopia
Nigeria
Sierra Leone
Barbados
Mauritania
Jersey
Lesotho
Mongolia
Cook Islands
South Georgia South S.I.
French Southern Territories
Virgin Islands (British)
Kiribati
Djibouti
Comoros
Niger
156
Hosts
72398092
31
28
27
26
26
22
22
19
16
15
13
12
11
8
8
7
7
7
6
6
5
5
5
4
4
3
3
3
3
2
2
2
2
2
2
1
1
1
1
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
Qatar
Yemen
Benin
Algeria
Isle of Man
United Kingdom
Guernsey
Vatican City State
Guyana
Guinea-Bissau
Saint Lucia
Gambia
Mali
Congo (Democratic Republic)
Saint Kitts And Nevis
Central African Republic
Northern Mariana Islands
Samoa
Angola
Eritrea
Cameroon
Iraq
Chad
Bahamas
Myanmar
Congo (Republic)
Grenada
Libyan Arab Jamahiriya
Pitcairn
Gabon
MarshallI slands
Nauru
Seychelles
Somalia
Tuvalu
Afghanistan
Bangladesh
Burundi
Cape Verde
Guinea
Haiti
Malawi
St. Pierre And Miquelon
Palau
Reunion
Syrian Arab Republic
Bouvet Island
Falkland Islands (Malvinas)
Equatorial Guinea
Lao
Liberia
Sudan
Svalbard / Jan Mayen Isl.
Suriname
Tokelau
East Timor
Minor Outlying Islands
Saint Vincent / Grenadines
Wallis And Futuna Islands
Mayotte
Zaire
157
Herunterladen