![]() |
|
|||||
Zur reinen Paketvermittlung gehört zunächst einmal kein Mechanismus, der die vollständige Auslieferung aller Datenpakete garantiert. Es wird standardmäßig weder der Erfolg noch das Ausbleiben einer Paketlieferung gemeldet. Im Übrigen wird auch keine verbindliche Reihenfolge festgelegt: Da jedes einzelne Paket einen beliebigen Weg durch das Netzwerk nehmen kann, kommt es relativ oft vor, dass ein später abgesendetes Paket noch vor einem früher versandten beim Empfänger ankommt. Um die potenziell unsichere Datenübertragung per Paketvermittlung für bestimmte Anwendungen zuverlässiger zu machen, wird zusätzlich eine Erfolgskontrolle implementiert. Außerdem werden die Pakete oft durchnummeriert, um die korrekte Reihenfolge wiederherzustellen. Allerdings haben solche Maßnahmen nichts mit der eigentlichen Paketvermittlung zu tun und müssen in diesem Zusammenhang nicht beachtet werden. In der Regel sind die Softwarekomponenten, die sich um die Übertragung der Datenpakete kümmern, gar nicht in der Lage, diese zusätzlichen Kontrollinformationen selbst auszuwerten. Eine genauere Erläuterung und verschiedene Beispiele konkreter Netzwerkimplementierungen finden Sie im nächsten Kapitel. 12.1.2 Entstehung von Netzwerken
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| Ein Computer muss nicht direkt mit demjenigen verbunden sein, mit dem er Daten austauschen soll. |
| Der Ausfall oder die Überlastung eines bestimmten Verbindungsweges kann durch Alternativen kompensiert werden. |
Auf diese Weise konnte das ursprüngliche Ziel, nämlich die Angriffs- und Ausfallsicherheit des Netzes zu gewährleisten, erreicht werden.
Schon unmittelbar nach der Einrichtung des ARPANet begann die oben erwähnte Weiterentwicklung. Man stellte schnell fest, dass die technische Infrastruktur dieses Netzes für weit mehr Anwendungen zu nutzen war als das vergleichsweise langweilige automatische Synchronisieren von Datenbeständen. So kam sehr schnell eine benutzerorientierte Möglichkeit des Dateiaustauschs hinzu, außerdem war es schon für gewöhnliche Konfigurationsaufgaben unerlässlich, einem entfernten Computer unmittelbar Anweisungen erteilen zu können – dies war der Ausgangspunkt für die Entwicklung der Terminalemulation, d. h. der Benutzung des eigenen Terminals für einen Computer, an den es nicht unmittelbar, sondern nur indirekt über das Netzwerk angeschlossen ist. Auch wenn diese Anwendungen noch nicht sofort ihre späteren Namen – FTP und TELNET – erhielten und die technischen Details ihrer Implementierung sich sicherlich noch weiterentwickelt haben, sind sie dennoch nach wie vor wichtige Nutzungsschwerpunkte des Internets.
Alles in allem wurde dieses Netzwerk schnell populär. Zwei Jahre nach seiner Einrichtung im Jahr 1971 waren bereits 40 Computer an verschiedenen Universitäten und anderen staatlichen Forschungseinrichtungen angeschlossen, und es war bei weitem nicht nur die militärische Nutzung von Interesse. Auch akademisch hatte das Netz viel zu bieten – Wissenschaftler sind darauf angewiesen, Daten auszutauschen. Hier ergab sich eine Möglichkeit, dies sehr schnell und effektiv zu tun.
Erfindung der E-Mail
1972 wurde dann der bis dahin bedeutendste Dienst dieses Netzes erfunden: Ray Tomlinson, ein Mitarbeiter eines Ingenieurbüros in Kalifornien, verschickte die erste E-Mail. Bis heute zählt die E-Mail zu den erfolgreichsten und verbreitetsten Anwendungen des Netzes; sie kann sich nach dem viel jüngeren World Wide Web noch immer auf einem guten zweiten Platz halten, und es ist auch nicht zu sehen, warum sich dies in absehbarer Zeit ändern sollte.
Einen vollkommen anderen Anstoß zur Entwicklung von Netzwerken gab das Aufkommen des so genannten Outsourcings in der Computertechnik, also der Verlagerung der Rechenleistung von einem Zentralcomputer auf den einzelnen Schreibtisch.
XEROX PARC
Große Verdienste haben in diesem Zusammenhang die Forscherinnen und Forscher des XEROX PARC (der Name PARC steht für Palo Alto Research Center). Diese Forschungseinrichtung in Kalifornien hat eine interessante Geschichte: Zu Beginn der 70er-Jahre bekamen die Manager der renommierten Papier-, Druckmaschinen- und Kopiererfirma XEROX langsam Angst, denn sie sahen angesichts der schnellen Weiterentwicklung der Computer das Schreckgespenst des »papierlosen Büros« auf sich zukommen. Natürlich weiß man es heute besser; der Papierverbrauch in den Büros hat sich seitdem vervielfacht, weil es einfach und billig ist, Dokumente mal eben auszudrucken und dann auf Papier zu kontrollieren.
Aber damals konnte das natürlich niemand ahnen. Und so beschloss die Firma XEROX: Wenn die Leute im Büro kein Papier mehr brauchen, dann müssen wir ihnen eben das liefern, was sie statt dessen dort benötigen. Dies war der Grundgedanke für die Einrichtung dieses Forscherparadieses. Einige der brillantesten Köpfe der Computertechnik und Informatik wurden eingeladen, jeweils fünf Jahre lang, mit fast unbegrenzten finanziellen Mitteln ausgestattet, zu erforschen, was immer sie wollten. So kam es, dass hier schon Mitte der 70er-Jahre Neuerungen entwickelt waren wie eine grafische Benutzeroberfläche, WYSIWYG (»What You See Is What You Get«-Dokumentenbearbeitung) oder ein Laserdrucker.
Im Prinzip hatten sie dort ein marktreifes Personal-Computer-System stehen, dessen technische Fähigkeiten erst über 15 Jahre später zum allgemeinen Standard wurden. Der einzige Nachteil dieses Systems, des ALTO, war nämlich sein außerordentlich hoher Preis von ca. 100.000 US-Dollar. Jedenfalls ist XEROX PARC so auch die Wiege des lokalen Netzwerkes geworden: Die Vision war, dass jeder Mitarbeiter eines Unternehmens ein solches Gerät auf seinem Schreibtisch stehen hat und der Austausch von Daten ganz einfach ist. So entstand Ethernet, diejenige Form des lokalen Netzes, die heute am häufigsten genutzt wird.
Sollten Sie sich jetzt wundern, warum keine dieser bahnbrechenden Entwicklungen heute den Namen XEROX trägt, so liegt dies daran, dass die Führungsetage des Unternehmens im fernen New York deren Brillanz und zukunftsweisende Eigenschaften nicht erkannte. So wurden die Entwicklungsergebnisse der meisten Forscher von diesen mitgenommen, jahrelang in die Schublade gelegt und später oftmals zur Gründung anderer Firmen verwendet.
John Warnock etwa, eine Zeit lang Forschungsleiter von PARC, gründete die Firma Adobe und konzentrierte sich besonders auf die Bereiche WYSIWYG und den Laserdrucker. Andere Ergebnisse wurden freimütig an Fremde weitergegeben, so etwa die Geheimnisse der grafischen Oberfläche an den Apple-Mitbegründer Steve Jobs, der darin die Grundlage für den Computer der Zukunft erkannte.
Natürlich war es noch ein sehr weiter Weg, bis der Urahn des Internets zu dem wurde, was er heute ist, bis das lokale Netzwerk allgemein Einzug in die Büros hielt und vor allem, bis beide in Kontrollstruktur und Anwendung aneinander angepasst werden konnten. Dieser Weg soll noch ein wenig verfolgt werden.
Das ursprüngliche ARPANet wuchs immer weiter. Zudem wurden nach dem gleichen Prinzip andere, ähnliche Netze konstruiert. Dies ist nicht zuletzt der Tatsache zu verdanken, dass alle Schritte, die zur Entwicklung des Netzes beigetragen haben, von Anfang an sorgfältig dokumentiert und der Öffentlichkeit zugänglich gemacht wurden. Dieser Dokumentationsstil ist bis heute beibehalten worden; die entsprechenden Dokumente heißen RFC (»Request For Comments«, etwa »Bitte um Kommentare«).
RFC-Dokumente
Es gibt bis heute gut 3.000 solcher RFC-Dokumente, die alle online zur Verfügung stehen, zum Beispiel unter http://www.faqs.org/rfcs. Die meisten sind technische Beschreibungen von Entwürfen, Protokollen und Verfahrensweisen; nur wenige (in der Regel mit dem Datum 1. April) nehmen sich nicht ganz so ernst – zum Beispiel RFC 2324, in dem das Protokoll HTCPTP zur Kommunikation zwischen vernetzten Kaffeemaschinen vorgeschlagen wird, oder RFC 1300, ein nettes Gedicht über Begriffe, die im Zuge der Computerentwicklung ihre ursprüngliche Bedeutung verändert haben. Alle Personen, Institutionen und Unternehmen, die etwas Entscheidendes zum ARPANet und späteren Internet beigetragen haben, haben dies in solchen Dokumenten erläutert. Dies ermöglicht es jedem beliebigen Hersteller, zum Beispiel von Hard- oder Software, mit seinen Produkten diese Standards zu unterstützen, denn sie gehören keinem einzelnen Hersteller und keiner bestimmten Person, und niemand kann den Zugriff darauf beschränken oder Lizenzgebühren fordern – ein entscheidender Grund dafür, warum die Protokolle des Internets heute vom Personal Computer bis zum Großrechner überall dominieren.
ARPANet + NSFNet
= Internet
In den 80er-Jahren schließlich wurde der militärisch genutzte Teil des ARPANet als MilNet von diesem abgetrennt, und das restliche ARPANet wurde mit dem NSFNet, dem Netz der National Science Foundation, zum Internet zusammengeschlossen. Die kommerzielle Nutzung, heute Hauptverwendungsgebiet des Internets, ließ danach aber noch fast 15 Jahre auf sich warten. Denn die Anwendungen des Internets waren zwar robust und wenig störanfällig, aber alles andere als benutzerfreundlich. Abgesehen davon waren die ersten Personal Computer, als sie in der zweiten Hälfte der 70er-Jahre auftauchten, weder konzeptionell noch von der Leistung her in der Lage, mit den Internetprotokollen etwas anzufangen.
Die Entwicklung des kleinen Computers für den einzelnen Schreibtisch begann im Grunde als Hobby einiger Freaks, die gerne programmieren wollten, sich aber kein Terminal und erst recht nicht die teure Rechenzeit an großen Computern leisten konnten. Einer dieser Freaks, Ed Roberts, ein fast bankrotter Fabrikant von Rechenmaschinen, entwickelte einen primitiven Homecomputer-Bausatz auf Basis des Mikroprozessors Intel 8080, den Altair 8800. Dieses Gerät war Anfang 1975 auf der Titelseite der Zeitschrift »Popular Electronics« abgebildet. Es hatte zunächst keinen praktischen Nutzen; die Programmierung erfolgte über eine Reihe von Kippschaltern, über die jedes Bit einzeln eingestellt werden musste, das Ergebnis einer Operation wurde durch eine Reihe von Leuchtdioden angezeigt. Die Maschine war aber interessant genug, um eine Menge wichtiger Leute dafür zu begeistern: Bill Gates und Paul Allen entwickelten für sie eine Version der einfachen Programmiersprache BASIC und gründeten in diesem Zusammenhang die Firma Microsoft. Andere trafen sich in Computerclubs wie dem berühmten Homebrew Computer Club. Dort begegneten sich beispielsweise Steve Jobs und Steve Wozniak, die bald beschlossen, »richtige« Computer zu bauen, mit Tastatur, Monitor- beziehungsweise Fernsehanschluss, Grafikfähigkeiten und einer auf BASIC basierenden Benutzerschnittstelle. Ihr erstes massentaugliches Gerät dieser Art, der APPLE II von 1977, wurde ein überwältigender Erfolg.
Der IBM-PC
Diese Ereignisse rüttelten den Großrechner-Dinosaurier IBM wach. Er konnte es natürlich nicht dulden, dass an ihm vorbei jede Menge Geld mit Computern verdient wurde, noch dazu von ein paar kaum erwachsenen Hippies. So kam es, dass IBM massiv die Entwicklung eines eigenen PCs vorantrieb, der 1981 auf den Markt kam und langsam zum neuen Marktführer avancierte. Denn da die Wirtschaft geneigt war, dem seriösen, konservativen Unternehmen IBM zu vertrauen, werteten sie diese Entwicklung als Signal, nun auch PCs kaufen zu können. Das heißt aber nicht, dass IBMs erster PC technisch viel besser gewesen wäre als die Vorläufermodelle von Apple und anderen.
IBMs Einstieg in die Welt der Mikrocomputer war übrigens der Beginn des bis heute andauernden Kerngeschäfts von Microsoft, nämlich die Entwicklung von Software, die in Kombination mit neuer Hardware angeboten wird: Sie lieferten das Betriebssystem MS-DOS, das mit dem IBM-PC verkauft wurde.
Das »Turnschuhnetzwerk«
Die fortschreitende Ausstattung von Büros mit Personal Computern führte mangels anderer Optionen zur Blüte des »Turnschuhnetzwerkes«: Anwender liefen mit Datenträgern bewaffnet durch das ganze Gebäude, um Daten miteinander auszutauschen oder zum Beispiel einen speziellen Drucker zu verwenden. Auch zwischen verschiedenen Unternehmen erfreute sich der so genannte Datenträgeraustausch großer Beliebtheit: Die Datensätze von Geschäftsvorfällen wurden auf Disketten oder Magnetbändern zwischen den einzelnen Unternehmen hin- und hergereicht.
Recht früh wurde die Datenfernübertragung, also der Datenaustausch über Telefonleitungen, für Home und Personal Computer eingeführt. Seit Ende der 70er-Jahre wurden so genannte Akustikkoppler verwendet, Geräte, die an den Computer angeschlossen wurden und auf die einfach der Telefonhörer gelegt werden musste. Diese langsamen und störanfälligen Apparate wurden bald durch Modems ersetzt, die eine direkte Verbindung zwischen Computer und Telefonleitung zuließen und im Laufe der Jahre allmählich schneller und zuverlässiger wurden. Hauptanwendungsgebiete waren auf der einen Seite die so genannten Mailboxen, also das Anbieten von Informationen und Daten an Computer, die sich unmittelbar einwählten. Auf der anderen Seite entstanden in den 80er-Jahren die meisten kommerziellen Online-Dienste wie CompuServe, AOL oder in Deutschland BTX (Vorläufer von T-Online), das zunächst über spezielle Terminals statt über PCs mit einer bestimmten Software genutzt wurde.
Erst in der zweiten Hälfte der 80er-Jahre rückte die Idee des lokalen Firmennetzwerkes stärker ins allgemeine Interesse. Es war ein Bedürfnis der Anwender von PCs, miteinander Daten auszutauschen, einfach deshalb, weil die meisten Vorgänge der Datenverarbeitung von mehreren Mitarbeitern erledigt werden. Das oben erwähnte »Turnschuhnetzwerk« wurde allmählich immer lästiger, besonders mit steigenden Datenmengen, die nicht mehr auf eine einzelne Diskette passten. Es entstanden viele verschiedene Arten der Netzwerkhardware; neben dem bereits genannten Ethernet mit seinen vielfältigen Varianten gab es beispielsweise auch Token Ring von IBM, ARCnet oder auch die Verwendung einfacher serieller Direktverbindungen zwischen Computern über die so genannten Nullmodemkabel. Was die Software angeht, so wurden die eigentlich nicht dafür geeigneten PC-Betriebssysteme um Netzwerkfähigkeiten erweitert. Hinzu kamen spezielle Betriebssysteme für Server, also solche Rechner, die anderen im Netzwerk verschiedene Ressourcen zur Verfügung stellen. Bekannt sind hier etwa Novell NetWare, IBM OS/2 oder später auch Windows NT Server.
Wenn Sie hier Linux oder andere UNIX-Varianten vermissen, dann liegt das daran, dass UNIX als PC-Betriebssystem und als Serversystem für PC-Netzwerke erst einige Jahre später populär wurde. Ein gewisses Grundverständnis für UNIX ist übrigens unerlässlich, um die Funktionsweise der Internetprotokolle nachvollziehen zu können; einige Grundlagen dieses Systems werden in Kapitel 4, Betriebssysteme, erläutert.
Das WWW
Die überwältigende Erfolgsgeschichte des Internets, dessen Protokolle und Anwendungen heute gegenüber allen anderen Arten von Netzwerken dominieren, nahm ihren Anfang 1989 in der Schweiz, am Europäischen Forschungsinstitut für Kernphysik, dem CERN in Genf. Dort machte sich der britische Informatiker Tim Berners-Lee Gedanken darüber, wie man Netzwerke, besonders das Internet, für den einfachen und effizienten Zugriff auf wissenschaftliche Dokumente nutzen könnte. Ergebnis dieser Arbeit war die Grundidee des World Wide Web, eines hypertextbasierten Informationssystems, das die Infrastruktur des Internets zur Datenübermittlung nutzen sollte.
Hypertext ist nichts anderes als Text mit integrierten Querverweisen, die automatisch funktionieren. Mit anderen Worten: Durch Betätigen des Querverweises, der in diesem Zusammenhang Hyperlink heißt, stellt der Text selbst – beziehungsweise das System, das diesen darstellt – die Verbindung mit dem verknüpften Dokument her.
Nun war Hypertext 1989 gewiss nichts Neues. Versuche damit reichen zurück bis in die 50er-Jahre, in Hilfesystemen war er in den 80er-Jahren bereits Alltag. Neu war nur seine Nutzung über ein Netzwerk, genauer gesagt über das Internet.
WWW-Bestandteile
So entstand ein äußerst effektives Informationssystem für Wissenschaftler, die auf diese Weise ihre Forschungsergebnisse miteinander austauschten. Der Prototyp dieses Systems, das World Wide Web heißen sollte, umfasste im Einzelnen die folgenden Bestandteile:
| ein spezielles neues Anwendungsprotokoll, das HyperText Transport Protocol (HTTP) |
| einen Serverdienst, der in der Lage ist, Anfragen, die in der Sprache des HTTP formuliert sind, auszuliefern |
| eine neu geschaffene Formatierungs- und Beschreibungssprache für solche Hypertext-Dokumente, die HyperText Markup Language (HTML) |
| ein Anzeigeprogramm für entsprechend formatierte Dokumente, den so genannten Browser |
1991 wurde das System der Öffentlichkeit vorgestellt. Es wurde praktisch von Anfang an nicht nur zu ernsthaften wissenschaftlichen Zwecken genutzt, sondern allgemein zur Veröffentlichung von Text, Bildern und anderem über die verschiedensten Themen. Zunächst war die Nutzung des Systems beschränkt auf wissenschaftliches Personal sowie interessierte Studenten. Sie störten sich nicht am mangelnden Komfort der ersten Browser oder den geringen Layoutfähigkeiten der ersten HTML-Versionen. Als jedoch immer mehr private Benutzer dazu kamen, was durch das allmähliche Entstehen kommerzieller Internetprovider und Browser für PC-Betriebssysteme wie Windows oder Mac OS gefördert wurde, änderte sich dies. Der berühmt gewordene »Browserkrieg« zwischen Netscape und Microsoft schuf letztendlich Fakten, die niemand für möglich oder auch nur wünschenswert gehalten hätte, die jedoch bis heute das Wesen des World Wide Web bestimmen.
Zwei Merkmale sind hier besonders wichtig:
| Die Seitenbeschreibungssprache HTML wurde immer mehr für die Definition des Seitenlayouts genutzt, statt nur für die Struktur – für Sites, die ein möglichst großes Publikum erreichen sollen, das weniger technisch und mehr inhaltlich interessiert ist, ist das Layout wichtiger als die Struktur. |
| Der Anteil kommerzieller Websites am gesamten Bestand wurde immer größer und überwiegt heute bei weitem; das Angebot im Web ist den Rundfunkmedien wie etwa dem Fernsehen ähnlicher geworden. Während Tim Berners-Lee sich ursprünglich ein Netz vorstellte, in dem alle Teilnehmer sowohl Anbieter als auch Konsumenten von Inhalten sein sollten, wird das Web heutzutage von vielen weitgehend passiv als Medium genutzt. |
| << zurück |
| ||||||||||||
| ||||||||||||
| ||||||||||||
| ||||||||||||
| ||||||||||||
Copyright © Galileo Press GmbH 2004
Für Ihren privaten Gebrauch dürfen Sie die Online-Version natürlich ausdrucken. Ansonsten unterliegt das <openbook> denselben Bestimmungen, wie die gebundene Ausgabe: Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Alle Rechte vorbehalten einschließlich der Vervielfältigung, Übersetzung, Mikroverfilmung sowie Einspeicherung und Verarbeitung in elektronischen Systemen.