Автор книги: Коллектив авторов
Жанр: Учебная литература, Детские книги
сообщить о неприемлемом содержимом
Текущая страница: 3 (всего у книги 9 страниц)
Kapitel 3. GrundarchIteKturen
3.1. Von-neumann-archIteKtur
Lesen Sie und übersetzen den Text!
John von Neumann
Die von-Neumann-Architektur ist ein Referenzmodell für Computer, wonach ein gemeinsamer Speicher sowohl Computerprogrammbefehle als auch Daten hält. Von-Neumann-Systeme gehören nach der Flynnschen Klassifikation zur Klasse der SISD-Architekturen (Single Instruction, Single Data), im Unterschied zur Parallelverarbeitung.
Die von-Neumann-Architektur bildet die Grundlage für die Arbeitsweise der meisten heute bekannten Computer. Sie ist benannt nach dem österreichisch-ungarischen, später in den USA tätigen Mathematiker John von Neumann, dessen wesentliche Arbeit zum Thema 1945 veröffentlicht wurde. Sie wird manchmal auch nach der gleichnamigen US-Universität Princeton-Architektur genannt.
Die von-Neumann-Architektur ist ein Schaltungskonzept zur Realisierung universeller Rechner (von-Neumann-Rechner, VNR). Sie realisiert alle Komponenten einer Turing Maschine. Dabei ermöglicht ihre systematische Aufteilung in die entsprechenden Funktionsgruppen jedoch die Nutzung spezialisierter binärer Schaltwerke und damit eine effizientere Strukturierung der Operationen.
Im Prinzip bleibt es aber dabei, dass alles, was mit einer Turing Maschine berechenbar ist, auch auf einer Maschine mit von-NeumannArchitektur berechenbar ist und umgekehrt. Gleiches gilt für alle höheren Programmiersprachen, die durch einen Compiler oder Interpreter auf die binäre Repräsentation abgebildet werden. Sie vereinfachen zwar das Handling der Operationen, bieten jedoch keine Erweiterung der von der Turing Maschine vorgegebenen Semantik. Dies wird daran deutlich, dass die Übersetzung aus einer höheren Programmiersprache in die binäre Repräsentation wiederum von einem binären Programm ohne Anwenderinteraktion vorgenommen wird.
Programmablauf. Diese Komponenten arbeiten Programmbefehle nach folgenden Regeln ab.
Prinzipien des gespeicherten Programms:
• Befehle sind in einem RAM-Speicher mit linearem (1-dimensionalem) Adressraum abgelegt.
• Ein Befehls-Adressregister, genannt Befehlszähler oder Programmzähler, zeigt auf den nächsten auszuführenden Befehl.
• Befehle können wie Daten geändert werden. Prinzipien der sequentiellen Programm-Ausführung (siehe auch vonNeumann-Zyklus):
• Befehle werden aus einer Zelle des Speichers gelesen und dann ausgeführt.
• Normalerweise wird dann der Inhalt des Befehlszählers um Eins erhöht.
• Es gibt einen oder mehrere Sprung-Befehle, die den Inhalt des Befehlszählers um einen anderen Wert als +1 verändern.
• Es gibt einen oder mehrere Verzweigungs-Befehle, die in Abhängigkeit vom Wert eines Entscheidungs-Bit den Befehlszähler um Eins erhöhen oder einen Sprung-Befehl ausführen.
Fragen zum Text
Machen Sie einen Kurzbericht über Von-Neumann-Architektur!
Arbeitsauftrag
Machen Sie einen Vortrag zu den Themen:
Von Neumann-Biographie; Turing Maschine; Flynnische Klassifikation.
3.2. Harvard-Architektur
Lesen Sie und übersetzen den Text!
Eine der wichtigsten Modifikationen ist die Aufteilung von Befehls– und Datenspeicher gemäß der Harvard-Architektur. Einzelne Elemente der Harvard-Architektur fließen seit den 1980-er Jahren verstärkt wieder in die üblichen von-Neumann-Rechner ein, da eine klarere Trennung von Befehlen und Daten die Betriebssicherheit erfahrungsgemäß deutlich erhöht. Besonders die gefürchteten Pufferüberläufe, die für die meisten Sicherheitslücken in modernen Systemen verantwortlich sind, werden bei stärkerer Trennung von Befehlen und Daten besser beherrschbar.
Die Harvard-Architektur bezeichnet in der Informatik ein Schaltungskonzept, bei dem der Befehlsspeicher logisch und physisch vom Datenspeicher getrennt ist. Die logische Trennung ergibt sich aus verschiedenen Adressräumen und verschiedenen Maschinenbefehlen zum Zugriff auf Befehl– und Datenspeicher. Die physische Trennung ist mit zwei getrennten Speichern realisiert, auf die der Zugriff über je einen eigenen Bus erfolgt. Bei einer weniger strikten Trennung von Befehls– und Datenspeichern spricht man von einer modifizierten Harvard-Architektur (Abb. 3).
Der Vorteil dieser Architektur besteht darin, dass Befehle und Daten gleichzeitig geladen, bzw. geschrieben werden können. Bei einer klassischen Von-Neumann-Architektur sind hierzu mindestens zwei aufeinander folgende Buszyklen notwendig.
Zudem sorgt die physikalische Trennung von Daten und Programm dafür, dass eine Zugriffsrechtetrennung und Speicherschutz einfach realisierbar sind. Um z. B. zu verhindern, dass bei Softwarefehlern Programmcode überschrieben werden kann, wird für den Programmcode ein im Betrieb nur lesbarer Speicher (z. B. ROM, Lochkarten) verwendet, für die Daten schreib– und lesbarer Speicher (z. B. RAM, Ringkernspeicher). Nachteilig ist allerdings, dass nicht benötigter Datenspeicher nicht als Programmspeicher genutzt werden kann, also eine erhöhte Speicherfragmentierung auftritt.
Abb. 3. Schematische Darstellung der Harvard-Architektur. Daten und Befehle liegen in separaten Speichern und können in diesem Beispiel parallel in die Rechenwerke geladen werden
Der Name „Harvard-Architektur“ hat seinen Ursprung im elektromechanischen Computer Mark I, der in Kooperation zwischen IBM und der Harvard-Universität entwickelt und 1944 in Betrieb genommen wurde.
Die Harvard-Architektur wurde zunächst überwiegend in RISCProzessoren konsequent umgesetzt. Moderne Prozessoren in HarvardArchitektur sind in der Lage, parallel mehrere Rechenwerke gleichzeitig mit Daten und Befehlen zu füllen. Bei Signalprozessoren der C6xFamilie von Texas Instruments ist dies beispielsweise für bis zu acht Rechenwerke möglich.
Ein weiterer Vorteil der Trennung ist, dass die Datenwortbreite (die kleinste adressierbare Einheit) und die Befehlswortbreite unabhängig voneinander festgelegt werden können. Damit kann auch, wenn erforderlich, die Effizienz des Programmspeicherbedarfs verbessert werden, da sie nicht direkt von den Datenbusbreiten abhängig ist, sondern ausschließlich vom Befehlssatz. Dies kann z. B. in eingebetteten Systemen oder kleinen Mikrocontroller-Systemen von Interesse sein.
Single-Chip-Mikrocontroller, die mit festen Programmen arbeiten, verwenden meist die Harvard-Architektur. Bekannte Vertreter sind z. B. (PICmicro) von Microchip Technology Inc., die Intel-Familien 8048 und 8051 und die AVR-Reihe von Atmel.
Eine bedeutende Erweiterung der Harvard-Architektur wurde von der amerikanischen Firma Analog Devices Anfang der 1990-er Jahre durch die Einführung der Super-Harvard-Architektur-Technologie vorgenommen, bei der die genannten Speichersegmente als Dual-Port-RAMs ausgeführt sind, die kreuzweise zwischen den Programm– und Daten-Bussen liegen.
Viele moderne Prozessoren verwenden eine Mischform aus Harvardund von-Neumann-Architektur, bei der innerhalb des Prozessorchips Daten und Programm voneinander getrennt verwaltet werden, eigene Caches und MMUs haben und über getrennte interne Busse laufen, extern jedoch in einem gemeinsamen Speicher liegen. Wenn CPU Pipelining implementiert ist, ist der Vorteil dieser Mischform (auf Prozessorebene), dass deren einzelne Pipelinestufen in Bezug auf Speicherzugriffe getrennt werden können. Ein typisches Beispiel für diese Art Prozessoren ist der Motorola 68030, der in den 1980-er Jahren entwickelt wurde.
Fragen zum Text
Erklären Sie den Programmablauf bei der Harvard-Architektur!
Worin liegt der Unterschied zu der von-Neumann-Architektur?
Arbeitsauftrag
Machen Sie eine Präsentation des Harvards Rechners!
3.3. Einteilung und Arten von Programmiersprachen
Lesen Sie und übersetzen den Text!
Eine Programmiersprache ist eine künstliche, formale Sprache zur Formulierung von Arbeitsweisungen an ein Rechnersystem (z. B. PC). Durch die Programmiersprache werden der Wortschatz (Anweisungen, Funktionen) und die Grammatik (Syntax dieser Anweisungen, Funktionen) eindeutig definiert, in der ein korrekter Programmtext zu schreiben ist. Je nach dem Grad der Maschinennäher teilt man die Sprachen in Maschinensprachen, niedere oder maschinenorientierte Programmiersprachen (Assemblersprachen) und (von der Hardware unabhängige) höhere oder problemorientierte Programmiersprachen ein. Höhere Sprachen werden mit Übersetzern in niedere Sprachen übertragen. Auf der Basis des einer Sprache zugrunde liegenden Konzepts oder Denkschemas werden die höheren Sprachen in Wesentlichen in vier Kategorien unterteilt:
Bei imperativen (prozeduralen) Programmiersprachen besteht ein Programm (Programmrumpf) aus einer Abfolge von Operationen, die jeweils Daten bearbeiten. Wesentlich ist bei ihnen das Variablenkonzept, nach dem Eingabewerte in Variablen (Speicherzellen) abgelegt und dann weiterverarbeitet werden. Sie spiegeln deutlich die Architektur des VonNeumann-Rechners wider. Zu ihnen gehören Programmiersprachen wie Ada, BASIC, C, COBOL, FORTRAN, Modula-2, PL/1 und Pascal.
Deklarative Programmiersprachen gehen davon aus, dass vorrangig nicht die Problemlösung, sondern das Problem beschrieben wird, das zu lösen ist. Für diese Problembeschreibung gibt es verschiedene Ansätze:
• Bei funktionalen Programmiersprachen besteht das Ziel darin, die Programmierung so nah wie möglich an die Formulierung mathematischer Funktionen anzunähern. Beispiele für funktionale
Sprachen sind LISP und Logo.
• Logische (prädikative) Programmiersprachen basieren auf der
Prädikatenlogik. Mit einem Programm wird beispielsweise versucht, die Richtigkeit einer Eingabe anhand vorhandenen Fakten und Regeln zu überprüfen. Die bekannteste logische Programmiersprache ist Prolog.
Verteilte und parallele Programmiersprachen werden bei der Programmierung von Aufgaben für verteilte Rechner (z. B. vernetzte Arbeitsrechnersysteme) und Parallelrechner eingesetzt. In der Regel ergeben sich hierbei spezielle Probleme hinsichtlich der Kommunikation und Synchronisation, wofür in den Sprachen besondere Sprachkonstrukte vorhanden sind. Einerseits werden eigene Programmiersprachen wie Occam, Parallaxis u. a. entwickelt. Andererseits wurden konventionelle Programmiersprachen um entsprechende Konstrukte erweitert (z. B. FORTRAN, Pascal).
Objektorientierte Programmiersprachen. Hier werden alle Problemlösen erforderlichen Informationen (Daten und Operationen) als Objekte aufgefasst (Objektorientierung). Objekte sind gleichberechtigte, aktiv handelnde Einheiten, die miteinander kommunizieren, indem sie Botschaften senden und empfangen. Unter einer Botschaft versteht man dabei die Aufforderung an ein Objekt, eine bestimmte Aufgabe auszuführen. Jedes Objekt wird durch Attribute (Eigenschaften) charakterisiert. Diese beschreiben den Zustand des Objekts. Ein Objekt verfügt über Methoden (Operationen), mit denen es auf Botschaften reagiert. Die Methoden stellen die Schnittstelle des Objekts nach außen dar. Im Bereich der objektorientierten Programmiersprachen sind zwei Richtungen vorhanden:
• Rein objektorientierte Programmiersprachen wurden von vornherein mit diesem Konzept entwickelt (z. B. Smalltalk, Eiffel, Java).
• Hybridsprachen sind Sprachen, die um die Möglichkeiten der objektorientierten Programmiersprachen erweitert wurden, wie z. B. C++, Object Pascal, Oberon.
Die Gesamtzahl der Programmiersprachen wird auf weit über 1000 geschätzt, von denen die meisten auf spezielle Problemstellungen zugeschnitten sind; weit verbreitet sind 20.
Fragen zum Text
Wie funktioniert das Variablenkonzept?
Was bedeuten die Begriffe Objekt, Botschaft, Attribut und Methode?
Arbeitsauftrag
Entscheiden Sie sich für eine Programmiersprache und suchen Sie Informationen zu folgenden Punkten: Entstehungsgeschichte; Anwendungsbereich; Beispielbefehle; Vor– und Nachteile.
3.4. Rechnernetze
Lesen Sie und übersetzen den Text!
Ein Rechnernetz ist ein Zusammenschluss von verschiedenen technischen, primär selbständigen elektronischen Systemen (insbesondere Computern, aber auch Sensoren, Aktoren, funktechnologischen Komponenten usw.), der die Kommunikation der einzelnen Systeme untereinander ermöglicht.
Die Kommunikation erfolgt über verschiedene Protokolle, die mittels des ISO/OSI–Modells strukturiert werden können. Obwohl in der Praxis kein Rechnernetz das ISO/OSI–Modell vollständig abbildet, ist es von entscheidender Bedeutung für das Verständnis von Rechnernetzen, da hierbei aus kleinen grundlegenden Strukturen durch Verknüpfung größere und komplexere Strukturen gebildet werden. Dabei greifen höhere (komplexere) Protokollschichten auf die Funktionalitäten von einfacheren darunter liegenden Protokollschichten zu.
Ein wichtiges Prinzip dabei ist, dass man den meisten Protokollschichten jeweils (Nutz-) Daten (Payload) zum Transport übergeben kann. Die Protokollschicht fügt zu diesen Nutzdaten (deren Inhalt sie weitgehend ignoriert) vorne und teilweise hinten weitere Daten an, die für die Abwicklung des Transportes durch die Protokollschicht wichtig sind. Jedoch gibt es auch hiervon Ausnahmen, da einige Protokolle nicht dazu gedacht sind, fremde Nutzdaten zu transportieren, sondern ausschließlich als eigenständige Informationssysteme für bestimmte Aufgaben fungieren.
Die allgemein bekannteste Netzstruktur ist das Internet und die bekanntesten Protokolle sind das TCP (Transmission Control Protocol) und das IP (Internet Protocol), jedoch spielen auch im Internet eine Reihe weiterer Protokolle wichtige Rollen und das Internet selbst ist kein homogenes Netz, sondern besteht aus einer Vielzahl teils recht unterschiedlich konzipierter Teilnetze, die nur die oberen Protokollschichten gemeinsam haben und die Nutzdatenübertragung auf den unteren Protokollschichten teilweise sehr unterschiedlich handhaben.
Rechnernetze können unter anderem anhand der folgenden Kriterien klassifiziert werden:
• organisatorische Abdeckung;
• Übertragungsweg bzw. Übertragungstechnologie.
Topologien. Unter der Topologie versteht man die Art, wie die verschiedenen beteiligten Komponenten (also zumeist Rechner) im Netz durch physische oder logische Leitungswege verbunden sind. Um mehrere Rechner in einem Rechnernetz einzubinden, benötigt man eine gute Planung, welche durch die Einteilung der Topologie vereinfacht wird. So bilden sich Rechnernetze, in denen es Verbindungen und Knoten gibt, über die man ggf. über mehrere Zwischenpunkte von jedem Bereich des Netzes zu jedem anderen Bereich des Netzes kommen kann.
Es gibt eine Reihe von Grundstereotypen, die so in dieser klaren Form jedoch selten in der Praxis auftreten.
Bei der Stern-Topologie sind an einen zentralen Verteilpunkt alle anderen Teilnehmer mit einer Zweipunktverbindung angeschlossen. Ein Ausfall des zentralen Verteilpunktes bewirkt den Ausfall aller Verbindungsmöglichkeiten zur gleichen Zeit. Diese Topologie wird eigentlich nur in Kleinstnetzen (häufig bei LAN-Partys) verwendet.
Bei der Baum-Topologie benutzt man einen ähnlichen Ansatz, den man jedoch hierarchisch staffelt. Der „oberste“ Rechner hat die Kontrolle über alle anderen, die Macht schrumpft, je weiter man unten im Baum sitzt. Von den obersten „Wurzel“ (der erste bzw. oberste Rechner) gehen Kanten (Links) aus, die zu einem Endknoten oder der Wurzel (Verteiler) weiterer Bäume führen. Der Ausfall eines Verteilers ist der ganze davon ausgehende (Unter)Baum „tot“.
In der Ring-Topologie hat jeder Rechner eine Position in einem Ring und ist nur mit seinen Nachbarn über Zweipunktverbindungen verbunden. Die übertragende Information wird von Teilnehmer zu Teilnehmer weitergeleitet, bis sie ihren Bestimmungsort erreicht. Das hat zur Folge, dass der Ausfall eines Rechners das Rechnernetz lahm legt. Eine Sonderform der Ringtopologie ist die Linien-Topologie, bei der es sich um einen „offenen Ring“ handelt, d. h. der erste und der letzte Rechner sind nicht miteinander verbunden.
Bei der Bus-Topologie greifen alle beteiligten Rechner auf ein gemeinsames und von allen genutztes Medium zu, wodurch es zu Kollisionen darauf kommen kann. Eine Bus-Topologie besteht aus einem Hauptkabel, dem Bus, an das alle Geräte und zwei Endwiderstände angeschlossen sind. Vorteile sind die geringe Kabelbedarf und die Unabhängigkeit von der Funktion einzelner Endgeräte: Bei einem Ausfall eines Knotens oder eines Endgerätes bleibt das gesamte System trotzdem intakt. Größte Gefahr ist jedoch ein Kabelbruch im Hauptkabel, durch den der ganze Bus ausfällt.
Das vermaschte Netz ist eine Form, in der jeder Rechner mit mehreren Nachbarn verbunden ist und in dem redundante Wege existieren, so dass selbst beim Ausfall einer Leitung das Netz noch über eine andere Leitung verbunden bleibt. Die Zell-Topologie spielt bei Funknetzen mit ihren speziellen Zugriffseigenschaften eine besondere Rolle.
In der Praxis treten fast immer Mischformen dieser Stereotype auf und es gibt noch eine Reihe von Bezeichnungen für bestimmte Spezialformen. Als Smart Network oder Smart Grid wird beispielsweise die spontane, selbstorganisierte Vernetzung beliebiger Geräte bezeichnet.
Fragen zum Text
Wie sind die Protokolle strukturiert?
Wie werden die Daten durch die Protokollschichten transportiert?
Was ist eine Topologie?
Arbeitsauftrag
Suchen Sie die Informationen zu den folgenden Fragen und vergleichen Sie Ihre Antworten in der Gruppe:
• Was versteht man unter den Begriff LAN, Internet, PAN und worin unterscheiden sie sich?
• Was ist ein Router? Welche Aufgaben hat er?
Kapitel 4. Internet
4.1. Internet. Geschichte
Lesen Sie und übersetzen den Text!
Das Internet ist ein wichtiger Bestandteil unseres modernen Lebens. Doch wie ist es eigentlich entstanden?
Das Internet ist ein weltweites Netzwerk bestehend aus vielen Rechnernetzwerken, durch das Daten ausgetauscht werden. Es ermöglicht die Nutzung von Internetdiensten wie E-Mail, Telnet, Usenet, Dateiübertragung, WWW und in letzter Zeit zunehmend auch Telefonie, Radio und Fernsehen. Im Prinzip kann dabei jeder Rechner weltweit mit jedem anderen Rechner verbunden werden. Der Datenaustausch zwischen den einzelnen Internet-Rechnern erfolgt über die technisch normierten Internetprotokolle. Die Technik des Internet wird durch die RFCs der Internet Engineering Task Force (IETF) beschrieben. Umgangssprachlich wird „Internet“ häufig synonym zum World Wide Web verwendet, da dieses einer der meistgenutzten Internetdienste ist, und im Wesentlichen zum Wachstum und der Popularität des Mediums beigetragen hat. Im Gegensatz dazu sind andere Mediendienste, wie Telefonie, Fernsehen und Radio erst kürzlich über das Internet erreichbar und haben parallel dazu noch ihre ursprüngliche Verbreitungstechnik.
Das Internet ist ein riesiges Netzwerk von Computern. Geräte in jedem Land der Welt sind durch Kabel und über Satelliten miteinander verbunden. Dadurch kann man über das Internet E-Mails von Deutschland nach Brasilien schicken oder von hier aus Webseiten in den USA aufrufen. Man kann sich das Internet wie ein Fischernetz vorstellen, wobei die Fäden aber Leitungen (zum Beispiel Telefonleitungen) sind und die Knoten die Computer. Von einem dieser Computer können die Daten in den Leitungen über eine bestimmte Anzahl von Zwischenstationen (andere Computer) jeden Computer im Internet erreichen.
Insgesamt haben im Moment rund 730 Millionen Menschen einen Zugang zum Internet. Das ist ungefähr jeder zehnte Mensch. Jeder dritte Internetnutzer hat als Muttersprache Englisch, jeder zehnte Nutzer spricht Spanisch oder Chinesisch. Nur jeder vierzehnte Internetnutzer spricht Deutsch.
Das Internet ist nur dieses Netzwerk, also die Leitungen und die Computer. Damit man damit auch etwas anfangen kann, braucht man bestimmte Programme. Die wichtigsten Programme im Internet (auch Dienste genannt) sind das „World Wide Web“ (www oder auch Web), E-Mail, Chat und FTP.
Dafür, dass das Internet inzwischen so weit verbreitet ist, ist hauptsächlich das „World Wide Web“ verantwortlich. Seiten die in HTML (eine Programmiersprache) geschrieben wurden, sind darin durch Links miteinander verbunden. Durch einfaches klicken auf diese Links kann man somit durch das Web „surfen“. Weil das so einfach ist, wurde das Internet und das „World Wide Web“ bei den Menschen so beliebt.
Wie ist das Internet entstanden? Nach dem Zweiten Weltkrieg gab es auf der Welt zwei Großmächte: die USA und die Sowjetunion (Russland). Sie sahen sich als Gegner und jeder glaubte, das bessere politische und wirtschaftliche System zu haben. Als die Sowjetunion im Jahr 1957 als erstes Land der Welt einen Satelliten in den Weltraum schoss, machte man sich in den USA Gedanken darüber, weshalb man das nicht auch bereits geschafft hat.
Die Politiker fanden damals heraus, dass die wissenschaftliche Arbeit in den USA noch nicht so gut funktionierte. Daher gründeten sie 1958 eine Behörde: die Advanced Research Projects Agency (deutsch: Behörde für fortschrittliche Forschungsprojekte). Die ARPA (Abkürzung) gab staatliches Geld an Universitäten und andere Forschungseinrichtungen um dadurch die Wissenschaft zu fördern.
Einige ARPA-Mitarbeiter erkannten, dass Computer für die Wissenschaft wichtig sind, weil sie vieles schneller und besser können. Doch zur damaligen Zeit waren sie noch sehr teuer. Sie kosteten häufig so viel wie ein ganzes Haus. Außerdem waren sie so groß, dass sie ganze Räume füllten (Bild links). Und ihre Bedienung war so kompliziert, dass dies nur wenige Menschen konnten. Daher gab es sie nur an den Universitäten, in manchen Firmen und bei der Regierung. Wenn Wissenschaftler aus New York mit Forschern aus Los Angeles gemeinsam Computerberechnungen vornehmen wollten, mussten sie mit dem Flugzeug anreisen. Doch meistens haben die Forscher gar nichts von der Arbeit ihrer Kollegen erfahren, weil sie nirgends etwas Aktuelles darüber lesen konnten.
Die ARPA hatte dieses Problem erkannt und daher ein Computernetzwerk entwickelt. 1969 wurde dieses in Betrieb genommen. Es bestand aus nur vier Computern an unterschiedlichen Universitäten und man nannte es etwas später das ARPANET. In den Jahren danach wurden immer mehr Computer an das Netzwerk angeschlossen. An den Universitäten wurden nun auch die Programme (Dienste) dafür programmiert (zum Beispiel E-Mail).
Etwas später als in Amerika begann man auch in Europa damit, nach amerikanischem Vorbild Computer miteinander zu vernetzen. So gab es gegen Ende der 1970-er Jahre neben dem ARPANET in den USA auch noch Computernetzwerke in Großbritannien und Frankreich.
Anfang der 1980-er Jahre kamen die Erfinder des ARPANETs auf die Idee, ihr Netzwerk auch noch mit den anderen Netzwerken auf der Welt zu verbinden. Dazu benutzte man zum Beispiel Tiefsee-Kabel, die quer durch den Ozean verlaufen, aber auch Satelliten im Weltall.
Auf diese Weise entstanden die Interconnected Networks (deutsch: verbundene Netzwerke), die wir heute unter der Abkürzung „Internet“ kennen.
Das Internet blieb bis ungefähr 1989 eine sehr komplizierte Sache, mit der sich nur wenige Fachleute auskannten. Daher wurde es auch nur von diesen Fachleuten benutzt und war anderen Menschen kaum bekannt. Doch dann erfand einer dieser Fachleute WWW.
Fragen zum Text
Definieren Sie den Begriff Internet. Beschreiben Sie seine Funktionen!
Wann und von wem wurde Internet erfunden?
Arbeitsauftrag
Suchen Sie Information im Internet zum Thema Vor– und Nachteile des Internets und machen Sie einen Bericht!
Правообладателям!
Это произведение, предположительно, находится в статусе 'public domain'. Если это не так и размещение материала нарушает чьи-либо права, то сообщите нам об этом.