Hauptmenü
Home
Bauen
Essen & Trinken
Finanzen
Flora & Fauna
Gesundheit
Informationstechnologie
Kunst & Kultur
Politik / Geschichte
Sport & Freizeit
Technik
Transport und Verkehr
Wissenschaft
Google-Werbung
 
   
Home
Ethernet Drucken E-Mail
Ethernet ist eine kabelgebundene Datennetztechnik für lokale Datennetze (LANs). Sie ermöglicht den Datenaustausch in Form von Datenrahmen zwischen allen in einem lokalen Netz (LAN) angeschlossenen Geräten (Computer, Drucker und dergleichen). Fast Ethernet ist eine Weiterentwicklung von Ethernet, die bei 100 Mbit/s arbeitet. In seiner traditionellen Ausprägung erstreckt sich das LAN dabei nur über ein Gebäude, heutzutage verbindet Ethernet-Technik per Glasfaser oder Funk aber auch Geräte über weite Entfernungen.

Ethernet umfasst Festlegungen für Kabeltypen und Stecker, beschreibt die Signalisierung für die Bitübertragungsschicht und legt Paketformate und Protokolle fest. Aus Sicht des OSI-Modells spezifiziert Ethernet sowohl die physikalische Schicht (OSI Layer 1) als auch die Data-Link-Schicht (OSI Layer 2). Ethernet ist weitestgehend in der IEEE-Norm 802.3 standardisiert. Es wurde ab den 1990ern zur meistverwendeten LAN-Technik und hat alle anderen LAN-Standards wie Token Ring verdrängt oder wie beispielsweise ARCNET in Industrie- und Fertigungsnetzen oder FDDI in hoch verfügbaren Netzwerken zu Nischenprodukten für Spezialgebiete gemacht. Ethernet kann die Basis für Netzwerkprotokolle, z. B. AppleTalk, DECnet, IPX/SPX oder TCP/IP, bilden.

Geschichte

Ethernet wurde ursprünglich am Xerox Palo Alto Research Center (PARC) entwickelt. Eine weitverbreitete Geschichte besagt, dass Ethernet 1973 erfunden wurde, als Robert Metcalfe ein Memo über das Potenzial von Ethernet an seine Vorgesetzten schrieb. Er leitete das Protokoll von dem an der Universität von Hawaii entwickelten funkbasierten ALOHAnet ab. Daher auch der Name Ethernet (englisch für „Äther“, der nach historischen Annahmen das Medium zur Ausbreitung von (Funk-)Wellen wäre). Metcalfe selbst sagt, dass Ethernet über mehrere Jahre entwickelt worden sei und sich daher kein Anfangszeitpunkt festmachen ließe.

Ursprünglich war es also ein firmenspezifisches und nicht standardisiertes Produkt. Diese erste Version des Ethernet arbeitete noch mit 3 Mbit/s. 1976 veröffentlichten Metcalfe und sein Assistent David Boggs einen Artikel (siehe Grafik) mit dem Titel Ethernet: Distributed Packet-Switching For Local Computer Networks.

Robert Metcalfe verließ Xerox 1979, um die Nutzung von Personal Computern und LANs zu fördern, und gründete die Firma 3Com. Er überzeugte DEC, Intel und Xerox, mit ihm zusammenzuarbeiten, um Ethernet zum Standard zu machen. Ihre erste Ethernet-Version 1 wurde ab 1980 vom IEEE (Institute of Electrical and Electronics Engineers) in der Arbeitsgruppe 802 weiterentwickelt. Ursprünglich war nur ein LAN-Standard für Übertragungsraten zwischen 1 und 20 Mbit/s geplant. Ebenfalls 1980 kam noch eine sogenannte „Token-Access-Methode“ hinzu. Ab 1981 verfolgte das IEEE dann drei verschiedene Techniken: CSMA/CD (802.3), Token Bus (802.4) und Token Ring (802.5), wovon die letzten beiden bald in einer wahren Flut von Ethernet-Produkten untergingen. 3Com wurde dabei ein großes Unternehmen.

Die Arbeiten am Cheapernet-Standard (10Base2) wurden im Juni 1983 veröffentlicht. Zur gleichen Zeit begann die Arbeit an den Spezifikationen für Ethernet-on-Broadband (10Broad36) und für das StarLAN (1Base5). Als 1985 der Ethernet-Standard auch als internationaler Standard ISO/DIS 8802/3 veröffentlicht wurde, wurde er binnen kurzer Zeit von über 100 Herstellerfirmen unterstützt. 1986 begannen einige kleinere Firmen mit der Übertragung von Daten im Ethernet-Format auf Vierdrahtleitungen. Danach verstärkte das IEEE seine Aktivitäten in den Gebieten Ethernet-on-Twisted Pair, was 1991 zu einem Standard wurde, sowie Ethernet auf Glasfaserleitungen, was 1992 zu den 10BaseF-Standards (F für Fibre-Optics) führte. Mitte der 90er Jahre kam es zu einem Tauziehen um den Nachfolge-Standard; auf der einen Seite standen AT&T und HP, die eine technisch elegantere Lösung nach IEEE 802.12 (100BaseVG) anstrebten, auf der anderen Seite standen die Hersteller der Fast Ethernet Alliance, bestehend aus ca. 35 namhaften Firmen wie Bay Networks, 3Com, Intel, SUN, Novell usw., die 100 Mbit/s nach dem altbewährten IEEE-802.3-Standard propagierten.

Letztendlich wurde 1995 der 100 Mbit/s-Standard für Ethernet auf Bestreben der Fast Ethernet Alliance gemäß IEEE 802.3u verabschiedet, etwa gleichzeitig mit dem Standard für ein Wireless-LAN mit der Bezeichnung 802.11. Inzwischen nehmen die Arbeiten am 10-Gigabit-Ethernet und am Ethernet in the First Mile (EFM) statt des rein lokalen Betriebs bereits Universitäts- und Stadtnetze ins Visier.

In der Form des Industrial Ethernet findet der Ethernet-Verkabelungsstandard heutzutage immer mehr auch in industriellen Fertigungsanlagen Anwendung. Die weltweite Vernetzung und die dadurch wachsenden Anforderungen an die Datenübertragung - nicht nur für berufliche, sondern auch für private Zwecke - hat dazu geführt, dass auch in Privatgebäuden und sogar Kreuzfahrtschiffen leistungsfähige Netzwerke installiert werden.
Bitübertragungsschicht

Ethernet basiert auf der Idee, dass die Teilnehmer eines LANs Nachrichten durch Hochfrequenz übertragen, allerdings nur innerhalb eines gemeinsamen Leitungsnetzes. Jede Netzwerkschnittstelle hat einen global eindeutigen 48-Bit-Schlüssel, der als MAC-Adresse bezeichnet wird. Das stellt sicher, dass alle Systeme in einem Ethernet unterschiedliche Adressen haben. Ethernet überträgt die Daten auf dem Übertragungsmedium dabei im sogenannten Basisbandverfahren, d. h. in digitalem Zeitmultiplex.

CSMA/CD-Algorithmus


Ein Algorithmus mit dem Namen „Carrier Sense Multiple Access with Collision Detection“ (CSMA/CD) regelt den Zugriff der Systeme auf das gemeinsame Medium. Es ist eine Weiterentwicklung des ALOHAnet-Protokolls, das in den 1960er-Jahren auf Hawaii zum Einsatz kam.

In der Praxis funktioniert dieser Algorithmus bildlich wie eine Party, auf der alle Gäste ein gemeinsames Medium (die Luft) benutzen, um miteinander zu sprechen. Bevor sie zu sprechen beginnen, warten sie höflich darauf, dass der andere Gast zu reden aufgehört hat. Wenn zwei Gäste zur gleichen Zeit zu sprechen beginnen, stoppen beide und warten für eine kurze, zufällige Zeitspanne, bevor sie einen neuen Anlauf wagen.

Damit die Kollision festgestellt und eine Sendewiederholung initiiert werden kann, müssen die Datenframes abhängig von der Leitungslänge eine bestimmte Mindestlänge haben. Diese ergibt sich aus der physikalischen Übertragungsgeschwindigkeit (allgemeine Lichtgeschwindigkeit) und der Übertragungsrate. Bei einer Übertragungsrate von 10 Mbit/s und einer maximalen Entfernung von 2,5 km zwischen zwei Stationen ist eine Mindestlänge von 64 Byte (14 Byte Header, 46 Byte Nutzdaten, 4 Byte CRC) vorgeschrieben. Kleinere Datenframes müssen entsprechend aufgefüllt werden. Für eine Übertragungsrate mit 100 Mbit/s ist eine maximale Segmentlänge von 100 m und vier Repeater erlaubt. Damit können zwei Stationen bis zu einer Distanz von 500 m direkt verbunden werden.

Auch wenn die Norm IEEE 802.3 den Namen „CSMA/CD“ im Titel hat, spielt diese Form der Kollisionsauflösung heute nur mehr in geringem Maße eine Rolle. Die meisten Netzwerke werden heute im Vollduplexmodus betrieben, bei dem Switches für die Zugriffsauflösung sorgen und keine Kollisionen mehr entstehen können. Trotzdem blieb das Frame-Format, insbesondere der Frame-Header und die für die Kollisionserkennung vorgeschriebene minimale Frame-Länge, bis hinauf zu 10-GBit-Ethernet, unverändert.

Broadcast und Sicherheit

In den ersten Ethernetimplementierungen wurde die gesamte Kommunikation auf einem Kabel abgewickelt, an das alle Arbeitsstationen angeschlossen waren. Jede Information, die von einem Computer gesendet wurde, wurde auch von allen empfangen. Die über Ethernet verbundenen Geräte müssen ständig Informationen ausfiltern, die nicht für sie bestimmt sind.

Diese Tatsache kann genutzt werden, um Broadcast- (deutsch: Rundruf)-Nachrichten an alle angeschlossenen Systeme zu senden. Bei TCP/IP beispielsweise verwendet das ARP-Protokoll einen derartigen Mechanismus für die Auflösung der Schicht-2-Adressen. Diese Tatsache ist auch ein Sicherheitsproblem von Ethernet, da ein Teilnehmer mit bösen Absichten den gesamten Datenverkehr auf der Leitung mitprotokollieren kann. Eine mögliche Abhilfe ist der Einsatz von Kryptographie (Verschlüsselung) auf höheren Protokollebenen. Die Vertraulichkeit der Verkehrsbeziehungen (wer tauscht mit wem in welchem Umfang wann Daten aus?) ist aber so nicht zu schützen.

Der Einsatz von Hubs zur Bildung von Multi-Segment-Ethernet-Netzen ändert hier nichts, weil alle Datenpakete in alle Segmente repliziert werden.

In modernen Ethernetnetzen werden Switches eingesetzt. Durch diese wird ein Ethernet in Segmente zerlegt, in denen jeweils nur ein Endgerät zu finden ist. Switches ermöglichen gleichzeitiges Senden und Empfangen für jedes Endgerät. Switches befördern die Datenpakete in der Regel direkt vom Sender zum Empfänger – allen anderen Teilnehmern wird das Paket nicht zugestellt. Broadcast- (deutsch: Rundruf-) und Multicast-Nachrichten werden an alle angeschlossenen Systeme gesendet.

Der Sicherheitsmangel wird durch die Einrichtung einer "geswitchten" Umgebung verringert, aber nicht behoben. Zusätzlich zu den Broadcast-Meldungen werden auch die jeweils ersten Pakete nach einer Sendepause – dann, wenn der Switch die Ziel-MAC-Adresse (noch) nicht kennt – an alle angeschlossenen Systeme gesendet. Dieser Zustand kann auch böswillig durch MAC-Flooding herbeigeführt werden. Pakete können auch böswillig durch ARP-Spoofing umgeleitet werden.

Die Sicherheit des Betriebs im Sinne der störungsfreien Verfügbarkeit von Daten und Diensten beruht auf dem Wohlverhalten aller angeschlossenen Systeme. Beabsichtigter oder versehentlicher Missbrauch muss in einer Ethernetumgebung durch Analyse des Datenverkehrs aufgedeckt werden (LAN-Analyse). Switches stellen vielfach statistische Angaben und Meldungen bereit, die Störungen frühzeitig erkennbar werden lassen bzw. Anlass geben zu einer detaillierteren Analyse.

Verbesserungen

Ethernet in seinen frühen Ausprägungen (z. B. 10Base5, 10Base2) mit einem von mehreren Geräten gemeinsam als Übertragungsmedium genutzten Kabel (shared medium) funktioniert gut, solange das Verkehrsaufkommen relativ zur nominalen Bandbreite niedrig ist. Da die Chance für Kollisionen proportional mit der Anzahl der Sender (englisch „transmitter“) und der zu sendenden Datenmenge ansteigt, tritt oberhalb von 50 % Auslastung vermehrt ein als Congestion (Verstopfung) bekanntes Phänomen auf, wobei regelrechte Staus entstehen und eine vernünftige Arbeit mit dem Netzwerk nicht mehr möglich ist. Um dieses Problem zu lösen und die verfügbare Bandbreite zu maximieren, wurde das Switched Ethernet entwickelt. Im Switched Ethernet werden Hubs durch "Switching Hubs" (Switches) ersetzt, die die Collision Domain in mehrere kleinere Collision Domains (meist eine pro Peer) zerteilen, was die Anzahl an Kollisionen reduziert bzw. Kollisionen gänzlich vermeidet. Bei Verwendung von Switches ist auch eine Kommunikation im Vollduplexmodus möglich, d. h. Daten können gleichzeitig gesendet und empfangen werden. Für Vollduplexbetrieb ist aber eine entsprechend fähige Bitübertragungsschicht notwendig.

Dieser Artikel basiert auf dem Artikel Ethernet aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation. In der Wikipedia ist eine Liste der Autoren verfügbar.


< zurück   weiter >
Aktuelle IT News