Heim > Artikel > Web-Frontend > Wie funktioniert das Internet? Teil 2
In dieser Lektion/diesem Beitrag sprechen wir über Netzwerke.
Die Fähigkeit, Informationen über die Kommunikationsnetzwerke der Welt bereitzustellen und auszutauschen, hat die Art und Weise, wie Menschen arbeiten, spielen und leben, revolutioniert. Um die Jahrhundertwende listete die US-amerikanische National Academy of Engineering 20 Technologien mit den größten gesellschaftlichen Auswirkungen im 20. Jahrhundert auf. Diese Liste umfasste lebensverändernde Innovationen wie die Elektrifizierung, das Automobil und das Flugzeug. Dazu gehörten auch vier Kommunikationstechnologien – Radio und Fernsehen, Telefon, Internet und Computer –, deren technologische Grundlagen im Mittelpunkt dieses Buches stehen.
Überraschenderweise landete das Internet nur auf Platz 13, da es Ende des Jahrhunderts entwickelt wurde und das Komitee glaubte, dass seine größten Auswirkungen im 21. Jahrhundert eintreten würden. Diese Vorhersage scheint zutreffend: Die Verbreitung drahtloser Netzwerke und mobiler Geräte, der Aufstieg sozialer Netzwerke und die Kommunikation jederzeit und überall haben den Handel und die sozialen Verbindungen verändert und sogar gesellschaftliche und politische Veränderungen vorangetrieben.
Kommunikation ist für das moderne Leben von grundlegender Bedeutung. Ein Leben ohne das Internet, seine Anwendungen oder vernetzten Mobilgeräte ist kaum vorstellbar. Bis Anfang 2011 waren weltweit über 5 Milliarden Mobiltelefone aktiv, über eine Milliarde mit „Breitband“-Konnektivität – mehr als die Zahl der Menschen mit Strom, Schuhen, Zahnbürsten oder Toiletten im Jahr 2011!
Dieser Beitrag/diese Lektion (wie auch immer Sie es nennen) soll erklären, wie Kommunikationsnetzwerke funktionieren. Es lohnt sich, dies aus zwei Gründen zu studieren:
Am MIT (Massachusetts Institute of Technology) absolvieren Studenten im zweiten Studienjahr einen solchen Kurs mit etwas Erfahrung in Wahrscheinlichkeitstheorie und Fourier-Reihen.
Traditionell galt „Low-Level-Kommunikation“ (wie sich Informationen über eine einzelne Verbindung bewegen) als EE-Thema, während „Networking“ (Aufbau von Netzwerken aus mehreren Verbindungen) ein CS-Thema war. Herkömmliche digitale Kommunikationskurse befassen sich selten mit dem Aufbau von Netzwerken, und Computernetzwerkkurse behandeln die Kommunikation über physische Verbindungen als Blackbox. Dieses Buch soll diese Lücke schließen und ein umfassendes Verständnis beider Aspekte vermitteln.
Wir werden Kommunikationssysteme durchgängig abdecken: von der Quelle mit den zu übertragenden Informationen über Pakete (für die Übertragung aufgeschlüsselte Nachrichten) bis hin zu Bits („0“ oder „1“) und Signalen (analoge Wellenformen). über Verbindungen wie Kabel, Glasfaser, Funk oder akustische Wellen gesendet werden). Wir untersuchen verschiedene Netzwerke: einfache Punkt-zu-Punkt-Verbindungen, gemeinsam genutzte Medien mit mehreren Knoten und größere Multi-Hop-Netzwerke, die zu noch größeren Netzwerken verbunden sind.
Drei Herausforderungen sind für die digitale Kommunikation von zentraler Bedeutung: Zuverlässigkeit, Austausch und Skalierbarkeit. Dieser Einführungsabschnitt konzentriert sich auf die ersten beiden.
Viele Faktoren machen die Kommunikation unzuverlässig. Wir werden Techniken zur Verbesserung der Zuverlässigkeit untersuchen, die alle Redundanz nutzen, um Zuverlässigkeit mit unzuverlässigen Komponenten zu erreichen, und sich dabei auf unabhängige Komponentenausfälle verlassen.
Die größte Herausforderung besteht darin, Rauschen, Interferenzen, Bitfehler und Paketverluste (durch nicht korrigierbare Fehler, Warteschlangenüberläufe oder Verbindungs-/Softwarefehler) zu überwinden, die alle die Kommunikationsqualität beeinträchtigen.
Neben Zuverlässigkeit ist auch Geschwindigkeit wichtig. Zuverlässigkeitstechniken nutzen häufig Redundanz, wodurch die Geschwindigkeit verringert wird. Viele Kommunikationssysteme vereinen Zuverlässigkeit und Geschwindigkeit.
Die Kommunikationsgeschwindigkeit ist dramatisch gestiegen, von Kilobit pro Sekunde in den frühen 1980er Jahren auf 100 Megabit pro Sekunde drahtlos und 1–10 Gigabit pro Sekunde über kabelgebundene Verbindungen heute.
Wir werden untersuchen, warum die Kommunikation unzuverlässig ist und wie man dagegen vorgehen kann, indem wir fehlerkorrigierende Codes verwenden, mit Intersymbolinterferenzen, Neuübertragungsprotokollen und fehlertolerantem Routing umgehen.
Dedizierte Links für jedes Knotenpaar sind unerschwinglich teuer. Teilen ist wichtig. Wir untersuchen das Teilen von Punkt-zu-Punkt-Links, geteilten Medien und Multi-Hop-Netzwerken.
Wir behandeln die gemeinsame Nutzung eines Mediums (relevant für Ethernet, WLAN, Mobilfunknetze und Satellitennetze), Modulation/Demodulation (Übertragung über verschiedene Frequenzen) und MAC-Protokolle (Medium Access Control) (Regeln für das Verhalten von Netzwerkknoten). . Wir werden Time-Sharing (jeder Knoten sendet für eine bestimmte Zeit) und Frequency-Sharing (Bandbreite aufteilen) untersuchen. Dann gehen wir zu Multi-Hop-Netzwerken über, in denen viele Kommunikationen Links teilen, die durch Switches orchestriert werden.
Zu den wichtigsten Fragen gehört, wie mehrere Kommunikationen das Netzwerk gemeinsam nutzen, wie Nachrichten das Netzwerk durchlaufen und wie eine zuverlässige Kommunikation über ein Multi-Hop-Netzwerk sichergestellt werden kann.
Sharing-Techniken und Zuverlässigkeitsmechanismen bestimmen die Netzwerkeffizienz. Effizienz kann als Minimierung der Kosten für bestimmte Anforderungen oder als Maximierung der „nützlichen Arbeit“ (Gesamtdurchsatz, Durchsatzschwankung und durchschnittliche Verzögerung/Latenz) für ein bestimmtes Netzwerk definiert werden. Dieser Beitrag konzentriert sich auf Durchsatz und Latenz.
Skalierbarkeit (Entwerfen von Netzwerken, die große Größen bewältigen) ist wichtig. Dieser Beitrag geht kurz darauf ein und überlässt eine ausführliche Diskussion den späteren Lektionen.
Die Lektion ist in vier Teile unterteilt: die Quelle und die Abstraktionen von Bits, Signalen und Paketen, die in dieser Reihenfolge untersucht werden.
Claude Shannons Informationstheorie (entwickelt Ende der 1940er Jahre) ist eine bahnbrechende Idee, die viele technologische Bereiche, insbesondere Kommunikationssysteme und Netzwerke, verändert hat. Dieses Kapitel stellt die Intuition hinter Informationen vor, definiert sie mathematisch und verknüpft sie mit der Entropie, einer Eigenschaft von Datenquellen.
Diese Konzepte ermöglichen eine effiziente Datenkomprimierung vor der Kommunikation oder Speicherung und ermöglichen so eine Wiederherstellung der Originaldaten ohne Verzerrung. Eine Kernidee ist die Quellcodierung, die jedes Symbol aus einer Datenquelle einem Codewort mit gewünschten Eigenschaften zuordnet. Eine Nachricht ist eine Folge von Symbolen. Unser Fokus liegt auf der verlustfreien Quellcodierung, bei der die ursprüngliche Nachricht aus einer unbeschädigten Übertragung perfekt wiederhergestellt werden kann.
Shannon erkannte, aufbauend auf Hartleys Arbeit, dass Informationen allgemein definiert werden können, unabhängig von der Anwendungs- oder Nachrichtensemantik. Bei der Kommunikation wählt ein Sender (S) eine von mehreren möglichen Nachrichten aus und sendet sie an einen Empfänger (R). Beispielsweise könnte S die britische Ankunftsroute angeben:
Wenn jede Auswahl gleich wahrscheinlich ist (kein Vorwissen), beträgt die übermittelte Information 1 Bit. Dieses Bit kann die Auswahl kodieren. 1000 solcher unabhängigen Ereignisse können mit 1000 Bits kodiert werden.
Wenn Vorkenntnisse eine höhere Wahrscheinlichkeit für eine Wahl nahelegen (z. B. Land aufgrund eines Sturms), dann übermittelt die weniger wahrscheinliche Nachricht (Meer) mehr Informationen. Ebenso ist eine Temperatur von 75 °F in Boston im Januar aussagekräftiger als 32 °F.
Informationen über ein Ereignis hängen von seiner Wahrscheinlichkeit (p) ab. Eine geringere Wahrscheinlichkeit (weniger wahrscheinliches Ereignis) impliziert höhere Informationen.
Hartley definierte Information (I) als:
I = log(1/p) = -log(p) (2.1)
Der Logarithmus zur Basis 2 wird verwendet und die Informationseinheit ist ein Bit. Die logarithmische Funktion sorgt für Additivität: Informationen aus zwei unabhängigen Ereignissen A und B (Wahrscheinlichkeiten pA und pB) addieren sich:
IA IB = log(1/pA) log(1/pB) = log(1/(pA*pB)) = log(1/P(A und B))
Entropie (H) quantifiziert die erwarteten Informationen aus einer Reihe sich gegenseitig ausschließender Ereignisse. Wenn das Ereignis i die Wahrscheinlichkeit pi:
hatH(p1, p2, ... pN) = Σ pi * log(1/pi) (2.2)
Entropie wird in Bits gemessen und stellt die durchschnittliche Unsicherheit dar. Für zwei sich gegenseitig ausschließende Ereignisse mit Wahrscheinlichkeiten p und 1-p:
H(p, 1-p) = -p*log(p) - (1-p)*log(1-p) (2.3)
H(p) ist symmetrisch um p = 1/2, mit einem Maximum von 1 Bit bei p = 1/2. H(0) = H(1) = 0. Entropie ist immer nicht negativ und H(p1, p2, ... pN) ≤ log N.
Quellkodierung kodiert Nachrichten effizient. Viele Nachrichten verfügen über Standardkodierungen (ASCII, Bildpixel, Audiobeispiele). Dabei handelt es sich um Codierungen mit fester Länge, die leicht manipuliert werden können.
Diese Kodierungen können jedoch ineffizient sein. Im englischen Text kommt „e“ häufiger vor als „x“. Die Kodierung von „e“ mit weniger Bits und „x“ mit mehr Bits kann die durchschnittliche Nachrichtenlänge verkürzen. Dies steht im Einklang mit dem Informationskonzept: Häufige Symbole (höherer Pi) vermitteln weniger Informationen und benötigen weniger Bits.
Ein Code ordnet Informationen Bitsequenzen zu. Ein Codewort ist eine Bitfolge im Code. Quellcodes zielen darauf ab, Daten zu komprimieren, indem sie die Länge der codierten Nachricht an den Informationsinhalt (Entropie) anpassen.
Beispiel: Kodierung von 1000 Noten (A, B, C, D) mit Wahrscheinlichkeiten:
Kodierung fester Länge: 2 Bit/Grad (insgesamt 2000 Bit). Die Dekodierung ist einfach, aber ineffizient.
Codierung mit variabler Länge (Beispiel): A=10, B=0, C=110, D=111. Die Länge hängt von der Nachricht ab. Die Dekodierung erfordert eine sequentielle Verarbeitung. Dieser Beispielcode ist nicht optimal.
Idealerweise verwendet die Komprimierung nur die notwendigen Bits, um die Informationen darzustellen. Die Entropie (Gleichung 2.2) liefert die Untergrenze für die durchschnittliche Anzahl der Bits, die zur Vermeidung von Mehrdeutigkeiten erforderlich sind. Das Senden weniger Bits führt zu ungelösten Entscheidungen beim Empfänger.
Im Notenbeispiel beträgt die erwartete Information pro Note 1,626 Bit. Die Kodierung von 1000 Noten erfordert durchschnittlich 1626 Bit. Der Beispielcode mit variabler Länge verwendet 1667 Bit und ist daher nicht optimal. Die Kodierung von Notenfolgen kann die Komprimierung verbessern.
Gute Codes zu finden ist eine Herausforderung. Manchmal können kontextspezifische Codes sehr effizient sein (z. B. die Codierung von Shakespeare-Sonetten mit nur 8 Bit, wenn sowohl Sender als auch Empfänger alle Sonette kennen).
Komprimierung bietet mehrere Vorteile:
Komprimierung ist typischerweise eine End-to-End-Funktion (Anwendungsschicht), kann aber auch auf der Verbindungsschicht angewendet werden, wenn die Daten komprimierbar sind und Redundanz enthalten. Das nächste Kapitel befasst sich mit Huffman-Codes und der Lempel-Ziv-Welch (LZW)-Komprimierung.
In diesem Kapitel werden zwei Quellcodierungsalgorithmen für die Nachrichtenkomprimierung erläutert (wobei eine Nachricht eine Folge von Symbolen ist): Huffman-Codierung und Lempel-Ziv-Welch (LZW). Die Huffman-Codierung ist effizient, wenn die Symbolwahrscheinlichkeiten bekannt und unabhängig sind. LZW ist adaptiv und erfordert keine Vorkenntnisse über Wahrscheinlichkeiten. Beide sind weit verbreitet (GIF, JPEG, MPEG, MP3 usw.).
Ein Code ordnet Symbole aus einem Alphabet (Text, Pixelintensitäten oder abstrakte Symbole) Codewörtern zu. Binäre Codewörter sind für viele Kommunikationskanäle praktisch.
Beispiel: Kodierung der Noten in 6.02: A=1, B=01, C=000, D=001. Eine Folge von Noten könnte als 0010001110100001 übertragen und als „DCAAABCB“ dekodiert werden.
Momentane Codes: Ein Symbol wird dekodiert, sobald sein Codewort empfangen wird. Die obige Notenkodierung erfolgt sofort. Nicht-augenblickliche Codes erfordern einen Blick nach vorne oder eine Dekodierung vom Ende aus, wodurch sie schwieriger zu dekodieren sind.
Codebäume und präfixfreie Codes: Ein Codebaum visualisiert Codes. In einem binären Codebaum werden Kanten mit 0 oder 1 gekennzeichnet. Der Pfad von der Wurzel zu einem Symbol gibt seine Kodierung an. Präfixfreie Codes haben Symbole nur an Blattknoten, um sicherzustellen, dass kein Codewort ein Präfix eines anderen ist. Präfixfreie Codes sind sofort verfügbar.
Erwartete Codelänge (L): Für N Symbole mit Wahrscheinlichkeiten pi und Codewortlängen li: L = Σ pi * li. Für die Komprimierung sind Codes mit kleinem L wünschenswert. Ein optimaler Code hat ein Minimum an L. Shannon zeigte, dass L ≥ H (Entropie) und es Codes gibt, die Entropie asymptotisch erreichen.
Huffman-Codes bieten eine effiziente Kodierung gegebener Symbolwahrscheinlichkeiten. Wahrscheinlichere Symbole erhalten kürzere Codes.
Huffmans Algorithmus erstellt den Codebaum von unten nach oben, beginnend mit den am wenigsten wahrscheinlichen Symbolen:
Der resultierende Codebaum definiert den Code variabler Länge.
Einfache Huffman-Codierung basierend auf Buchstabenwahrscheinlichkeiten weist Einschränkungen auf. Eine adaptive Kodierung, die sich an den Nachrichteninhalt anpasst, kann eine bessere Leistung erbringen. LZW ist ein beliebter adaptiver Algorithmus.
LZW erstellt eine String-Tabelle, die Symbolsequenzen auf/von N-Bit-Indizes abbildet. Die Tabelle (2^N Einträge) wird mit Einzelbyte-Sequenzen (0-255) initialisiert. Kodierung:
Der Decoder baut die Tabelle neu auf, wenn er Codes empfängt, sodass er die ursprüngliche Nachricht wiederherstellen kann.
LZW-Beobachtungen:
In diesem Kapitel wird die analoge und digitale Kommunikation erläutert, wobei der Schwerpunkt auf den Problemen der analogen Kommunikation und den Gründen für die digitale Kommunikation liegt. Es stellt Methoden zum Senden und Empfangen digitaler Daten über analoge Kommunikationsverbindungen vor (notwendig, da physische Verbindungen auf der untersten Ebene grundsätzlich analog sind). Außerdem wird ein mehrschichtiges Kommunikationsmodell eingeführt: Nachrichten → Pakete → Bits → Signale, das die Grundlage für den Rest des Buches bildet.
Kommunikationstechnologien ermöglichen Benutzern (Menschen oder Anwendungen) den Austausch von Nachrichten. Datenquellen können von Natur aus digital (z. B. computergenerierte Daten) oder analog (z. B. Video, Audio, Sensordaten) sein. Moderne Systeme digitalisieren häufig alle Daten, unabhängig von der Quelle.
Digitale Kommunikation zeichnet sich aus zwei Gründen aus:
Physische Verbindungen sind jedoch analog und erfordern Digital-Analog- und Analog-Digital-Konvertierungen.
Analoge Darstellungen lassen sich gut auf physische Linkeigenschaften übertragen. Beispiele:
Schwarz-Weiß-Fernseher: Die Bildhelligkeit (Grauton) wird durch Spannungspegel dargestellt (0 V = Schwarz, 1 V = Weiß).
Analoges Telefon:Schallwellen werden in elektrische Signale umgewandelt.
Analogsignale können mit unterschiedlichen Spannungs-/Intensitäts-/Wellenlängenpegeln gesendet werden, die vom Empfänger einfach gemessen werden können.
Keine Kommunikationsverbindung ist fehlerfrei. Rauschen und Verzerrungen stören Signale und diese Fehler akkumulieren sich über mehrere Übertragungsstufen (Kaskadeneffekt). Dies erschwert den zuverlässigen Aufbau analoger Systeme, insbesondere komplexer Systeme. Die digitale Signalisierung löst dieses Problem.
Digitale Signalisierung verwendet diskrete Werte zur Darstellung von Bits und ermöglicht so eine robuste Unterscheidung vom Rauschen. Binäre Signalisierung verwendet zwei Spannungen: V0 für „0“ und V1 für „1“. V0 und V1 müssen ausreichend voneinander getrennt sein, um Rauschen verarbeiten zu können.
Der Empfänger verwendet eine Schwellenspannung (Vth = (V0 V1) / 2), um empfangene Spannungen auf Bits abzubilden (Spannung < Vth → „0“, Spannung ≥ Vth → „1“). Eine genaue Messung in der Nähe von Vth ist schwierig, aber nicht entscheidend, wenn V0 und V1 weit voneinander entfernt sind.
Übertragungssignale sind Wellenformen fester Spannung, die für eine bestimmte Zeit gehalten werden. Kontinuierliche Signale werden durch zeitdiskrete Abtastwerte dargestellt. Die Abtastrate (Samples pro Sekunde) wird zwischen Sender und Empfänger vereinbart. Probeintervall ist die Zeit zwischen den Proben.
Sender und Empfänger müssen sich auf eine Taktrate einigen. Bits werden bei Taktübergängen gesendet. Samples_per_bit ist die Anzahl der Samples pro Bit. Der Empfänger leitet Taktflanken aus Übergängen in empfangenen Abtastwerten ab.
Herausforderungen:
Die Uhr des Empfängers kann etwas schneller oder langsamer sein als die des Senders. Der Empfänger passt seinen Sampling-Index basierend auf Übergängen dynamisch an:
Die anfängliche Korrektur wird durch eine Trainingssequenz aus abwechselnden Nullen und Einsen zu Beginn der Übertragung unterstützt.
8b/10b befasst sich mit Gleichstromgleichgewicht und häufigen Übergängen. Es ordnet 8-Bit-Symbole 10-Bit-Übertragungssymbolen zu und gewährleistet so Folgendes:
Kodierungsprozess:
Ein Kommunikationssystem umfasst mehrere Module: Mapper (Bits zu Signalen), Demapper (Signale zu Bits), Kanalcodierung (Fehlerkorrektur), Kanaldecodierung. Nachrichten werden in Pakete aufgeteilt und über mehrere Verbindungen übertragen. Die drei wichtigsten Abstraktionen sind Pakete, Bits und Signale. Das Buch konzentriert sich auf diese und ihre Wechselwirkungen innerhalb des Kommunikationsnetzwerks.
In diesem Kapitel werden Techniken für eine zuverlässige digitale Kommunikation erörtert, wobei der Schwerpunkt auf der Hinzufügung von Redundanz liegt, um unvermeidliche Bitfehler in Kommunikationskanälen und Speichermedien zu bekämpfen. Das Kernkonzept ist Kanalkodierung: Kodierung beim Sender und Dekodierung beim Empfänger, um Fehler zu korrigieren oder nicht korrigierbare Fehler zu erkennen. Das Kapitel konzentriert sich auf Fehler-Korrekturcodes, insbesondere lineare Blockcodes und (spätere) Faltungscodes.
Das Binary Symmetric Channel (BSC)-Modell charakterisiert Bitfehler mit einem einzigen Parameter, ε (Bit-Flip-Wahrscheinlichkeit), wobei ein übertragenes Bit mit der Wahrscheinlichkeit ε umkippt, unabhängig von anderen Bits. ε kann empirisch geschätzt werden. Paketfehlerwahrscheinlichkeit (PER) für ein Paket der Größe S Bits:
PER = 1 - (1 - ε)^S (5.1)
Wenn ε << 1: PER ≈ Sε (5.2)
Reale Kanäle können Burst-Fehler aufweisen, wobei die Fehlerwahrscheinlichkeit vom Verlauf abhängt (höher, wenn auch die letzten Bits fehlerhaft waren).
Ein Wiederholungscode kodiert Bit b als n Kopien von b. Die Coderate beträgt 1/n. Maximum-Likelihood-Dekodierung wählt anhand des empfangenen Codeworts die wahrscheinlichste Nachricht aus. Für einen BSC bedeutet dies, das Codewort auszuwählen, das die meisten Bits mit dem empfangenen gemeinsam hat.
Dekodierfehlerwahrscheinlichkeit für Wiederholungscode (siehe Gleichung 5.3 im Originaltext). Die Wahrscheinlichkeit nimmt exponentiell mit der Coderate ab, ist aber aufgrund des hohen Overheads ineffizient.
Hamming-Distanz (HD) zwischen zwei n-Bit-Wörtern ist die Anzahl der unterschiedlichen Bitpositionen. Für die Einzelfehlerkorrektur (SEC) muss HD zwischen zwei beliebigen gültigen Codewörtern mindestens 3 betragen. Ein Code mit der minimalen Hamming-Distanz D kann D-1-Fehler erkennen und Floor(D/2 -1) Fehler.
Lineare Blockcodes (n, k) ordnen k-Bit-Nachrichten n-Bit-Codewörtern zu, indem lineare Funktionen (gewichtete Summen) über Nachrichtenbits verwendet werden. Algebraische Blockcodes führen solche Operationen innerhalb des Blocks aus. (n,k,d)-Codes bezeichnen Blockcodes mit einem minimalen Hamming-Abstand „d“. Coderate = k/n.
Lineare Codes erfordern, dass die Summe zweier beliebiger Codewörter ebenfalls ein Codewort ist. Das aus Nullen bestehende Codewort existiert in jedem linearen Code. Der minimale Hamming-Abstand eines linearen Blockcodes entspricht dem Gewicht des kleinsten Codeworts ungleich Null (Anzahl der Einsen). Binäre lineare Codes verwenden Modulo-2-Arithmetik (Galois-Feld F2).
Parität ist die Modulo-2-Summe der Bits. Gerader Paritätscode fügt jeder Nachricht ein Paritätsbit hinzu, wodurch das Codewort eine gerade Parität aufweist. Dadurch werden einzelne Fehler erkannt (HD=2).
Der rechteckige Paritätscode ordnet k Bits in einem r x c-Array an und fügt Zeilen- und Spaltenparitäten hinzu. Codewort: Nachrichtenzeilenparitäten, Spaltenparitäten. Länge: n = rc r c. Dieser Code ist ein SEC-Code (HD=3). Beim Dekodieren werden die Zeilen- und Spaltenparitäten überprüft und das entsprechende Bit korrigiert, wenn beide Paritäten einen Fehler anzeigen.
Jeder lineare Code kann in einen systematischen Code (Nachrichtenbits gefolgt von Paritätsbits) umgewandelt werden. Für SEC muss die Anzahl der Paritätskombinationen (2^(n-k)) größer oder gleich der Anzahl korrigierbarer Situationen (n 1) sein:
n 1 ≤ 2^(n-k) (5.6)
Die Anzahl der Paritätsbits wächst mindestens logarithmisch mit den Nachrichtenbits.
Hamming-Codes sind effiziente SEC-Codes mit logarithmischem Paritätsbitwachstum. Jedes Paritätsbit schützt mehrere Datenbits und einzelne Fehler erzeugen einzigartige Paritätsfehlerkombinationen.
Syndrombits (Ei) werden beim Empfänger durch Überprüfen der Paritäten berechnet. Die Kombination der Syndrombits gibt das fehlerhafte Bit an (falls vorhanden).
Hamming-Code-Konstruktion:
Hinweis: Dies sind nur die Informationen, die man für die Webentwicklung benötigt. Für Sysops sind die Netzwerke und ihre Grundlagen ein zweisemestriger Kurs.
Das obige ist der detaillierte Inhalt vonWie funktioniert das Internet? Teil 2. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!