Netzwerksicherheit - Kurzanleitung
In dieser modernen Zeit verlassen sich Unternehmen in hohem Maße auf Computernetzwerke, um Informationen im gesamten Unternehmen auf effiziente und produktive Weise auszutauschen. Organisatorische Computernetzwerke werden jetzt groß und allgegenwärtig. Unter der Annahme, dass jeder Mitarbeiter über eine dedizierte Workstation verfügt, verfügt ein großes Unternehmen über einige Tausend Workstations und viele Server im Netzwerk.
Es ist wahrscheinlich, dass diese Workstations weder zentral verwaltet werden noch über einen Perimeterschutz verfügen. Sie verfügen möglicherweise über eine Vielzahl von Betriebssystemen, Hardware, Software und Protokollen mit unterschiedlichem Cyber-Bewusstsein bei den Benutzern. Stellen Sie sich nun vor, diese Tausenden von Arbeitsstationen im Unternehmensnetzwerk sind direkt mit dem Internet verbunden. Diese Art von ungesichertem Netzwerk wird zum Ziel eines Angriffs, der wertvolle Informationen enthält und Schwachstellen anzeigt.
In diesem Kapitel beschreiben wir die Hauptschwachstellen des Netzwerks und die Bedeutung der Netzwerksicherheit. In den folgenden Kapiteln werden wir die Methoden diskutieren, um dasselbe zu erreichen.
Physisches Netzwerk
Ein Netzwerk ist definiert als zwei oder mehr Computergeräte, die miteinander verbunden sind, um Ressourcen effizient zu teilen. Ferner ist das Verbinden von zwei oder mehr Netzwerken miteinander bekannt alsinternetworking. Das Internet ist also nur ein Netzwerk - eine Sammlung miteinander verbundener Netzwerke.
Für die Einrichtung des internen Netzwerks stehen einer Organisation verschiedene Optionen zur Verfügung. Es kann ein kabelgebundenes Netzwerk oder ein kabelloses Netzwerk verwenden, um alle Workstations zu verbinden. Heutzutage verwenden Unternehmen meist eine Kombination aus drahtgebundenen und drahtlosen Netzwerken.
Kabelgebundene und drahtlose Netzwerke
In einem kabelgebundenen Netzwerk werden Geräte über Kabel miteinander verbunden. In der Regel basieren kabelgebundene Netzwerke auf dem Ethernet-Protokoll, bei dem Geräte mithilfe der UTP-Kabel (Unshielded Twisted Pair) an die verschiedenen Switches angeschlossen werden. Diese Switches sind ferner mit dem Netzwerkrouter verbunden, um auf das Internet zuzugreifen.
In einem drahtlosen Netzwerk ist das Gerät über Funk mit einem Zugangspunkt verbunden. Die Zugangspunkte sind ferner über Kabel mit dem Switch / Router für den externen Netzwerkzugriff verbunden.
Drahtlose Netzwerke haben aufgrund der von ihnen angebotenen Mobilität an Popularität gewonnen. Mobile Geräte müssen nicht an ein Kabel gebunden sein und können sich innerhalb der Reichweite des drahtlosen Netzwerks frei bewegen. Dies gewährleistet einen effizienten Informationsaustausch und steigert die Produktivität.
Sicherheitslücken und Angriffe
Die häufigste Sicherheitsanfälligkeit, die sowohl in drahtgebundenen als auch in drahtlosen Netzwerken besteht, ist ein „nicht autorisierter Zugriff“ auf ein Netzwerk. Ein Angreifer kann sein Gerät über einen unsicheren Hub / Switch-Port mit einem Netzwerk verbinden. In dieser Hinsicht gelten drahtlose Netzwerke als weniger sicher als kabelgebundene Netzwerke, da auf drahtlose Netzwerke ohne physische Verbindung problemlos zugegriffen werden kann.
Nach dem Zugriff kann ein Angreifer diese Sicherheitsanfälligkeit ausnutzen, um Angriffe wie -
Schnüffeln der Paketdaten, um wertvolle Informationen zu stehlen.
Denial-of-Service für legitime Benutzer in einem Netzwerk durch Überfluten des Netzwerkmediums mit falschen Paketen.
Spoofing der physischen Identität (MAC) legitimer Hosts und anschließender Diebstahl von Daten oder weiterer Start eines "Man-in-the-Middle" -Angriffs.
Netzwerkprotokoll
Das Netzwerkprotokoll besteht aus einer Reihe von Regeln, die die Kommunikation zwischen Geräten regeln, die in einem Netzwerk verbunden sind. Dazu gehören Mechanismen zum Herstellen von Verbindungen sowie Formatierungsregeln für das Datenpaketieren für gesendete und empfangene Nachrichten.
Es wurden mehrere Computernetzwerkprotokolle entwickelt, die jeweils für bestimmte Zwecke entwickelt wurden. Die populären und weit verbreiteten Protokolle sind TCP / IP mit zugehörigen Protokollen höherer und niedrigerer Ebene.
TCP / IP-Protokoll
Transmission Control Protocol (TCP) und Internet Protocol(IP) sind zwei unterschiedliche Computernetzwerkprotokolle, die meistens zusammen verwendet werden. Aufgrund ihrer Beliebtheit und breiten Akzeptanz sind sie in allen Betriebssystemen vernetzter Geräte integriert.
IP entspricht der Netzwerkschicht (Schicht 3), während TCP der Transportschicht (Schicht 4) in OSI entspricht. TCP / IP gilt für die Netzwerkkommunikation, bei der der TCP-Transport zur Bereitstellung von Daten über IP-Netzwerke verwendet wird.
TCP / IP-Protokolle werden üblicherweise mit anderen Protokollen wie HTTP, FTP, SSH auf Anwendungsebene und Ethernet auf Datenverbindungs- / physischer Ebene verwendet.
Die TCP / IP-Protokollsuite wurde 1980 als Internetworking-Lösung ohne Rücksicht auf Sicherheitsaspekte entwickelt.
Es wurde für eine Kommunikation im eingeschränkten vertrauenswürdigen Netzwerk entwickelt. Im Laufe der Zeit wurde dieses Protokoll jedoch zum De-facto-Standard für die ungesicherte Internetkommunikation.
Einige der häufigsten Sicherheitslücken von TCP / IP-Protokollanzügen sind:
HTTP ist ein Protokoll der Anwendungsschicht in der TCP / IP-Suite, das zum Übertragen von Dateien verwendet wird, aus denen die Webseiten von den Webservern bestehen. Diese Übertragungen erfolgen im Klartext und ein Eindringling kann die zwischen dem Server und einem Client ausgetauschten Datenpakete leicht lesen.
Eine weitere HTTP-Sicherheitsanfälligkeit ist eine schwache Authentifizierung zwischen dem Client und dem Webserver während der Initialisierung der Sitzung. Diese Sicherheitsanfälligkeit kann zu einem Sitzungsentführungsangriff führen, bei dem der Angreifer eine HTTP-Sitzung des legitimen Benutzers stiehlt.
Die Sicherheitsanfälligkeit bezüglich des TCP-Protokolls ist ein Drei-Wege-Handshake für den Verbindungsaufbau. Ein Angreifer kann einen Denial-of-Service-Angriff „SYN-Flooding“ starten, um diese Sicherheitsanfälligkeit auszunutzen. Er baut viele halb geöffnete Sitzungen auf, indem er den Handschlag nicht beendet. Dies führt zu einer Überlastung des Servers und schließlich zu einem Absturz.
Die IP-Schicht ist anfällig für viele Sicherheitslücken. Durch eine Änderung des IP-Protokoll-Headers kann ein Angreifer einen IP-Spoofing-Angriff starten.
Abgesehen von den oben genannten gibt es viele andere Sicherheitslücken in der TCP / IP-Protokollfamilie, sowohl im Design als auch in der Implementierung.
Übrigens werden bei der TCP / IP-basierten Netzwerkkommunikation, wenn eine Schicht gehackt wird, die anderen Schichten nicht auf den Hack aufmerksam und die gesamte Kommunikation wird beeinträchtigt. Daher müssen auf jeder Ebene Sicherheitskontrollen eingesetzt werden, um eine kinderleichte Sicherheit zu gewährleisten.
DNS-Protokoll
Domain Name System(DNS) wird verwendet, um Hostdomänennamen in IP-Adressen aufzulösen. Netzwerkbenutzer sind hauptsächlich beim Surfen im Internet auf DNS-Funktionen angewiesen, indem sie eine URL in den Webbrowser eingeben.
Bei einem Angriff auf DNS besteht das Ziel eines Angreifers darin, einen legitimen DNS-Eintrag so zu ändern, dass er in eine falsche IP-Adresse aufgelöst wird. Es kann den gesamten Datenverkehr für diese IP auf den falschen Computer leiten. Ein Angreifer kann entweder die Sicherheitsanfälligkeit des DNS-Protokolls ausnutzen oder den DNS-Server für die Durchführung eines Angriffs gefährden.
DNS cache poisoningist ein Angriff, der eine im DNS-Protokoll gefundene Sicherheitsanfälligkeit ausnutzt. Ein Angreifer kann den Cache vergiften, indem er eine Antwort auf eine rekursive DNS-Abfrage fälscht, die von einem Resolver an einen autorisierenden Server gesendet wird. Sobald der Cache des DNS-Resolvers vergiftet ist, wird der Host auf eine schädliche Website geleitet und kann durch die Kommunikation mit dieser Website Informationen zu Anmeldeinformationen gefährden.
ICMP-Protokoll
Internet Control Management Protocol(ICMP) ist ein grundlegendes Netzwerkverwaltungsprotokoll der TCP / IP-Netzwerke. Es wird verwendet, um Fehler- und Kontrollmeldungen zum Status von Netzwerkgeräten zu senden.
ICMP ist ein integraler Bestandteil der IP-Netzwerkimplementierung und daher in sehr Netzwerkeinstellungen vorhanden. ICMP hat seine eigenen Schwachstellen und kann missbraucht werden, um einen Angriff auf ein Netzwerk zu starten.
Die häufigsten Angriffe, die aufgrund von ICMP-Schwachstellen in einem Netzwerk auftreten können, sind:
Mit ICMP kann ein Angreifer eine Netzwerkaufklärung durchführen, um die Netzwerktopologie und die Pfade in das Netzwerk zu bestimmen. Beim ICMP-Sweep werden alle Host-IP-Adressen ermittelt, die im gesamten Netzwerk des Ziels vorhanden sind.
Trace Route ist ein beliebtes ICMP-Dienstprogramm, mit dem das Zielnetzwerk zugeordnet wird, indem der Pfad vom Client zum Remote-Host in Echtzeit beschrieben wird.
Ein Angreifer kann mithilfe der ICMP-Sicherheitsanfälligkeit einen Denial-of-Service-Angriff starten. Bei diesem Angriff werden IPMP-Ping-Pakete mit mehr als 65.535 Byte an das Zielgerät gesendet. Der Zielcomputer verarbeitet dieses Paket nicht ordnungsgemäß und kann dazu führen, dass das Betriebssystem beschädigt wird.
Andere Protokolle wie ARP, DHCP, SMTP usw. weisen ebenfalls Schwachstellen auf, die vom Angreifer ausgenutzt werden können, um die Netzwerksicherheit zu gefährden. Wir werden einige dieser Schwachstellen in späteren Kapiteln diskutieren.
Die geringste Sorge um den Sicherheitsaspekt beim Entwurf und der Implementierung von Protokollen hat sich zu einer Hauptursache für Bedrohungen der Netzwerksicherheit entwickelt.
Ziele der Netzwerksicherheit
Wie bereits in früheren Abschnitten erläutert, gibt es im Netzwerk eine große Anzahl von Sicherheitslücken. Daher sind Daten während der Übertragung sehr anfällig für Angriffe. Ein Angreifer kann auf den Kommunikationskanal zielen, die Daten abrufen und diese lesen oder eine falsche Nachricht erneut einfügen, um seine schändlichen Ziele zu erreichen.
Die Netzwerksicherheit betrifft nicht nur die Sicherheit der Computer an jedem Ende der Kommunikationskette. Ziel ist es jedoch sicherzustellen, dass das gesamte Netzwerk sicher ist.
Zur Netzwerksicherheit gehört der Schutz der Benutzerfreundlichkeit, Zuverlässigkeit, Integrität und Sicherheit von Netzwerken und Daten. Effektive Netzwerksicherheit verhindert, dass eine Vielzahl von Bedrohungen in ein Netzwerk eindringt oder sich dort ausbreitet.
Das Hauptziel der Netzwerksicherheit sind Vertraulichkeit, Integrität und Verfügbarkeit. Diese drei Säulen der Netzwerksicherheit werden häufig als dargestelltCIA triangle.
Confidentiality- Die Funktion der Vertraulichkeit besteht darin, wertvolle Geschäftsdaten vor unbefugten Personen zu schützen. Der Teil der Vertraulichkeit der Netzwerksicherheit stellt sicher, dass die Daten nur den beabsichtigten und autorisierten Personen zur Verfügung stehen.
Integrity- Dieses Ziel bedeutet, die Genauigkeit und Konsistenz der Daten zu gewährleisten und sicherzustellen. Die Funktion der Integrität besteht darin, sicherzustellen, dass die Daten zuverlässig sind und nicht von unbefugten Personen geändert werden.
Availability - Die Funktion der Verfügbarkeit in der Netzwerksicherheit besteht darin, sicherzustellen, dass die Daten, Netzwerkressourcen / -dienste den legitimen Benutzern jederzeit zur Verfügung stehen, wenn sie dies benötigen.
Netzwerksicherheit erreichen
Die Gewährleistung der Netzwerksicherheit scheint sehr einfach zu sein. Die zu erreichenden Ziele scheinen unkompliziert zu sein. In Wirklichkeit sind die Mechanismen zur Erreichung dieser Ziele jedoch sehr komplex, und das Verständnis dieser Mechanismen erfordert fundiertes Denken.
International Telecommunication Union(ITU) hat in seiner Empfehlung zur Sicherheitsarchitektur X.800 bestimmte Mechanismen definiert, um die Standardisierung von Methoden zur Erreichung der Netzwerksicherheit zu erreichen. Einige dieser Mechanismen sind -
En-cipherment- Dieser Mechanismus bietet Datenvertraulichkeitsdienste, indem Daten für nicht autorisierte Personen in nicht lesbare Formulare umgewandelt werden. Dieser Mechanismus verwendet einen Verschlüsselungs- / Entschlüsselungsalgorithmus mit geheimen Schlüsseln.
Digital signatures- Dieser Mechanismus ist das elektronische Äquivalent zu normalen Signaturen in elektronischen Daten. Es bietet Authentizität der Daten.
Access control- Dieser Mechanismus wird zur Bereitstellung von Zugriffskontrolldiensten verwendet. Diese Mechanismen können die Identifizierung und Authentifizierung einer Entität verwenden, um die Zugriffsrechte der Entität zu bestimmen und durchzusetzen.
Nachdem verschiedene Sicherheitsmechanismen zur Erreichung der Netzwerksicherheit entwickelt und identifiziert wurden, ist es wichtig zu entscheiden, wo sie angewendet werden sollen. sowohl physisch (an welchem Ort) als auch logisch (auf welcher Ebene einer Architektur wie TCP / IP).
Sicherheitsmechanismen auf Netzwerkebenen
Mehrere Sicherheitsmechanismen wurden so entwickelt, dass sie auf einer bestimmten Ebene des OSI-Netzwerkschichtmodells entwickelt werden können.
Security at Application Layer- Die auf dieser Ebene verwendeten Sicherheitsmaßnahmen sind anwendungsspezifisch. Verschiedene Arten von Anwendungen würden separate Sicherheitsmaßnahmen erfordern. Um die Sicherheit der Anwendungsschicht zu gewährleisten, müssen die Anwendungen geändert werden.
Es wird davon ausgegangen, dass das Entwerfen eines kryptografisch einwandfreien Anwendungsprotokolls sehr schwierig ist und die ordnungsgemäße Implementierung noch schwieriger ist. Daher werden Sicherheitsmechanismen auf Anwendungsebene zum Schutz der Netzwerkkommunikation bevorzugt als standardbasierte Lösungen, die seit einiger Zeit verwendet werden.
Ein Beispiel für ein Sicherheitsprotokoll auf Anwendungsebene ist Secure Multipurpose Internet Mail Extensions (S / MIME), das üblicherweise zum Verschlüsseln von E-Mail-Nachrichten verwendet wird. DNSSEC ist ein weiteres Protokoll auf dieser Ebene, das für den sicheren Austausch von DNS-Abfragenachrichten verwendet wird.
Security at Transport Layer- Sicherheitsmaßnahmen auf dieser Ebene können verwendet werden, um die Daten in einer einzigen Kommunikationssitzung zwischen zwei Hosts zu schützen. Die häufigste Verwendung für Sicherheitsprotokolle der Transportschicht ist der Schutz des HTTP- und FTP-Sitzungsverkehrs. Die Transport Layer Security (TLS) und die Secure Socket Layer (SSL) sind die am häufigsten verwendeten Protokolle für diesen Zweck.
Network Layer- Sicherheitsmaßnahmen auf dieser Ebene können auf alle Anwendungen angewendet werden. Sie sind daher nicht anwendungsspezifisch. Die gesamte Netzwerkkommunikation zwischen zwei Hosts oder Netzwerken kann auf dieser Ebene geschützt werden, ohne dass eine Anwendung geändert werden muss. In einigen Umgebungen bietet das Sicherheitsprotokoll der Netzwerkschicht, wie z. B. IPsec (Internet Protocol Security), eine viel bessere Lösung als Steuerelemente der Transport- oder Anwendungsschicht, da es schwierig ist, einzelnen Anwendungen Steuerelemente hinzuzufügen. Sicherheitsprotokolle auf dieser Ebene bieten jedoch weniger Kommunikationsflexibilität, die von einigen Anwendungen möglicherweise benötigt wird.
Im Übrigen kann ein Sicherheitsmechanismus, der für den Betrieb auf einer höheren Schicht ausgelegt ist, keinen Schutz für Daten auf niedrigeren Schichten bieten, da die niedrigeren Schichten Funktionen ausführen, die den höheren Schichten nicht bekannt sind. Daher kann es erforderlich sein, mehrere Sicherheitsmechanismen bereitzustellen, um die Netzwerksicherheit zu verbessern.
In den folgenden Kapiteln des Lernprogramms werden die Sicherheitsmechanismen erläutert, die auf verschiedenen Ebenen der OSI-Netzwerkarchitektur zum Erreichen der Netzwerksicherheit eingesetzt werden.
Verschiedene Geschäftsdienste werden jetzt online über Client-Server-Anwendungen angeboten. Die beliebtesten Formulare sind Webanwendung und E-Mail. In beiden Anwendungen kommuniziert der Client mit dem angegebenen Server und erhält Dienste.
Bei der Verwendung eines Dienstes aus einer beliebigen Serveranwendung tauschen Client und Server viele Informationen im zugrunde liegenden Intranet oder Internet aus. Wir sind uns der Tatsache bewusst, dass diese Informationstransaktionen für verschiedene Angriffe anfällig sind.
Bei der Netzwerksicherheit werden Daten vor Angriffen geschützt, während sie in einem Netzwerk übertragen werden. Um dieses Ziel zu erreichen, wurden viele Echtzeit-Sicherheitsprotokolle entwickelt. Ein solches Protokoll muss mindestens die folgenden Hauptziele erfüllen:
- Die Parteien können interaktiv verhandeln, um sich gegenseitig zu authentifizieren.
- Richten Sie einen geheimen Sitzungsschlüssel ein, bevor Sie Informationen im Netzwerk austauschen.
- Tauschen Sie die Informationen in verschlüsselter Form aus.
Interessanterweise arbeiten diese Protokolle auf verschiedenen Ebenen des Netzwerkmodells. Beispielsweise funktioniert das S / MIME-Protokoll auf Anwendungsebene, das SSL-Protokoll wurde für die Transportschicht entwickelt und das IPSec-Protokoll arbeitet auf Netzwerkebene.
In diesem Kapitel werden verschiedene Prozesse zum Erreichen der Sicherheit für die E-Mail-Kommunikation und die zugehörigen Sicherheitsprotokolle erläutert. Die Methode zum Sichern von DNS wird anschließend behandelt. In den späteren Kapiteln werden die Protokolle zur Erreichung der Websicherheit beschrieben.
E-Mail-Sicherheit
Heutzutage ist E-Mail eine sehr weit verbreitete Netzwerkanwendung geworden. Lassen Sie uns kurz die E-Mail-Infrastruktur besprechen, bevor wir uns mit den E-Mail-Sicherheitsprotokollen befassen.
E-Mail-Infrastruktur
Der einfachste Weg, eine E-Mail zu senden, besteht darin, eine Nachricht direkt vom Computer des Absenders an den Computer des Empfängers zu senden. In diesem Fall ist es wichtig, dass beide Computer gleichzeitig im Netzwerk ausgeführt werden. Diese Einrichtung ist jedoch unpraktisch, da Benutzer gelegentlich ihre Computer mit dem Netzwerk verbinden können.
Daher kam das Konzept der Einrichtung von E-Mail-Servern auf. In diesem Setup wird die E-Mail an einen Mailserver gesendet, der permanent im Netzwerk verfügbar ist. Wenn der Computer des Empfängers eine Verbindung zum Netzwerk herstellt, liest er die E-Mails vom Mailserver.
Im Allgemeinen besteht die E-Mail-Infrastruktur aus einem Netz von Mailservern, die auch als bezeichnet werden Message Transfer Agents (MTAs) und Client-Computer, auf denen ein E-Mail-Programm ausgeführt wird, das aus User Agent (UA) und lokalem MTA besteht.
In der Regel wird eine E-Mail-Nachricht von ihrer UA weitergeleitet, durchläuft das Netz von MTAs und erreicht schließlich die UA auf dem Computer des Empfängers.
Die für E-Mails verwendeten Protokolle lauten wie folgt:
SMTP (Simple Mail Transfer Protocol) zum Weiterleiten von E-Mail-Nachrichten.
Post Office Protocol (POP) und Internet Message Access Protocol (IMAP) werden verwendet, um die Nachrichten des Empfängers vom Server abzurufen.
MIME
Der grundlegende Internet-E-Mail-Standard wurde 1982 geschrieben und beschreibt das Format der im Internet ausgetauschten E-Mail-Nachrichten. Es unterstützt hauptsächlich E-Mail-Nachrichten, die als Text im grundlegenden römischen Alphabet geschrieben sind.
Bis 1992 bestand das Bedürfnis, dasselbe zu verbessern. Daher wurde ein zusätzlicher Standard für Mehrzweck-Internet-Mail-Erweiterungen (MIME) definiert. Es handelt sich um eine Reihe von Erweiterungen des grundlegenden Internet-E-Mail-Standards. MIME bietet die Möglichkeit, E-Mails mit anderen Zeichen als denen des grundlegenden römischen Alphabets zu senden, z. B. dem kyrillischen Alphabet (auf Russisch verwendet), dem griechischen Alphabet oder sogar den ideografischen Zeichen des Chinesischen.
Ein weiteres von MIME erfülltes Bedürfnis ist das Senden von Nicht-Text-Inhalten wie Bildern oder Videoclips. Aufgrund dieser Funktionen wurde der MIME-Standard mit SMTP für die E-Mail-Kommunikation weit verbreitet.
E-Mail-Sicherheitsdienste
Die zunehmende Nutzung der E-Mail-Kommunikation für wichtige und wichtige Transaktionen erfordert die Bereitstellung bestimmter grundlegender Sicherheitsdienste wie folgt:
Confidentiality - E-Mail-Nachrichten sollten nur von dem beabsichtigten Empfänger gelesen werden.
Authentication - Der E-Mail-Empfänger kann sich der Identität des Absenders sicher sein.
Integrity - Zusicherung an den Empfänger, dass die E-Mail-Nachricht seit der Übermittlung durch den Absender nicht geändert wurde.
Non-repudiation - Der E-Mail-Empfänger kann einem Dritten nachweisen, dass der Absender die Nachricht tatsächlich gesendet hat.
Proof of submission - Der E-Mail-Absender erhält die Bestätigung, dass die Nachricht an das Postzustellungssystem übergeben wird.
Proof of delivery - Der Absender erhält eine Bestätigung, dass der Empfänger die Nachricht erhalten hat.
Sicherheitsdienste wie Datenschutz, Authentifizierung, Nachrichtenintegrität und Nicht-Zurückweisung werden normalerweise mithilfe der Kryptografie mit öffentlichen Schlüsseln bereitgestellt.
In der Regel gibt es drei verschiedene Szenarien für die E-Mail-Kommunikation. In diesen Szenarien werden die Methoden zum Erreichen der oben genannten Sicherheitsdienste erörtert.
Eins-zu-eins-E-Mail
In diesem Szenario sendet der Absender eine E-Mail-Nachricht nur an einen Empfänger. Normalerweise sind nicht mehr als zwei MTA an der Kommunikation beteiligt.
Nehmen wir an, ein Absender möchte eine vertrauliche E-Mail an einen Empfänger senden. Die Bereitstellung der Privatsphäre wird in diesem Fall wie folgt erreicht:
Der Sender und der Empfänger haben ihre privat-öffentlichen Schlüssel als (S PVT , S PUB ) bzw. (R PVT , R PUB ).
Der Absender generiert einen geheimen symmetrischen Schlüssel K S zur Verschlüsselung. Obwohl der Absender R PUB für die Verschlüsselung hätte verwenden können , wird ein symmetrischer Schlüssel verwendet, um eine schnellere Ver- und Entschlüsselung zu erreichen.
Der Absender verschlüsselt die Nachricht mit dem Schlüssel K S und verschlüsselt K S auch mit dem öffentlichen Schlüssel des Empfängers R PUB .
Der Absender sendet eine verschlüsselte Nachricht und ein verschlüsseltes K S an den Empfänger.
Der Empfänger erhält zuerst K S, indem er codiertes K S unter Verwendung seines privaten Schlüssels R PVT entschlüsselt .
Der Empfänger entschlüsselt dann Nachricht mithilfe des symmetrischen Schlüssels, K S .
Wenn in diesem Szenario auch Dienste für Nachrichtenintegrität, Authentifizierung und Nicht-Zurückweisung erforderlich sind, werden die folgenden Schritte zum obigen Prozess hinzugefügt.
Der Absender erzeugt einen Hash der Nachricht und signiert diesen Hash digital mit seinem privaten Schlüssel S PVT .
Der Absender sendet diesen signierten Hash zusammen mit anderen Komponenten an den Empfänger.
Der Empfänger verwendet den öffentlichen Schlüssel S PUB und extrahiert den unter der Unterschrift des Absenders empfangenen Hash.
Der Empfänger hasht dann die entschlüsselte Nachricht und vergleicht nun die beiden Hashwerte. Wenn sie übereinstimmen, wird die Nachrichtenintegrität als erreicht angesehen.
Der Empfänger ist sich auch sicher, dass die Nachricht vom Absender gesendet wird (Authentifizierung). Und schließlich kann der Absender nicht leugnen, dass er die Nachricht nicht gesendet hat (Nicht-Zurückweisung).
E-Mail von einem zu mehreren Empfängern
In diesem Szenario sendet der Absender eine E-Mail-Nachricht an zwei oder mehr Empfänger. Die Liste wird vom E-Mail-Programm des Absenders (UA + lokaler MTA) verwaltet. Alle Empfänger erhalten die gleiche Nachricht.
Nehmen wir an, der Absender möchte vertrauliche E-Mails an viele Empfänger senden (z. B. R1, R2 und R3). Die Bereitstellung der Privatsphäre wird in diesem Fall wie folgt erreicht:
Der Absender und alle Empfänger haben ein eigenes Paar von privat-öffentlichen Schlüsseln.
Der Absender generiert einen geheimen symmetrischen Schlüssel K s und verschlüsselt die Nachricht mit diesem Schlüssel.
Der Absender verschlüsselt dann K S mehrmals mit öffentlichen Schlüsseln von R1, R2 und R3 und erhält R1 PUB (K S ), R2 PUB (K S ) und R3 PUB (K S ).
Der Absender sendet eine verschlüsselte Nachricht und das entsprechende verschlüsselte K S an den Empfänger. Beispielsweise empfängt Empfänger 1 (R1) eine verschlüsselte Nachricht und R1 PUB (K S ).
Jeder Empfänger extrahiert zuerst den Schlüssel K S, indem er den verschlüsselten K S mit seinem privaten Schlüssel entschlüsselt .
Jeder Empfänger entschlüsselt dann die Nachricht mithilfe des symmetrischen Schlüssels, K S .
Die Schritte zum Bereitstellen der Nachrichtenintegrität, -authentifizierung und -verweigerung ähneln den oben im Eins-zu-Eins-E-Mail-Szenario genannten Schritten.
E-Mail mit einer Verteilerliste
In diesem Szenario sendet der Absender eine E-Mail-Nachricht an zwei oder mehr Empfänger, aber die Liste der Empfänger wird vom Absender nicht lokal verwaltet. Im Allgemeinen verwaltet der E-Mail-Server (MTA) die Mailingliste.
Der Absender sendet eine E-Mail an den MTA, der die Mailingliste verwaltet, und anschließend wird die E-Mail von MTA an alle Empfänger in der Liste aufgelöst.
In diesem Fall, wenn der Absender eine vertrauliche E-Mail an die Empfänger der Mailingliste senden möchte (z. B. R1, R2 und R3); Die Privatsphäre wird wie folgt gewährleistet:
Der Absender und alle Empfänger haben ein eigenes Paar von privat-öffentlichen Schlüsseln. Der Exploder-Server verfügt über ein Paar von privat-öffentlichen Schlüsseln für jede von ihm verwaltete Mailingliste (List PUB , List PVT ).
Der Absender erzeugt einen geheimen symmetrischen Schlüssel K s und verschlüsselt dann die Nachricht mit diesem Schlüssel.
Der Absender verschlüsselt dann K S mit dem der Liste zugeordneten öffentlichen Schlüssel und erhält List PUB (K S ).
Der Absender sendet eine verschlüsselte Nachricht und listet PUB (K S ) auf. Die exploder MTA dechiffriert Liste PUB (K S ) unter Verwendung Liste PVT und erhält K S .
Der Exploder verschlüsselt K S mit so vielen öffentlichen Schlüsseln, wie Mitglieder in der Liste vorhanden sind.
Der Exploder leitet die empfangene verschlüsselte Nachricht und das entsprechende verschlüsselte K S an alle Empfänger in der Liste weiter. Beispielsweise leitet der Exploder die verschlüsselte Nachricht und R1 PUB (K S ) an Empfänger 1 usw. weiter.
Für die Bereitstellung der Nachrichtenintegrität, -authentifizierung und -verweigerung sind die folgenden Schritte ähnlich wie im Fall eines Eins-zu-Eins-E-Mail-Szenarios.
Interessanterweise wird erwartet, dass das E-Mail-Programm, das die oben genannte Sicherheitsmethode zum Sichern von E-Mails verwendet, für alle oben diskutierten möglichen Szenarien funktioniert. Die meisten der oben genannten Sicherheitsmechanismen für E-Mails werden von zwei gängigen Systemen bereitgestellt: Pretty Good Privacy (PGP) und S / MIME. Wir diskutieren beide in den folgenden Abschnitten.
PGP
Pretty Good Privacy(PGP) ist ein E-Mail-Verschlüsselungsschema. Es ist zum De-facto-Standard für die Bereitstellung von Sicherheitsdiensten für die E-Mail-Kommunikation geworden.
Wie oben erläutert, werden Kryptografie mit öffentlichem Schlüssel, Kryptografie mit symmetrischem Schlüssel, Hash-Funktion und digitale Signatur verwendet. Es bietet -
- Privacy
- Absenderauthentifizierung
- Nachrichtenintegrität
- Non-repudiation
Neben diesen Sicherheitsdiensten bietet es auch Unterstützung für Datenkomprimierung und Schlüsselverwaltung. PGP verwendet vorhandene kryptografische Algorithmen wie RSA, IDEA, MD5 usw., anstatt die neuen zu erfinden.
Arbeiten von PGP
Der Hash der Nachricht wird berechnet. (MD5-Algorithmus)
Der resultierende 128-Bit-Hash wird mit dem privaten Schlüssel des Absenders (RSA-Algorithmus) signiert.
Die digitale Signatur wird mit der Nachricht verknüpft und das Ergebnis wird komprimiert.
Ein 128-Bit-Symmetrieschlüssel K S wird generiert und zum Verschlüsseln der komprimierten Nachricht mit IDEA verwendet.
K S wird mit dem öffentlichen Schlüssel des Empfängers unter Verwendung des RSA-Algorithmus verschlüsselt und das Ergebnis an die verschlüsselte Nachricht angehängt.
Das Format der PGP-Nachricht ist in der folgenden Abbildung dargestellt. Die IDs geben an, welcher Schlüssel zum Verschlüsseln von KS verwendet wird und welcher Schlüssel zum Überprüfen der Signatur auf dem Hash verwendet werden soll.
Im PGP-Schema wird eine Nachricht signiert und verschlüsselt, und dann wird MIME vor der Übertragung codiert.
PGP-Zertifikat
Das PGP-Schlüsselzertifikat wird normalerweise über eine Vertrauenskette eingerichtet. Beispielsweise wird der öffentliche Schlüssel von A von B mit seinem öffentlichen Schlüssel und der öffentliche Schlüssel von B von C mit seinem öffentlichen Schlüssel signiert. Während dieses Prozesses wird ein Vertrauensnetz aufgebaut.
In einer PGP-Umgebung kann jeder Benutzer als Zertifizierungsstelle fungieren. Jeder PGP-Benutzer kann den öffentlichen Schlüssel eines anderen PGP-Benutzers zertifizieren. Ein solches Zertifikat ist jedoch nur für einen anderen Benutzer gültig, wenn der Benutzer den Zertifizierer als vertrauenswürdigen Einführer erkennt.
Bei einer solchen Zertifizierungsmethode gibt es mehrere Probleme. Es kann schwierig sein, eine Kette zu finden, die von einem bekannten und vertrauenswürdigen öffentlichen Schlüssel zum gewünschten Schlüssel führt. Es kann auch mehrere Ketten geben, die für den gewünschten Benutzer zu unterschiedlichen Schlüsseln führen können.
PGP kann auch die PKI-Infrastruktur mit Zertifizierungsstelle verwenden und öffentliche Schlüssel können von CA (X.509-Zertifikat) zertifiziert werden.
S / MIME
S / MIME steht für Secure Multipurpose Internet Mail Extension. S / MIME ist ein sicherer E-Mail-Standard. Es basiert auf einem früheren nicht sicheren E-Mail-Standard namens MIME.
Arbeiten von S / MIME
Der S / MIME-Ansatz ähnelt dem von PGP. Es werden auch Kryptografie mit öffentlichem Schlüssel, Kryptografie mit symmetrischem Schlüssel, Hash-Funktionen und digitale Signaturen verwendet. Es bietet ähnliche Sicherheitsdienste wie PGP für die E-Mail-Kommunikation.
Die in S / MIME am häufigsten verwendeten symmetrischen Chiffren sind RC2 und TripleDES. Die übliche Public-Key-Methode ist RSA, und der Hashing-Algorithmus ist SHA-1 oder MD5.
S / MIME gibt den zusätzlichen MIME-Typ an, z. B. "application / pkcs7-mime" für die Datenumhüllung nach der Verschlüsselung. Die gesamte MIME-Entität wird verschlüsselt und in ein Objekt gepackt. S / MIME verfügt über standardisierte kryptografische Nachrichtenformate (anders als PGP). Tatsächlich wird MIME um einige Schlüsselwörter erweitert, um die verschlüsselten und / oder signierten Teile in der Nachricht zu identifizieren.
S / MIME verwendet X.509-Zertifikate für die Verteilung öffentlicher Schlüssel. Für die Zertifizierungsunterstützung ist eine hierarchische PKI von oben nach unten erforderlich.
Beschäftigungsfähigkeit von S / MIME
Aufgrund der Anforderung eines Zertifikats der Zertifizierungsstelle für die Implementierung können nicht alle Benutzer S / MIME nutzen, da einige möglicherweise eine Nachricht mit einem öffentlichen / privaten Schlüsselpaar verschlüsseln möchten. Zum Beispiel ohne die Beteiligung oder den Verwaltungsaufwand von Zertifikaten.
In der Praxis ist der Prozess der Zertifikatsregistrierung komplex, obwohl die meisten E-Mail-Anwendungen S / MIME implementieren. Stattdessen erfordert die PGP-Unterstützung normalerweise das Hinzufügen eines Plug-Ins. Dieses Plug-In enthält alles, was zum Verwalten von Schlüsseln erforderlich ist. Das Web of Trust wird nicht wirklich genutzt. Menschen tauschen ihre öffentlichen Schlüssel über ein anderes Medium aus. Nach Erhalt bewahren sie eine Kopie der öffentlichen Schlüssel derjenigen auf, mit denen normalerweise E-Mails ausgetauscht werden.
Die Implementierungsschicht in der Netzwerkarchitektur für PGP- und S / MIME-Schemata ist in der folgenden Abbildung dargestellt. Beide Schemata bieten Sicherheit auf Anwendungsebene für die E-Mail-Kommunikation.
Eines der Schemata, entweder PGP oder S / MIME, wird je nach Umgebung verwendet. Eine sichere E-Mail-Kommunikation in einem Captive-Netzwerk kann durch Anpassung an PGP bereitgestellt werden. Für die E-Mail-Sicherheit über das Internet, wo E-Mails sehr häufig mit neuen unbekannten Benutzern ausgetauscht werden, wird S / MIME als gute Option angesehen.
DNS-Sicherheit
Im ersten Kapitel haben wir erwähnt, dass ein Angreifer mithilfe der DNS-Cache-Vergiftung einen Angriff auf den Zielbenutzer ausführen kann. Domain Name System Security Extensions (DNSSEC) ist ein Internetstandard, der solche Angriffe abwehren kann.
Sicherheitslücke von Standard-DNS
In einem Standard-DNS-Schema kontaktiert sein Computer den DNS-Server, wenn der Benutzer eine Verbindung zu einem Domänennamen herstellen möchte, und sucht nach der zugehörigen IP-Adresse für diesen Domänennamen. Sobald die IP-Adresse erhalten wurde, stellt der Computer eine Verbindung zu dieser IP-Adresse her.
In diesem Schema ist überhaupt kein Überprüfungsprozess beteiligt. Ein Computer fragt seinen DNS-Server nach der einer Website zugeordneten Adresse, der DNS-Server antwortet mit einer IP-Adresse, und Ihr Computer akzeptiert diese zweifellos als legitime Antwort und stellt eine Verbindung zu dieser Website her.
Eine DNS-Suche erfolgt tatsächlich in mehreren Schritten. Wenn ein Computer beispielsweise nach "www.tutorialspoint.com" fragt, wird eine DNS-Suche in mehreren Schritten durchgeführt.
Der Computer fragt zuerst den lokalen DNS-Server (ISP bereitgestellt). Wenn der ISP diesen Namen im Cache hat, antwortet er andernfalls und leitet die Abfrage an das "Stammzonenverzeichnis" weiter, wo er ".com" finden kann. und Root-Zone-Antworten.
Basierend auf der Antwort fragt der Computer dann das Verzeichnis ".com", in dem er "tutorialspoint.com" finden kann.
Basierend auf den erhaltenen Informationen fragt der Computer "tutorialspoint.com" ab, wo er www finden kann. tutorialspoint.com.
DNSSEC definiert
Wenn die DNS-Suche mit DNSSEC durchgeführt wird, werden die Antworten von der antwortenden Entität signiert. DNSSEC basiert auf Kryptografie mit öffentlichem Schlüssel.
Im DNSSEC-Standard verfügt jede DNS-Zone über ein öffentliches / privates Schlüsselpaar. Alle von einem DNS-Server gesendeten Informationen werden mit dem privaten Schlüssel der Ursprungszone signiert, um die Authentizität sicherzustellen. DNS-Clients müssen die öffentlichen Schlüssel der Zone kennen, um die Signaturen zu überprüfen. Clients können mit den öffentlichen Schlüsseln aller Domänen der obersten Ebene oder dem Root-DNS vorkonfiguriert sein.
Mit DNSSEC läuft der Suchvorgang wie folgt ab:
Wenn Ihr Computer die Root-Zone fragt, wo er .com finden kann, wird die Antwort vom Root-Zone-Server signiert.
Der Computer überprüft den Signaturschlüssel der Stammzone und bestätigt, dass es sich um die legitime Stammzone mit echten Informationen handelt.
In der Antwort stellt die Stammzone die Informationen zum Signaturschlüssel des .com-Zonenservers und dessen Speicherort bereit, sodass der Computer das .com-Verzeichnis kontaktieren und sicherstellen kann, dass es legitim ist.
Das .com-Verzeichnis enthält dann den Signaturschlüssel und Informationen für tutorialspoint.com, sodass es Kontakt mit google.com aufnehmen und überprüfen kann, ob Sie mit dem echten tutorialspoint.com verbunden sind. Dies wird durch die darüber liegenden Zonen bestätigt.
Die gesendeten Informationen liegen in Form von RRSets (Resource Record Set) vor. Das Beispiel für RRSet für die Domain "tutorialspoint.com" auf dem Top-Server ".com" ist in der folgenden Tabelle dargestellt.
Domain Name | Zeit zu leben | Art | Wert |
---|---|---|---|
tutorialspoint.com | 86400 | NS | dns.tutorialspoint.com |
dns.tutorialspoint.com | 86400 | EIN | 36..1.2.3 |
tutorialspoint.com | 86400 | SCHLÜSSEL | 3682793A7B73F731029CE2737D ... |
tutorialspoint.com | 86400 | SIG | 86947503A8B848F5272E53930C ... |
Der KEY-Datensatz ist ein öffentlicher Schlüssel von "tutorialspoint.com".
Der SIG-Datensatz ist der signierte Hash des .com-Servers der obersten Ebene mit den Feldern NS-, A- und KEY-Datensätze, um deren Authentizität zu überprüfen. Sein Wert ist Kcom pvt (H (NS, A, KEY)).
Daher wird davon ausgegangen, dass der Computer des Benutzers bei vollständiger Einführung von DNSSEC bestätigen kann, dass DNS-Antworten legitim und wahr sind, und DNS-Angriffe vermeiden kann, die durch eine DNS-Cache-Vergiftung ausgelöst werden.
Zusammenfassung
Der Prozess der Sicherung von E-Mails gewährleistet die End-to-End-Sicherheit der Kommunikation. Es bietet Sicherheitsdienste für Vertraulichkeit, Absenderauthentifizierung, Nachrichtenintegrität und Nicht-Zurückweisung.
Für die E-Mail-Sicherheit wurden zwei Schemata entwickelt: PGP und S / MIME. Beide Schemata verwenden Kryptographie mit geheimem Schlüssel und öffentlichem Schlüssel.
Die Standard-DNS-Suche ist anfällig für Angriffe wie DNS-Spoofing / Cache-Vergiftung. Das Sichern der DNS-Suche ist durch die Verwendung von DNSSEC möglich, das die Kryptografie mit öffentlichem Schlüssel verwendet.
In diesem Kapitel haben wir die Mechanismen erörtert, die auf Anwendungsebene verwendet werden, um Netzwerksicherheit für die End-to-End-Kommunikation bereitzustellen.
Bei der Netzwerksicherheit werden Daten vor Angriffen geschützt, während sie in einem Netzwerk übertragen werden. Um dieses Ziel zu erreichen, wurden viele Echtzeit-Sicherheitsprotokolle entwickelt. Es gibt beliebte Standards für Echtzeit-Netzwerksicherheitsprotokolle wie S / MIME, SSL / TLS, SSH und IPsec. Wie bereits erwähnt, arbeiten diese Protokolle auf verschiedenen Ebenen des Netzwerkmodells.
Im letzten Kapitel haben wir einige gängige Protokolle besprochen, die Sicherheit auf Anwendungsebene bieten sollen. In diesem Kapitel werden wir den Prozess zum Erreichen der Netzwerksicherheit auf der Transportschicht und die zugehörigen Sicherheitsprotokolle erörtern.
Für ein auf dem TCP / IP-Protokoll basierendes Netzwerk werden in der Regel physische und Datenverbindungsschichten in der Hardware des Benutzerterminals und der Netzwerkkarte implementiert. TCP- und IP-Schichten sind im Betriebssystem implementiert. Alles über TCP / IP wird als Benutzerprozess implementiert.
Notwendigkeit der Sicherheit der Transportschicht
Lassen Sie uns einen typischen internetbasierten Geschäftsvorgang diskutieren.
Bob besucht Alices Website, um Waren zu verkaufen. In einem Formular auf der Website gibt Bob die Art der gewünschten Ware und Menge, seine Adresse und die Zahlungskartendaten ein. Bob klickt auf Senden und wartet auf die Lieferung von Waren mit Abbuchung des Preisbetrags von seinem Konto. Das klingt alles gut, aber ohne Netzwerksicherheit könnte Bob einige Überraschungen erleben.
Wenn bei Transaktionen keine Vertraulichkeit (Verschlüsselung) verwendet wurde, konnte ein Angreifer seine Zahlungskarteninformationen abrufen. Der Angreifer kann dann auf Kosten von Bob Einkäufe tätigen.
Wenn kein Maß für die Datenintegrität verwendet wird, kann ein Angreifer die Bestellung von Bob in Bezug auf Art oder Menge der Waren ändern.
Wenn keine Serverauthentifizierung verwendet wird, kann ein Server das berühmte Alice-Logo anzeigen, aber die Site kann eine böswillige Site sein, die von einem Angreifer verwaltet wird, der sich als Alice tarnt. Nachdem er Bobs Befehl erhalten hatte, konnte er Bobs Geld nehmen und fliehen. Oder er könnte einen Identitätsdiebstahl durchführen, indem er Bobs Namen und Kreditkartendaten sammelt.
Sicherheitsschemata der Transportschicht können diese Probleme lösen, indem sie die TCP / IP-basierte Netzwerkkommunikation mit Vertraulichkeit, Datenintegrität, Serverauthentifizierung und Clientauthentifizierung verbessern.
Die Sicherheit auf dieser Ebene wird hauptsächlich zum Sichern von HTTP-basierten Webtransaktionen in einem Netzwerk verwendet. Es kann jedoch von jeder Anwendung verwendet werden, die über TCP ausgeführt wird.
Philosophie des TLS-Designs
TLS-Protokolle (Transport Layer Security) arbeiten über der TCP-Schicht. Beim Entwurf dieser Protokolle werden beliebte APIs (Application Program Interfaces) für TCP verwendet, die als "Sockets" für die Schnittstelle mit der TCP-Schicht bezeichnet werden.
Anwendungen sind jetzt direkt mit TCP verbunden, anstatt direkt mit TCP. Transport Security Layer bietet eine einfache API mit Sockets, die der TCP-API ähnlich und analog ist.
Im obigen Diagramm befindet sich TLS zwar technisch zwischen Anwendung und Transportschicht, aus der allgemeinen Perspektive handelt es sich jedoch um ein Transportprotokoll, das als TCP-Schicht fungiert, die mit Sicherheitsdiensten erweitert wurde.
TLS wurde für den Betrieb über TCP entwickelt, das zuverlässige Layer 4-Protokoll (nicht für das UDP-Protokoll), um das Design von TLS erheblich zu vereinfachen, da es sich nicht um Zeitüberschreitung und erneute Übertragung verlorener Daten kümmern muss. Die TCP-Schicht macht das wie gewohnt weiter, was den Anforderungen von TLS entspricht.
Warum ist TLS beliebt?
Der Grund für die Beliebtheit der Verwendung einer Sicherheit bei Transport Layer ist die Einfachheit. Das Design und die Bereitstellung der Sicherheit auf dieser Ebene erfordern keine Änderung der TCP / IP-Protokolle, die in einem Betriebssystem implementiert sind. Es müssen nur Benutzerprozesse und -anwendungen entworfen / geändert werden, was weniger komplex ist.
Secure Socket Layer (SSL)
In diesem Abschnitt wird die Familie der für TLS entwickelten Protokolle erläutert. Die Familie umfasst die SSL-Versionen 2 und 3 sowie das TLS-Protokoll. SSLv2 wurde jetzt durch SSLv3 ersetzt, daher konzentrieren wir uns auf SSL v3 und TLS.
Kurze Geschichte von SSL
Im Jahr 1995 entwickelte Netscape SSLv2 und verwendete es in Netscape Navigator 1.1. Die SSL-Version1 wurde nie veröffentlicht und verwendet. Später verbesserte Microsoft SSLv2 und führte ein weiteres ähnliches Protokoll mit dem Namen Private Communications Technology (PCT) ein.
Netscape verbesserte SSLv2 in verschiedenen Sicherheitsproblemen erheblich und stellte 1999 SSLv3 bereit. Die Internet Engineering Task Force (IETF) führte anschließend ein ähnliches TLS-Protokoll (Transport Layer Security) als offenen Standard ein. Das TLS-Protokoll ist mit SSLv3 nicht interoperabel.
TLS hat die kryptografischen Algorithmen für die Schlüsselerweiterung und -authentifizierung geändert. Außerdem schlug TLS die Verwendung der offenen Krypto Diffie-Hellman (DH) und des Digital Signature Standard (DSS) anstelle der patentierten RSA-Krypto vor, die in SSL verwendet wird. Aufgrund des Ablaufs des RSA-Patents im Jahr 2000 gab es jedoch keine triftigen Gründe für Benutzer, von dem weit verbreiteten SSLv3 auf TLS umzusteigen.
Hauptmerkmale von SSL
Die wichtigsten Merkmale des SSL-Protokolls sind:
SSL bietet Netzwerkverbindungssicherheit durch -
Confidentiality - Informationen werden verschlüsselt ausgetauscht.
Authentication- Kommunikationseinheiten identifizieren sich durch die Verwendung digitaler Zertifikate. Die Webserverauthentifizierung ist obligatorisch, während die Clientauthentifizierung optional bleibt.
Reliability - Behält die Nachrichtenintegritätsprüfungen bei.
SSL ist für alle TCP-Anwendungen verfügbar.
Unterstützt von fast allen Webbrowsern.
Erleichtert die Geschäftsabwicklung mit neuen Online-Unternehmen.
Entwickelt hauptsächlich für den Web-E-Commerce.
Architektur von SSL
SSL ist TCP-spezifisch und funktioniert nicht mit UDP. SSL bietet Anwendungen eine Anwendungsprogrammierschnittstelle (Application Programming Interface, API). C- und Java-SSL-Bibliotheken / -Klassen sind leicht verfügbar.
Das SSL-Protokoll ist für die Zusammenarbeit zwischen Anwendung und Transportschicht ausgelegt, wie in der folgenden Abbildung dargestellt.
SSL selbst ist kein Single-Layer-Protokoll, wie im Bild dargestellt. Tatsächlich besteht es aus zwei Unterschichten.
Die untere Unterschicht besteht aus der einen Komponente des SSL-Protokolls, die als SSL-Aufzeichnungsprotokoll bezeichnet wird. Diese Komponente bietet Integritäts- und Vertraulichkeitsdienste.
Die obere Unterschicht besteht aus drei SSL-bezogenen Protokollkomponenten und einem Anwendungsprotokoll. Die Anwendungskomponente stellt den Informationsübertragungsdienst zwischen Client / Server-Interaktionen bereit. Technisch kann es auch auf der SSL-Schicht betrieben werden. Drei SSL-bezogene Protokollkomponenten sind -
- SSL-Handshake-Protokoll
- Ändern Sie das Cipher Spec-Protokoll
- Alarmprotokoll.
Diese drei Protokolle verwalten den gesamten SSL-Nachrichtenaustausch und werden später in diesem Abschnitt erläutert.
Funktionen von SSL-Protokollkomponenten
Die vier Unterkomponenten des SSL-Protokolls übernehmen verschiedene Aufgaben für die sichere Kommunikation zwischen dem Clientcomputer und dem Server.
Protokoll aufzeichnen
Die Datensatzschicht formatiert die Protokollnachrichten der oberen Schicht.
Es fragmentiert die Daten in verwaltbare Blöcke (maximale Länge 16 KB). Optional werden die Daten komprimiert.
Verschlüsselt die Daten.
Stellt einen Header für jede Nachricht und einen Hash (Message Authentication Code (MAC)) am Ende bereit.
Übergibt die formatierten Blöcke zur Übertragung an die TCP-Schicht.
SSL-Handshake-Protokoll
Es ist der komplexeste Teil von SSL. Es wird aufgerufen, bevor Anwendungsdaten übertragen werden. Es werden SSL-Sitzungen zwischen dem Client und dem Server erstellt.
Das Einrichten der Sitzung umfasst die Serverauthentifizierung, die Aushandlung von Schlüsseln und Algorithmen, das Einrichten von Schlüsseln und die Clientauthentifizierung (optional).
Eine Sitzung wird durch einen eindeutigen Satz kryptografischer Sicherheitsparameter identifiziert.
Mehrere sichere TCP-Verbindungen zwischen einem Client und einem Server können dieselbe Sitzung gemeinsam nutzen.
Handshake-Protokollaktionen in vier Phasen. Diese werden im nächsten Abschnitt erläutert.
ChangeCipherSpec-Protokoll
Einfachster Teil des SSL-Protokolls. Es besteht aus einer einzelnen Nachricht, die zwischen zwei kommunizierenden Einheiten, dem Client und dem Server, ausgetauscht wird.
Wenn jede Entität die ChangeCipherSpec-Nachricht sendet, wechselt sie wie vereinbart ihre Seite der Verbindung in den sicheren Zustand.
Der ausstehende Status der Verschlüsselungsparameter wird in den aktuellen Status kopiert.
Der Austausch dieser Nachricht zeigt an, dass alle zukünftigen Datenaustausche verschlüsselt und die Integrität geschützt sind.
SSL-Warnprotokoll
Dieses Protokoll wird verwendet, um Fehler zu melden, z. B. unerwartete Nachrichten, fehlerhafte MAC-Daten, fehlgeschlagene Aushandlung von Sicherheitsparametern usw.
Es wird auch für andere Zwecke verwendet - z. B. zum Benachrichtigen über das Schließen der TCP-Verbindung, zum Benachrichtigen über den Erhalt eines fehlerhaften oder unbekannten Zertifikats usw.
Einrichtung einer SSL-Sitzung
Wie oben erläutert, gibt es vier Phasen des SSL-Sitzungsaufbaus. Diese werden hauptsächlich vom SSL-Handshake-Protokoll verarbeitet.
Phase 1 - Einrichtung von Sicherheitsfunktionen.
Diese Phase umfasst den Austausch von zwei Nachrichten - Client_hello und Server_hello .
Client_hello enthält eine Liste der vom Client unterstützten kryptografischen Algorithmen in absteigender Reihenfolge der Präferenzen.
Server_hello enthält die ausgewählte Cipher Specification (CipherSpec) und eine neue session_id .
Die CipherSpec enthält Felder wie -
Verschlüsselungsalgorithmus (DES, 3DES, RC2 und RC4)
MAC-Algorithmus (basierend auf MD5, SHA-1)
Public-Key-Algorithmus (RSA)
Beide Nachrichten haben "nonce", um einen Wiederholungsangriff zu verhindern.
Phase 2 - Serverauthentifizierung und Schlüsselaustausch.
Server sendet Zertifikat. Die Client-Software wird mit öffentlichen Schlüsseln verschiedener „vertrauenswürdiger“ Organisationen (CAs) konfiguriert, um das Zertifikat zu überprüfen.
Der Server sendet die ausgewählte Cipher Suite.
Der Server kann ein Client-Zertifikat anfordern. Normalerweise wird es nicht gemacht.
Server zeigt das Ende von Server_hello an .
Phase 3 - Clientauthentifizierung und Schlüsselaustausch.
Der Client sendet ein Zertifikat nur auf Anforderung des Servers.
Außerdem wird das mit dem öffentlichen Schlüssel des Servers verschlüsselte Pre-Master Secret (PMS) gesendet.
Der Client sendet auch eine Certificate_verify- Nachricht, wenn er ein Zertifikat sendet , um zu beweisen, dass ihm der private Schlüssel mit diesem Zertifikat zugeordnet ist. Grundsätzlich signiert der Client einen Hash der vorherigen Nachrichten.
Phase 4 - Beenden.
Client und Server senden untereinander Change_cipher_spec- Nachrichten, damit der ausstehende Verschlüsselungsstatus in den aktuellen Status kopiert wird.
Von nun an sind alle Daten verschlüsselt und integer geschützt.
Die Nachricht "Fertig" von jedem Ende bestätigt, dass die Schlüsselaustausch- und Authentifizierungsprozesse erfolgreich waren.
Alle vier oben diskutierten Phasen finden im Rahmen der Einrichtung einer TCP-Sitzung statt. Der Aufbau der SSL-Sitzung beginnt nach TCP SYN / SYNACK und endet vor TCP Fin.
Fortsetzen einer getrennten Sitzung
Es ist möglich , eine getrennte Sitzung (bis zur Wiederaufnahme Alarm - Meldung), wenn der Client einen sendet hello_request an den Server mit den verschlüsselten Sitzungs_ID Informationen.
Der Server bestimmt dann, ob die Sitzungs-ID gültig ist. Nach der Validierung werden ChangeCipherSpec und fertige Nachrichten mit dem Client ausgetauscht und die sichere Kommunikation fortgesetzt .
Dies vermeidet eine Neuberechnung der Sitzungsverschlüsselungsparameter und spart Rechenleistung auf Server- und Client-Seite.
SSL-Sitzungsschlüssel
Wir haben gesehen, dass während der Phase 3 des SSL-Sitzungsaufbaus ein Pre-Master-Geheimnis vom Client an den Server gesendet wird, der mit dem öffentlichen Schlüssel des Servers verschlüsselt ist. Das Hauptgeheimnis und verschiedene Sitzungsschlüssel werden wie folgt generiert:
Das Hauptgeheimnis wird (über einen Pseudozufallszahlengenerator) mit - erzeugt
Das Pre-Master-Geheimnis.
Zwei Nonces (RA und RB) wurden in den Nachrichten client_hello und server_hello ausgetauscht.
Aus diesem Hauptgeheimnis werden dann sechs geheime Werte abgeleitet als -
Mit MAC verwendeter geheimer Schlüssel (für vom Server gesendete Daten)
Mit MAC verwendeter geheimer Schlüssel (für vom Client gesendete Daten)
Geheimschlüssel und IV für die Verschlüsselung (vom Server)
Geheimschlüssel und IV für die Verschlüsselung (vom Client)
TLS-Protokoll
Um einen offenen Internetstandard für SSL bereitzustellen, veröffentlichte die IETF im Januar 1999 das TLS-Protokoll (Transport Layer Security). TLS wird in RFC 5246 als vorgeschlagener Internetstandard definiert.
Hauptmerkmale
Das TLS-Protokoll hat dieselben Ziele wie SSL.
Es ermöglicht Client / Server-Anwendungen eine sichere Kommunikation durch Authentifizierung, verhindert das Abhören und widersteht der Änderung von Nachrichten.
Das TLS-Protokoll befindet sich über der zuverlässigen verbindungsorientierten Transport-TCP-Schicht im Netzwerkschichtstapel.
Die Architektur des TLS-Protokolls ähnelt dem SSLv3-Protokoll. Es gibt zwei Unterprotokolle: das TLS-Aufzeichnungsprotokoll und das TLS-Handshake-Protokoll.
Obwohl das SSLv3- und das TLS-Protokoll eine ähnliche Architektur aufweisen, wurden einige Änderungen an der Architektur und Funktion vorgenommen, insbesondere für das Handshake-Protokoll.
Vergleich von TLS- und SSL-Protokollen
Es gibt acht Hauptunterschiede zwischen TLS- und SSLv3-Protokollen. Diese sind wie folgt -
Protocol Version - Der Header des TLS-Protokollsegments trägt die Versionsnummer 3.1, um zwischen der Nummer 3 des SSL-Protokollsegment-Headers zu unterscheiden.
Message Authentication- TLS verwendet einen Keyed-Hash-Nachrichtenauthentifizierungscode (H-MAC). Der Vorteil ist, dass H-MAC mit jeder Hash-Funktion arbeitet, nicht nur mit MD5 oder SHA, wie im SSL-Protokoll ausdrücklich angegeben.
Session Key Generation - Es gibt zwei Unterschiede zwischen dem TLS- und dem SSL-Protokoll für die Generierung von Schlüsselmaterial.
Die Methode zur Berechnung von Pre-Master- und Master-Geheimnissen ist ähnlich. Im TLS-Protokoll verwendet die Berechnung des Hauptgeheimnisses jedoch die Ausgabe des HMAC-Standards und der Pseudozufallsfunktion (PRF) anstelle des Ad-hoc-MAC.
Der Algorithmus zum Berechnen von Sitzungsschlüsseln und Initiationswerten (IV) unterscheidet sich in TLS vom SSL-Protokoll.
Alarmprotokollnachricht -
Das TLS-Protokoll unterstützt alle vom Alert-Protokoll von SSL verwendeten Nachrichten, außer dass keine Zertifikat- Alert-Nachricht redundant gemacht wird. Der Client sendet ein leeres Zertifikat, falls keine Clientauthentifizierung erforderlich ist.
Das TLS-Protokoll enthält viele zusätzliche Warnmeldungen für andere Fehlerzustände wie record_overflow, decode_error usw.
Supported Cipher Suites- SSL unterstützt RSA-, Diffie-Hellman- und Fortezza-Chiffresuiten. Das TLS-Protokoll unterstützt alle Anzüge außer Fortezza.
Client Certificate Types- TLS definiert Zertifikatstypen, die in einer certificate_request- Nachricht angefordert werden sollen . SSLv3 unterstützt all dies. Darüber hinaus unterstützt SSL bestimmte andere Zertifikatstypen wie Fortezza.
CertificateVerify und fertige Nachrichten -
In SSL wird eine komplexe Nachrichtenprozedur für die certificate_verify- Nachricht verwendet. Bei TLS sind die verifizierten Informationen in den Handshake-Nachrichten selbst enthalten, wodurch diese komplexe Prozedur vermieden wird.
Die fertige Nachricht wird in TLS und SSLv3 auf unterschiedliche Weise berechnet.
Padding of Data- Im SSL-Protokoll ist die Auffüllung, die den Benutzerdaten vor der Verschlüsselung hinzugefügt wird, die Mindestmenge, die erforderlich ist, damit die Gesamtdatengröße einem Vielfachen der Blocklänge der Verschlüsselung entspricht. In TLS kann das Auffüllen eine beliebige Menge sein, die zu einer Datengröße führt, die ein Vielfaches der Blocklänge der Verschlüsselung beträgt, bis zu maximal 255 Byte.
Die obigen Unterschiede zwischen TLS- und SSLv3-Protokollen sind in der folgenden Tabelle zusammengefasst.
Sicheres Surfen - HTTPS
In diesem Abschnitt wird die Verwendung des SSL / TLS-Protokolls für die Durchführung eines sicheren Webbrowsings erläutert.
HTTPS definiert
Das HTTP-Protokoll (Hyper Text Transfer Protocol) wird zum Surfen im Internet verwendet. Die Funktion von HTTPS ähnelt HTTP. Der einzige Unterschied besteht darin, dass HTTPS "sicheres" Surfen im Internet bietet. HTTPS steht für HTTP over SSL. Dieses Protokoll wird verwendet, um die verschlüsselte und authentifizierte Verbindung zwischen dem Client-Webbrowser und dem Website-Server bereitzustellen.
Das sichere Durchsuchen von HTTPS stellt sicher, dass die folgenden Inhalte verschlüsselt sind:
- URL der angeforderten Webseite.
- Vom Server dem Benutzerclient bereitgestellte Webseiteninhalte.
- Inhalt der vom Benutzer ausgefüllten Formulare.
- Cookies in beide Richtungen erstellt.
Arbeiten von HTTPS
Das HTTPS-Anwendungsprotokoll verwendet normalerweise eines von zwei gängigen Sicherheitsprotokollen für die Transportschicht - SSL oder TLS. Der Prozess des sicheren Browsens wird in den folgenden Punkten beschrieben.
Sie fordern eine HTTPS-Verbindung zu einer Webseite an, indem Sie https: // gefolgt von einer URL in die Adressleiste des Browsers eingeben.
Der Webbrowser stellt eine Verbindung zum Webserver her. Die Verwendung von https ruft die Verwendung des SSL-Protokolls auf.
Eine Anwendung, in diesem Fall der Browser, verwendet den Systemport 443 anstelle von Port 80 (wird im Fall von http verwendet).
Das SSL-Protokoll durchläuft ein Handshake-Protokoll zum Einrichten einer sicheren Sitzung, wie in früheren Abschnitten erläutert.
Die Website sendet zunächst ihr SSL Digital-Zertifikat an Ihren Browser. Nach Überprüfung des Zertifikats tauscht der SSL-Handshake die gemeinsam genutzten Geheimnisse für die Sitzung aus.
Wenn der Server ein vertrauenswürdiges digitales SSL-Zertifikat verwendet, sehen Benutzer ein Vorhängeschlosssymbol in der Adressleiste des Browsers. Wenn ein erweitertes Validierungszertifikat auf einer Website installiert ist, wird die Adressleiste grün.
Einmal eingerichtet, besteht diese Sitzung aus vielen sicheren Verbindungen zwischen dem Webserver und dem Browser.
Verwendung von HTTPS
Die Verwendung von HTTPS bietet dem Benutzer Vertraulichkeit, Serverauthentifizierung und Nachrichtenintegrität. Es ermöglicht die sichere Durchführung von E-Commerce im Internet.
Verhindert das Abhören von Daten und verweigert Identitätsdiebstahl, bei dem es sich häufig um Angriffe auf HTTP handelt.
Heutige Webbrowser und Webserver sind mit HTTPS-Unterstützung ausgestattet. Die Verwendung von HTTPS über HTTP erfordert jedoch mehr Rechenleistung auf Client- und Serverseite, um die Verschlüsselung und den SSL-Handshake durchzuführen.
Secure Shell Protocol (SSH)
Die hervorstechenden Merkmale von SSH sind wie folgt:
SSH ist ein Netzwerkprotokoll, das auf der TCP / IP-Schicht ausgeführt wird. Es soll das TELNET ersetzen, das unsichere Mittel für die Remote-Anmeldung bietet.
SSH bietet eine sichere Client / Server-Kommunikation und kann für Aufgaben wie Dateiübertragung und E-Mail verwendet werden.
SSH2 ist ein weit verbreitetes Protokoll, das gegenüber der früheren Version von SSH1 eine verbesserte Sicherheit der Netzwerkkommunikation bietet.
SSH definiert
SSH ist in drei Unterprotokolle unterteilt.
Transport Layer Protocol- Dieser Teil des SSH-Protokolls bietet Datenvertraulichkeit, Server- (Host-) Authentifizierung und Datenintegrität. Optional kann auch eine Datenkomprimierung bereitgestellt werden.
Server Authentication- Hostschlüssel sind asymmetrisch wie öffentliche / private Schlüssel. Ein Server verwendet einen öffentlichen Schlüssel, um einem Client seine Identität zu beweisen. Der Client überprüft, ob der kontaktierte Server ein "bekannter" Host aus der von ihm verwalteten Datenbank ist. Sobald der Server authentifiziert ist, werden Sitzungsschlüssel generiert.
Session Key Establishment- Nach der Authentifizierung vereinbaren der Server und der Client die Verwendung der Verschlüsselung. Sitzungsschlüssel werden sowohl vom Client als auch vom Server generiert. Sitzungsschlüssel werden vor der Benutzerauthentifizierung generiert, damit Benutzernamen und Kennwörter verschlüsselt gesendet werden können. Diese Schlüssel werden in der Regel in regelmäßigen Abständen (z. B. jede Stunde) während der Sitzung ausgetauscht und sofort nach Gebrauch zerstört.
Data Integrity- SSH verwendet MAC-Algorithmen (Message Authentication Code) zur Überprüfung der Datenintegrität. Dies ist eine Verbesserung gegenüber der von SSH1 verwendeten 32-Bit-CRC.
User Authentication Protocol- Dieser Teil von SSH authentifiziert den Benutzer beim Server. Der Server überprüft, ob der Zugriff nur für beabsichtigte Benutzer gewährt wird. Derzeit werden viele Authentifizierungsmethoden verwendet, z. B. eingegebene Kennwörter, Kerberos, Authentifizierung mit öffentlichem Schlüssel usw.
Connection Protocol - Dies bietet mehrere logische Kanäle über eine einzige zugrunde liegende SSH-Verbindung.
SSH-Dienste
SSH bietet drei Hauptdienste, die die Bereitstellung vieler sicherer Lösungen ermöglichen. Diese Dienste werden kurz wie folgt beschrieben:
Secure Command-Shell (Remote Logon)- Der Benutzer kann Dateien bearbeiten, den Inhalt von Verzeichnissen anzeigen und auf Anwendungen auf dem angeschlossenen Gerät zugreifen. Systemadministratoren können Dienste und Prozesse remote starten / anzeigen / stoppen, Benutzerkonten erstellen und Datei- / Verzeichnisberechtigungen ändern usw. Alle Aufgaben, die an der Eingabeaufforderung eines Computers ausgeführt werden können, können jetzt mithilfe der sicheren Remote-Anmeldung sicher vom Remote-Computer aus ausgeführt werden.
Secure File Transfer- Das SSH File Transfer Protocol (SFTP) ist als Erweiterung für SSH-2 für die sichere Dateiübertragung konzipiert. Im Wesentlichen handelt es sich um ein separates Protokoll, das über das Secure Shell-Protokoll gelegt wird, um Dateiübertragungen durchzuführen. SFTP verschlüsselt sowohl den Benutzernamen / das Passwort als auch die übertragenen Dateidaten. Es verwendet denselben Port wie der Secure Shell-Server, dh den Systemport Nr. 22.
Port Forwarding (Tunneling)- Damit können Daten von ungesicherten TCP / IP-basierten Anwendungen gesichert werden. Nachdem die Portweiterleitung eingerichtet wurde, leitet Secure Shell den Datenverkehr von einem Programm (normalerweise einem Client) um und sendet ihn über den verschlüsselten Tunnel an das Programm auf der anderen Seite (normalerweise einen Server). Mehrere Anwendungen können Daten über einen einzigen gemultiplexten sicheren Kanal übertragen, sodass nicht mehr viele Ports an einer Firewall oder einem Router geöffnet werden müssen.
Vorteile und Einschränkungen
Die Vorteile und Einschränkungen des Einsatzes von Kommunikationssicherheit auf Transportebene sind folgende:
Leistungen
Die Sicherheit der Transportschicht ist für Anwendungen transparent.
Server ist authentifiziert.
Header der Anwendungsschicht sind ausgeblendet.
Es ist feinkörniger als Sicherheitsmechanismen auf Schicht 3 (IPsec), da es auf der Ebene der Transportverbindung funktioniert.
Einschränkungen
Gilt nur für TCP-basierte Anwendungen (nicht für UDP).
TCP / IP-Header sind klar.
Geeignet für die direkte Kommunikation zwischen Client und Server. Gilt nicht für sichere Anwendungen mit Serverkette (z. B. E-Mail)
SSL bietet keine Ablehnung, da die Clientauthentifizierung optional ist.
Bei Bedarf muss die Clientauthentifizierung über SSL implementiert werden.
Zusammenfassung
In den letzten zehn Jahren ist eine große Anzahl von Webanwendungen im Internet aufgetaucht. Viele E-Governance- und E-Commerce-Portale sind online gegangen. Diese Anwendungen erfordern, dass die Sitzung zwischen dem Server und dem Client sicher ist und Vertraulichkeit, Authentifizierung und Integrität der Sitzungen gewährleistet.
Eine Möglichkeit, einen potenziellen Angriff während der Sitzung eines Benutzers abzuschwächen, besteht in der Verwendung eines sicheren Kommunikationsprotokolls. Zwei dieser Kommunikationsprotokolle, Secure Sockets Layer (SSL) und Transport Layer Security (TLS), werden in diesem Kapitel behandelt. Beide Protokolle funktionieren auf der Transportschicht.
Ein weiteres Transportschichtprotokoll, Secure Shell (SSH), das TELNET ersetzen soll, bietet sichere Mittel für die Remote-Anmeldung. Es kann verschiedene Dienste wie Secure Command Shell und SFTP bereitstellen.
Der Einsatz von Sicherheit auf Transportschicht hat viele Vorteile. Das auf dieser Ebene entwickelte Sicherheitsprotokoll kann jedoch nur mit TCP verwendet werden. Sie bieten keine Sicherheit für die über UDP implementierte Kommunikation.
Sicherheitskontrollen auf Netzwerkebene wurden häufig zur Sicherung der Kommunikation verwendet, insbesondere über gemeinsam genutzte Netzwerke wie das Internet, da sie viele Anwendungen gleichzeitig schützen können, ohne sie zu ändern.
In den früheren Kapiteln haben wir erläutert, dass viele Echtzeit-Sicherheitsprotokolle für die Netzwerksicherheit entwickelt wurden, um grundlegende Sicherheitsgrundsätze wie Datenschutz, Ursprungsauthentifizierung, Nachrichtenintegrität und Nicht-Zurückweisung zu gewährleisten.
Die meisten dieser Protokolle konzentrierten sich weiterhin auf die höheren Schichten des OSI-Protokollstapels, um den inhärenten Sicherheitsmangel im Standard-Internetprotokoll auszugleichen. Obwohl diese Methoden wertvoll sind, können sie für keine Anwendung einfach verallgemeinert werden. Beispielsweise wurde SSL speziell zum Sichern von Anwendungen wie HTTP oder FTP entwickelt. Es gibt jedoch mehrere andere Anwendungen, die ebenfalls eine sichere Kommunikation benötigen.
Dieser Bedarf führte zur Entwicklung einer Sicherheitslösung auf der IP-Ebene, damit alle Protokolle der höheren Ebene davon profitieren können. 1992 begann die Internet Engineering Task Force (IETF) mit der Definition eines Standard-IPSec.
In diesem Kapitel werden wir diskutieren, wie Sicherheit auf Netzwerkebene mit diesem sehr beliebten Satz von Protokoll-IPSec erreicht wird.
Sicherheit in der Netzwerkschicht
Jedes Schema, das zur Bereitstellung von Netzwerksicherheit entwickelt wurde, muss auf einer bestimmten Ebene im Protokollstapel implementiert werden, wie in der folgenden Abbildung dargestellt.
Schicht | Kommunikationsprotokolle | Sicherheitsprotokolle |
---|---|---|
Anwendungsschicht | HTTP FTP SMTP | PGP. S / MIME, HTTPS |
Transportschicht | TCP / UDP | SSL, TLS, SSH |
Netzwerkschicht | IP | IPsec |
Das beliebte Framework zur Gewährleistung der Sicherheit auf Netzwerkebene ist Internet Protocol Security (IPsec).
Funktionen von IPsec
IPsec funktioniert nicht nur mit TCP als Transportprotokoll. Es funktioniert mit UDP sowie jedem anderen Protokoll über IP wie ICMP, OSPF usw.
IPsec schützt das gesamte Paket, das der IP-Schicht präsentiert wird, einschließlich der Header höherer Schichten.
Da Header höherer Ebenen ausgeblendet sind, die die Portnummer tragen, ist die Verkehrsanalyse schwieriger.
IPsec arbeitet von einer Netzwerkeinheit zu einer anderen Netzwerkeinheit, nicht von Anwendungsprozess zu Anwendungsprozess. Daher kann die Sicherheit übernommen werden, ohne dass Änderungen an einzelnen Benutzercomputern / -anwendungen erforderlich sind.
IPsec wird häufig für die sichere Kommunikation zwischen Netzwerkeinheiten verwendet und bietet auch Host-zu-Host-Sicherheit.
Die häufigste Verwendung von IPSec ist die Bereitstellung eines virtuellen privaten Netzwerks (VPN), entweder zwischen zwei Standorten (Gateway-zu-Gateway) oder zwischen einem Remotebenutzer und einem Unternehmensnetzwerk (Host-zu-Gateway).
Sicherheitsfunktionen
Die wichtigen Sicherheitsfunktionen des IPSec lauten wie folgt:
Vertraulichkeit
Ermöglicht kommunizierenden Knoten, Nachrichten zu verschlüsseln.
Verhindert das Abhören durch Dritte.
Ursprungsauthentifizierung und Datenintegrität.
Bietet die Gewissheit, dass ein empfangenes Paket tatsächlich von der Partei gesendet wurde, die als Quelle im Paket-Header identifiziert wurde.
Bestätigt, dass das Paket nicht geändert wurde oder auf andere Weise.
Schlüsselverwaltung.
Ermöglicht den sicheren Austausch von Schlüsseln.
Schutz vor bestimmten Arten von Sicherheitsangriffen, z. B. Wiederholungsangriffen.
Virtuelles privates Netzwerk
Im Idealfall möchte jede Institution ein eigenes privates Netzwerk für die Kommunikation, um die Sicherheit zu gewährleisten. Es kann jedoch sehr kostspielig sein, ein solches privates Netzwerk über ein geografisch verteiltes Gebiet aufzubauen und aufrechtzuerhalten. Es würde die Verwaltung einer komplexen Infrastruktur von Kommunikationsverbindungen, Routern, DNS usw. erfordern.
IPsec bietet einen einfachen Mechanismus für die Implementierung von Virtual Private Network (VPN) für solche Institutionen. Mit der VPN-Technologie kann der Inter-Office-Verkehr einer Institution über das öffentliche Internet gesendet werden, indem der Verkehr verschlüsselt wird, bevor er in das öffentliche Internet gelangt und logisch von anderem Verkehr getrennt wird. Die vereinfachte Arbeitsweise von VPN ist in der folgenden Abbildung dargestellt:
Übersicht über IPSec
IPsec ist ein Framework / eine Suite von Protokollen zur Bereitstellung von Sicherheit auf der IP-Ebene.
Ursprung
Anfang der neunziger Jahre wurde das Internet von wenigen Institutionen hauptsächlich für akademische Zwecke genutzt. In späteren Jahrzehnten wurde das Wachstum des Internets jedoch exponentiell, da das Netzwerk erweitert wurde und mehrere Organisationen es für Kommunikations- und andere Zwecke nutzten.
Angesichts des massiven Wachstums des Internets in Verbindung mit den inhärenten Sicherheitslücken des TCP / IP-Protokolls wurde die Notwendigkeit einer Technologie festgestellt, die Netzwerksicherheit im Internet bietet. Ein Bericht mit dem Titel "Sicherheit in der Internetarchitektur" wurde 1994 vom Internet Architecture Board (IAB) veröffentlicht. Er identifizierte die Schlüsselbereiche für Sicherheitsmechanismen.
Das IAB enthielt Authentifizierung und Verschlüsselung als wesentliche Sicherheitsmerkmale in IPv6, der IP der nächsten Generation. Glücklicherweise wurden diese Sicherheitsfunktionen so definiert, dass sie sowohl mit dem aktuellen IPv4 als auch mit dem futuristischen IPv6 implementiert werden können.
Das Sicherheits-Framework IPSec wurde in mehreren "Requests for Comments" (RFCs) definiert. Einige RFCs spezifizieren einige Teile des Protokolls, während andere die Lösung als Ganzes behandeln.
Operationen innerhalb von IPsec
Es kann davon ausgegangen werden, dass die IPSec-Suite zwei separate Vorgänge aufweist, wenn sie gleichzeitig ausgeführt werden und einen vollständigen Satz von Sicherheitsdiensten bereitstellen. Diese beiden Vorgänge sind IPSec-Kommunikation und Internet Key Exchange.
IPSec-Kommunikation
Es ist normalerweise mit der Standard-IPSec-Funktionalität verbunden. Es umfasst die Kapselung, Verschlüsselung und das Hashing der IP-Datagramme sowie die Verarbeitung aller Paketprozesse.
Es ist verantwortlich für die Verwaltung der Kommunikation gemäß den verfügbaren Sicherheitsassoziationen (Security Associations, SAs), die zwischen kommunizierenden Parteien eingerichtet wurden.
Es verwendet Sicherheitsprotokolle wie Authentication Header (AH) und Encapsulated SP (ESP).
Die IPSec-Kommunikation ist nicht an der Erstellung von Schlüsseln oder deren Verwaltung beteiligt.
Der IPSec-Kommunikationsvorgang selbst wird üblicherweise als IPSec bezeichnet.
Internet Key Exchange (IKE)
IKE ist das automatische Schlüsselverwaltungsprotokoll für IPSec.
Technisch gesehen ist die Schlüsselverwaltung für die IPSec-Kommunikation nicht unbedingt erforderlich, und die Schlüssel können manuell verwaltet werden. Eine manuelle Schlüsselverwaltung ist jedoch für große Netzwerke nicht wünschenswert.
IKE ist für die Erstellung von Schlüsseln für IPSec und die Bereitstellung der Authentifizierung während des Schlüsselerstellungsprozesses verantwortlich. Obwohl IPSec für alle anderen Schlüsselverwaltungsprotokolle verwendet werden kann, wird standardmäßig IKE verwendet.
IKE definiert zwei Protokolle (Oakley und SKEME), die mit dem bereits definierten Schlüsselverwaltungsframework ISAKMP (Internet Security Association Key Management Protocol) verwendet werden sollen.
ISAKMP ist nicht IPsec-spezifisch, bietet jedoch den Rahmen für die Erstellung von SAs für jedes Protokoll.
In diesem Kapitel werden hauptsächlich die IPSec-Kommunikation und das zugehörige Protokoll erläutert, mit denen die Sicherheit erreicht wird.
IPSec-Kommunikationsmodi
Die IPSec-Kommunikation verfügt über zwei Funktionsmodi. Transport- und Tunnelmodi. Diese Modi können je nach gewünschter Kommunikationsart in Kombination oder einzeln verwendet werden.
Transportmodus
IPsec kapselt kein von der oberen Schicht empfangenes Paket.
Der ursprüngliche IP-Header wird beibehalten und die Daten werden basierend auf den ursprünglichen Attributen weitergeleitet, die vom Protokoll der oberen Schicht festgelegt wurden.
Das folgende Diagramm zeigt den Datenfluss im Protokollstapel.
Die Einschränkung des Transportmodus besteht darin, dass keine Gateway-Dienste bereitgestellt werden können. Es ist für die Punkt-zu-Punkt-Kommunikation reserviert, wie in der folgenden Abbildung dargestellt.
Tunnelmodus
Dieser IPSec-Modus bietet Kapselungsdienste zusammen mit anderen Sicherheitsdiensten.
Im Tunnelmodus wird das gesamte Paket aus der oberen Schicht eingekapselt, bevor das Sicherheitsprotokoll angewendet wird. Neuer IP-Header wird hinzugefügt.
Das folgende Diagramm zeigt den Datenfluss im Protokollstapel.
Der Tunnelmodus ist normalerweise mit Gateway-Aktivitäten verbunden. Die Kapselung bietet die Möglichkeit, mehrere Sitzungen über ein einziges Gateway zu senden.
Die typische Tunnelmoduskommunikation ist in der folgenden Abbildung dargestellt.
Die Endpunkte verfügen über eine direkte Transportschichtverbindung. Das Datagramm von einem an das Gateway weitergeleiteten System wird gekapselt und dann an das Remote-Gateway weitergeleitet. Das zugeordnete Remote-Gateway entkapselt die Daten und leitet sie an den Zielendpunkt im internen Netzwerk weiter.
Mit IPsec kann der Tunnelmodus auch zwischen dem Gateway und dem einzelnen Endsystem eingerichtet werden.
IPSec-Protokolle
IPsec verwendet die Sicherheitsprotokolle, um die gewünschten Sicherheitsdienste bereitzustellen. Diese Protokolle sind das Herzstück von IPSec-Vorgängen, und alles andere unterstützt dieses Protokoll in IPSec.
Sicherheitszuordnungen zwischen den kommunizierenden Einheiten werden durch das verwendete Sicherheitsprotokoll hergestellt und verwaltet.
Es gibt zwei Sicherheitsprotokolle, die von IPsec definiert werden - Authentication Header (AH) und Encapsulating Security Payload (ESP).
Authentifizierungsheader
Das AH-Protokoll bietet einen Dienst für Datenintegrität und Ursprungsauthentifizierung. Optional wird der Widerstand bei der Nachrichtenwiedergabe berücksichtigt. Es bietet jedoch keine Form der Vertraulichkeit.
AH ist ein Protokoll, das die Authentifizierung des gesamten oder eines Teils des Inhalts eines Datagramms durch Hinzufügen eines Headers ermöglicht. Der Header wird basierend auf den Werten im Datagramm berechnet. Welche Teile des Datagramms für die Berechnung verwendet werden und wo der Header platziert werden soll, hängt von der Moduskooperation (Tunnel oder Transport) ab.
Die Bedienung des AH-Protokolls ist überraschend einfach. Es kann als ähnlich wie die Algorithmen angesehen werden, die zur Berechnung von Prüfsummen oder zur Durchführung von CRC-Prüfungen zur Fehlererkennung verwendet werden.
Das Konzept hinter AH ist das gleiche, außer dass AH anstelle eines einfachen Algorithmus einen speziellen Hashing-Algorithmus und einen geheimen Schlüssel verwendet, der nur den kommunizierenden Parteien bekannt ist. Es wird eine Sicherheitszuordnung zwischen zwei Geräten eingerichtet, die diese Angaben angibt.
Der Prozess der AH durchläuft die folgenden Phasen.
Wenn ein IP-Paket vom oberen Protokollstapel empfangen wird, ermittelt IPsec die zugehörige Sicherheitszuordnung (SA) anhand der verfügbaren Informationen im Paket. Zum Beispiel IP-Adresse (Quelle und Ziel).
Sobald von SA festgestellt wird, dass das Sicherheitsprotokoll AH ist, werden die Parameter des AH-Headers berechnet. Der AH-Header besteht aus folgenden Parametern:
Das Header-Feld gibt das Protokoll des Pakets an, das dem AH-Header folgt. Der Sequenzparameterindex (SPI) wird von der SA erhalten, die zwischen kommunizierenden Parteien besteht.
Die Sequenznummer wird berechnet und eingefügt. Diese Nummern bieten AH die optionale Möglichkeit, einem Wiederholungsangriff zu widerstehen.
Authentifizierungsdaten werden je nach Kommunikationsmodus unterschiedlich berechnet.
Im Transportmodus ist die Berechnung der Authentifizierungsdaten und das Zusammenstellen des endgültigen IP-Pakets für die Übertragung in der folgenden Abbildung dargestellt. Im ursprünglichen IP-Header wird nur die Protokollnummer 51 für die angegebene Anwendung von AH geändert.
Im Tunnelmodus findet der obige Vorgang wie in der folgenden Abbildung dargestellt statt.
Encapsulation Security Protocol (ESP)
ESP bietet Sicherheitsdienste wie Vertraulichkeit, Integrität, Ursprungsauthentifizierung und optionalen Wiedergabewiderstand. Die Anzahl der angebotenen Dienste hängt von den Optionen ab, die zum Zeitpunkt der Gründung der Security Association (SA) ausgewählt wurden.
In ESP werden Algorithmen zum Verschlüsseln und Generieren von Authentifikatoren durch die Attribute bestimmt, die zum Erstellen der SA verwendet werden.
Der Prozess von ESP ist wie folgt. Die ersten beiden Schritte ähneln dem oben angegebenen AH-Prozess.
Sobald festgestellt wurde, dass ESP beteiligt ist, werden die Felder des ESP-Pakets berechnet. Die ESP-Feldanordnung ist in der folgenden Abbildung dargestellt.
Der Verschlüsselungs- und Authentifizierungsprozess im Transportmodus ist in der folgenden Abbildung dargestellt.
Im Tunnelmodus ist der Verschlüsselungs- und Authentifizierungsprozess wie in der folgenden Abbildung dargestellt.
Obwohl Authentifizierung und Vertraulichkeit die Hauptdienste von ESP sind, sind beide optional. Technisch können wir die NULL-Verschlüsselung ohne Authentifizierung verwenden. In der Praxis muss jedoch eine der beiden implementiert werden, um ESP effektiv nutzen zu können.
Das Grundkonzept besteht darin, ESP zu verwenden, wenn Authentifizierung und Verschlüsselung gewünscht werden, und AH zu verwenden, wenn eine erweiterte Authentifizierung ohne Verschlüsselung gewünscht wird.
Sicherheitszuordnungen in IPSec
Die Security Association (SA) ist die Grundlage einer IPSec-Kommunikation. Die Merkmale von SA sind -
Vor dem Senden von Daten wird eine virtuelle Verbindung zwischen der sendenden Entität und der empfangenden Entität hergestellt, die als "Security Association (SA)" bezeichnet wird.
IPsec bietet viele Optionen für die Netzwerkverschlüsselung und -authentifizierung. Jede IPSec-Verbindung kann Verschlüsselung, Integrität, Authentizität oder alle drei Dienste bereitstellen. Wenn der Sicherheitsdienst bestimmt wird, müssen die beiden IPSec-Peer-Entitäten genau bestimmen, welche Algorithmen verwendet werden sollen (z. B. DES oder 3DES für die Verschlüsselung; MD5 oder SHA-1 für die Integrität). Nach der Entscheidung für die Algorithmen müssen die beiden Geräte Sitzungsschlüssel gemeinsam nutzen.
SA ist ein Satz der oben genannten Kommunikationsparameter, der eine Beziehung zwischen zwei oder mehr Systemen zum Erstellen einer IPSec-Sitzung bereitstellt.
SA ist von Natur aus einfach und daher sind zwei SAs für die bidirektionale Kommunikation erforderlich.
SAs werden durch eine SPI-Nummer (Security Parameter Index) identifiziert, die im Sicherheitsprotokoll-Header vorhanden ist.
Sowohl sendende als auch empfangende Entitäten verwalten Statusinformationen über die SA. Es ähnelt TCP-Endpunkten, die auch Statusinformationen verwalten. IPsec ist wie TCP verbindungsorientiert.
Parameter von SA
Jede SA wird durch die folgenden drei Parameter eindeutig identifiziert:
Sicherheitsparameterindex (SPI).
Dies ist ein 32-Bit-Wert, der SA zugewiesen wird. Es wird verwendet, um zwischen verschiedenen SAs zu unterscheiden, die am selben Ziel enden und dasselbe IPSec-Protokoll verwenden.
Jedes IPSec-Paket enthält einen Header mit einem SPI-Feld. Der SPI wird bereitgestellt, um das eingehende Paket einer SA zuzuordnen.
Der SPI ist eine Zufallszahl, die vom Absender generiert wird, um die SA gegenüber dem Empfänger zu identifizieren.
Destination IP Address - Dies kann die IP-Adresse des Endrouters sein.
Security Protocol Identifier - Zeigt an, ob es sich bei der Zuordnung um eine AH- oder eine ESP-SA handelt.
Das folgende Diagramm zeigt ein Beispiel für eine SA zwischen zwei Routern, die an der IPSec-Kommunikation beteiligt sind.
Sicherheitsverwaltungsdatenbanken
In IPsec gibt es zwei Datenbanken, die die Verarbeitung des IPSec-Datagramms steuern. Eine ist die Security Association Database (SAD) und die andere ist die Security Policy Database (SPD). Jeder über IPSec kommunizierende Endpunkt sollte über ein logisch getrenntes SAD und SPD verfügen.
Sicherheitszuordnungsdatenbank
Bei der IPSec-Kommunikation hält der Endpunkt den SA-Status in der Security Association Database (SAD). Jeder SA-Eintrag in der SAD-Datenbank enthält neun Parameter, wie in der folgenden Tabelle gezeigt -
Sr.Nr. | Parameter & Beschreibung |
---|---|
1 | Sequence Number Counter Für ausgehende Kommunikation. Dies ist die 32-Bit-Sequenznummer, die in den AH- oder ESP-Headern angegeben ist. |
2 | Sequence Number Overflow Counter Setzt ein Optionsflag, um weitere Kommunikationen unter Verwendung der spezifischen SA zu verhindern |
3 | 32-bit anti-replay window Wird verwendet, um zu bestimmen, ob ein eingehendes AH- oder ESP-Paket eine Wiederholung ist |
4 | Lifetime of the SA Zeit bis SA aktiv bleibt |
5 | Algorithm - AH Wird im AH und im zugehörigen Schlüssel verwendet |
6 | Algorithm - ESP Auth Wird im Authentifizierungsteil des ESP-Headers verwendet |
7 | Algorithm - ESP Encryption Wird bei der Verschlüsselung des ESP und der zugehörigen Schlüsselinformationen verwendet |
8 | IPsec mode of operation Transport- oder Tunnelmodus |
9 | Path MTU(PMTU) Jede beobachtete maximale Übertragungseinheit (um eine Fragmentierung zu vermeiden) |
Alle SA-Einträge im SAD werden durch die drei SA-Parameter indiziert: Ziel-IP-Adresse, Sicherheitsprotokoll-ID und SPI.
Sicherheitsrichtliniendatenbank
SPD wird zur Verarbeitung ausgehender Pakete verwendet. Es hilft bei der Entscheidung, welche SAD-Einträge verwendet werden sollen. Wenn kein SAD-Eintrag vorhanden ist, werden mit SPD neue erstellt.
Jeder SPD-Eintrag würde enthalten -
Zeiger auf aktive SA in SAD gehalten.
Auswahlfelder - Feld im eingehenden Paket der oberen Schicht, das zur Entscheidung über die Anwendung von IPSec verwendet wird. Selektoren können Quell- und Zieladresse, Portnummern, falls relevant, Anwendungs-IDs, Protokolle usw. enthalten.
Ausgehende IP-Datagramme gehen vom SPD-Eintrag zur spezifischen SA, um Codierungsparameter abzurufen. Eingehende IPSec-Datagramme gelangen direkt mit dem SPI / DEST IP / Protocol-Triple zur richtigen SA und extrahieren von dort den zugehörigen SAD-Eintrag.
SPD kann auch Datenverkehr angeben, der IPSec umgehen soll. SPD kann als Paketfilter betrachtet werden, bei dem als Maßnahmen die Aktivierung von SA-Prozessen beschlossen wird.
Zusammenfassung
IPsec ist eine Reihe von Protokollen zum Sichern von Netzwerkverbindungen. Es ist ein ziemlich komplexer Mechanismus, da anstelle einer einfachen Definition eines bestimmten Verschlüsselungsalgorithmus und einer Authentifizierungsfunktion ein Framework bereitgestellt wird, das die Implementierung von allem ermöglicht, worüber sich beide Kommunikationsziele einig sind.
Authentication Header (AH) und Encapsulating Security Payload (ESP) sind die beiden Hauptkommunikationsprotokolle, die von IPsec verwendet werden. Während AH nur authentifiziert, kann ESP die über die Verbindung übertragenen Daten verschlüsseln und authentifizieren.
Der Transportmodus bietet eine sichere Verbindung zwischen zwei Endpunkten, ohne den IP-Header zu ändern. Der Tunnelmodus kapselt das gesamte Nutzlast-IP-Paket. Es wird ein neuer IP-Header hinzugefügt. Letzteres wird zur Bildung eines herkömmlichen VPN verwendet, da es einen virtuellen sicheren Tunnel über ein nicht vertrauenswürdiges Internet bietet.
Das Einrichten einer IPSec-Verbindung umfasst alle Arten von Kryptowahlen. Die Authentifizierung basiert normalerweise auf einem kryptografischen Hash wie MD5 oder SHA-1. Verschlüsselungsalgorithmen sind DES, 3DES, Blowfish und AES. Andere Algorithmen sind ebenfalls möglich.
Beide kommunizierenden Endpunkte müssen die geheimen Werte kennen, die beim Hashing oder bei der Verschlüsselung verwendet werden. Manuelle Schlüssel erfordern die manuelle Eingabe der geheimen Werte an beiden Enden, die vermutlich durch einen Out-of-Band-Mechanismus übermittelt werden, und IKE (Internet Key Exchange) ist ein ausgeklügelter Mechanismus, um dies online zu tun.
Wir haben gesehen, dass das schnelle Wachstum des Internets ein großes Problem für die Netzwerksicherheit darstellt. Es wurden verschiedene Methoden entwickelt, um Sicherheit in der Anwendungs-, Transport- oder Netzwerkschicht eines Netzwerks zu gewährleisten.
Viele Unternehmen verfügen über Sicherheitsmaßnahmen auf höheren OSI-Ebenen, von der Anwendungsschicht bis zur IP-Schicht. Ein Bereich, der im Allgemeinen unbeaufsichtigt bleibt, ist das Härten der Datenverbindungsschicht. Dies kann das Netzwerk für eine Vielzahl von Angriffen und Kompromissen öffnen.
In diesem Kapitel werden Sicherheitsprobleme auf der Datenverbindungsschicht und Methoden zu ihrer Bekämpfung erörtert. Unsere Diskussion wird sich auf das Ethernet-Netzwerk konzentrieren.
Sicherheitsbedenken in der Datenverbindungsschicht
Die Datenverbindungsschicht in Ethernet-Netzwerken ist sehr anfällig für mehrere Angriffe. Die häufigsten Angriffe sind -
ARP-Spoofing
Das Address Resolution Protocol (ARP) ist ein Protokoll, mit dem eine IP-Adresse einer physischen Maschinenadresse zugeordnet wird, die im lokalen Ethernet erkennbar ist. Wenn ein Host-Computer eine physische MAC-Adresse (Media Access Control) für eine IP-Adresse suchen muss, sendet er eine ARP-Anforderung. Der andere Host, dem die IP-Adresse gehört, sendet eine ARP-Antwortnachricht mit seiner physischen Adresse.
Jeder Hostcomputer im Netzwerk verwaltet eine Tabelle mit dem Namen "ARP-Cache". Die Tabelle enthält die IP-Adresse und die zugehörigen MAC-Adressen anderer Hosts im Netzwerk.
Da ARP ein zustandsloses Protokoll ist, akzeptiert ein Host jedes Mal, wenn er eine ARP-Antwort von einem anderen Host erhält, obwohl er keine ARP-Anforderung gesendet hat, diesen ARP-Eintrag und aktualisiert seinen ARP-Cache. Der Prozess zum Ändern des ARP-Caches eines Zielhosts mit einem gefälschten Eintrag, der als ARP-Vergiftung oder ARP-Spoofing bezeichnet wird.
ARP-Spoofing kann es einem Angreifer ermöglichen, sich als legitimer Host auszugeben und dann Datenrahmen in einem Netzwerk abzufangen, zu ändern oder zu stoppen. Oft wird der Angriff verwendet, um andere Angriffe zu starten, z. B. Man-in-the-Middle, Sitzungsentführung oder Denial-of-Service.
MAC-Überschwemmung
Jeder Switch im Ethernet verfügt über eine CAM-Tabelle (Content-Addressable Memory), in der die MAC-Adressen, Switch-Portnummern und andere Informationen gespeichert sind. Der Tisch hat eine feste Größe. Beim MAC-Flooding-Angriff überflutet der Angreifer den Switch mit MAC-Adressen unter Verwendung gefälschter ARP-Pakete, bis die CAM-Tabelle voll ist.
Sobald CAM überflutet ist, wechselt der Switch in den Hub-ähnlichen Modus und beginnt mit der Übertragung des Datenverkehrs, der keinen CAM-Eintrag hat. Der Angreifer, der sich im selben Netzwerk befindet, empfängt jetzt alle Frames, die nur für einen bestimmten Host bestimmt waren.
Port stehlen
Ethernet-Switches können MAC-Adressen lernen und an Ports binden. Wenn ein Switch Datenverkehr von einem Port mit einer MAC-Quelladresse empfängt, bindet er die Portnummer und diese MAC-Adresse.
Der Port-Stealing-Angriff nutzt diese Fähigkeit der Switches aus. Der Angreifer überflutet den Switch mit gefälschten ARP-Frames mit der MAC-Adresse des Zielhosts als Quelladresse. Der Switch wird getäuscht zu glauben, dass sich der Zielhost am Port befindet, an dem tatsächlich ein Angreifer angeschlossen ist.
Jetzt werden alle für den Zielhost bestimmten Datenrahmen an den Switch-Port des Angreifers und nicht an den Zielhost gesendet. Somit erhält der Angreifer nun alle Frames, die tatsächlich nur für den Zielhost bestimmt waren.
DHCP-Angriffe
Das Dynamic Host Configuration Protocol (DHCP) ist kein Datenverbindungsprotokoll, aber Lösungen für DHCP-Angriffe sind auch nützlich, um Layer 2-Angriffe zu verhindern.
DHCP wird verwendet, um Computern für einen bestimmten Zeitraum dynamisch IP-Adressen zuzuweisen. Es ist möglich, DHCP-Server anzugreifen, indem Sie einen Denial-of-Service im Netzwerk verursachen oder sich als DHCP-Server ausgeben. Bei einem DHCP-Hungerangriff fordert der Angreifer alle verfügbaren DHCP-Adressen an. Dies führt zu einem Denial-of-Service für den legitimen Host im Netzwerk.
Bei einem DHCP-Spoofing-Angriff kann der Angreifer einen nicht autorisierten DHCP-Server bereitstellen, um den Clients Adressen bereitzustellen. Hier kann der Angreifer den Host-Computern ein Rouge-Standard-Gateway mit den DHCP-Antworten bereitstellen. Datenrahmen vom Host werden nun zum Rouge-Gateway geführt, wo der Angreifer alle Pakete abfangen und auf das tatsächliche Gateway antworten oder sie löschen kann.
Andere Angriffe
Zusätzlich zu den oben genannten populären Angriffen gibt es andere Angriffe wie Layer-2-basiertes Broadcasting, Denial of Service (DoS) und MAC-Klonen.
Beim Broadcasting-Angriff sendet der Angreifer gefälschte ARP-Antworten an die Hosts im Netzwerk. Diese ARP-Antworten setzen die MAC-Adresse des Standard-Gateways auf die Broadcast-Adresse. Dadurch wird der gesamte ausgehende Datenverkehr gesendet, sodass der Angreifer, der sich im selben Ethernet befindet, das Sniffing durchführen kann. Diese Art von Angriff wirkt sich auch auf die Netzwerkkapazität aus.
Bei Layer 2-basierten DoS-Angriffen aktualisiert der Angreifer die ARP-Caches der Hosts im Netzwerk mit nicht vorhandenen MAC-Adressen. Die MAC-Adresse jeder Netzwerkkarte in einem Netzwerk soll global eindeutig sein. Es kann jedoch leicht geändert werden, indem das MAC-Klonen aktiviert wird. Der Angreifer deaktiviert den Zielhost durch DoS-Angriff und verwendet dann die IP- und MAC-Adressen des Zielhosts.
Der Angreifer führt die Angriffe aus, um Angriffe auf höherer Ebene zu starten, um die Sicherheit von Informationen zu gefährden, die im Netzwerk übertragen werden. Er kann alle Frames abfangen und die Frame-Daten lesen. Der Angreifer kann als Man-in-Middle fungieren und Daten ändern oder einfach den Frame löschen, der zu DoS führt. Er kann die laufende Sitzung zwischen dem Zielhost und anderen Computern entführen und insgesamt falsche Informationen übermitteln.
Sichern von Ethernet-LANs
Wir haben im vorherigen Abschnitt einige weithin bekannte Angriffe auf Data Link Layer besprochen. Es wurden verschiedene Methoden entwickelt, um diese Arten von Angriffen abzuschwächen. Einige der wichtigsten Methoden sind -
Port-Sicherheit
Dies ist eine Layer-2-Sicherheitsfunktion, die bei intelligenten Ethernet-Switches verfügbar ist. Dabei wird ein physischer Port eines Switches an eine bestimmte MAC-Adresse gebunden. Jeder kann auf ein unsicheres Netzwerk zugreifen, indem er den Host einfach mit einem der verfügbaren Switch-Ports verbindet. Die Port-Sicherheit kann jedoch den Layer-2-Zugriff sichern.
Standardmäßig begrenzt die Port-Sicherheit die Anzahl der eingehenden MAC-Adressen auf eins. Es ist jedoch möglich, dass mehr als ein autorisierter Host über die Konfiguration eine Verbindung von diesem Port herstellt. Zulässige MAC-Adressen pro Schnittstelle können statisch konfiguriert werden. Eine bequeme Alternative besteht darin, das "klebrige" Lernen von MAC-Adressen zu aktivieren, bei dem MAC-Adressen vom Switch-Port dynamisch gelernt werden, bis die maximale Grenze für den Port erreicht ist.
Um die Sicherheit zu gewährleisten, kann die Reaktion auf die Änderung der angegebenen MAC-Adresse (n) an einem Port oder auf überschüssige Adressen an einem Port auf viele verschiedene Arten gesteuert werden. Der Port kann so konfiguriert werden, dass die MAC-Adressen, die einen bestimmten Grenzwert überschreiten, heruntergefahren oder blockiert werden. Die empfohlene Vorgehensweise besteht darin, den Port herunterzufahren. Die Port-Sicherheit verhindert MAC-Flooding und Klonangriffe.
DHCP-Snooping
Wir haben gesehen, dass DHCP-Spoofing ein Angriff ist, bei dem der Angreifer auf DHCP-Anforderungen vom Host im Netzwerk wartet und diese mit einer gefälschten DHCP-Antwort beantwortet, bevor die autorisierte DHCP-Antwort an den Host gelangt.
DHCP-Snooping kann solche Angriffe verhindern. DHCP-Snooping ist eine Switch-Funktion. Der Switch kann so konfiguriert werden, dass bestimmt wird, welche Switch-Ports auf DHCP-Anforderungen reagieren können. Switch-Ports werden als vertrauenswürdige oder nicht vertrauenswürdige Ports identifiziert.
Nur Ports, die eine Verbindung zu einem autorisierten DHCP-Server herstellen, sind als "vertrauenswürdig" konfiguriert und dürfen alle Arten von DHCP-Nachrichten senden. Alle anderen Ports am Switch sind nicht vertrauenswürdig und können nur DHCP-Anforderungen senden. Wenn an einem nicht vertrauenswürdigen Port eine DHCP-Antwort angezeigt wird, wird der Port heruntergefahren.
ARP-Spoofing verhindern
Die Methode der Port-Sicherheit kann MAC-Flooding und Klonangriffe verhindern. ARP-Spoofing wird jedoch nicht verhindert. Die Port-Sicherheit überprüft die MAC-Quelladresse im Frame-Header. ARP-Frames enthalten jedoch ein zusätzliches MAC-Quellfeld in der Datennutzlast, und der Host verwendet dieses Feld, um den ARP-Cache zu füllen. Einige Methoden zur Verhinderung von ARP-Spoofing sind wie folgt aufgeführt.
Static ARP- Eine der empfohlenen Aktionen besteht darin, statische ARP-Einträge in der Host-ARP-Tabelle zu verwenden. Statische ARP-Einträge sind permanente Einträge in einem ARP-Cache. Dieses Verfahren ist jedoch unpraktisch. Außerdem ist die Verwendung eines DHCP (Dynamic Host Configuration Protocol) nicht zulässig, da für alle Hosts im Layer 2-Netzwerk statische IP-Adressen verwendet werden müssen.
Intrusion Detection System- Die Verteidigungsmethode besteht darin, ein Intrusion Detection System (IDS) zu verwenden, das so konfiguriert ist, dass große Mengen an ARP-Verkehr erkannt werden. IDS ist jedoch anfällig für die Meldung von Fehlalarmen.
Dynamic ARP Inspection- Diese Methode zur Verhinderung von ARP-Spoofing ähnelt dem DHCP-Snooping. Es werden vertrauenswürdige und nicht vertrauenswürdige Ports verwendet. ARP-Antworten sind nur an vertrauenswürdigen Ports in der Switch-Schnittstelle zulässig. Wenn eine ARP-Antwort an einem nicht vertrauenswürdigen Port an den Switch gesendet wird, wird der Inhalt des ARP-Antwortpakets mit der DHCP-Bindungstabelle verglichen, um die Richtigkeit zu überprüfen. Wenn die ARP-Antwort nicht gültig ist, wird die ARP-Antwort gelöscht und der Port deaktiviert.
Sichern des Spanning Tree-Protokolls
Das Spanning Tree Protocol (STP) ist ein Verbindungsverwaltungsprotokoll der Schicht 2. Der Hauptzweck von STP besteht darin, sicherzustellen, dass keine Datenflussschleifen vorhanden sind, wenn das Netzwerk über redundante Pfade verfügt. Im Allgemeinen werden redundante Pfade erstellt, um dem Netzwerk Zuverlässigkeit zu bieten. Sie können jedoch tödliche Schleifen bilden, die zu DoS-Angriffen im Netzwerk führen können.
Spanning Tree-Protokoll
Um die gewünschte Pfadredundanz bereitzustellen und eine Schleifenbedingung zu vermeiden, definiert STP einen Baum, der alle Switches in einem Netzwerk umfasst. STP zwingt bestimmte redundante Datenverbindungen in einen blockierten Zustand und hält andere Verbindungen in einem Weiterleitungszustand.
Wenn eine Verbindung im Weiterleitungsstatus ausfällt, konfiguriert STP das Netzwerk neu und definiert Datenpfade neu, indem der entsprechende Standby-Pfad aktiviert wird. STP wird auf Bridges und Switches ausgeführt, die im Netzwerk bereitgestellt werden. Alle Switches tauschen Informationen für die Auswahl des Root-Switches und für die nachfolgende Konfiguration des Netzwerks aus. Bridge Protocol Data Units (BPDUs) enthalten diese Informationen. Durch den Austausch von BPDUs wählen alle Switches im Netzwerk eine Root-Bridge / einen Root-Switch, der zum Mittelpunkt des Netzwerks wird und die blockierten und weitergeleiteten Verbindungen steuert.
Angriffe auf STP
Übernahme der Root Bridge. Dies ist eine der störendsten Arten von Angriffen auf Schicht 2. Standardmäßig akzeptiert ein LAN-Switch jede vom benachbarten Switch gesendete BPDU zum Nennwert. Im Übrigen ist STP vertrauenswürdig, zustandslos und bietet keinen soliden Authentifizierungsmechanismus.
Im Root-Angriffsmodus sendet der angreifende Switch alle 2 Sekunden eine BPDU mit der gleichen Priorität wie die aktuelle Root-Bridge, jedoch mit einer geringfügig numerisch niedrigeren MAC-Adresse, wodurch der Sieg bei der Root-Bridge-Wahl sichergestellt wird. Der Angreifer-Switch kann einen DoS-Angriff starten, indem er andere Switches, die eine BPDU-Überflutung verursachen, nicht ordnungsgemäß bestätigt oder Switches einem BPDUS-Überprozess unterwirft, indem er behauptet, gleichzeitig Root zu sein und sich schnell hintereinander zurückzuziehen.
DoS mit Flood of Configuration BPDU. Der angreifende Switch versucht nicht, als Root zu übernehmen. Stattdessen wird eine große Anzahl von BPDUs pro Sekunde generiert, was zu einer sehr hohen CPU-Auslastung der Switches führt.
Angriffe auf STP verhindern
Glücklicherweise ist die Gegenmaßnahme zu einem Root-Übernahmeangriff einfach und unkompliziert. Zwei Funktionen helfen bei der Abwehr eines Root-Übernahmeangriffs.
Root Guard- Root Guard schränkt die Switch-Ports ein, über die die Root Bridge ausgehandelt werden kann. Wenn ein 'Root-Guard-fähiger' Port BPDUs empfängt, die denen überlegen sind, die die aktuelle Root-Bridge sendet, wird dieser Port in einen Root-inkonsistenten Zustand versetzt, und es wird kein Datenverkehr über diesen Port weitergeleitet. Root Guard wird am besten für Ports eingesetzt, die eine Verbindung zu Switches herstellen, von denen nicht erwartet wird, dass sie die Root Bridge übernehmen.
BPDU-Guard- Der BPDU-Schutz wird verwendet, um das Netzwerk vor Problemen zu schützen, die durch den Empfang von BPDUs an den Zugriffsports verursacht werden können. Dies sind die Ports, die sie nicht empfangen sollten. Der BPDU-Schutz wird am besten für benutzerbezogene Ports eingesetzt, um das Einsetzen eines unerwünschten Schalters durch einen Angreifer zu verhindern.
Virtuelles LAN sichern
In lokalen Netzwerken werden Virtual Local Area Networks (VLANs) manchmal als Sicherheitsmaßnahme konfiguriert, um die Anzahl der Hosts zu begrenzen, die für Layer-2-Angriffe anfällig sind. VLANs erstellen Netzwerkgrenzen, über die der Broadcast-Verkehr (ARP, DHCP) nicht überschritten werden kann.
Virtuelles lokales Netzwerk
Ein Netzwerk mit Switches, die VLAN-Funktionen unterstützen, kann so konfiguriert werden, dass mehrere VLANs über eine einzige physische LAN-Infrastruktur definiert werden.
Die übliche Form von VLAN ist ein portbasiertes VLAN. In dieser VLAN-Struktur werden die Switch-Ports mithilfe der Switch-Verwaltungssoftware in VLAN gruppiert. Somit kann ein einzelner physischer Switch als mehrere virtuelle Switches fungieren.
Der Einsatz von VLANs sorgt für Verkehrsisolation. Es unterteilt das große Broadcast-Layer-2-Netzwerk in kleinere logische Layer-2-Netzwerke und reduziert so den Umfang von Angriffen wie ARP / DHCP-Spoofing. Datenrahmen eines VLAN können nur von / zu Ports verschoben werden, die zu demselben VLAN gehören. Die Frame-Weiterleitung zwischen zwei VLANs erfolgt über Routing.
VLANs umfassen im Allgemeinen mehrere Switches, wie in der obigen Abbildung dargestellt. Die Verbindung zwischen Trunk-Ports enthält Frames aller VLANs, die über mehrere physische Switches definiert sind. Daher können zwischen Switches weitergeleitete VLAN-Frames keine einfachen Frames im IEEE 802.1-Ethernet-Format sein. Da sich diese Frames auf derselben physischen Verbindung bewegen, müssen sie jetzt VLAN-ID-Informationen enthalten. Das IEEE 802.1Q-Protokoll fügt zusätzliche Header-Felder zu einfachen Ethernet-Frames hinzu, die zwischen Trunk-Ports weitergeleitet werden.
Wenn das Feld nach den beiden IP-Adressfeldern 0x8100 (> 1500) ist, wird der Frame als 802.1Q-Frame identifiziert. Der Wert der 2-Byte-Tag-Protokollkennung (TPI) beträgt 81-00. Das TCI-Feld besteht aus 3-Bit-Prioritätsinformationen, 1-Bit-Drop-fähigen Indikatoren (DEI) und 12-Bit-VLAN-ID. Dieses 3-Bit-Prioritätsfeld und das DEI-Feld sind für VLANs nicht relevant. Prioritätsbits werden zur Bereitstellung von Quality of Service verwendet.
Wenn ein Frame nicht zu einem VLAN gehört, gibt es eine Standard-VLAN-ID, mit der der Frame verknüpft ist.
Angriff auf VLAN & Präventionsmaßnahmen
Bei einem VLAN-Hopping-Angriff kann ein Angreifer in einem VLAN auf den Datenverkehr in anderen VLANs zugreifen, auf die normalerweise nicht zugegriffen werden kann. Bei der Kommunikation von einem VLAN zu einem anderen wird ein Layer-3-Gerät (Router) umgangen, wodurch der Zweck der VLAN-Erstellung zunichte gemacht wird.
VLAN-Hopping kann auf zwei Arten durchgeführt werden. Switch-Spoofing und Double-Tagging.
Spoofing wechseln
Dies kann auftreten, wenn sich der Switch-Port, mit dem der Angreifer verbunden ist, entweder im Trunking-Modus oder im Auto-Negotiation-Modus befindet. Der Angreifer fungiert als Switch und fügt seinen ausgehenden Frames 802.1Q-Kapselungsheader mit VLAN-Tags für Remote-Ziel-VLANs hinzu. Der empfangende Switch interpretiert diese Frames als von einem anderen 802.1Q-Switch bezogen und leitet die Frames an das Ziel-VLAN weiter.
Die beiden vorbeugenden Maßnahmen gegen Switch-Spoofing-Angriffe bestehen darin, Edge-Ports in den statischen Zugriffsmodus zu versetzen und die automatische Aushandlung an allen Ports zu deaktivieren.
Doppelte Kennzeichnung
Bei diesem Angriff stellt ein Angreifer, der über den nativen VLAN-Port des Switches verbunden ist, zwei VLAN-Tags im Frame-Header voran. Das erste Tag ist ein natives VLAN und das zweite ist ein Ziel-VLAN. Wenn der erste Switch die Frames des Angreifers empfängt, wird das erste Tag entfernt, da Frames des nativen VLAN ohne Tag am Trunk-Port weitergeleitet werden.
Da das zweite Tag vom ersten Switch nie entfernt wurde, identifiziert der empfangende Switch das verbleibende Tag als VLAN-Ziel und leitet die Frames an den Zielhost in diesem VLAN weiter. Der Double-Tagging-Angriff nutzt das Konzept des nativen VLAN. Da VLAN 1 das Standard-VLAN für Zugriffsports und das native Standard-VLAN für Amtsleitungen ist, ist es ein einfaches Ziel.
Die erste Präventionsmaßnahme besteht darin, alle Zugriffsports aus dem Standard-VLAN 1 zu entfernen, da der Port des Angreifers mit dem des nativen VLAN des Switch übereinstimmen muss. Die zweite Präventionsmaßnahme besteht darin, das native VLAN auf allen Switch-Trunks einem nicht verwendeten VLAN zuzuweisen, z. B. VLAN-ID 999. Schließlich müssen alle Switches so konfiguriert werden, dass native VLAN-Frames am Trunk-Port explizit gekennzeichnet werden.
WLAN sichern
Drahtloses lokales Netzwerk ist ein Netzwerk von drahtlosen Knoten innerhalb eines begrenzten geografischen Gebiets, z. B. eines Bürogebäudes oder eines Schulcampus. Knoten sind zur Funkkommunikation fähig.
WLAN
WLAN wird normalerweise als Erweiterung des vorhandenen WLAN implementiert, um den Netzwerkzugriff mit Gerätemobilität zu ermöglichen. Die am weitesten verbreiteten WLAN-Technologien basieren auf dem IEEE 802.11-Standard und seinen Änderungen.
Die beiden Hauptkomponenten im WLAN sind -
Access Points (APs)- Dies sind Basisstationen für das drahtlose Netzwerk. Sie senden und empfangen Funkfrequenzen, um mit drahtlosen Clients zu kommunizieren.
Wireless Clients- Dies sind Computergeräte, die mit einer WNIC (Wireless Network Interface Card) ausgestattet sind. Laptops, IP-Telefone und PDAs sind typische Beispiele für drahtlose Clients.
Viele Organisationen haben WLANs implementiert. Diese Netzwerke wachsen phänomenal. Daher ist es wichtig, die Bedrohungen in WLANs zu verstehen und die üblichen vorbeugenden Maßnahmen zur Gewährleistung der Netzwerksicherheit zu kennen.
Angriffe im WLAN
Die typischen Angriffe, die im WLAN ausgeführt werden, sind:
Eavesdropping - Der Angreifer überwacht drahtlos drahtlose Netzwerke passiv auf Daten, einschließlich Authentifizierungsdaten.
Masquerading - Der Angreifer gibt sich als autorisierter Benutzer aus und erhält Zugriff und Berechtigungen in drahtlosen Netzwerken.
Traffic Analysis - Der Angreifer überwacht Übertragungen über drahtlose Netzwerke, um Kommunikationsmuster und Teilnehmer zu identifizieren.
Denial of Service - Der Angreifer verhindert oder beschränkt die normale Verwendung oder Verwaltung von WLAN- oder Netzwerkgeräten.
Message Modification/Replay - Der Angreifer ändert oder antwortet auf eine legitime Nachricht, die über drahtlose Netzwerke gesendet wird, indem er sie löscht, ergänzt, ändert oder neu anordnet.
Sicherheitsmaßnahmen im WLAN
Sicherheitsmaßnahmen bieten Mittel, um Angriffe abzuwehren und Risiken für die Netzwerke zu verwalten. Dies sind Netzwerkmanagement, Betrieb und technische Maßnahmen. Im Folgenden werden die technischen Maßnahmen beschrieben, die zur Gewährleistung der Vertraulichkeit, Verfügbarkeit und Integrität der über WLANs übertragenen Daten ergriffen wurden.
In WLANs sollten alle APs so konfiguriert sein, dass sie Sicherheit durch Verschlüsselung und Clientauthentifizierung bieten. Folgende Schemata werden im WLAN zur Gewährleistung der Sicherheit verwendet:
Wired Equivalent Privacy (WEP)
Es ist ein Verschlüsselungsalgorithmus, der in den 802.11-Standard integriert ist, um drahtlose Netzwerke zu sichern. Die WEP-Verschlüsselung verwendet die RC4-Stream-Verschlüsselung (Rivest Cipher 4) mit 40-Bit / 104-Bit-Schlüsseln und einem 24-Bit-Initialisierungsvektor. Es kann auch eine Endpunktauthentifizierung bereitstellen.
Es ist jedoch der schwächste Sicherheitsmechanismus für die Verschlüsselung, da bei der WEP-Verschlüsselung eine Reihe von Fehlern festgestellt wurden. WEP hat auch kein Authentifizierungsprotokoll. Daher wird die Verwendung von WEP nicht dringend empfohlen.
802.11i-Protokoll
In diesem Protokoll sind zahlreiche und stärkere Formen der Verschlüsselung möglich. Es wurde entwickelt, um das schwache WEP-Schema zu ersetzen. Es bietet einen Schlüsselverteilungsmechanismus. Es unterstützt einen Schlüssel pro Station und verwendet nicht für alle denselben Schlüssel. Es verwendet einen vom Zugriffspunkt getrennten Authentifizierungsserver.
IEEE802.11i schreibt die Verwendung eines Protokolls mit dem Namen Counter Mode mit CBC-MAC Protocol (CCMP) vor. CCMP bietet Vertraulichkeit und Integrität der übertragenen Daten sowie Authentizität des Absenders. Es basiert auf der Blockverschlüsselung des Advanced Encryption Standard (AES).
Das IEEE802.11i-Protokoll verfügt über vier Betriebsphasen.
STA und AP kommunizieren und entdecken gegenseitige Sicherheitsfunktionen wie unterstützte Algorithmen.
STA und AS authentifizieren sich gegenseitig und generieren zusammen den Master Key (MK). AP fungiert als "Durchgang".
STA leitet den Pairwise Master Key (PMK) ab. AS leitet dasselbe PMK ab und sendet an AP.
STA, AP verwenden PMK, um den Temporal Key (TK) abzuleiten, der für die Nachrichtenverschlüsselung und Datenintegrität verwendet wird.
Andere Standards
Wi-Fi Protected Access(WPA) - Dieses Protokoll implementiert den Großteil des IEEE 802.11i-Standards. Es existierte vor IEEE 802.11i und verwendet den RC4-Algorithmus zur Verschlüsselung. Es gibt zwei Betriebsarten. Im Enterprise-Modus verwendet WPA das Authentifizierungsprotokoll 802.1x für die Kommunikation mit dem Authentifizierungsserver. Daher sind Pre-Master-Schlüssel (PMK) spezifisch für die Client-Station. Im "Personal" -Modus wird 802.1x nicht verwendet. PMK wird durch einen vorinstallierten Schlüssel ersetzt, wie er für SOHO-WLAN-Umgebungen (Small Office Home Office) verwendet wird.
WPA enthält auch eine Integritätsprüfung für Soundnachrichten, die die vom WEP-Standard verwendete Cyclic Redundancy Check (CRC) ersetzt.
WPA2- WPA2 ersetzte das WPA. WPA2 implementiert alle obligatorischen Elemente des IEEE 802.11i-Schemas. Insbesondere wird CCMP, ein AES-basierter Verschlüsselungsmodus mit hoher Sicherheit, obligatorisch unterstützt. In Bezug auf die Angriffe bietet WPA2 / IEEE802.11i daher angemessene Lösungen zur Abwehr von WEP-Schwächen, Man-in-the-Middle-Angriffen, Fälschungen von Fälschungspaketen und Wiederholungsangriffen. DoS-Angriffe werden jedoch nicht richtig angegangen, und es gibt keine soliden Protokolle, um solche Angriffe zu stoppen, da solche Angriffe auf die physische Schicht abzielen und das Frequenzband stören.
Zusammenfassung
In diesem Kapitel haben wir Angriffe und Schadensbegrenzungstechniken unter der Annahme eines Switched-Ethernet-Netzwerks mit IP betrachtet. Wenn Ihr Netzwerk Ethernet nicht als Layer-2-Protokoll verwendet, sind einige dieser Angriffe möglicherweise nicht anwendbar. Es besteht jedoch die Möglichkeit, dass ein solches Netzwerk für verschiedene Arten von Angriffen anfällig ist.
Sicherheit ist nur so stark wie das schwächste Glied. Wenn es um Netzwerke geht, kann Schicht 2 ein sehr schwaches Glied sein. Die in diesem Kapitel erwähnten Layer 2-Sicherheitsmaßnahmen tragen wesentlich zum Schutz eines Netzwerks vor vielen Arten von Angriffen bei.
Die Netzwerkzugriffskontrolle ist eine Methode zur Verbesserung der Sicherheit eines privaten Unternehmensnetzwerks, indem die Verfügbarkeit von Netzwerkressourcen auf Endgeräte beschränkt wird, die den Sicherheitsrichtlinien des Unternehmens entsprechen. Ein typisches Netzwerkzugriffskontrollschema besteht aus zwei Hauptkomponenten, wie z. B. eingeschränktem Zugriff und Netzwerkgrenzenschutz.
Der eingeschränkte Zugriff auf die Netzwerkgeräte wird durch Benutzerauthentifizierung und Autorisierungskontrolle erreicht, die für die Identifizierung und Authentifizierung verschiedener Benutzer im Netzwerksystem verantwortlich sind. Bei der Autorisierung werden bestimmte Zugriffsberechtigungen für eine geschützte Ressource erteilt oder verweigert.
Network Boundary ProtectionSteuert die logische Konnektivität in und aus Netzwerken. Beispielsweise können mehrere Firewalls bereitgestellt werden, um den unbefugten Zugriff auf die Netzwerksysteme zu verhindern. Außerdem können Technologien zur Erkennung und Verhinderung von Eindringlingen eingesetzt werden, um sich gegen Angriffe aus dem Internet zu verteidigen.
In diesem Kapitel werden die Methoden zur Benutzeridentifizierung und -authentifizierung für den Netzwerkzugriff erläutert, gefolgt von verschiedenen Arten von Firewalls und Intrusion Detection-Systemen.
Sichern des Zugriffs auf Netzwerkgeräte
Das Einschränken des Zugriffs auf die Geräte im Netzwerk ist ein sehr wichtiger Schritt zum Sichern eines Netzwerks. Da Netzwerkgeräte sowohl aus Kommunikations- als auch aus Computergeräten bestehen, kann eine Kompromittierung dieser Geräte möglicherweise ein gesamtes Netzwerk und seine Ressourcen zum Erliegen bringen.
Paradoxerweise gewährleisten viele Unternehmen eine hervorragende Sicherheit für ihre Server und Anwendungen, lassen jedoch die Kommunikation von Netzwerkgeräten mit rudimentärer Sicherheit.
Ein wichtiger Aspekt der Sicherheit von Netzwerkgeräten ist die Zugriffskontrolle und Autorisierung. Viele Protokolle wurden entwickelt, um diese beiden Anforderungen zu erfüllen und die Netzwerksicherheit auf ein höheres Niveau zu bringen.
Benutzerauthentifizierung und -autorisierung
Die Benutzerauthentifizierung ist erforderlich, um den Zugriff auf die Netzwerksysteme, insbesondere auf Netzwerkinfrastrukturgeräte, zu steuern. Die Authentifizierung hat zwei Aspekte: allgemeine Zugriffsauthentifizierung und funktionale Autorisierung.
Die allgemeine Zugriffsauthentifizierung ist die Methode, mit der gesteuert wird, ob ein bestimmter Benutzer über ein Zugriffsrecht für das System verfügt, zu dem er eine Verbindung herstellen möchte. Normalerweise ist diese Art des Zugriffs damit verbunden, dass der Benutzer ein „Konto“ bei diesem System hat. Die Autorisierung befasst sich mit einzelnen Benutzerrechten. Beispielsweise wird entschieden, was ein Benutzer nach der Authentifizierung tun kann. Der Benutzer kann berechtigt sein, das Gerät zu konfigurieren oder nur die Daten anzuzeigen.
Die Benutzerauthentifizierung hängt von Faktoren ab, zu denen etwas gehört, das er kennt (Passwort), etwas, das er hat (kryptografisches Token) oder etwas, das er ist (biometrisch). Die Verwendung von mehr als einem Faktor zur Identifizierung und Authentifizierung bildet die Grundlage für die Multifaktorauthentifizierung.
Passwortbasierte Authentifizierung
Auf einer Mindeststufe sollten alle Netzwerkgeräte über eine Authentifizierung mit Benutzername und Kennwort verfügen. Das Passwort sollte nicht trivial sein (mindestens 10 Zeichen, gemischte Alphabete, Zahlen und Symbole).
Im Falle eines Fernzugriffs durch den Benutzer sollte eine Methode verwendet werden, um sicherzustellen, dass Benutzernamen und Kennwörter nicht im Klartext über das Netzwerk weitergegeben werden. Passwörter sollten auch mit einer angemessenen Häufigkeit geändert werden.
Zentralisierte Authentifizierungsmethoden
Das individuelle gerätebasierte Authentifizierungssystem bietet eine grundlegende Zugriffskontrollmaßnahme. Eine zentralisierte Authentifizierungsmethode wird jedoch als effektiver und effizienter angesehen, wenn das Netzwerk über eine große Anzahl von Geräten verfügt und eine große Anzahl von Benutzern auf diese Geräte zugreift.
Traditionell wurde die zentralisierte Authentifizierung verwendet, um Probleme beim Remote-Netzwerkzugriff zu lösen. In RAS-Systemen (Remote Access Systems) ist die Verwaltung von Benutzern auf den Netzwerkgeräten nicht praktikabel. Es ist ein administrativer Albtraum, alle Benutzerinformationen auf allen Geräten zu platzieren und diese Informationen dann auf dem neuesten Stand zu halten.
Zentralisierte Authentifizierungssysteme wie RADIUS und Kerberos lösen dieses Problem. Mit diesen zentralisierten Methoden können Benutzerinformationen an einem Ort gespeichert und verwaltet werden. Diese Systeme können normalerweise nahtlos in andere Benutzerkontenverwaltungsschemata wie Microsoft Active Directory- oder LDAP-Verzeichnisse integriert werden. Die meisten RADIUS-Server können im normalen RADIUS-Protokoll mit anderen Netzwerkgeräten kommunizieren und dann sicher auf die in den Verzeichnissen gespeicherten Kontoinformationen zugreifen.
Beispielsweise verbindet der Internet Authentication Server (IAS) von Microsoft RADIUS und Active Directory, um den Benutzern von Geräten eine zentralisierte Authentifizierung bereitzustellen. Außerdem wird sichergestellt, dass die Benutzerkontoinformationen mit den Microsoft-Domänenkonten vereinheitlicht werden. Das obige Diagramm zeigt einen Windows-Domänencontroller, der sowohl als Active Directory-Server als auch als RADIUS-Server fungiert, damit sich Netzwerkelemente bei einer Active Directory-Domäne authentifizieren können.
Zugriffssteuerungslisten
Viele Netzwerkgeräte können mit Zugriffslisten konfiguriert werden. Diese Listen definieren Hostnamen oder IP-Adressen, die für den Zugriff auf das Gerät berechtigt sind. Es ist beispielsweise typisch, den Zugriff von IPs auf Netzwerkgeräte mit Ausnahme des Netzwerkadministrators einzuschränken.
Dies würde dann vor jeglichem Zugriff schützen, der möglicherweise nicht autorisiert ist. Diese Arten von Zugriffslisten dienen als wichtige letzte Verteidigung und können auf einigen Geräten mit unterschiedlichen Regeln für unterschiedliche Zugriffsprotokolle sehr leistungsfähig sein.
Fast jede mittlere und große Organisation ist im Internet präsent und mit einem Organisationsnetzwerk verbunden. Die Netzwerkpartitionierung an der Grenze zwischen dem externen Internet und dem internen Netzwerk ist für die Netzwerksicherheit von wesentlicher Bedeutung. Manchmal wird das interne Netzwerk (Intranet) als "vertrauenswürdige" Seite und das externe Internet als "nicht vertrauenswürdige" Seite bezeichnet.
Arten von Firewall
Die Firewall ist ein Netzwerkgerät, das das interne Netzwerk des Unternehmens von einem größeren externen Netzwerk / Internet isoliert. Dies kann eine Hardware, Software oder ein kombiniertes System sein, das den unbefugten Zugriff auf oder von einem internen Netzwerk verhindert.
Alle Datenpakete, die in das interne Netzwerk eintreten oder dieses verlassen, durchlaufen die Firewall, die jedes Paket untersucht und diejenigen blockiert, die die angegebenen Sicherheitskriterien nicht erfüllen.
Das Bereitstellen einer Firewall an der Netzwerkgrenze entspricht dem Zusammenfassen der Sicherheit an einem einzigen Punkt. Es ist analog zum Abschließen einer Wohnung am Eingang und nicht unbedingt an jeder Tür.
Die Firewall wird aus folgenden Gründen als wesentliches Element zur Erreichung der Netzwerksicherheit angesehen:
Es ist unwahrscheinlich, dass das interne Netzwerk und die Hosts ordnungsgemäß gesichert sind.
Das Internet ist ein gefährlicher Ort für Kriminelle, Benutzer konkurrierender Unternehmen, verärgerte Ex-Mitarbeiter, Spione aus unfreundlichen Ländern, Vandalen usw.
Um zu verhindern, dass ein Angreifer Denial-of-Service-Angriffe auf Netzwerkressourcen startet.
Verhinderung der illegalen Änderung / des Zugriffs eines externen Angreifers auf interne Daten.
Die Firewall ist in drei Grundtypen unterteilt:
- Paketfilter (Stateless & Stateful)
- Gateway auf Anwendungsebene
- Gateway auf Schaltungsebene
Diese drei Kategorien schließen sich jedoch nicht gegenseitig aus. Moderne Firewalls verfügen über eine Mischung von Fähigkeiten, die sie in mehr als eine der drei Kategorien einordnen können.
Stateless & Stateful Packet Filtering Firewall
Bei dieser Art der Firewall-Bereitstellung ist das interne Netzwerk über eine Router-Firewall mit dem externen Netzwerk / Internet verbunden. Die Firewall überprüft und filtert Daten Paket für Paket.
Packet-filtering firewalls Zulassen oder Blockieren der Pakete hauptsächlich anhand von Kriterien wie Quell- und / oder Ziel-IP-Adressen, Protokoll-, Quell- und / oder Zielportnummern und verschiedenen anderen Parametern im IP-Header.
Die Entscheidung kann auf anderen Faktoren als IP-Header-Feldern wie ICMP-Nachrichtentyp, TCP-SYN- und ACK-Bits usw. basieren.
Die Paketfilterregel besteht aus zwei Teilen -
Selection criteria - Es wird als Bedingung und Musterabgleich für die Entscheidungsfindung verwendet.
Action field- Dieser Teil gibt die Aktion an, die ausgeführt werden soll, wenn ein IP-Paket die Auswahlkriterien erfüllt. Die Aktion kann entweder das Paket über die Firewall blockieren (verweigern) oder zulassen (zulassen).
Die Paketfilterung erfolgt im Allgemeinen durch Konfigurieren von Zugriffssteuerungslisten (ACL) auf Routern oder Switches. ACL ist eine Tabelle mit Paketfilterregeln.
Wenn Datenverkehr in eine Schnittstelle eintritt oder diese verlässt, wendet die Firewall ACLs von oben nach unten auf jedes eingehende Paket an, findet Übereinstimmungskriterien und lässt die einzelnen Pakete entweder zu oder verweigert sie.
Stateless firewallist eine Art starres Werkzeug. Es prüft das Paket und erlaubt es, wenn es die Kriterien erfüllt, auch wenn es nicht Teil einer etablierten laufenden Kommunikation ist.
Daher werden solche Firewalls durch ersetzt stateful firewallsin modernen Netzwerken. Diese Art von Firewalls bietet eine detailliertere Inspektionsmethode als die einzigen ACL-basierten Paketinspektionsmethoden für zustandslose Firewalls.
Die Stateful Firewall überwacht den Verbindungsaufbau und den Verbindungsabbau, um die Verbindungen auf TCP / IP-Ebene zu überprüfen. Auf diese Weise können sie den Verbindungsstatus verfolgen und feststellen, auf welchen Hosts zu einem bestimmten Zeitpunkt offene, autorisierte Verbindungen bestehen.
Sie verweisen nur dann auf die Regelbasis, wenn eine neue Verbindung angefordert wird. Zu vorhandenen Verbindungen gehörende Pakete werden mit der Statustabelle der Firewall für offene Verbindungen verglichen, und es wird entschieden, ob sie zugelassen oder blockiert werden sollen. Dieser Vorgang spart Zeit und bietet zusätzliche Sicherheit. Kein Paket darf die Firewall betreten, es sei denn, es gehört zu einer bereits hergestellten Verbindung. Inaktive Verbindungen an der Firewall können zeitlich begrenzt werden. Danach werden keine Pakete mehr für diese Verbindung zugelassen.
Anwendungsgateways
Ein Gateway auf Anwendungsebene fungiert als Relay-Knoten für den Datenverkehr auf Anwendungsebene. Sie fangen eingehende und ausgehende Pakete ab, führen Proxys aus, die Informationen über das Gateway kopieren und weiterleiten, und fungieren alsproxy serverDies verhindert jegliche direkte Verbindung zwischen einem vertrauenswürdigen Server oder Client und einem nicht vertrauenswürdigen Host.
Die Proxys sind anwendungsspezifisch. Sie können Pakete auf der Anwendungsschicht des OSI-Modells filtern.
Anwendungsspezifische Proxies
Ein anwendungsspezifischer Proxy akzeptiert Pakete, die nur von einer bestimmten Anwendung generiert wurden, für die sie zum Kopieren, Weiterleiten und Filtern bestimmt sind. Beispielsweise kann nur ein Telnet-Proxy Telnet-Verkehr kopieren, weiterleiten und filtern.
Wenn ein Netzwerk nur auf einem Gateway auf Anwendungsebene basiert, können eingehende und ausgehende Pakete nicht auf Dienste zugreifen, für die keine Proxys konfiguriert sind. Wenn auf einem Gateway beispielsweise FTP- und Telnet-Proxys ausgeführt werden, können nur von diesen Diensten generierte Pakete die Firewall passieren. Alle anderen Dienste sind gesperrt.
Filterung auf Anwendungsebene
Ein Proxy-Gateway auf Anwendungsebene untersucht und filtert einzelne Pakete, anstatt sie einfach zu kopieren und blind über das Gateway weiterzuleiten. Anwendungsspezifische Proxys überprüfen jedes Paket, das das Gateway durchläuft, und überprüfen den Inhalt des Pakets über die Anwendungsschicht. Diese Proxys können bestimmte Arten von Befehlen oder Informationen in den Anwendungsprotokollen filtern.
Anwendungsgateways können die Ausführung bestimmter Aktionen einschränken. Beispielsweise könnte das Gateway so konfiguriert werden, dass Benutzer den Befehl 'FTP put' nicht ausführen können. Dies kann verhindern, dass ein Angreifer die auf dem Server gespeicherten Informationen ändert.
Transparent
Obwohl Gateways auf Anwendungsebene transparent sein können, erfordern viele Implementierungen eine Benutzerauthentifizierung, bevor Benutzer auf ein nicht vertrauenswürdiges Netzwerk zugreifen können. Dieser Prozess verringert die tatsächliche Transparenz. Die Authentifizierung kann unterschiedlich sein, wenn der Benutzer aus dem internen Netzwerk oder aus dem Internet stammt. Für ein internes Netzwerk kann eine einfache Liste von IP-Adressen zugelassen werden, um eine Verbindung zu externen Anwendungen herzustellen. Von der Internetseite sollte jedoch eine starke Authentifizierung implementiert werden.
Ein Anwendungsgateway leitet tatsächlich TCP-Segmente zwischen den beiden TCP-Verbindungen in die beiden Richtungen weiter (Client, Proxy, Server).
Bei ausgehenden Paketen kann das Gateway die Quell-IP-Adresse durch seine eigene IP-Adresse ersetzen. Der Prozess wird als Network Address Translation (NAT) bezeichnet. Es stellt sicher, dass interne IP-Adressen nicht dem Internet ausgesetzt sind.
Gateway auf Schaltungsebene
Das Gateway auf Leitungsebene ist eine Zwischenlösung zwischen dem Paketfilter und dem Anwendungsgateway. Es wird auf der Transportschicht ausgeführt und kann daher als Proxy für jede Anwendung fungieren.
Ähnlich wie bei einem Anwendungs-Gateway erlaubt auch das Gateway auf Leitungsebene keine End-to-End-TCP-Verbindung über das Gateway. Es baut zwei TCP-Verbindungen auf und leitet die TCP-Segmente von einem Netzwerk zum anderen weiter. Die Anwendungsdaten wie das Anwendungsgateway werden jedoch nicht untersucht. Daher wird es manchmal als "Pipe Proxy" bezeichnet.
Socken
SOCKS (RFC 1928) bezieht sich auf ein Gateway auf Schaltungsebene. Es handelt sich um einen Netzwerk-Proxy-Mechanismus, mit dem Hosts auf der einen Seite eines SOCKS-Servers vollen Zugriff auf Hosts auf der anderen Seite erhalten, ohne dass eine direkte IP-Erreichbarkeit erforderlich ist. Der Client stellt an der Firewall eine Verbindung zum SOCKS-Server her. Anschließend gibt der Client eine Aushandlung für die zu verwendende Authentifizierungsmethode ein und authentifiziert sich mit der ausgewählten Methode.
Der Client sendet eine Verbindungsweiterleitungsanforderung an den SOCKS-Server, die die gewünschte Ziel-IP-Adresse und den gewünschten Transportport enthält. Der Server akzeptiert die Anforderung, nachdem er überprüft hat, ob der Client die grundlegenden Filterkriterien erfüllt. Anschließend stellt das Gateway im Namen des Clients eine Verbindung zum angeforderten nicht vertrauenswürdigen Host her und überwacht das folgende TCP-Handshake genau.
Der SOCKS-Server informiert den Client und leitet im Erfolgsfall die Daten zwischen den beiden Verbindungen weiter. Gateways auf Schaltungsebene werden verwendet, wenn die Organisation den internen Benutzern vertraut und die im Internet gesendeten Inhalte oder Anwendungsdaten nicht überprüfen möchte.
Firewall-Bereitstellung mit DMZ
Eine Firewall ist ein Mechanismus, mit dem der Netzwerkverkehr in ein organisationsinternes Netzwerk hinein und aus diesem heraus gesteuert wird. In den meisten Fällen verfügen diese Systeme über zwei Netzwerkschnittstellen, eine für das externe Netzwerk wie das Internet und die andere für die interne Seite.
Der Firewall-Prozess kann genau steuern, was von einer Seite zur anderen durchlaufen darf. Eine Organisation, die externen Zugriff auf ihren Webserver gewähren möchte, kann den gesamten an der Firewall erwarteten Datenverkehr für Port 80 (den Standard-http-Port) einschränken. Der gesamte andere Datenverkehr wie E-Mail-Verkehr, FTP, SNMP usw. ist über die Firewall nicht in das interne Netzwerk zulässig. Ein Beispiel für eine einfache Firewall ist in der folgenden Abbildung dargestellt.
In der obigen einfachen Bereitstellung kann ein Angreifer, obwohl alle anderen Zugriffe von außen blockiert sind, nicht nur einen Webserver, sondern jeden anderen Host im internen Netzwerk kontaktieren, der Port 80 versehentlich oder auf andere Weise offen gelassen hat.
Daher besteht das Problem, mit dem die meisten Unternehmen konfrontiert sind, darin, einen legitimen Zugriff auf öffentliche Dienste wie Web, FTP und E-Mail zu ermöglichen und gleichzeitig die Sicherheit des internen Netzwerks zu gewährleisten. Der typische Ansatz besteht darin, Firewalls bereitzustellen, um eine demilitarisierte Zone (DMZ) im Netzwerk bereitzustellen.
In diesem Setup (in der folgenden Abbildung dargestellt) werden zwei Firewalls bereitgestellt. eine zwischen dem externen Netzwerk und der DMZ und eine andere zwischen der DMZ und dem internen Netzwerk. Alle öffentlichen Server befinden sich in der DMZ.
Mit diesem Setup können Firewall-Regeln festgelegt werden, die den öffentlichen Zugriff auf die öffentlichen Server ermöglichen. Die interne Firewall kann jedoch alle eingehenden Verbindungen einschränken. Durch die DMZ erhalten die öffentlichen Server einen angemessenen Schutz, anstatt sie direkt in einem externen Netzwerk zu platzieren.
Intrusion Detection / Prevention System
Die Paketfilter-Firewalls basieren auf Regeln, die nur TCP / UDP / IP-Header betreffen. Sie versuchen nicht, Korrelationsprüfungen zwischen verschiedenen Sitzungen einzurichten.
Das Intrusion Detection / Prevention System (IDS / IPS) führt eine Deep Packet Inspection (DPI) durch, indem es den Paketinhalt betrachtet. Wenn Sie beispielsweise Zeichenfolgen im Paket mit der Datenbank bekannter Viren vergleichen, greifen Sie Zeichenfolgen an.
Anwendungsgateways überprüfen den Paketinhalt, jedoch nur für bestimmte Anwendungen. Sie suchen nicht nach verdächtigen Daten im Paket. IDS / IPS sucht nach verdächtigen Daten in Paketen und versucht, die Korrelation zwischen mehreren Paketen zu untersuchen, um Angriffe wie Port-Scanning, Netzwerkzuordnung und Denial-of-Service usw. zu identifizieren.
Unterschied zwischen IDS und IPS
IDS und IPS sind bei der Erkennung von Anomalien im Netzwerk ähnlich. IDS ist ein Sichtbarkeitstool, während IPS als Kontrollwerkzeug betrachtet wird.
Intrusion Detection-Systeme sitzen an der Seite des Netzwerks, überwachen den Datenverkehr an vielen verschiedenen Punkten und bieten Einblick in den Sicherheitsstatus des Netzwerks. Bei der Meldung von Anomalien durch IDS werden die Korrekturmaßnahmen vom Netzwerkadministrator oder einem anderen Gerät im Netzwerk eingeleitet.
Intrusion Prevention System ist wie eine Firewall und befindet sich zwischen zwei Netzwerken und steuert den durch sie fließenden Datenverkehr. Es erzwingt eine bestimmte Richtlinie zur Erkennung von Anomalien im Netzwerkverkehr. Im Allgemeinen werden alle Pakete verworfen und der gesamte Netzwerkverkehr blockiert, wenn eine Anomalie festgestellt wird, bis eine Anomalie vom Administrator behoben wird.
Arten von IDS
Es gibt zwei grundlegende Arten von IDS.
Signature-based IDS
Es benötigt eine Datenbank bekannter Angriffe mit ihren Signaturen.
Die Signatur wird durch die Art und Reihenfolge der Pakete definiert, die einen bestimmten Angriff charakterisieren.
Die Einschränkung dieses IDS-Typs besteht darin, dass nur bekannte Angriffe erkannt werden können. Dieses IDS kann auch einen Fehlalarm auslösen. Ein Fehlalarm kann auftreten, wenn ein normaler Paketstrom mit der Signatur eines Angriffs übereinstimmt.
Ein bekanntes öffentliches Open-Source-IDS-Beispiel ist "Snort" -IDS.
Anomaly-based IDS
Diese Art von IDS erzeugt ein Verkehrsmuster des normalen Netzwerkbetriebs.
Im IDS-Modus werden Verkehrsmuster untersucht, die statistisch ungewöhnlich sind. Zum Beispiel ungewöhnliche ICMP-Belastung, exponentielles Wachstum bei Port-Scans usw.
Das Erkennen eines ungewöhnlichen Verkehrsmusters erzeugt den Alarm.
Die größte Herausforderung bei dieser Art der IDS-Bereitstellung besteht in der Schwierigkeit, zwischen normalem und ungewöhnlichem Verkehr zu unterscheiden.
Zusammenfassung
In diesem Kapitel haben wir die verschiedenen Mechanismen für die Netzwerkzugriffskontrolle erörtert. Der Ansatz zur Netzwerksicherheit durch Zugriffskontrolle unterscheidet sich technisch von der Implementierung von Sicherheitskontrollen auf verschiedenen Netzwerkebenen, die in den früheren Kapiteln dieses Lernprogramms erläutert wurden. Obwohl die Implementierungsansätze unterschiedlich sind, ergänzen sie sich gegenseitig.
Die Netzwerkzugriffskontrolle besteht aus zwei Hauptkomponenten: Benutzerauthentifizierung und Schutz der Netzwerkgrenzen. RADIUS ist ein beliebter Mechanismus zur Bereitstellung einer zentralen Authentifizierung im Netzwerk.
Die Firewall bietet Schutz der Netzwerkgrenzen, indem ein internes Netzwerk vom öffentlichen Internet getrennt wird. Die Firewall kann auf verschiedenen Ebenen des Netzwerkprotokolls funktionieren. Mit IDS / IPS können die Anomalien im Netzwerkverkehr überwacht werden, um den Angriff zu erkennen und vorbeugende Maßnahmen gegen diesen zu ergreifen.
Information und effiziente Kommunikation sind zwei der wichtigsten strategischen Themen für den Erfolg jedes Unternehmens. Mit dem Aufkommen elektronischer Kommunikations- und Speichermittel haben immer mehr Unternehmen Datennetze verwendet, um zu kommunizieren, Informationen zu speichern und Ressourcen zu erhalten. Es gibt verschiedene Arten und Ebenen von Netzwerkinfrastrukturen, die für den Geschäftsbetrieb verwendet werden.
Es kann festgestellt werden, dass in der modernen Welt nichts einen größeren Einfluss auf Unternehmen hatte als die vernetzten Computer. Die Vernetzung bringt jedoch Sicherheitsbedrohungen mit sich, die, wenn sie gemindert werden, die Vorteile der Vernetzung gegenüber den Risiken überwiegen lassen.
Rolle des Netzwerks in der Wirtschaft
Heutzutage werden Computernetzwerke von fast allen Unternehmen als Ressource angesehen. Diese Ressource ermöglicht es ihnen, Informationen zu sammeln, zu analysieren, zu organisieren und zu verbreiten, die für ihre Rentabilität wesentlich sind. Die meisten Unternehmen haben Netzwerke installiert, um wettbewerbsfähig zu bleiben.
Die offensichtlichste Rolle von Computernetzwerken besteht darin, dass Unternehmen praktisch alle Arten von Informationen an einem zentralen Ort speichern und über das Netzwerk am gewünschten Ort abrufen können.
Vorteile von Netzwerken
Mithilfe von Computernetzwerken können Benutzer Informationen und Ideen einfach austauschen, um effizienter und produktiver arbeiten zu können. Netzwerke verbessern Aktivitäten wie Einkauf, Verkauf und Kundenservice. Durch die Vernetzung werden herkömmliche Geschäftsprozesse effizienter, übersichtlicher und kostengünstiger.
Die Hauptvorteile, die ein Unternehmen aus Computernetzwerken zieht, sind:
Resource sharing - Ein Unternehmen kann die Ausgaben für Hardware reduzieren, indem es Komponenten und Peripheriegeräte gemeinsam nutzt, die mit dem Netzwerk verbunden sind.
Streamlined business processes - Computernetzwerke ermöglichen es Unternehmen, ihre internen Geschäftsprozesse zu optimieren.
Collaboration among departments - Wenn zwei oder mehr Geschäftsabteilungen ausgewählte Teile ihres Netzwerks miteinander verbinden, können sie Geschäftsprozesse rationalisieren, die normalerweise übermäßig viel Zeit und Mühe kosten und häufig Schwierigkeiten bei der Erzielung einer höheren Produktivität bereiten.
Improved Customer Relations - Netzwerke bieten Kunden viele Vorteile wie Geschäftskomfort, schnelle Servicereaktion usw.
Es gibt viele andere geschäftsspezifische Vorteile, die sich aus der Vernetzung ergeben. Aufgrund dieser Vorteile ist es für alle Arten von Unternehmen unerlässlich, Computernetzwerke einzuführen.
Notwendigkeit für die Netzwerksicherheit
Die Bedrohungen für drahtgebundene oder drahtlose Netzwerke haben aufgrund des Fortschritts der modernen Technologie mit wachsender Kapazität von Computernetzwerken erheblich zugenommen. Die überwältigende Nutzung des Internets in der heutigen Welt für verschiedene Geschäftstransaktionen hat den Informationsdiebstahl und andere Angriffe auf geistige Vermögenswerte von Unternehmen vor Herausforderungen gestellt.
In der heutigen Zeit werden die meisten Geschäfte über Netzwerkanwendungen abgewickelt, und daher besteht für alle Netzwerke die Gefahr, angegriffen zu werden. Die häufigsten Sicherheitsbedrohungen für das Unternehmensnetzwerk sind Abfangen und Diebstahl von Daten sowie Identitätsdiebstahl.
Die Netzwerksicherheit ist ein Spezialgebiet, das sich mit der Abwehr solcher Bedrohungen und dem Schutz der Benutzerfreundlichkeit, Zuverlässigkeit, Integrität und Sicherheit der Computernetzwerkinfrastruktur eines Unternehmens befasst.
Bedeutung der Netzwerksicherheit für Unternehmen
Protecting Business Assets- Dies ist das Hauptziel der Netzwerksicherheit. Assets sind die Informationen, die in den Computernetzwerken gespeichert sind. Informationen sind genauso wichtig und wertvoll wie alle anderen materiellen Vermögenswerte des Unternehmens. Die Netzwerksicherheit befasst sich mit der Integrität, dem Schutz und dem sicheren Zugriff auf vertrauliche Informationen.
Compliance with Regulatory Requirements - Netzwerksicherheitsmaßnahmen helfen Unternehmen, behördliche und branchenspezifische Vorschriften zur Informationssicherheit einzuhalten.
Secure Collaborative Working- Die Netzwerksicherheit fördert die Zusammenarbeit mit Mitarbeitern und erleichtert die Kommunikation mit Kunden und Lieferanten, indem ihnen ein sicherer Netzwerkzugriff angeboten wird. Dies stärkt das Vertrauen von Kunden und Verbrauchern, dass ihre sensiblen Informationen geschützt sind.
Reduced Risk - Die Einführung der Netzwerksicherheit verringert die Auswirkungen von Sicherheitsverletzungen, einschließlich rechtlicher Schritte, die kleine Unternehmen bankrott machen können.
Gaining Competitive Advantage- Die Entwicklung eines effektiven Sicherheitssystems für Netzwerke verschafft einer Organisation einen Wettbewerbsvorteil. Im Bereich Internet-Finanzdienstleistungen und E-Commerce spielt die Netzwerksicherheit eine herausragende Rolle.