Sicurezza di rete - Guida rapida
In questa era moderna, le organizzazioni fanno molto affidamento sulle reti di computer per condividere le informazioni in tutta l'organizzazione in modo efficiente e produttivo. Le reti informatiche organizzative stanno diventando grandi e onnipresenti. Supponendo che ogni membro del personale abbia una workstation dedicata, un'azienda su larga scala avrebbe poche migliaia di workstation e molti server sulla rete.
È probabile che queste workstation potrebbero non essere gestite centralmente, né avrebbero una protezione perimetrale. Possono avere una varietà di sistemi operativi, hardware, software e protocolli, con diversi livelli di consapevolezza informatica tra gli utenti. Ora immagina, queste migliaia di postazioni di lavoro sulla rete aziendale sono collegate direttamente a Internet. Questo tipo di rete non protetta diventa un obiettivo per un attacco che contiene informazioni preziose e mostra le vulnerabilità.
In questo capitolo vengono descritte le principali vulnerabilità della rete e l'importanza della sicurezza della rete. Nei capitoli successivi, discuteremo i metodi per ottenere lo stesso risultato.
Rete fisica
Una rete è definita come due o più dispositivi informatici collegati insieme per condividere le risorse in modo efficiente. Inoltre, il collegamento di due o più reti insieme è noto comeinternetworking. Pertanto, Internet è solo una internetwork, una raccolta di reti interconnesse.
Per configurare la propria rete interna, un'organizzazione ha diverse opzioni. Può utilizzare una rete cablata o una rete wireless per connettere tutte le workstation. Al giorno d'oggi, le organizzazioni utilizzano principalmente una combinazione di reti cablate e wireless.
Reti cablate e wireless
In una rete cablata, i dispositivi sono collegati tra loro tramite cavi. In genere, le reti cablate si basano sul protocollo Ethernet in cui i dispositivi sono collegati utilizzando i cavi UTP (Unshielded Twisted Pair) ai diversi switch. Questi switch sono ulteriormente collegati al router di rete per l'accesso a Internet.
Nella rete wireless, il dispositivo è connesso a un punto di accesso tramite trasmissioni radio. I punti di accesso sono inoltre collegati tramite cavi a switch / router per l'accesso alla rete esterna.
Le reti wireless hanno guadagnato popolarità grazie alla mobilità offerta da loro. I dispositivi mobili non devono essere collegati a un cavo e possono muoversi liberamente all'interno della portata della rete wireless. Ciò garantisce una condivisione efficiente delle informazioni e aumenta la produttività.
Vulnerabilità e attacchi
La vulnerabilità comune che esiste nelle reti cablate e wireless è un "accesso non autorizzato" a una rete. Un utente malintenzionato può connettere il suo dispositivo a una rete tramite una porta hub / switch non sicura. A questo proposito, le reti wireless sono considerate meno sicure della rete cablata, perché la rete wireless è facilmente accessibile senza alcuna connessione fisica.
Dopo l'accesso, un utente malintenzionato può sfruttare questa vulnerabilità per lanciare attacchi come:
Annusare i dati del pacchetto per rubare informazioni preziose.
Denial of service agli utenti legittimi su una rete inondando il supporto di rete con pacchetti spuri.
Spoofing delle identità fisiche (MAC) di host legittimi e quindi il furto di dati o il lancio ulteriore di un attacco "man-in-the-middle".
Protocollo di rete
Il protocollo di rete è un insieme di regole che regolano le comunicazioni tra i dispositivi connessi su una rete. Includono meccanismi per effettuare connessioni, nonché regole di formattazione per il confezionamento dei dati per i messaggi inviati e ricevuti.
Sono stati sviluppati diversi protocolli di rete di computer, ciascuno progettato per scopi specifici. I protocolli popolari e ampiamente utilizzati sono TCP / IP con i protocolli associati di livello superiore e inferiore.
Protocollo TCP / IP
Transmission Control Protocol (TCP) e Internet Protocol(IP) sono due distinti protocolli di rete di computer utilizzati principalmente insieme. A causa della loro popolarità e dell'ampia adozione, sono integrati in tutti i sistemi operativi dei dispositivi in rete.
L'IP corrisponde al livello di rete (livello 3) mentre il protocollo TCP corrisponde al livello di trasporto (livello 4) in OSI. TCP / IP si applica alle comunicazioni di rete in cui il trasporto TCP viene utilizzato per fornire dati su reti IP.
I protocolli TCP / IP sono comunemente usati con altri protocolli come HTTP, FTP, SSH a livello di applicazione ed Ethernet a livello di collegamento dati / fisico.
La suite di protocolli TCP / IP è stata creata nel 1980 come soluzione di internetworking con pochissime preoccupazioni per gli aspetti di sicurezza.
È stato sviluppato per una comunicazione nella rete fidata limitata. Tuttavia, per un periodo, questo protocollo è diventato lo standard de facto per le comunicazioni Internet non protette.
Alcune delle vulnerabilità di sicurezza comuni delle tute del protocollo TCP / IP sono:
HTTP è un protocollo a livello di applicazione nella suite TCP / IP utilizzato per trasferire i file che compongono le pagine web dai server web. Questi trasferimenti vengono eseguiti in testo normale e un intruso può leggere facilmente i pacchetti di dati scambiati tra il server e un client.
Un'altra vulnerabilità HTTP è un'autenticazione debole tra il client e il server Web durante l'inizializzazione della sessione. Questa vulnerabilità può portare a un attacco di dirottamento della sessione in cui l'autore dell'attacco ruba una sessione HTTP dell'utente legittimo.
La vulnerabilità del protocollo TCP è l'handshake a tre vie per la creazione della connessione. Un utente malintenzionato può lanciare un attacco Denial of Service "SYN-flooding" per sfruttare questa vulnerabilità. Stabilisce molte sessioni semiaperte non completando la stretta di mano. Ciò porta al sovraccarico del server e alla fine a un arresto anomalo.
Il livello IP è suscettibile a molte vulnerabilità. Attraverso una modifica dell'intestazione del protocollo IP, un utente malintenzionato può lanciare un attacco di spoofing IP.
Oltre a quanto sopra menzionato, esistono molte altre vulnerabilità di sicurezza nella famiglia di protocolli TCP / IP nella progettazione e nella sua implementazione.
Per inciso, nella comunicazione di rete basata su TCP / IP, se un livello viene violato, gli altri livelli non vengono a conoscenza dell'hacking e l'intera comunicazione viene compromessa. Quindi, è necessario impiegare controlli di sicurezza a ogni livello per garantire una sicurezza infallibile.
Protocollo DNS
Domain Name System(DNS) viene utilizzato per risolvere i nomi di dominio host in indirizzi IP. Gli utenti della rete dipendono dalla funzionalità DNS principalmente durante la navigazione in Internet digitando un URL nel browser web.
In un attacco al DNS, lo scopo di un utente malintenzionato è modificare un record DNS legittimo in modo che venga risolto in un indirizzo IP errato. Può indirizzare tutto il traffico per quell'IP al computer sbagliato. Un utente malintenzionato può sfruttare la vulnerabilità del protocollo DNS o compromettere il server DNS per materializzare un attacco.
DNS cache poisoningè un attacco che sfrutta una vulnerabilità rilevata nel protocollo DNS. Un utente malintenzionato può avvelenare la cache falsificando una risposta a una query DNS ricorsiva inviata da un risolutore a un server autorevole. Una volta che la cache del resolver DNS viene avvelenata, l'host verrà indirizzato a un sito Web dannoso e potrebbe compromettere le informazioni sulle credenziali tramite la comunicazione a questo sito.
Protocollo ICMP
Internet Control Management Protocol(ICMP) è un protocollo di gestione della rete di base delle reti TCP / IP. Viene utilizzato per inviare messaggi di errore e di controllo relativi allo stato dei dispositivi collegati in rete.
ICMP è parte integrante dell'implementazione della rete IP e quindi è presente nella configurazione della rete stessa. L'ICMP ha le sue vulnerabilità e può essere utilizzato in modo improprio per lanciare un attacco a una rete.
Gli attacchi comuni che possono verificarsi su una rete a causa delle vulnerabilità ICMP sono:
ICMP consente a un utente malintenzionato di eseguire la ricognizione della rete per determinare la topologia di rete e i percorsi nella rete. La scansione ICMP implica la scoperta di tutti gli indirizzi IP host che sono attivi nell'intera rete di destinazione.
Trace route è una popolare utility ICMP utilizzata per mappare la rete di destinazione descrivendo il percorso in tempo reale dal client all'host remoto.
Un utente malintenzionato può lanciare un attacco Denial of Service utilizzando la vulnerabilità ICMP. Questo attacco comporta l'invio di pacchetti ping IPMP che superano i 65.535 byte al dispositivo di destinazione. Il computer di destinazione non riesce a gestire correttamente questo pacchetto e può causare il blocco del sistema operativo.
Anche altri protocolli come ARP, DHCP, SMTP, ecc. Hanno le loro vulnerabilità che possono essere sfruttate dall'aggressore per compromettere la sicurezza della rete. Discuteremo alcune di queste vulnerabilità nei capitoli successivi.
La minima preoccupazione per l'aspetto della sicurezza durante la progettazione e l'implementazione dei protocolli si è trasformata in una delle principali cause di minacce alla sicurezza della rete.
Obiettivi della sicurezza di rete
Come discusso nelle sezioni precedenti, esiste un gran numero di vulnerabilità nella rete. Pertanto, durante la trasmissione, i dati sono altamente vulnerabili agli attacchi. Un malintenzionato può prendere di mira il canale di comunicazione, ottenere i dati e leggere gli stessi o reinserire un falso messaggio per raggiungere i suoi nefandi scopi.
La sicurezza della rete non riguarda solo la sicurezza dei computer a ciascuna estremità della catena di comunicazione; tuttavia, mira a garantire che l'intera rete sia sicura.
La sicurezza della rete implica la protezione dell'usabilità, dell'affidabilità, dell'integrità e della sicurezza della rete e dei dati. Una sicurezza di rete efficace sconfigge una varietà di minacce dall'ingresso o dalla diffusione su una rete.
L'obiettivo principale della sicurezza di rete sono la riservatezza, l'integrità e la disponibilità. Questi tre pilastri della sicurezza di rete sono spesso rappresentati comeCIA triangle.
Confidentiality- La funzione della riservatezza è proteggere i preziosi dati aziendali da persone non autorizzate. La parte riservata alla sicurezza della rete garantisce che i dati siano disponibili solo per le persone designate e autorizzate.
Integrity- Questo obiettivo significa mantenere e garantire l'accuratezza e la coerenza dei dati. La funzione dell'integrità è assicurarsi che i dati siano affidabili e non vengano modificati da persone non autorizzate.
Availability - La funzione di disponibilità in Network Security è di garantire che i dati, le risorse / servizi di rete siano continuamente disponibili agli utenti legittimi, ogni volta che lo richiedono.
Raggiungere la sicurezza della rete
Garantire la sicurezza della rete può sembrare molto semplice. Gli obiettivi da raggiungere sembrano essere semplici. Ma in realtà, i meccanismi utilizzati per raggiungere questi obiettivi sono molto complessi e comprenderli richiede un ragionamento valido.
International Telecommunication Union(ITU), nella sua raccomandazione sull'architettura di sicurezza X.800, ha definito alcuni meccanismi per portare la standardizzazione nei metodi per ottenere la sicurezza della rete. Alcuni di questi meccanismi sono:
En-cipherment- Questo meccanismo fornisce servizi di riservatezza dei dati trasformando i dati in forme non leggibili per le persone non autorizzate. Questo meccanismo utilizza l'algoritmo di crittografia-decrittografia con chiavi segrete.
Digital signatures- Questo meccanismo è l'equivalente elettronico delle firme ordinarie nei dati elettronici. Fornisce l'autenticità dei dati.
Access control- Questo meccanismo viene utilizzato per fornire servizi di controllo degli accessi. Questi meccanismi possono utilizzare l'identificazione e l'autenticazione di un'entità per determinare e applicare i diritti di accesso dell'entità.
Avendo sviluppato e identificato vari meccanismi di sicurezza per ottenere la sicurezza della rete, è essenziale decidere dove applicarli; sia fisicamente (in quale posizione) che logicamente (a quale livello di un'architettura come TCP / IP).
Meccanismi di sicurezza a livello di rete
Diversi meccanismi di sicurezza sono stati sviluppati in modo tale da poter essere sviluppati a un livello specifico del modello del livello di rete OSI.
Security at Application Layer- Le misure di sicurezza utilizzate a questo livello sono specifiche dell'applicazione. Diversi tipi di applicazione richiederebbero misure di sicurezza separate. Per garantire la sicurezza a livello di applicazione, le applicazioni devono essere modificate.
Si ritiene che progettare un protocollo applicativo crittograficamente valido sia molto difficile e implementarlo correttamente è ancora più impegnativo. Pertanto, si preferisce che i meccanismi di sicurezza a livello di applicazione per proteggere le comunicazioni di rete siano solo soluzioni basate su standard che sono in uso da tempo.
Un esempio di protocollo di sicurezza a livello di applicazione è S / MIME (Secure Multipurpose Internet Mail Extensions), comunemente utilizzato per crittografare i messaggi di posta elettronica. DNSSEC è un altro protocollo a questo livello utilizzato per lo scambio sicuro di messaggi di query DNS.
Security at Transport Layer- Le misure di sicurezza a questo livello possono essere utilizzate per proteggere i dati in una singola sessione di comunicazione tra due host. L'utilizzo più comune dei protocolli di sicurezza del livello di trasporto è la protezione del traffico delle sessioni HTTP e FTP. I protocolli Transport Layer Security (TLS) e Secure Socket Layer (SSL) sono i più comuni utilizzati a questo scopo.
Network Layer- Le misure di sicurezza a questo livello possono essere applicate a tutte le applicazioni; quindi, non sono specifici dell'applicazione. Tutte le comunicazioni di rete tra due host o reti possono essere protette a questo livello senza modificare alcuna applicazione. In alcuni ambienti, il protocollo di sicurezza a livello di rete come IPsec (Internet Protocol Security) fornisce una soluzione molto migliore rispetto ai controlli a livello di trasporto o applicazione a causa delle difficoltà nell'aggiunta di controlli alle singole applicazioni. Tuttavia, i protocolli di sicurezza a questo livello forniscono una minore flessibilità di comunicazione che potrebbe essere richiesta da alcune applicazioni.
Per inciso, un meccanismo di sicurezza progettato per operare a un livello superiore non può fornire protezione per i dati a livelli inferiori, perché i livelli inferiori svolgono funzioni di cui i livelli superiori non sono consapevoli. Pertanto, potrebbe essere necessario implementare più meccanismi di sicurezza per migliorare la sicurezza della rete.
Nei seguenti capitoli del tutorial, discuteremo i meccanismi di sicurezza impiegati a diversi livelli dell'architettura di rete OSI per ottenere la sicurezza di rete.
Vari servizi aziendali sono ora offerti online tramite applicazioni client-server. I moduli più popolari sono l'applicazione web e la posta elettronica. In entrambe le applicazioni, il client comunica con il server designato e ottiene i servizi.
Durante l'utilizzo di un servizio da qualsiasi applicazione server, il client e il server si scambiano molte informazioni sulla Intranet o Internet sottostante. Siamo consapevoli del fatto che queste transazioni di informazioni sono vulnerabili a vari attacchi.
La sicurezza della rete implica la protezione dei dati dagli attacchi mentre sono in transito su una rete. Per raggiungere questo obiettivo, sono stati progettati molti protocolli di sicurezza in tempo reale. Tale protocollo deve fornire almeno i seguenti obiettivi primari:
- Le parti possono negoziare in modo interattivo per autenticarsi a vicenda.
- Stabilire una chiave di sessione segreta prima di scambiare informazioni sulla rete.
- Scambia le informazioni in forma crittografata.
È interessante notare che questi protocolli funzionano a diversi livelli del modello di rete. Ad esempio, il protocollo S / MIME funziona a livello di applicazione, il protocollo SSL è sviluppato per funzionare a livello di trasporto e il protocollo IPsec funziona a livello di rete.
In questo capitolo, discuteremo diversi processi per ottenere la sicurezza per la comunicazione e-mail e i protocolli di sicurezza associati. Il metodo per proteggere il DNS viene trattato successivamente. Nei capitoli successivi verranno descritti i protocolli per ottenere la sicurezza web.
Protezione della posta elettronica
Al giorno d'oggi, la posta elettronica è diventata un'applicazione di rete molto diffusa. Discutiamo brevemente dell'infrastruttura di posta elettronica prima di procedere alla conoscenza dei protocolli di sicurezza della posta elettronica.
Infrastruttura di posta elettronica
Il modo più semplice per inviare un'e-mail sarebbe inviare un messaggio direttamente dalla macchina del mittente alla macchina del destinatario. In questo caso, è essenziale che entrambe le macchine funzionino contemporaneamente sulla rete. Tuttavia, questa configurazione non è pratica poiché gli utenti possono occasionalmente connettere le loro macchine alla rete.
Quindi, è arrivato il concetto di configurare server di posta elettronica. In questa configurazione, la posta viene inviata a un server di posta che è permanentemente disponibile sulla rete. Quando la macchina del destinatario si connette alla rete, legge la posta dal server di posta.
In generale, l'infrastruttura di posta elettronica è costituita da una rete di server di posta, denominata anche Message Transfer Agents (MTA) e macchine client che eseguono un programma di posta elettronica composto da User Agent (UA) e MTA locale.
In genere, un messaggio di posta elettronica viene inoltrato dal suo UA, passa attraverso la rete degli MTA e infine raggiunge l'UA sul computer del destinatario.
I protocolli utilizzati per la posta elettronica sono i seguenti:
Simple Mail Transfer Protocol (SMTP) utilizzato per l'inoltro dei messaggi di posta elettronica.
Post Office Protocol (POP) e Internet Message Access Protocol (IMAP) vengono utilizzati per recuperare i messaggi dal destinatario dal server.
MIMO
Lo standard di base della posta elettronica Internet è stato scritto nel 1982 e descrive il formato dei messaggi di posta elettronica scambiati su Internet. Supporta principalmente messaggi di posta elettronica scritti come testo in alfabeto romano di base.
Nel 1992 si sentì la necessità di migliorare lo stesso. Pertanto, è stato definito un MIME ( Multipurpose Internet Mail Extensions ) aggiuntivo standard . È un insieme di estensioni allo standard di base della posta elettronica Internet. MIME offre la possibilità di inviare e-mail utilizzando caratteri diversi da quelli dell'alfabeto romano di base come l'alfabeto cirillico (usato in russo), l'alfabeto greco o anche i caratteri ideografici del cinese.
Un'altra esigenza soddisfatta da MIME è l'invio di contenuti non di testo, come immagini o clip video. A causa di queste caratteristiche, lo standard MIME è stato ampiamente adottato con SMTP per la comunicazione e-mail.
Servizi di protezione della posta elettronica
L'uso crescente della comunicazione e-mail per transazioni importanti e cruciali richiede la fornitura di alcuni servizi di sicurezza fondamentali come i seguenti:
Confidentiality - Il messaggio di posta elettronica non deve essere letto da nessuno tranne il destinatario previsto.
Authentication - Il destinatario dell'e-mail può essere sicuro dell'identità del mittente.
Integrity - Garanzia al destinatario che il messaggio di posta elettronica non è stato alterato da quando è stato trasmesso dal mittente.
Non-repudiation - Il destinatario dell'e-mail è in grado di dimostrare a una terza parte che il mittente ha effettivamente inviato il messaggio.
Proof of submission - Il mittente dell'e-mail riceve la conferma che il messaggio è stato consegnato al sistema di consegna della posta.
Proof of delivery - Il mittente riceve una conferma che il destinatario ha ricevuto il messaggio.
I servizi di sicurezza come la privacy, l'autenticazione, l'integrità dei messaggi e il non ripudio vengono generalmente forniti utilizzando la crittografia a chiave pubblica.
In genere, esistono tre diversi scenari di comunicazione tramite posta elettronica. Discuteremo i metodi per ottenere i servizi di sicurezza di cui sopra in questi scenari.
E-mail one-to-one
In questo scenario, il mittente invia un messaggio di posta elettronica a un solo destinatario. Di solito nella comunicazione non sono coinvolti più di due MTA.
Supponiamo che un mittente desideri inviare un'e-mail riservata a un destinatario. La fornitura della privacy in questo caso si ottiene come segue:
Il mittente e il destinatario hanno le loro chiavi pubblica-privata rispettivamente come (S PVT , S PUB ) e (R PVT , R PUB ).
Il mittente genera una chiave simmetrica segreta, K S per la crittografia. Sebbene il mittente possa aver utilizzato R PUB per la crittografia, viene utilizzata una chiave simmetrica per ottenere crittografia e decrittografia più veloci.
Il mittente crittografa il messaggio con la chiave K S e crittografa anche K S con la chiave pubblica del destinatario, R PUB .
Il mittente invia un messaggio cifrato e criptato K S al destinatario.
Il destinatario ottiene prima K S decrittografando K S codificato utilizzando la sua chiave privata, R PVT .
Il destinatario poi decodifica il messaggio utilizzando la chiave simmetrica, K S .
Se in questo scenario sono necessari anche l'integrità del messaggio, l'autenticazione e i servizi di non ripudio, al processo precedente vengono aggiunti i passaggi seguenti.
Il mittente produce hash del messaggio e firma digitalmente questo hash con la sua chiave privata, S PVT .
Il mittente invia questo hash firmato al destinatario insieme ad altri componenti.
Il destinatario utilizza la chiave pubblica S PUB ed estrae l'hash ricevuto sotto la firma del mittente.
Il destinatario quindi esegue l'hash del messaggio decrittografato e ora confronta i due valori hash. Se corrispondono, l'integrità del messaggio viene considerata raggiunta.
Inoltre, il destinatario è sicuro che il messaggio sia stato inviato dal mittente (autenticazione). Infine, il mittente non può negare di non aver inviato il messaggio (non ripudio).
E-mail destinatari uno-a-più
In questo scenario, il mittente invia un messaggio di posta elettronica a due o più destinatari. La lista è gestita dal programma di posta elettronica del mittente (UA + MTA locale). Tutti i destinatari ricevono lo stesso messaggio.
Supponiamo che il mittente desideri inviare e-mail riservate a molti destinatari (ad esempio R1, R2 e R3). La fornitura della privacy in questo caso si ottiene come segue:
Il mittente e tutti i destinatari hanno la propria coppia di chiavi pubblica-privata.
Il mittente genera una chiave simmetrica segreta, K s e crittografa il messaggio con questa chiave.
Il mittente quindi crittografa K S più volte con le chiavi pubbliche R1, R2 e R3, ottenendo R1 PUB (K S ), R2 PUB (K S ) e R3 PUB (K S ).
Il mittente invia il messaggio crittografato e il corrispondente K S crittografato al destinatario. Ad esempio, il destinatario 1 (R1) riceve il messaggio crittografato e R1 PUB (K S ).
Ogni destinatario estrae prima la chiave K S decrittografando K S codificato utilizzando la sua chiave privata.
Ogni destinatario poi decodifica il messaggio utilizzando la chiave simmetrica, K S .
Per fornire l'integrità del messaggio, l'autenticazione e il non rifiuto, i passaggi da seguire sono simili ai passaggi sopra menzionati nello scenario di posta elettronica uno a uno.
E-mail elenco di distribuzione uno a uno
In questo scenario, il mittente invia un messaggio di posta elettronica a due o più destinatari ma l'elenco dei destinatari non è gestito localmente dal mittente. In genere, il server di posta elettronica (MTA) gestisce la mailing list.
Il mittente invia una mail all'MTA che gestisce la mailing list e poi la posta viene esplosa dall'MTA a tutti i destinatari nell'elenco.
In questo caso, quando il mittente desidera inviare un'e-mail riservata ai destinatari della mailing list (ad esempio R1, R2 e R3); la privacy è assicurata come segue:
Il mittente e tutti i destinatari hanno la propria coppia di chiavi pubblica-privata. Il server Exploder ha una coppia di chiavi private-pubbliche per ciascuna mailing list (List PUB , List PVT ) gestita da esso.
Il mittente genera una chiave simmetrica segreta K s e quindi crittografa il messaggio con questa chiave.
Il mittente quindi crittografa K S con la chiave pubblica associata all'elenco, ottiene List PUB (K S ).
Il mittente invia un messaggio crittografato e List PUB (K S ). Il MTA esploditore decripta Elenco Publishing (K S ) usando Elenco PVT e ottiene K S .
I cripta esploditore K S con ben chiavi pubbliche in quanto vi sono membri della lista.
Exploder inoltra il messaggio crittografato ricevuto e il K S crittografato corrispondente a tutti i destinatari nell'elenco. Ad esempio, Exploder inoltra il messaggio crittografato e R1 PUB (K S ) al destinatario 1 e così via.
Per fornire l'integrità del messaggio, l'autenticazione e il non rifiuto, i passaggi da seguire sono simili a quelli forniti nel caso di uno scenario di posta elettronica uno a uno.
È interessante notare che il programma di posta elettronica che utilizza il metodo di protezione sopra indicato per proteggere la posta elettronica dovrebbe funzionare per tutti i possibili scenari discussi sopra. La maggior parte dei suddetti meccanismi di sicurezza per la posta elettronica sono forniti da due schemi popolari, Pretty Good Privacy (PGP) e S / MIME. Discuteremo entrambi nelle sezioni seguenti.
PGP
Pretty Good Privacy(PGP) è uno schema di crittografia della posta elettronica. È diventato lo standard de facto per la fornitura di servizi di sicurezza per le comunicazioni e-mail.
Come discusso in precedenza, utilizza crittografia a chiave pubblica, crittografia a chiave simmetrica, funzione hash e firma digitale. Fornisce -
- Privacy
- Autenticazione del mittente
- Integrità del messaggio
- Non-repudiation
Insieme a questi servizi di sicurezza, fornisce anche la compressione dei dati e il supporto per la gestione delle chiavi. PGP utilizza algoritmi crittografici esistenti come RSA, IDEA, MD5, ecc. Piuttosto che inventare quelli nuovi.
Funzionamento di PGP
Viene calcolato l'hash del messaggio. (Algoritmo MD5)
L'hash a 128 bit risultante viene firmato utilizzando la chiave privata del mittente (algoritmo RSA).
La firma digitale viene concatenata al messaggio e il risultato viene compresso.
Una chiave simmetrica a 128 bit, K S viene generata e utilizzata per crittografare il messaggio compresso con IDEA.
K S viene crittografato utilizzando la chiave pubblica del destinatario utilizzando l'algoritmo RSA e il risultato viene aggiunto al messaggio crittografato.
Il formato del messaggio PGP è mostrato nel diagramma seguente. Gli ID indicano quale chiave viene utilizzata per crittografare KS e quale chiave deve essere utilizzata per verificare la firma sull'hash.
Nello schema PGP, un messaggio viene firmato e crittografato, quindi MIME viene codificato prima della trasmissione.
Certificato PGP
Il certificato della chiave PGP viene normalmente stabilito tramite una catena di fiducia. Ad esempio, la chiave pubblica di A viene firmata da B utilizzando la sua chiave pubblica e la chiave pubblica di B viene firmata da C utilizzando la sua chiave pubblica. Man mano che questo processo va avanti, stabilisce una rete di fiducia.
In un ambiente PGP, qualsiasi utente può agire come autorità di certificazione. Qualsiasi utente PGP può certificare la chiave pubblica di un altro utente PGP. Tuttavia, tale certificato è valido solo per un altro utente se l'utente riconosce il certificatore come un introduttore affidabile.
Esistono diversi problemi con un tale metodo di certificazione. Può essere difficile trovare una catena che porti da una chiave pubblica conosciuta e attendibile alla chiave desiderata. Inoltre, potrebbero esserci più catene che possono portare a chiavi diverse per l'utente desiderato.
PGP può anche utilizzare l'infrastruttura PKI con l'autorità di certificazione e le chiavi pubbliche possono essere certificate dalla CA (certificato X.509).
S / MIME
S / MIME è l'acronimo di Secure Multipurpose Internet Mail Extension. S / MIME è uno standard di posta elettronica sicuro. Si basa su un precedente standard di posta elettronica non sicuro chiamato MIME.
Utilizzo di S / MIME
L'approccio S / MIME è simile a PGP. Utilizza anche crittografia a chiave pubblica, crittografia a chiave simmetrica, funzioni hash e firme digitali. Fornisce servizi di sicurezza simili a PGP per la comunicazione e-mail.
I cifrari simmetrici più comuni utilizzati in S / MIME sono RC2 e TripleDES. Il solito metodo a chiave pubblica è RSA e l'algoritmo di hashing è SHA-1 o MD5.
S / MIME specifica il tipo MIME aggiuntivo, come "application / pkcs7-mime", per l'involucro dei dati dopo la crittografia. L'intera entità MIME viene crittografata e compressa in un oggetto. S / MIME ha formati di messaggi crittografici standardizzati (diversi da PGP). In effetti, MIME viene esteso con alcune parole chiave per identificare le parti crittografate e / o firmate nel messaggio.
S / MIME si basa sui certificati X.509 per la distribuzione della chiave pubblica. Ha bisogno di PKI gerarchica dall'alto verso il basso per il supporto della certificazione.
Occupabilità di S / MIME
A causa del requisito di un certificato dall'autorità di certificazione per l'implementazione, non tutti gli utenti possono trarre vantaggio da S / MIME, poiché alcuni potrebbero voler crittografare un messaggio, con una coppia di chiavi pubblica / privata. Ad esempio, senza il coinvolgimento o il sovraccarico amministrativo dei certificati.
In pratica, sebbene la maggior parte delle applicazioni di posta elettronica implementino S / MIME, il processo di registrazione del certificato è complesso. Invece il supporto PGP di solito richiede l'aggiunta di un plug-in e quel plug-in viene fornito con tutto ciò che è necessario per gestire le chiavi. Il Web of Trust non è realmente utilizzato. Le persone scambiano le loro chiavi pubbliche su un altro mezzo. Una volta ottenute, conservano una copia delle chiavi pubbliche di quelle con cui vengono abitualmente scambiate le e-mail.
Il livello di implementazione nell'architettura di rete per schemi PGP e S / MIME è mostrato nell'immagine seguente. Entrambi questi schemi forniscono protezione a livello di applicazione per la comunicazione e-mail.
Uno degli schemi, PGP o S / MIME, viene utilizzato a seconda dell'ambiente. Una comunicazione e-mail sicura in una rete captive può essere fornita adattandosi a PGP. Per la protezione della posta elettronica su Internet, dove molto spesso i messaggi di posta vengono scambiati con nuovi utenti sconosciuti, S / MIME è considerata una buona opzione.
Sicurezza DNS
Nel primo capitolo abbiamo accennato al fatto che un utente malintenzionato può utilizzare il DNS Cache Poisoning per eseguire un attacco sull'utente target. Domain Name System Security Extensions (DNSSEC) è uno standard Internet in grado di sventare tali attacchi.
Vulnerabilità del DNS standard
In uno schema DNS standard, ogni volta che l'utente desidera connettersi a qualsiasi nome di dominio, il suo computer contatta il server DNS e cerca l'indirizzo IP associato per quel nome di dominio. Una volta ottenuto l'indirizzo IP, il computer si connette a quell'indirizzo IP.
In questo schema, non è previsto alcun processo di verifica. Un computer chiede al suo server DNS l'indirizzo associato a un sito web, il server DNS risponde con un indirizzo IP e il tuo computer lo accetta senza dubbio come risposta legittima e si connette a quel sito web.
Una ricerca DNS avviene effettivamente in più fasi. Ad esempio, quando un computer richiede "www.tutorialspoint.com", viene eseguita una ricerca DNS in più fasi:
Il computer chiede prima al server DNS locale (fornito dall'ISP). Se l'ISP ha questo nome nella cache, risponde altrimenti inoltra la query alla "directory della zona radice" dove può trovare ".com". e le risposte della zona radice.
In base alla risposta, il computer chiede quindi alla directory ".com" dove può trovare "tutorialspoint.com".
Sulla base delle informazioni ricevute, il computer richiede "tutorialspoint.com" dove può trovare www. tutorialspoint.com.
Definito da DNSSEC
La ricerca DNS, se eseguita utilizzando DNSSEC, implica la firma delle risposte da parte dell'entità che risponde. DNSSEC si basa sulla crittografia a chiave pubblica.
Nello standard DNSSEC, ogni zona DNS ha una coppia di chiavi pubblica / privata. Tutte le informazioni inviate da un server DNS sono firmate con la chiave privata della zona di origine per garantire l'autenticità. I client DNS devono conoscere le chiavi pubbliche della zona per controllare le firme. I client possono essere preconfigurati con le chiavi pubbliche di tutti i domini di primo livello o il DNS principale.
Con DNSSEC, il processo di ricerca procede come segue:
Quando il tuo computer chiede alla root zone dove può trovare .com, la risposta è firmata dal root zone server.
Il computer controlla la chiave di firma della zona radice e conferma che si tratta della zona radice legittima con informazioni vere.
Nella risposta, la zona radice fornisce le informazioni sulla chiave di firma del server della zona .com e la sua posizione, consentendo al computer di contattare la directory .com e assicurandosi che sia legittima.
La directory .com fornisce quindi la chiave di firma e le informazioni per tutorialspoint.com, permettendogli di contattare google.com e verificare che tu sia connesso al vero tutorialspoint.com, come confermato dalle zone sopra di esso.
Le informazioni inviate sono sotto forma di Resource Record Set (RRSets). L'esempio di RRSet per il dominio "tutorialspoint.com" nel server di primo livello ".com" è mostrato nella tabella seguente.
Nome del dominio | Tempo di vivere | genere | Valore |
---|---|---|---|
tutorialspoint.com | 86400 | NS | dns.tutorialspoint.com |
dns.tutorialspoint.com | 86400 | UN | 36..1.2.3 |
tutorialspoint.com | 86400 | CHIAVE | 3682793A7B73F731029CE2737D ... |
tutorialspoint.com | 86400 | SIG | 86947503A8B848F5272E53930C ... |
Il record KEY è una chiave pubblica di "tutorialspoint.com".
Il record SIG è l'hash firmato del server .com di primo livello dei record NS, A e KEY dei campi per verificarne l'autenticità. Il suo valore è Kcom pvt (H (NS, A, KEY)).
Pertanto, si ritiene che quando DNSSEC è completamente implementato, il computer dell'utente è in grado di confermare che le risposte DNS sono legittime e vere ed evitare attacchi DNS lanciati tramite avvelenamento della cache DNS.
Sommario
Il processo di protezione delle e-mail garantisce la sicurezza end-to-end della comunicazione. Fornisce servizi di sicurezza di riservatezza, autenticazione del mittente, integrità dei messaggi e non ripudio.
Sono stati sviluppati due schemi per la protezione della posta elettronica: PGP e S / MIME. Entrambi questi schemi utilizzano la crittografia a chiave segreta e a chiave pubblica.
La ricerca DNS standard è vulnerabile ad attacchi quali spoofing DNS / avvelenamento della cache. La protezione della ricerca DNS è fattibile tramite l'uso di DNSSEC che impiega la crittografia a chiave pubblica.
In questo capitolo, abbiamo discusso i meccanismi utilizzati a livello di applicazione per fornire la sicurezza di rete per la comunicazione end-to-end.
La sicurezza della rete implica la protezione dei dati dagli attacchi mentre sono in transito su una rete. Per raggiungere questo obiettivo, sono stati progettati molti protocolli di sicurezza in tempo reale. Esistono standard diffusi per i protocolli di sicurezza di rete in tempo reale come S / MIME, SSL / TLS, SSH e IPsec. Come accennato in precedenza, questi protocolli funzionano a diversi livelli del modello di rete.
Nell'ultimo capitolo, abbiamo discusso alcuni protocolli popolari progettati per fornire sicurezza a livello di applicazione. In questo capitolo, discuteremo il processo per ottenere la sicurezza di rete a Transport Layer e i protocolli di sicurezza associati.
Per la rete basata sul protocollo TCP / IP, i livelli fisico e di collegamento dati sono tipicamente implementati nel terminale utente e nell'hardware della scheda di rete. I livelli TCP e IP sono implementati nel sistema operativo. Qualsiasi cosa al di sopra di TCP / IP viene implementata come processo utente.
Necessità di Transport Layer Security
Parliamo di una tipica transazione commerciale basata su Internet.
Bob visita il sito web di Alice per la vendita di merci. In un modulo sul sito web, Bob inserisce il tipo di merce e la quantità desiderata, il suo indirizzo e i dettagli della carta di pagamento. Bob fa clic su Invia e attende la consegna della merce con addebito dell'importo del prezzo dal suo account. Tutto questo suona bene, ma in assenza di sicurezza di rete, Bob potrebbe avere qualche sorpresa.
Se le transazioni non utilizzavano la riservatezza (crittografia), un utente malintenzionato potrebbe ottenere i dati della sua carta di pagamento. L'aggressore può quindi effettuare acquisti a spese di Bob.
Se non viene utilizzata alcuna misura di integrità dei dati, un utente malintenzionato potrebbe modificare l'ordine di Bob in termini di tipo o quantità di merci.
Infine, se non viene utilizzata l'autenticazione del server, un server potrebbe visualizzare il famoso logo di Alice ma il sito potrebbe essere un sito dannoso gestito da un utente malintenzionato, mascherato da Alice. Dopo aver ricevuto l'ordine di Bob, poteva prendere i soldi di Bob e fuggire. Oppure potrebbe effettuare un furto di identità raccogliendo il nome di Bob e i dettagli della carta di credito.
Gli schemi di sicurezza del livello di trasporto possono risolvere questi problemi migliorando la comunicazione di rete basata su TCP / IP con riservatezza, integrità dei dati, autenticazione del server e autenticazione del client.
La sicurezza a questo livello viene utilizzata principalmente per proteggere le transazioni Web basate su HTTP su una rete. Tuttavia, può essere utilizzato da qualsiasi applicazione in esecuzione su TCP.
Filosofia di TLS Design
I protocolli Transport Layer Security (TLS) operano al di sopra del livello TCP. La progettazione di questi protocolli utilizza le famose API (Application Program Interface) per TCP, chiamate "socket" per l'interfacciamento con il livello TCP.
Le applicazioni sono ora interfacciate direttamente con Transport Security Layer invece che con TCP. Transport Security Layer fornisce una semplice API con socket, che è simile e analoga all'API di TCP.
Nel diagramma sopra, sebbene TLS risieda tecnicamente tra l'applicazione e il livello di trasporto, dalla prospettiva comune è un protocollo di trasporto che funge da livello TCP potenziato con servizi di sicurezza.
TLS è progettato per funzionare su TCP, l'affidabile protocollo di livello 4 (non su protocollo UDP), per rendere la progettazione di TLS molto più semplice, perché non deve preoccuparsi del "timeout" e della "ritrasmissione dei dati persi". Il livello TCP continua a farlo come al solito che serve alla necessità di TLS.
Perché TLS è popolare?
Il motivo della popolarità dell'utilizzo di una protezione in Transport Layer è la semplicità. La progettazione e la distribuzione della sicurezza a questo livello non richiede alcuna modifica nei protocolli TCP / IP implementati in un sistema operativo. Solo i processi e le applicazioni utente devono essere progettati / modificati, il che è meno complesso.
Secure Socket Layer (SSL)
In questa sezione, discutiamo la famiglia di protocolli progettati per TLS. La famiglia include le versioni SSL 2 e 3 e il protocollo TLS. SSLv2 è stato ora sostituito da SSLv3, quindi ci concentreremo su SSL v3 e TLS.
Breve storia di SSL
Nel 1995, Netscape ha sviluppato SSLv2 e utilizzato in Netscape Navigator 1.1. La versione 1 di SSL non è mai stata pubblicata e utilizzata. Successivamente, Microsoft ha migliorato SSLv2 e ha introdotto un altro protocollo simile denominato Private Communications Technology (PCT).
Netscape ha notevolmente migliorato SSLv2 su vari problemi di sicurezza e ha implementato SSLv3 nel 1999. Successivamente, l'Internet Engineering Task Force (IETF) ha introdotto un protocollo simile TLS (Transport Layer Security) come standard aperto. Il protocollo TLS non è interoperabile con SSLv3.
TLS ha modificato gli algoritmi crittografici per l'espansione e l'autenticazione della chiave. Inoltre, TLS ha suggerito l'uso della crittografia aperta Diffie-Hellman (DH) e dello standard di firma digitale (DSS) al posto della crittografia RSA brevettata utilizzata in SSL. Ma a causa della scadenza del brevetto RSA nel 2000, non esistevano validi motivi per gli utenti di passare dall'SSLv3 ampiamente diffuso a TLS.
Caratteristiche salienti di SSL
Le caratteristiche salienti del protocollo SSL sono le seguenti:
SSL fornisce la sicurezza della connessione di rete attraverso:
Confidentiality - Le informazioni vengono scambiate in forma crittografata.
Authentication- Gli enti di comunicazione si identificano a vicenda attraverso l'uso di certificati digitali. L'autenticazione del server Web è obbligatoria mentre l'autenticazione del client è mantenuta facoltativa.
Reliability - Mantiene i controlli di integrità del messaggio.
SSL è disponibile per tutte le applicazioni TCP.
Supportato da quasi tutti i browser web.
Fornisce facilità nel fare affari con nuove entità online.
Sviluppato principalmente per l'e-commerce Web.
Architettura di SSL
SSL è specifico per TCP e non funziona con UDP. SSL fornisce API (Application Programming Interface) alle applicazioni. Le librerie / classi C e Java SSL sono prontamente disponibili.
Il protocollo SSL è progettato per interagire tra l'applicazione e il livello di trasporto come mostrato nell'immagine seguente:
SSL in sé non è un protocollo a livello singolo come illustrato nell'immagine; infatti è composto da due sottostrati.
Il sottostrato inferiore comprende l'unico componente del protocollo SSL chiamato SSL Record Protocol. Questo componente fornisce servizi di integrità e riservatezza.
Il sottostrato superiore comprende tre componenti del protocollo relativi a SSL e un protocollo dell'applicazione. Il componente dell'applicazione fornisce il servizio di trasferimento delle informazioni tra le interazioni client / server. Tecnicamente, può funzionare anche sopra il livello SSL. Tre componenti del protocollo relativi a SSL sono:
- Protocollo di handshake SSL
- Modificare il protocollo delle specifiche di crittografia
- Protocollo di avviso.
Questi tre protocolli gestiscono tutti gli scambi di messaggi SSL e vengono discussi più avanti in questa sezione.
Funzioni dei componenti del protocollo SSL
I quattro sottocomponenti del protocollo SSL gestiscono varie attività per la comunicazione sicura tra la macchina client e il server.
Protocollo di registrazione
Il livello di registrazione formatta i messaggi del protocollo di livello superiore.
Frammenta i dati in blocchi gestibili (lunghezza massima 16 KB). Facoltativamente comprime i dati.
Crittografa i dati.
Fornisce un'intestazione per ogni messaggio e un hash (Message Authentication Code (MAC)) alla fine.
Consegna i blocchi formattati al livello TCP per la trasmissione.
Protocollo di handshake SSL
È la parte più complessa di SSL. Viene richiamato prima della trasmissione dei dati dell'applicazione. Crea sessioni SSL tra il client e il server.
La creazione della sessione prevede l'autenticazione del server, la negoziazione di chiavi e algoritmi, la definizione delle chiavi e l'autenticazione del client (opzionale).
Una sessione è identificata da un insieme univoco di parametri di sicurezza crittografici.
Più connessioni TCP sicure tra un client e un server possono condividere la stessa sessione.
Azioni del protocollo di handshake attraverso quattro fasi. Questi sono discussi nella sezione successiva.
ChangeCipherSpec Protocol
La parte più semplice del protocollo SSL. Si compone di un unico messaggio scambiato tra due entità comunicanti, il client e il server.
Quando ogni entità invia il messaggio ChangeCipherSpec, cambia il suo lato della connessione nello stato sicuro come concordato.
Lo stato in sospeso dei parametri di cifratura viene copiato nello stato corrente.
Lo scambio di questo messaggio indica che tutti i futuri scambi di dati sono crittografati e l'integrità è protetta.
Protocollo di avviso SSL
Questo protocollo viene utilizzato per segnalare errori, come messaggi imprevisti, MAC con record errato, negoziazione dei parametri di sicurezza non riuscita, ecc.
Viene anche utilizzato per altri scopi, come notificare la chiusura della connessione TCP, notificare la ricezione di un certificato errato o sconosciuto, ecc.
Istituzione della sessione SSL
Come discusso in precedenza, ci sono quattro fasi per stabilire la sessione SSL. Questi sono gestiti principalmente dal protocollo SSL Handshake.
Phase 1 - Stabilire capacità di sicurezza.
Questa fase comprende lo scambio di due messaggi: Client_hello e Server_hello .
Client_hello contiene un elenco di algoritmi crittografici supportati dal client, in ordine decrescente di preferenza.
Server_hello contiene la Cipher Specification (CipherSpec) selezionata e un nuovo session_id .
CipherSpec contiene campi come -
Algoritmo di cifratura (DES, 3DES, RC2 e RC4)
Algoritmo MAC (basato su MD5, SHA-1)
Algoritmo a chiave pubblica (RSA)
Entrambi i messaggi hanno "nonce" per prevenire attacchi di replay.
Phase 2 - Autenticazione del server e scambio di chiavi.
Il server invia il certificato. Il software client viene configurato con chiavi pubbliche di varie organizzazioni (CA) "attendibili" per controllare il certificato.
Il server invia la suite di cifratura scelta.
Il server può richiedere un certificato client. Di solito non è fatto.
Il server indica la fine di Server_hello .
Phase 3 - Autenticazione client e scambio di chiavi.
Il client invia il certificato, solo se richiesto dal server.
Invia anche il Pre-master Secret (PMS) crittografato con la chiave pubblica del server.
Il client invia anche il messaggio Certificate_verify se il certificato viene inviato da lui per dimostrare di avere la chiave privata associata a questo certificato. Fondamentalmente, il client firma un hash dei messaggi precedenti.
Phase 4 - Fine.
Il client e il server si scambiano messaggi Change_cipher_spec per far sì che lo stato di cifratura in sospeso venga copiato nello stato corrente.
D'ora in poi, tutti i dati sono crittografati e protetti dall'integrità.
Il messaggio "Finished" da ciascuna estremità verifica che i processi di scambio e autenticazione delle chiavi siano stati eseguiti correttamente.
Tutte e quattro le fasi, discusse sopra, avvengono all'interno della creazione della sessione TCP. La creazione della sessione SSL inizia dopo TCP SYN / SYNACK e termina prima di TCP Fin.
Ripresa di una sessione disconnessa
È possibile riprendere una sessione disconnessa (tramite messaggio di avviso ), se il client invia un hello_request al server con le informazioni di session_id crittografate .
Il server quindi determina se il session_id è valido. Se convalidato, scambia ChangeCipherSpec e termina i messaggi con il client e riprende le comunicazioni protette.
Ciò evita il ricalcolo dei parametri di cifratura della sessione e salva l'elaborazione sul server e sul client.
Chiavi di sessione SSL
Abbiamo visto che durante la fase 3 dell'istituzione della sessione SSL, un segreto pre-master viene inviato dal client al server crittografato utilizzando la chiave pubblica del server. Il master secret e le varie chiavi di sessione vengono generati come segue:
Il master secret viene generato (tramite generatore di numeri pseudo casuali) utilizzando -
Il segreto del pre-master.
Due nonce (RA e RB) scambiate nei messaggi client_hello e server_hello.
Sei valori segreti vengono quindi derivati da questo segreto principale come:
Chiave segreta utilizzata con MAC (per i dati inviati dal server)
Chiave segreta utilizzata con MAC (per i dati inviati dal client)
Chiave segreta e IV utilizzati per la crittografia (dal server)
Chiave segreta e IV utilizzati per la crittografia (dal client)
Protocollo TLS
Al fine di fornire uno standard Internet aperto di SSL, IETF ha rilasciato il protocollo TLS (Transport Layer Security) nel gennaio 1999. TLS è definito come uno standard Internet proposto nella RFC 5246.
Le caratteristiche più importanti
Il protocollo TLS ha gli stessi obiettivi di SSL.
Consente alle applicazioni client / server di comunicare in modo sicuro autenticandosi, prevenendo intercettazioni e resistendo alla modifica dei messaggi.
Il protocollo TLS si trova al di sopra dell'affidabile livello TCP di trasporto orientato alla connessione nello stack dei livelli di rete.
L'architettura del protocollo TLS è simile al protocollo SSLv3. Ha due sotto protocolli: il protocollo TLS Record e il protocollo TLS Handshake.
Sebbene SSLv3 e il protocollo TLS abbiano un'architettura simile, sono state apportate diverse modifiche all'architettura e al funzionamento in particolare per il protocollo di handshake.
Confronto tra protocolli TLS e SSL
Esistono otto differenze principali tra i protocolli TLS e SSLv3. Questi sono i seguenti:
Protocol Version - L'intestazione del segmento del protocollo TLS porta il numero di versione 3.1 per differenziare il numero 3 trasportato dall'intestazione del segmento del protocollo SSL.
Message Authentication- TLS utilizza un codice di autenticazione del messaggio hash con chiave (H-MAC). Il vantaggio è che H-MAC opera con qualsiasi funzione hash, non solo MD5 o SHA, come esplicitamente dichiarato dal protocollo SSL.
Session Key Generation - Esistono due differenze tra TLS e il protocollo SSL per la generazione del materiale chiave.
Il metodo per calcolare i segreti pre-master e master è simile. Ma nel protocollo TLS, il calcolo del master secret utilizza lo standard HMAC e l'output della funzione pseudocasuale (PRF) invece del MAC ad-hoc.
L'algoritmo per il calcolo delle chiavi di sessione e dei valori di avvio (IV) è diverso in TLS rispetto al protocollo SSL.
Messaggio del protocollo di avviso -
Il protocollo TLS supporta tutti i messaggi utilizzati dal protocollo di avviso SSL, ad eccezione del messaggio di avviso Nessun certificato reso ridondante. Il client invia un certificato vuoto nel caso in cui non sia richiesta l'autenticazione del client.
Molti messaggi di avviso aggiuntivi sono inclusi nel protocollo TLS per altre condizioni di errore come record_overflow, decode_error ecc.
Supported Cipher Suites- SSL supporta le suite di cifratura RSA, Diffie-Hellman e Fortezza. Il protocollo TLS supporta tutti i semi tranne Fortezza.
Client Certificate Types- TLS definisce i tipi di certificato da richiedere in un messaggio certificate_request . SSLv3 supporta tutti questi. Inoltre, SSL supporta alcuni altri tipi di certificato come Fortezza.
CertificateVerify e messaggi finiti -
In SSL, viene utilizzata una procedura di messaggio complessa per il messaggio certificate_verify . Con TLS, le informazioni verificate sono contenute nei messaggi di handshake stesso evitando così questa complessa procedura.
Il messaggio finito viene calcolato in modi diversi in TLS e SSLv3.
Padding of Data- Nel protocollo SSL, il riempimento aggiunto ai dati dell'utente prima della crittografia è la quantità minima richiesta per rendere la dimensione totale dei dati uguale a un multiplo della lunghezza del blocco della crittografia. In TLS, il riempimento può essere qualsiasi importo che si traduca in una dimensione dei dati che è un multiplo della lunghezza del blocco della crittografia, fino a un massimo di 255 byte.
Le differenze di cui sopra tra i protocolli TLS e SSLv3 sono riassunte nella tabella seguente.
Navigazione sicura - HTTPS
In questa sezione, discuteremo l'uso del protocollo SSL / TLS per eseguire la navigazione web sicura.
Definito da HTTPS
Il protocollo HTTP (Hyper Text Transfer Protocol) viene utilizzato per la navigazione web. La funzione di HTTPS è simile a HTTP. L'unica differenza è che HTTPS fornisce una navigazione web "sicura". HTTPS sta per HTTP su SSL. Questo protocollo viene utilizzato per fornire la connessione crittografata e autenticata tra il browser Web del client e il server del sito Web.
La navigazione sicura tramite HTTPS garantisce che i seguenti contenuti siano crittografati:
- URL della pagina web richiesta.
- Contenuto della pagina Web fornito dal server al client dell'utente.
- Contenuto dei moduli compilati dall'utente.
- Cookie stabiliti in entrambe le direzioni.
Funzionamento di HTTPS
Il protocollo dell'applicazione HTTPS utilizza in genere uno dei due comuni protocolli di sicurezza del livello di trasporto: SSL o TLS. Il processo di navigazione sicura è descritto nei seguenti punti.
Si richiede una connessione HTTPS a una pagina Web inserendo https: // seguito da URL nella barra degli indirizzi del browser.
Il browser Web avvia una connessione al server Web. L'uso di https richiama l'uso del protocollo SSL.
Un'applicazione, in questo caso browser, utilizza la porta di sistema 443 invece della porta 80 (utilizzata in caso di http).
Il protocollo SSL passa attraverso un protocollo di handshake per stabilire una sessione sicura come discusso nelle sezioni precedenti.
Il sito Web inizialmente invia il suo certificato SSL digitale al tuo browser. Alla verifica del certificato, l'handshake SSL procede allo scambio dei segreti condivisi per la sessione.
Quando un certificato digitale SSL affidabile viene utilizzato dal server, gli utenti vedono l'icona di un lucchetto nella barra degli indirizzi del browser. Quando un certificato di convalida esteso viene installato su un sito Web, la barra degli indirizzi diventa verde.
Una volta stabilita, questa sessione consiste in molte connessioni sicure tra il server web e il browser.
Utilizzo di HTTPS
L'utilizzo di HTTPS fornisce all'utente riservatezza, autenticazione del server e integrità dei messaggi. Consente una condotta sicura del commercio elettronico su Internet.
Impedisce l'intercettazione dei dati e nega il furto di identità che sono attacchi comuni a HTTP.
I browser Web e i server Web attuali sono dotati di supporto HTTPS. L'uso di HTTPS su HTTP, tuttavia, richiede più potenza di calcolo sul client e sul lato server per eseguire la crittografia e l'handshake SSL.
Protocollo Secure Shell (SSH)
Le caratteristiche salienti di SSH sono le seguenti:
SSH è un protocollo di rete che viene eseguito sopra il livello TCP / IP. È progettato per sostituire TELNET che forniva strumenti di accesso remoto non sicuri.
SSH fornisce una comunicazione client / server sicura e può essere utilizzato per attività come il trasferimento di file e la posta elettronica.
SSH2 è un protocollo prevalente che fornisce una migliore sicurezza delle comunicazioni di rete rispetto alla versione precedente SSH1.
Definito da SSH
SSH è organizzato in tre sotto-protocolli.
Transport Layer Protocol- Questa parte del protocollo SSH fornisce riservatezza dei dati, autenticazione del server (host) e integrità dei dati. Può facoltativamente fornire anche la compressione dei dati.
Server Authentication- Le chiavi host sono asimmetriche come le chiavi pubbliche / private. Un server utilizza una chiave pubblica per dimostrare la propria identità a un client. Il client verifica che il server contattato sia un host "noto" dal database che mantiene. Una volta che il server è stato autenticato, vengono generate le chiavi di sessione.
Session Key Establishment- Dopo l'autenticazione, il server e il client concordano la crittografia da utilizzare. Le chiavi di sessione vengono generate sia dal client che dal server. Le chiavi di sessione vengono generate prima dell'autenticazione dell'utente in modo che i nomi utente e le password possano essere inviati crittografati. Queste chiavi vengono generalmente sostituite a intervalli regolari (ad esempio, ogni ora) durante la sessione e vengono distrutte immediatamente dopo l'uso.
Data Integrity- SSH utilizza algoritmi MAC (Message Authentication Code) per il controllo dell'integrità dei dati. È un miglioramento rispetto al CRC a 32 bit utilizzato da SSH1.
User Authentication Protocol- Questa parte di SSH autentica l'utente sul server. Il server verifica che l'accesso sia concesso solo agli utenti previsti. Attualmente vengono utilizzati molti metodi di autenticazione come password digitate, Kerberos, autenticazione con chiave pubblica, ecc.
Connection Protocol - Fornisce più canali logici su una singola connessione SSH sottostante.
Servizi SSH
SSH fornisce tre servizi principali che consentono la fornitura di molte soluzioni sicure. Questi servizi sono descritti brevemente come segue:
Secure Command-Shell (Remote Logon)- Consente all'utente di modificare i file, visualizzare il contenuto delle directory e accedere alle applicazioni sul dispositivo connesso. Gli amministratori di sistema possono avviare / visualizzare / arrestare servizi e processi in remoto, creare account utente e modificare le autorizzazioni di file / directory e così via. Tutte le attività che sono possibili al prompt dei comandi di una macchina possono ora essere eseguite in modo sicuro dalla macchina remota utilizzando l'accesso remoto sicuro.
Secure File Transfer- SSH File Transfer Protocol (SFTP) è progettato come estensione per SSH-2 per il trasferimento sicuro dei file. In sostanza, è un protocollo separato stratificato sul protocollo Secure Shell per gestire i trasferimenti di file. SFTP crittografa sia il nome utente / password che i dati del file trasferiti. Utilizza la stessa porta del server Secure Shell, ovvero la porta di sistema n. 22.
Port Forwarding (Tunneling)- Consente di proteggere i dati da applicazioni basate su TCP / IP non protette. Dopo che il port forwarding è stato impostato, Secure Shell reindirizza il traffico da un programma (di solito un client) e lo invia attraverso il tunnel crittografato al programma dall'altra parte (di solito un server). Più applicazioni possono trasmettere dati su un singolo canale sicuro multiplex, eliminando la necessità di aprire molte porte su un firewall o router.
Vantaggi e limitazioni
I vantaggi e i limiti dell'utilizzo della sicurezza delle comunicazioni a livello di trasporto sono i seguenti:
Benefici
Transport Layer Security è trasparente per le applicazioni.
Il server è autenticato.
Le intestazioni del livello dell'applicazione sono nascoste.
È più fine dei meccanismi di sicurezza a livello 3 (IPsec) poiché funziona a livello di connessione di trasporto.
Limitazioni
Applicabile solo alle applicazioni basate su TCP (non UDP).
Le intestazioni TCP / IP sono chiare.
Adatto per la comunicazione diretta tra il client e il server. Non soddisfa le applicazioni protette che utilizzano catene di server (ad es. E-mail)
SSL non fornisce il non ripudio poiché l'autenticazione del client è facoltativa.
Se necessario, l'autenticazione del client deve essere implementata sopra SSL.
Sommario
Negli ultimi dieci anni su Internet è emerso un gran numero di applicazioni web. Molti portali di e-Governance e di e-commerce sono online. Queste applicazioni richiedono che la sessione tra il server e il client sia sicura, fornendo riservatezza, autenticazione e integrità delle sessioni.
Un modo per mitigare un potenziale attacco durante la sessione di un utente è utilizzare un protocollo di comunicazione sicuro. In questo capitolo vengono discussi due di questi protocolli di comunicazione, SSL (Secure Sockets Layer) e TLS (Transport Layer Security). Entrambi questi protocolli funzionano a livello di trasporto.
Un altro protocollo del livello di trasporto, Secure Shell (SSH), progettato per sostituire TELNET, fornisce mezzi sicuri per la funzionalità di accesso remoto. È in grado di fornire vari servizi come Secure Command Shell e SFTP.
L'impiego della sicurezza a livello di trasporto ha molti vantaggi. Tuttavia, il protocollo di sicurezza progettato a questi livelli può essere utilizzato solo con TCP. Non forniscono protezione per la comunicazione implementata utilizzando UDP.
I controlli di sicurezza a livello di rete sono stati usati frequentemente per proteggere le comunicazioni, in particolare su reti condivise come Internet, perché possono fornire protezione per molte applicazioni contemporaneamente senza modificarle.
Nei capitoli precedenti, abbiamo discusso del fatto che molti protocolli di sicurezza in tempo reale si sono evoluti per la sicurezza di rete garantendo i principi di sicurezza di base come privacy, autenticazione dell'origine, integrità dei messaggi e non ripudio.
La maggior parte di questi protocolli è rimasta focalizzata sui livelli più alti dello stack di protocolli OSI, per compensare la mancanza intrinseca di sicurezza nel protocollo Internet standard. Sebbene preziosi, questi metodi non possono essere generalizzati facilmente per l'uso con qualsiasi applicazione. Ad esempio, SSL è stato sviluppato specificamente per proteggere applicazioni come HTTP o FTP. Ma ci sono molte altre applicazioni che richiedono anche comunicazioni sicure.
Questa esigenza ha portato allo sviluppo di una soluzione di sicurezza a livello IP in modo che tutti i protocolli di livello superiore potessero trarne vantaggio. Nel 1992, l'Internet Engineering Task Force (IETF) ha iniziato a definire uno standard "IPsec".
In questo capitolo, discuteremo come si ottiene la sicurezza a livello di rete usando questo set molto popolare di protocollo IPsec.
Sicurezza a livello di rete
Qualsiasi schema sviluppato per fornire sicurezza di rete deve essere implementato a un certo livello nello stack di protocollo come illustrato nel diagramma seguente:
Strato | Protocolli di comunicazione | Protocolli di sicurezza |
---|---|---|
Livello applicazione | HTTP FTP SMTP | PGP. S / MIME, HTTPS |
Livello di trasporto | TCP / UDP | SSL, TLS, SSH |
Livello di rete | IP | IPsec |
Il framework popolare sviluppato per garantire la sicurezza a livello di rete è IPsec (Internet Protocol Security).
Caratteristiche di IPsec
IPsec non è progettato per funzionare solo con TCP come protocollo di trasporto. Funziona con UDP così come qualsiasi altro protocollo sopra IP come ICMP, OSPF ecc.
IPsec protegge l'intero pacchetto presentato al livello IP, comprese le intestazioni di livello superiore.
Poiché sono nascoste intestazioni di livello superiore che riportano il numero di porta, l'analisi del traffico è più difficile.
IPsec funziona da un'entità di rete a un'altra entità di rete, non dal processo dell'applicazione al processo dell'applicazione. Pertanto, la sicurezza può essere adottata senza richiedere modifiche ai computer / applicazioni dei singoli utenti.
Resistente ampiamente utilizzato per fornire comunicazioni sicure tra entità di rete, IPsec può fornire anche sicurezza da host a host.
L'utilizzo più comune di IPsec è fornire una rete privata virtuale (VPN), tra due posizioni (da gateway a gateway) o tra un utente remoto e una rete aziendale (da host a gateway).
Funzioni di sicurezza
Le importanti funzioni di sicurezza fornite da IPsec sono le seguenti:
Riservatezza
Consente ai nodi di comunicazione di crittografare i messaggi.
Previene le intercettazioni da parte di terzi.
Autenticazione dell'origine e integrità dei dati.
Fornisce la garanzia che un pacchetto ricevuto è stato effettivamente trasmesso dalla parte identificata come origine nell'intestazione del pacchetto.
Conferma che il pacchetto non è stato alterato o altro.
Gestione delle chiavi.
Consente lo scambio sicuro di chiavi.
Protezione contro alcuni tipi di attacchi alla sicurezza, come gli attacchi di replay.
Rete privata virtuale
Idealmente, qualsiasi istituzione vorrebbe la propria rete privata per la comunicazione per garantire la sicurezza. Tuttavia, potrebbe essere molto costoso stabilire e mantenere tale rete privata su un'area geograficamente dispersa. Richiederebbe la gestione di infrastrutture complesse di collegamenti di comunicazione, router, DNS, ecc.
IPsec fornisce un meccanismo semplice per implementare Virtual Private Network (VPN) per tali istituzioni. La tecnologia VPN consente al traffico tra uffici dell'istituto di essere inviato su Internet pubblico crittografando il traffico prima di entrare nell'Internet pubblica e separandolo logicamente da altro traffico. Il funzionamento semplificato della VPN è mostrato nel diagramma seguente:
Panoramica di IPsec
IPsec è un framework / suite di protocolli per fornire sicurezza a livello IP.
Origine
All'inizio degli anni '90, Internet era utilizzato da poche istituzioni, principalmente per scopi accademici. Ma nei decenni successivi, la crescita di Internet è diventata esponenziale a causa dell'espansione della rete e di diverse organizzazioni che la utilizzavano per la comunicazione e altri scopi.
Con la crescita massiccia di Internet, combinata con le debolezze di sicurezza intrinseche del protocollo TCP / IP, si è sentita la necessità di una tecnologia in grado di fornire sicurezza di rete su Internet. Un rapporto intitolato "Security in the Internet Architecture" è stato pubblicato dall'Internet Architecture Board (IAB) nel 1994. Ha identificato le aree chiave per i meccanismi di sicurezza.
Lo IAB includeva l'autenticazione e la crittografia come funzionalità di sicurezza essenziali nell'IPv6, l'IP di nuova generazione. Fortunatamente, queste capacità di sicurezza sono state definite in modo tale da poter essere implementate sia con l'attuale IPv4 che con il futuristico IPv6.
Framework di sicurezza, IPsec è stato definito in diverse "Richieste di commenti" (RFC). Alcuni RFC specificano alcune parti del protocollo, mentre altri affrontano la soluzione nel suo insieme.
Operazioni all'interno di IPsec
Si può considerare che la suite IPsec abbia due operazioni separate, se eseguite all'unisono, fornendo un set completo di servizi di sicurezza. Queste due operazioni sono Comunicazione IPsec e Scambio di chiavi Internet.
Comunicazione IPsec
In genere è associato alla funzionalità IPsec standard. Implica l'incapsulamento, la crittografia e l'hashing dei datagrammi IP e la gestione di tutti i processi dei pacchetti.
È responsabile della gestione della comunicazione secondo le Associazioni di Sicurezza (SA) disponibili stabilite tra le parti comunicanti.
Utilizza protocolli di sicurezza come Authentication Header (AH) e Encapsulated SP (ESP).
La comunicazione IPsec non è coinvolta nella creazione delle chiavi o nella loro gestione.
La stessa operazione di comunicazione IPsec viene comunemente chiamata IPsec.
Internet Key Exchange (IKE)
IKE è il protocollo di gestione automatica delle chiavi utilizzato per IPsec.
Tecnicamente, la gestione delle chiavi non è essenziale per la comunicazione IPsec e le chiavi possono essere gestite manualmente. Tuttavia, la gestione manuale delle chiavi non è desiderabile per reti di grandi dimensioni.
IKE è responsabile della creazione delle chiavi per IPsec e della fornitura dell'autenticazione durante il processo di creazione della chiave. Sebbene IPsec possa essere utilizzato per qualsiasi altro protocollo di gestione delle chiavi, IKE viene utilizzato per impostazione predefinita.
IKE definisce due protocolli (Oakley e SKEME) da utilizzare con il framework di gestione delle chiavi già definito ISAKMP (Internet Security Association Key Management Protocol).
ISAKMP non è specifico di IPsec, ma fornisce la struttura per la creazione di SA per qualsiasi protocollo.
Questo capitolo discute principalmente la comunicazione IPsec e il protocollo associato utilizzato per ottenere la sicurezza.
Modalità di comunicazione IPsec
La comunicazione IPsec ha due modalità di funzionamento; modalità di trasporto e tunnel. Queste modalità possono essere utilizzate in combinazione o utilizzate individualmente a seconda del tipo di comunicazione desiderato.
Modalità di trasporto
IPsec non incapsula un pacchetto ricevuto dal livello superiore.
L'intestazione IP originale viene mantenuta ei dati vengono inoltrati in base agli attributi originali impostati dal protocollo di livello superiore.
Il diagramma seguente mostra il flusso di dati nello stack del protocollo.
La limitazione della modalità di trasporto è che non è possibile fornire servizi gateway. È riservato per le comunicazioni punto a punto come illustrato nell'immagine seguente.
Modalità tunnel
Questa modalità di IPsec fornisce servizi di incapsulamento insieme ad altri servizi di sicurezza.
Nelle operazioni in modalità tunnel, l'intero pacchetto dal livello superiore viene incapsulato prima dell'applicazione del protocollo di sicurezza. Viene aggiunta una nuova intestazione IP.
Il diagramma seguente mostra il flusso di dati nello stack del protocollo.
La modalità tunnel è generalmente associata alle attività del gateway. L'incapsulamento offre la possibilità di inviare più sessioni tramite un unico gateway.
La tipica comunicazione in modalità tunnel è quella illustrata nel diagramma seguente.
Per quanto riguarda gli endpoint, hanno una connessione a livello di trasporto diretto. Il datagramma da un sistema inoltrato al gateway viene incapsulato e quindi inoltrato al gateway remoto. Il gateway associato remoto deincapsula i dati e li inoltra all'endpoint di destinazione sulla rete interna.
Utilizzando IPsec, la modalità di tunneling può essere stabilita anche tra il gateway e il singolo sistema finale.
Protocolli IPsec
IPsec utilizza i protocolli di sicurezza per fornire i servizi di sicurezza desiderati. Questi protocolli sono il cuore delle operazioni IPsec e tutto il resto è progettato per supportare questi protocolli in IPsec.
Le associazioni di sicurezza tra le entità comunicanti vengono stabilite e gestite dal protocollo di sicurezza utilizzato.
Esistono due protocolli di sicurezza definiti da IPsec: Authentication Header (AH) e Encapsulating Security Payload (ESP).
Intestazione di autenticazione
Il protocollo AH fornisce un servizio di integrità dei dati e autenticazione dell'origine. Opzionalmente provvede alla resistenza alla riproduzione dei messaggi. Tuttavia, non fornisce alcuna forma di riservatezza.
AH è un protocollo che fornisce l'autenticazione di tutto o parte del contenuto di un datagramma mediante l'aggiunta di un'intestazione. L'intestazione viene calcolata in base ai valori nel datagramma. Quali parti del datagramma vengono utilizzate per il calcolo e dove posizionare l'intestazione, dipende dalla modalità di cooperazione (tunnel o trasporto).
Il funzionamento del protocollo AH è sorprendentemente semplice. Può essere considerato simile agli algoritmi utilizzati per calcolare i checksum o eseguire controlli CRC per il rilevamento degli errori.
Il concetto alla base di AH è lo stesso, tranne per il fatto che invece di utilizzare un semplice algoritmo, AH utilizza uno speciale algoritmo di hashing e una chiave segreta nota solo alle parti comunicanti. Viene impostata un'associazione di sicurezza tra due dispositivi che specifica questi particolari.
Il processo di AH passa attraverso le seguenti fasi.
Quando il pacchetto IP viene ricevuto dallo stack di protocollo superiore, IPsec determina l'associazione di sicurezza (SA) associata dalle informazioni disponibili nel pacchetto; ad esempio, indirizzo IP (origine e destinazione).
Da SA, una volta identificato che il protocollo di sicurezza è AH, vengono calcolati i parametri dell'intestazione AH. L'intestazione AH è composta dai seguenti parametri:
Il campo di intestazione specifica il protocollo del pacchetto che segue l'intestazione AH. L'indice dei parametri di sequenza (SPI) è ottenuto dalla SA esistente tra le parti in comunicazione.
Il numero di sequenza viene calcolato e inserito. Questi numeri forniscono capacità opzionali ad AH per resistere all'attacco replay.
I dati di autenticazione vengono calcolati in modo diverso a seconda della modalità di comunicazione.
In modalità di trasporto, il calcolo dei dati di autenticazione e l'assemblaggio del pacchetto IP finale per la trasmissione è rappresentato nel diagramma seguente. Nell'intestazione IP originale, la modifica viene apportata solo al numero di protocollo 51 all'applicazione indicata di AH.
In modalità Tunnel, il processo di cui sopra avviene come illustrato nel diagramma seguente.
Encapsulation Security Protocol (ESP)
ESP fornisce servizi di sicurezza come riservatezza, integrità, autenticazione dell'origine e resistenza opzionale alla riproduzione. L'insieme dei servizi forniti dipende dalle opzioni selezionate al momento della costituzione della Security Association (SA).
In ESP, gli algoritmi utilizzati per la crittografia e la generazione dell'autenticatore sono determinati dagli attributi utilizzati per creare la SA.
Il processo di ESP è il seguente. I primi due passaggi sono simili al processo di AH come indicato sopra.
Una volta determinato che è coinvolto ESP, vengono calcolati i campi del pacchetto ESP. La disposizione del campo ESP è illustrata nel diagramma seguente.
Il processo di crittografia e autenticazione in modalità di trasporto è illustrato nel diagramma seguente.
In caso di modalità Tunnel, il processo di crittografia e autenticazione è come illustrato nel diagramma seguente.
Sebbene l'autenticazione e la riservatezza siano i servizi principali forniti da ESP, entrambi sono opzionali. Tecnicamente, possiamo utilizzare la crittografia NULL senza autenticazione. Tuttavia, in pratica, uno dei due deve essere implementato per utilizzare l'ESP in modo efficace.
Il concetto di base è utilizzare ESP quando si desidera l'autenticazione e la crittografia e utilizzare AH quando si desidera un'autenticazione estesa senza crittografia.
Associazioni di sicurezza in IPsec
Security Association (SA) è il fondamento di una comunicazione IPsec. Le caratteristiche di SA sono:
Prima di inviare i dati, viene stabilita una connessione virtuale tra l'entità mittente e l'entità ricevente, denominata "Security Association (SA)".
IPsec offre molte opzioni per eseguire la crittografia e l'autenticazione di rete. Ogni connessione IPsec può fornire crittografia, integrità, autenticità o tutti e tre i servizi. Quando viene determinato il servizio di sicurezza, le due entità peer IPsec devono determinare esattamente quali algoritmi utilizzare (ad esempio, DES o 3DES per la crittografia; MD5 o SHA-1 per l'integrità). Dopo aver deciso gli algoritmi, i due dispositivi devono condividere le chiavi di sessione.
SA è un insieme di parametri di comunicazione di cui sopra che fornisce una relazione tra due o più sistemi per creare una sessione IPsec.
SA è di natura semplice e quindi sono necessarie due SA per le comunicazioni bidirezionali.
Le SA sono identificate da un numero SPI (Security Parameter Index) presente nell'intestazione del protocollo di sicurezza.
Sia le entità mittenti che quelle riceventi conservano le informazioni di stato sulla SA. È simile agli endpoint TCP che mantengono anche le informazioni sullo stato. IPsec è orientato alla connessione come TCP.
Parametri di SA
Qualsiasi SA è identificata in modo univoco dai seguenti tre parametri:
Indice dei parametri di sicurezza (SPI).
È un valore a 32 bit assegnato a SA. Viene utilizzato per distinguere tra diverse SA che terminano alla stessa destinazione e utilizzano lo stesso protocollo IPsec.
Ogni pacchetto di IPsec trasporta un'intestazione contenente il campo SPI. L'SPI viene fornito per mappare il pacchetto in arrivo a una SA.
L'SPI è un numero casuale generato dal mittente per identificare l'SA al destinatario.
Destination IP Address - Può essere l'indirizzo IP del router finale.
Security Protocol Identifier - Indica se l'associazione è AH o ESP SA.
Un esempio di SA tra due router coinvolti nella comunicazione IPsec è mostrato nel diagramma seguente.
Database amministrativi di protezione
In IPsec, ci sono due database che controllano l'elaborazione del datagramma IPsec. Uno è il Security Association Database (SAD) e l'altro è il Security Policy Database (SPD). Ogni endpoint di comunicazione che utilizza IPsec dovrebbe avere un SAD e un SPD logicamente separati.
Database delle associazioni di sicurezza
Nella comunicazione IPsec, l'endpoint mantiene lo stato SA nel Security Association Database (SAD). Ogni voce SA nel database SAD contiene nove parametri come mostrato nella tabella seguente:
Sr.No. | Parametri e descrizione |
---|---|
1 | Sequence Number Counter Per comunicazioni in uscita. Questo è il numero di sequenza a 32 bit fornito nelle intestazioni AH o ESP. |
2 | Sequence Number Overflow Counter Imposta un flag di opzione per impedire ulteriori comunicazioni utilizzando la specifica SA |
3 | 32-bit anti-replay window Utilizzato per determinare se un pacchetto AH o ESP in entrata è un replay |
4 | Lifetime of the SA Tempo fino a quando SA rimane attivo |
5 | Algorithm - AH Utilizzato in AH e nella chiave associata |
6 | Algorithm - ESP Auth Utilizzato nella parte di autenticazione dell'intestazione ESP |
7 | Algorithm - ESP Encryption Utilizzato nella crittografia dell'ESP e delle informazioni chiave associate |
8 | IPsec mode of operation Modalità trasporto o tunnel |
9 | Path MTU(PMTU) Qualsiasi unità di trasmissione massima del percorso osservato (per evitare la frammentazione) |
Tutte le voci SA nel SAD sono indicizzate dai tre parametri SA: indirizzo IP di destinazione, identificatore del protocollo di sicurezza e SPI.
Database dei criteri di sicurezza
SPD viene utilizzato per elaborare i pacchetti in uscita. Aiuta a decidere quali voci SAD dovrebbero essere utilizzate. Se non esiste alcuna voce SAD, SPD viene utilizzato per crearne di nuovi.
Qualsiasi voce SPD conterrebbe:
Puntatore alla SA attiva detenuta nel SAD.
Campi selettore: campo nel pacchetto in arrivo dal livello superiore utilizzato per decidere l'applicazione di IPsec. I selettori possono includere indirizzo di origine e destinazione, numeri di porta se rilevanti, ID applicazione, protocolli, ecc.
I datagrammi IP in uscita vanno dalla voce SPD alla specifica SA, per ottenere i parametri di codifica. Il datagramma IPsec in arrivo arriva alla SA corretta utilizzando direttamente il triplo SPI / DEST IP / Protocollo e da lì estrae la voce SAD associata.
SPD può anche specificare il traffico che dovrebbe ignorare IPsec. SPD può essere considerato come un filtro di pacchetti in cui le azioni decise sono l'attivazione di processi SA.
Sommario
IPsec è una suite di protocolli per la protezione delle connessioni di rete. È un meccanismo piuttosto complesso, perché invece di fornire una definizione semplice di uno specifico algoritmo di crittografia e funzione di autenticazione, fornisce un framework che consente l'implementazione di tutto ciò su cui entrambe le estremità di comunicazione concordano.
Authentication Header (AH) e Encapsulating Security Payload (ESP) sono i due principali protocolli di comunicazione utilizzati da IPsec. Mentre AH si limita ad autenticarsi, ESP può crittografare e autenticare i dati trasmessi tramite la connessione.
La modalità di trasporto fornisce una connessione sicura tra due endpoint senza modificare l'intestazione IP. La modalità tunnel incapsula l'intero pacchetto IP del payload. Aggiunge una nuova intestazione IP. Quest'ultimo viene utilizzato per formare una VPN tradizionale, in quanto fornisce un tunnel virtuale sicuro attraverso un Internet non affidabile.
L'impostazione di una connessione IPsec implica tutti i tipi di scelte crittografiche. L'autenticazione è solitamente basata su un hash crittografico come MD5 o SHA-1. Gli algoritmi di crittografia sono DES, 3DES, Blowfish e AES. Sono possibili anche altri algoritmi.
Entrambi gli endpoint comunicanti devono conoscere i valori segreti utilizzati nell'hashing o nella crittografia. Le chiavi manuali richiedono l'immissione manuale dei valori segreti su entrambe le estremità, presumibilmente trasmessa da un meccanismo fuori banda, e IKE (Internet Key Exchange) è un meccanismo sofisticato per farlo online.
Abbiamo visto che la rapida crescita di Internet ha sollevato una grande preoccupazione per la sicurezza della rete. Sono stati sviluppati diversi metodi per fornire sicurezza nell'applicazione, nel trasporto o nel livello di rete di una rete.
Molte organizzazioni incorporano misure di sicurezza a livelli OSI superiori, dal livello applicativo fino al livello IP. Tuttavia, un'area generalmente lasciata incustodita è il rafforzamento del livello Data Link. Ciò può aprire la rete a una varietà di attacchi e compromissioni.
In questo capitolo, discuteremo dei problemi di sicurezza a Data Link Layer e dei metodi per contrastarli. La nostra discussione sarà incentrata sulla rete Ethernet.
Problemi di sicurezza nel livello di collegamento dati
Il livello di collegamento dati nelle reti Ethernet è altamente soggetto a numerosi attacchi. Gli attacchi più comuni sono:
ARP Spoofing
Address Resolution Protocol (ARP) è un protocollo utilizzato per mappare un indirizzo IP su un indirizzo di macchina fisica riconoscibile nell'Ethernet locale. Quando una macchina host deve trovare un indirizzo MAC (Media Access Control) fisico per un indirizzo IP, trasmette una richiesta ARP. L'altro host che possiede l'indirizzo IP invia un messaggio di risposta ARP con il suo indirizzo fisico.
Ogni macchina host sulla rete mantiene una tabella, chiamata "cache ARP". La tabella contiene l'indirizzo IP e gli indirizzi MAC associati di altri host sulla rete.
Poiché ARP è un protocollo senza stato, ogni volta che un host riceve una risposta ARP da un altro host, anche se non ha inviato una richiesta ARP, accetta quella voce ARP e aggiorna la sua cache ARP. Il processo di modifica della cache ARP di un host di destinazione con una voce contraffatta nota come avvelenamento da ARP o spoofing ARP.
Lo spoofing ARP può consentire a un utente malintenzionato di mascherarsi come host legittimo e quindi intercettare i frame di dati su una rete, modificarli o bloccarli. Spesso l'attacco viene utilizzato per lanciare altri attacchi come man-in-the-middle, dirottamento di sessione o denial of service.
MAC Flooding
Ogni switch in Ethernet dispone di una tabella CAM (Content-Addressable Memory) che memorizza gli indirizzi MAC, i numeri di porta dello switch e altre informazioni. Il tavolo ha una dimensione fissa. Nell'attacco di inondazione MAC, l'autore dell'attacco inonda lo switch con indirizzi MAC utilizzando pacchetti ARP contraffatti fino a quando la tabella CAM non è piena.
Una volta che il CAM è inondato, lo switch entra in modalità simile a un hub e inizia a trasmettere il traffico che non ha accesso CAM. L'aggressore che si trova sulla stessa rete, ora riceve tutti i frame che erano destinati solo a un host specifico.
Port Stealing
Gli switch Ethernet hanno la capacità di apprendere e associare gli indirizzi MAC alle porte. Quando uno switch riceve traffico da una porta con un indirizzo sorgente MAC, associa il numero di porta e quell'indirizzo MAC.
L'attacco furto di porte sfrutta questa capacità degli interruttori. L'autore dell'attacco inonda lo switch con frame ARP contraffatti con l'indirizzo MAC dell'host di destinazione come indirizzo di origine. Switch è ingannato nel credere che l'host di destinazione sia sulla porta, sulla quale è effettivamente connesso un aggressore.
Ora tutti i frame di dati destinati all'host di destinazione vengono inviati alla porta dello switch dell'aggressore e non all'host di destinazione. Pertanto, l'attaccante ora riceve tutti i frame che erano effettivamente destinati solo all'host di destinazione.
Attacchi DHCP
Il protocollo DHCP (Dynamic Host Configuration Protocol) non è un protocollo di collegamento dati, ma le soluzioni agli attacchi DHCP sono utili anche per contrastare gli attacchi di livello 2.
DHCP viene utilizzato per allocare dinamicamente gli indirizzi IP ai computer per un periodo di tempo specifico. È possibile attaccare i server DHCP provocando la negazione del servizio nella rete o impersonando il server DHCP. In un attacco di fame DHCP, l'aggressore richiede tutti gli indirizzi DHCP disponibili. Ciò si traduce in una negazione del servizio per l'host legittimo sulla rete.
Nell'attacco di spoofing DHCP, l'attaccante può distribuire un server DHCP non autorizzato per fornire indirizzi ai client. Qui, l'attaccante può fornire alle macchine host un gateway predefinito rouge con le risposte DHCP. I frame di dati dall'host vengono ora guidati al gateway rouge dove l'attaccante può intercettare tutti i pacchetti e rispondere al gateway effettivo o rilasciarli.
Altri attacchi
Oltre ai suddetti attacchi popolari, ci sono altri attacchi come la trasmissione basata su Layer 2, Denial of Service (DoS), clonazione MAC.
Nell'attacco di trasmissione, l'attaccante invia risposte ARP contraffatte agli host sulla rete. Queste risposte ARP impostano l'indirizzo MAC del gateway predefinito sull'indirizzo di trasmissione. Ciò fa sì che tutto il traffico in uscita venga trasmesso, consentendo lo sniffing da parte dell'attaccante seduto sulla stessa Ethernet. Questo tipo di attacco influisce anche sulla capacità della rete.
Negli attacchi DoS basati sul livello 2, l'aggressore aggiorna le cache ARP degli host nella rete con indirizzi MAC inesistenti. L'indirizzo MAC di ciascuna scheda di interfaccia di rete in una rete dovrebbe essere globalmente unico. Tuttavia, può essere facilmente modificato abilitando la clonazione MAC. L'autore dell'attacco disabilita l'host di destinazione tramite un attacco DoS e quindi utilizza gli indirizzi IP e MAC dell'host di destinazione.
L'aggressore esegue gli attacchi per lanciare gli attacchi di livello superiore in modo da mettere a rischio la sicurezza delle informazioni che viaggiano sulla rete. Può intercettare tutti i frame e sarebbe in grado di leggere i dati del frame. L'aggressore può agire come un man-in-middle e modificare i dati o semplicemente eliminare il frame che porta a DoS. Può dirottare la sessione in corso tra l'host di destinazione e altre macchine e comunicare del tutto informazioni errate.
Protezione delle LAN Ethernet
Abbiamo discusso alcuni attacchi ampiamente noti a Data Link Layer nella sezione precedente. Sono stati sviluppati diversi metodi per mitigare questi tipi di attacchi. Alcuni dei metodi importanti sono:
Sicurezza del porto
È una funzionalità di sicurezza di livello 2 disponibile sugli switch Ethernet intelligenti. Implica il collegamento di una porta fisica di uno switch a uno o più indirizzi MAC specifici. Chiunque può accedere a una rete non sicura semplicemente collegando l'host a una delle porte dello switch disponibili. Tuttavia, la sicurezza delle porte può proteggere l'accesso al livello 2.
Per impostazione predefinita, la sicurezza della porta limita il conteggio degli indirizzi MAC in ingresso a uno. Tuttavia, è possibile consentire a più di un host autorizzato di connettersi da quella porta tramite la configurazione. Gli indirizzi MAC consentiti per interfaccia possono essere configurati staticamente. Un'alternativa conveniente è abilitare l'apprendimento "permanente" degli indirizzi MAC in cui gli indirizzi MAC verranno appresi dinamicamente dalla porta dello switch fino al raggiungimento del limite massimo per la porta.
Per garantire la sicurezza, la reazione alla modifica degli indirizzi MAC specificati su una porta o degli indirizzi in eccesso su una porta può essere controllata in molti modi diversi. La porta può essere configurata per arrestare o bloccare gli indirizzi MAC che superano un limite specificato. La migliore pratica consigliata è chiudere la porta. La sicurezza delle porte impedisce il flooding MAC e gli attacchi di clonazione.
DHCP Snooping
Abbiamo visto che lo spoofing DHCP è un attacco in cui l'attaccante ascolta le richieste DHCP dall'host sulla rete e risponde con una falsa risposta DHCP prima che la risposta DHCP autorizzata arrivi all'host.
Lo snooping DHCP può prevenire tali attacchi. Lo snooping DHCP è una funzionalità di commutazione. Lo switch può essere configurato per determinare quali porte dello switch possono rispondere alle richieste DHCP. Le porte dello switch vengono identificate come porte attendibili o non attendibili.
Solo le porte che si connettono a un server DHCP autorizzato sono configurate come "affidabili" e autorizzate a inviare tutti i tipi di messaggi DHCP. Tutte le altre porte sullo switch non sono attendibili e possono inviare solo richieste DHCP. Se viene visualizzata una risposta DHCP su una porta non attendibile, la porta viene arrestata.
Prevenire lo spoofing ARP
Il metodo di sicurezza della porta può prevenire attacchi di clonazione e flooding MAC. Tuttavia, non impedisce lo spoofing ARP. La sicurezza della porta convalida l'indirizzo di origine MAC nell'intestazione del frame, ma i frame ARP contengono un campo di origine MAC aggiuntivo nel payload dei dati e l'host utilizza questo campo per popolare la cache ARP. Alcuni metodi per impedire lo spoofing ARP sono elencati di seguito.
Static ARP- Una delle azioni consigliate consiste nell'utilizzare voci ARP statiche nella tabella ARP host. Le voci ARP statiche sono voci permanenti in una cache ARP. Tuttavia, questo metodo non è pratico. Inoltre, non consente l'utilizzo di alcuni DHCP (Dynamic Host Configuration Protocol) poiché è necessario utilizzare l'IP statico per tutti gli host nella rete di livello 2.
Intrusion Detection System- Il metodo di difesa consiste nell'utilizzare Intrusion Detection System (IDS) configurato per rilevare quantità elevate di traffico ARP. Tuttavia, IDS è incline a segnalare falsi positivi.
Dynamic ARP Inspection- Questo metodo per impedire lo spoofing ARP è simile allo snooping DHCP. Utilizza porte attendibili e non attendibili. Le risposte ARP sono consentite nell'interfaccia dello switch solo su porte attendibili. Se una risposta ARP arriva allo switch su una porta non attendibile, il contenuto del pacchetto di risposta ARP viene confrontato con la tabella di binding DHCP per verificarne l'accuratezza. Se la risposta ARP non è valida, la risposta ARP viene eliminata e la porta viene disabilitata.
Protezione del protocollo Spanning Tree
Spanning Tree Protocol (STP) è un protocollo di gestione dei collegamenti di livello 2. Lo scopo principale di STP è garantire che non vi siano loop del flusso di dati quando la rete ha percorsi ridondanti. In genere, i percorsi ridondanti sono costruiti per fornire affidabilità alla rete. Ma possono formare loop mortali che possono portare ad attacchi DoS nella rete.
Protocollo Spanning Tree
Per fornire la ridondanza del percorso desiderata, nonché per evitare una condizione di loop, STP definisce un albero che copre tutti gli switch in una rete. STP forza alcuni collegamenti dati ridondanti in uno stato bloccato e mantiene altri collegamenti in uno stato di inoltro.
Se un collegamento nello stato di inoltro si interrompe, STP riconfigura la rete e ridefinisce i percorsi dei dati attivando il percorso di standby appropriato. STP viene eseguito su bridge e switch distribuiti nella rete. Tutti gli switch si scambiano informazioni per la selezione dello switch root e per la successiva configurazione della rete. Le BPDU (Bridge Protocol Data Unit) contengono queste informazioni. Attraverso lo scambio di BPDU, tutti gli switch della rete eleggono un root bridge / switch che diventa il punto focale della rete e controlla i collegamenti bloccati e inoltrati.
Attacchi a STP
Rilevamento del ponte radice. È uno dei tipi di attacco più distruttivi al livello 2. Per impostazione predefinita, uno switch LAN accetta qualsiasi BPDU inviato dallo switch vicino al valore nominale. Per inciso, STP è affidabile, senza stato e non fornisce alcun meccanismo di autenticazione del suono.
Una volta in modalità di attacco root, lo switch attaccante invia un BPDU ogni 2 secondi con la stessa priorità dell'attuale root bridge, ma con un indirizzo MAC leggermente inferiore numericamente, che garantisce la sua vittoria nel processo di elezione del root bridge. L'interruttore dell'aggressore può lanciare un attacco DoS non riconoscendo correttamente altri interruttori che causano l'inondazione di BPDU o sottoponendo gli interruttori a BPDUS in eccesso affermando di essere root contemporaneamente e ritirandosi in rapida successione.
DoS utilizzando Flood of Configuration BPDU. Lo switch attaccante non tenta di subentrare come root. Invece, genera un numero elevato di BPDU al secondo che porta a un utilizzo molto elevato della CPU sugli switch.
Prevenire gli attacchi a STP
Fortunatamente, la contromisura a un attacco di acquisizione di root è semplice e diretta. Due funzionalità aiutano a sconfiggere un attacco di acquisizione di root.
Root Guard- Root guard limita le porte dello switch dalle quali è possibile negoziare il bridge root. Se una porta "abilitata per root-guard" riceve BPDU superiori a quelle inviate dal bridge root corrente, quella porta viene spostata in uno stato root inconsistente e nessun traffico di dati viene inoltrato attraverso quella porta. Root Guard è meglio distribuito verso le porte che si collegano a switch che non dovrebbero assumere il ruolo di root bridge.
BPDU-Guard- BPDU guard viene utilizzato per proteggere la rete dai problemi che possono essere causati dalla ricezione di BPDU sulle porte di accesso. Queste sono le porte che non dovrebbero riceverle. La protezione BPDU è meglio distribuita verso le porte rivolte all'utente per impedire l'inserimento di switch non autorizzati da parte di un utente malintenzionato.
Protezione della LAN virtuale
Nelle reti locali, le reti locali virtuali (VLAN) sono talvolta configurate come misura di sicurezza per limitare il numero di host suscettibili agli attacchi di livello 2. Le VLAN creano confini di rete, oltre i quali il traffico broadcast (ARP, DHCP) non può attraversare.
Rete locale virtuale
Una rete che utilizza uno o più switch che supportano le funzionalità VLAN può essere configurata per definire più VLAN su una singola infrastruttura LAN fisica.
La forma comune di VLAN è una VLAN basata su porta. In questa struttura VLAN, le porte dello switch sono raggruppate in VLAN utilizzando il software di gestione dello switch. Pertanto, un singolo switch fisico può agire come più switch virtuali.
L'impiego di VLAN fornisce l'isolamento del traffico. Divide la rete di livello 2 di trasmissione di grandi dimensioni in reti di livello 2 logiche più piccole e riduce quindi la portata degli attacchi come lo spoofing ARP / DHCP. I frame di dati di una VLAN possono spostarsi solo da / verso le porte appartenenti alla stessa VLAN. L'inoltro dei frame tra due VLAN avviene tramite il routing.
Le VLAN generalmente si estendono su più switch come mostrato nel diagramma sopra. Il collegamento tra le porte trunk trasporta i frame di tutte le VLAN definite su più switch fisici. Quindi, i frame VLAN inoltrati tra switch non possono essere semplici frame in formato Ethernet IEEE 802.1. Poiché questi frame si spostano sullo stesso collegamento fisico, ora devono trasportare le informazioni sull'ID VLAN. Il protocollo IEEE 802.1Q aggiunge / rimuove campi di intestazione aggiuntivi a semplici frame Ethernet inoltrati tra le porte trunk.
Quando il campo che segue i due campi degli indirizzi IP è 0x8100 (> 1500), il frame viene identificato come frame 802.1Q. Il valore del TPI (Tag Protocol Identifier) a 2 byte è 81-00. Il campo TCI è costituito da informazioni di priorità a 3 bit, indicatore di idoneità Drop a 1 bit (DEI) e ID VLAN a 12 bit. Questo campo di priorità a 3 bit e il campo DEI non sono rilevanti per le VLAN. I bit prioritari vengono utilizzati per fornire la qualità del servizio.
Quando un frame non appartiene a nessuna VLAN, esiste un ID VLAN predefinito al quale il frame è considerato associato.
Attacco a VLAN e misure di prevenzione
In un attacco con salto di VLAN, un utente malintenzionato su una VLAN può ottenere l'accesso al traffico su altre VLAN che normalmente non sarebbero accessibili. Bypasserebbe un dispositivo di livello 3 (router) durante la comunicazione da una VLAN a un'altra, vanificando così lo scopo della creazione della VLAN.
Il salto della VLAN può essere eseguito con due metodi; cambia spoofing e double tagging.
Cambia spoofing
Può verificarsi quando la porta dello switch, a cui è connesso l'attaccante, è in modalità "trunking" o "negoziazione automatica". L'aggressore funge da switch e aggiunge intestazioni di incapsulamento 802.1Q con tag VLAN per le VLAN remote di destinazione ai frame in uscita. Lo switch ricevente interpreta quei frame come originati da un altro switch 802.1Q e inoltra i frame alla VLAN di destinazione.
Le due misure preventive contro gli attacchi di spoofing dello switch consistono nell'impostare le porte edge in modalità di accesso statico e nel disabilitare la negoziazione automatica su tutte le porte.
Doppia codifica
In questo attacco, un utente malintenzionato connesso alla porta VLAN nativa dello switch antepone due tag VLAN nell'intestazione del frame. Il primo tag è della VLAN nativa e il secondo è per la VLAN di destinazione. Quando il primo switch riceve i frame dell'aggressore, rimuove il primo tag poiché i frame della VLAN nativa vengono inoltrati senza tag sulla porta trunk.
Poiché il secondo tag non è mai stato rimosso dal primo switch, lo switch ricevente identifica il tag rimanente come destinazione VLAN e inoltra i frame all'host di destinazione in quella VLAN. L'attacco double tagging sfrutta il concetto di VLAN nativa. Poiché la VLAN 1 è la VLAN predefinita per le porte di accesso e la VLAN nativa predefinita sui trunk, è un obiettivo facile.
La prima misura di prevenzione consiste nel rimuovere tutte le porte di accesso dalla VLAN 1 predefinita poiché la porta dell'aggressore deve corrispondere a quella della VLAN nativa dello switch. La seconda misura di prevenzione consiste nell'assegnare la VLAN nativa su tutti i trunk dello switch a una VLAN inutilizzata, ad esempio VLAN id 999. Infine, tutti gli switch devono essere configurati per eseguire la codifica esplicita dei frame VLAN nativi sulla porta trunk.
Protezione della LAN wireless
La rete locale wireless è una rete di nodi wireless all'interno di un'area geografica limitata, come un edificio per uffici o un campus scolastico. I nodi sono in grado di comunicare radio.
LAN senza fili
La LAN wireless viene solitamente implementata come estensioni della LAN cablata esistente per fornire l'accesso alla rete con mobilità del dispositivo. Le tecnologie LAN wireless più ampiamente implementate si basano sullo standard IEEE 802.11 e sui suoi emendamenti.
I due componenti principali nella LAN wireless sono:
Access Points (APs)- Queste sono le stazioni base per la rete wireless. Trasmettono e ricevono frequenze radio per comunicare con i client wireless.
Wireless Clients- Questi sono dispositivi informatici dotati di una scheda di interfaccia di rete wireless (WNIC). Laptop, telefoni IP, PDA sono esempi tipici di client wireless.
Molte organizzazioni hanno implementato LAN wireless. Queste reti stanno crescendo in modo fenomenale. È quindi fondamentale comprendere le minacce nelle LAN wireless e apprendere la misura preventiva comune per garantire la sicurezza della rete.
Attacchi in Wireless LAN
I tipici attacchi che vengono effettuati su Wireless LAN sono:
Eavesdropping - L'aggressore monitora passivamente le reti wireless per i dati, comprese le credenziali di autenticazione.
Masquerading - L'aggressore si spaccia per un utente autorizzato e ottiene accesso e privilegi sulle reti wireless.
Traffic Analysis - L'aggressore monitora le trasmissioni tramite reti wireless per identificare i modelli di comunicazione e i partecipanti.
Denial of Service - L'aggressore impedisce o limita il normale utilizzo o la gestione della LAN wireless o dei dispositivi di rete.
Message Modification/Replay - L'autore dell'attacco altera o risponde a un messaggio legittimo inviato tramite reti wireless eliminandolo, aggiungendolo, modificandolo o riordinandolo.
Misure di sicurezza nella LAN wireless
Le misure di sicurezza forniscono i mezzi per sconfiggere gli attacchi e gestire i rischi per le reti. Si tratta di gestione della rete, funzionamento e misure tecniche. Di seguito vengono descritte le misure tecniche adottate per garantire la riservatezza, la disponibilità e l'integrità dei dati trasmessi tramite LAN wireless.
Nelle LAN wireless, tutti gli AP devono essere configurati per fornire sicurezza tramite crittografia e autenticazione client. I tipi di schemi utilizzati nella LAN wireless per fornire sicurezza sono i seguenti:
Wired Equivalent Privacy (WEP)
È un algoritmo di crittografia integrato nello standard 802.11 per proteggere le reti wireless. La crittografia WEP utilizza il cifrario a flusso RC4 (Rivest Cipher 4) con chiavi a 40 bit / 104 bit e un vettore di inizializzazione a 24 bit. Può anche fornire l'autenticazione dell'endpoint.
È, tuttavia, il meccanismo di sicurezza della crittografia più debole, poiché sono stati scoperti numerosi difetti nella crittografia WEP. WEP inoltre non dispone del protocollo di autenticazione. Pertanto, l'utilizzo di WEP non è altamente raccomandato.
Protocollo 802.11i
In questo protocollo sono possibili numerose e più potenti forme di crittografia. È stato sviluppato per sostituire il debole schema WEP. Fornisce meccanismo di distribuzione delle chiavi. Supporta una chiave per stazione e non utilizza la stessa chiave per tutte. Utilizza un server di autenticazione separato dal punto di accesso.
IEEE802.11i impone l'uso di un protocollo denominato modalità contatore con protocollo CBC-MAC (CCMP). CCMP garantisce la riservatezza e l'integrità dei dati trasferiti e l'autenticità del mittente. Si basa sulla crittografia a blocchi Advanced Encryption Standard (AES).
Il protocollo IEEE802.11i prevede quattro fasi operative.
STA e AP comunicano e scoprono capacità di sicurezza reciproca come gli algoritmi supportati.
STA e AS si autenticano reciprocamente e insieme generano la Master Key (MK). AP funge da "passaggio".
STA deriva la Pairwise Master Key (PMK). AS deriva lo stesso PMK e invia ad AP.
STA, AP utilizza PMK per derivare la chiave temporale (TK) da utilizzare per la crittografia dei messaggi e l'integrità dei dati.
Altri standard
Wi-Fi Protected Access(WPA) - Questo protocollo implementa la maggior parte dello standard IEEE 802.11i. Esisteva prima di IEEE 802.11i e utilizza l'algoritmo RC4 per la crittografia. Ha due modalità di funzionamento. In modalità "Enterprise", WPA utilizza il protocollo di autenticazione 802.1x per comunicare con il server di autenticazione, e quindi le chiavi pre-master (PMK) sono specifiche della stazione client. In modalità "Personale", non utilizza 802.1x, PMK viene sostituito da una chiave precondivisa, utilizzata per gli ambienti LAN wireless Small Office Home Office (SOHO).
WPA include anche un controllo di integrità del messaggio sonoro che sostituisce il controllo di ridondanza ciclica (CRC) utilizzato dallo standard WEP.
WPA2- WPA2 ha sostituito WPA. WPA2 implementa tutti gli elementi obbligatori dello schema IEEE 802.11i. In particolare, include il supporto obbligatorio per CCMP, una modalità di crittografia basata su AES con una forte sicurezza. Quindi, per quanto riguarda gli attacchi, WPA2 / IEEE802.11i fornisce soluzioni adeguate per difendersi da debolezze WEP, attacchi man-in-the-middle, contraffazione di pacchetti contraffatti e attacchi replay. Tuttavia, l'attacco DoS non viene affrontato correttamente e non esistono protocolli solidi per fermare tali attacchi fondamentalmente perché tali attacchi prendono di mira il livello fisico come interferire con la banda di frequenza.
Sommario
In questo capitolo, abbiamo considerato gli attacchi e le tecniche di mitigazione assumendo una rete Ethernet commutata che esegue IP. Se la tua rete non utilizza Ethernet come protocollo di livello 2, alcuni di questi attacchi potrebbero non essere applicabili, ma è probabile che tale rete sia vulnerabile a diversi tipi di attacchi.
La sicurezza è forte solo quanto l'anello più debole. Quando si tratta di networking, il livello 2 può essere un anello molto debole. Le misure di sicurezza di livello 2 menzionate in questo capitolo contribuiscono notevolmente alla protezione di una rete da molti tipi di attacchi.
Il controllo dell'accesso alla rete è un metodo per migliorare la sicurezza di una rete aziendale privata limitando la disponibilità delle risorse di rete ai dispositivi endpoint conformi ai criteri di sicurezza dell'organizzazione. Un tipico schema di controllo dell'accesso alla rete comprende due componenti principali come l'accesso limitato e la protezione dei confini della rete.
L'accesso limitato ai dispositivi di rete si ottiene tramite l'autenticazione dell'utente e il controllo dell'autorizzazione, responsabile dell'identificazione e dell'autenticazione dei diversi utenti nel sistema di rete. L'autorizzazione è il processo di concessione o negazione di autorizzazioni di accesso specifiche a una risorsa protetta.
Network Boundary Protectioncontrolla la connettività logica in entrata e in uscita dalle reti. Ad esempio, è possibile implementare più firewall per impedire l'accesso non autorizzato ai sistemi di rete. Anche le tecnologie di rilevamento e prevenzione delle intrusioni possono essere utilizzate per difendersi dagli attacchi da Internet.
In questo capitolo discuteremo i metodi per l'identificazione dell'utente e l'autenticazione per l'accesso alla rete, seguiti da vari tipi di firewall e sistemi di rilevamento delle intrusioni.
Protezione dell'accesso ai dispositivi di rete
Limitare l'accesso ai dispositivi in rete è un passaggio essenziale per proteggere una rete. Poiché i dispositivi di rete comprendono sia le apparecchiature di comunicazione che quelle di elaborazione, la loro compromissione può potenzialmente far cadere un'intera rete e le sue risorse.
Paradossalmente, molte organizzazioni garantiscono un'eccellente sicurezza per i propri server e applicazioni, ma lasciano i dispositivi di rete in comunicazione con una sicurezza rudimentale.
Un aspetto importante della sicurezza dei dispositivi di rete è il controllo dell'accesso e l'autorizzazione. Sono stati sviluppati molti protocolli per soddisfare questi due requisiti e aumentare la sicurezza della rete a livelli più alti.
Autenticazione e autorizzazione dell'utente
L'autenticazione dell'utente è necessaria per controllare l'accesso ai sistemi di rete, in particolare ai dispositivi dell'infrastruttura di rete. L'autenticazione ha due aspetti: autenticazione di accesso generale e autorizzazione funzionale.
L'autenticazione di accesso generale è il metodo per controllare se un determinato utente dispone di "qualsiasi" tipo di diritto di accesso al sistema a cui sta tentando di connettersi. Di solito, questo tipo di accesso è associato all'utente che ha un "account" con quel sistema. L'autorizzazione riguarda i "diritti" dei singoli utenti. Ad esempio, decide cosa può fare un utente una volta autenticato; l'utente può essere autorizzato a configurare il dispositivo o solo a visualizzare i dati.
L'autenticazione dell'utente dipende da fattori che includono qualcosa che conosce (password), qualcosa che ha (token crittografico) o qualcosa che è (biometrico). L'utilizzo di più di un fattore per l'identificazione e l'autenticazione fornisce la base per l'autenticazione a più fattori.
Autenticazione basata su password
A un livello minimo, tutti i dispositivi di rete dovrebbero avere l'autenticazione nome utente-password. La password non deve essere banale (almeno 10 caratteri, alfabeti misti, numeri e simboli).
In caso di accesso remoto da parte dell'utente, è necessario utilizzare un metodo per garantire che i nomi utente e le password non vengano trasmessi in chiaro sulla rete. Inoltre, anche le password dovrebbero essere modificate con una frequenza ragionevole.
Metodi di autenticazione centralizzati
Il sistema di autenticazione basato sul singolo dispositivo fornisce una misura di controllo dell'accesso di base. Tuttavia, un metodo di autenticazione centralizzato è considerato più efficace ed efficiente quando la rete ha un numero elevato di dispositivi con un numero elevato di utenti che accedono a questi dispositivi.
Tradizionalmente, l'autenticazione centralizzata veniva utilizzata per risolvere i problemi riscontrati nell'accesso alla rete remota. Nei sistemi di accesso remoto (RAS), l'amministrazione degli utenti sui dispositivi di rete non è pratica. Posizionare tutte le informazioni dell'utente in tutti i dispositivi e quindi mantenerle aggiornate è un incubo amministrativo.
I sistemi di autenticazione centralizzati, come RADIUS e Kerberos, risolvono questo problema. Questi metodi centralizzati consentono di archiviare e gestire le informazioni dell'utente in un unico luogo. Questi sistemi di solito possono essere perfettamente integrati con altri schemi di gestione degli account utente come Active Directory o directory LDAP di Microsoft. La maggior parte dei server RADIUS può comunicare con altri dispositivi di rete nel normale protocollo RADIUS e quindi accedere in modo sicuro alle informazioni sull'account archiviate nelle directory.
Ad esempio, il server di autenticazione Internet (IAS) di Microsoft collega RADIUS e Active Directory per fornire l'autenticazione centralizzata per gli utenti dei dispositivi. Assicura inoltre che le informazioni sull'account utente siano unificate con gli account di dominio Microsoft. Il diagramma sopra mostra un controller di dominio Windows che funziona sia come server Active Directory che come server RADIUS per gli elementi di rete per l'autenticazione in un dominio Active Directory.
Elenchi di controllo degli accessi
Molti dispositivi di rete possono essere configurati con elenchi di accesso. Questi elenchi definiscono i nomi host o gli indirizzi IP autorizzati per l'accesso al dispositivo. È tipico, ad esempio, limitare l'accesso all'apparecchiatura di rete dagli IP ad eccezione dell'amministratore di rete.
Questo proteggerà quindi da qualsiasi tipo di accesso che potrebbe essere non autorizzato. Questi tipi di elenchi di accesso servono come ultima difesa importante e possono essere abbastanza potenti su alcuni dispositivi con regole diverse per diversi protocolli di accesso.
Quasi ogni organizzazione di media e grande scala ha una presenza su Internet e ha una rete organizzativa ad essa collegata. Il partizionamento della rete al confine tra Internet esterno e la rete interna è essenziale per la sicurezza della rete. A volte la rete interna (intranet) viene definita lato "attendibile" e Internet esterno come lato "non attendibile".
Tipi di firewall
Il firewall è un dispositivo di rete che isola la rete interna dell'organizzazione da una rete / Internet esterna più grande. Può essere un hardware, software o un sistema combinato che impedisce l'accesso non autorizzato alla o dalla rete interna.
Tutti i pacchetti di dati che entrano o escono dalla rete interna passano attraverso il firewall, che esamina ogni pacchetto e blocca quelli che non soddisfano i criteri di sicurezza specificati.
Distribuire un firewall ai confini della rete è come aggregare la sicurezza in un unico punto. È analogo a chiudere un appartamento all'ingresso e non necessariamente a ciascuna porta.
Il firewall è considerato un elemento essenziale per ottenere la sicurezza della rete per i seguenti motivi:
È improbabile che la rete interna e gli host siano adeguatamente protetti.
Internet è un luogo pericoloso con criminali, utenti di aziende concorrenti, ex dipendenti scontenti, spie di paesi ostili, vandali, ecc.
Per impedire a un utente malintenzionato di lanciare attacchi denial of service sulle risorse di rete.
Per impedire la modifica / l'accesso illegale ai dati interni da parte di un utente malintenzionato esterno.
Il firewall è classificato in tre tipi di base:
- Filtro pacchetti (stateless e stateful)
- Gateway a livello di applicazione
- Gateway a livello di circuito
Queste tre categorie, tuttavia, non si escludono a vicenda. I firewall moderni hanno un mix di capacità che possono collocarli in più di una delle tre categorie.
Firewall di filtraggio dei pacchetti stateless e stateful
In questo tipo di distribuzione del firewall, la rete interna è collegata alla rete esterna / Internet tramite un firewall del router. Il firewall ispeziona e filtra i dati pacchetto per pacchetto.
Packet-filtering firewalls consentire o bloccare i pacchetti principalmente in base a criteri quali indirizzi IP di origine e / o destinazione, protocollo, numeri di porta di origine e / o destinazione e vari altri parametri all'interno dell'intestazione IP.
La decisione può essere basata su fattori diversi dai campi dell'intestazione IP come il tipo di messaggio ICMP, i bit TCP SYN e ACK, ecc.
La regola del filtro dei pacchetti ha due parti:
Selection criteria - È usato come condizione e pattern matching per il processo decisionale.
Action field- Questa parte specifica l'azione da intraprendere se un pacchetto IP soddisfa i criteri di selezione. L'azione può essere bloccare (negare) o consentire (consentire) il pacchetto attraverso il firewall.
Il filtraggio dei pacchetti viene generalmente eseguito configurando gli elenchi di controllo di accesso (ACL) su router o switch. ACL è una tabella delle regole di filtro dei pacchetti.
Quando il traffico entra o esce da un'interfaccia, il firewall applica gli ACL dall'alto verso il basso a ciascun pacchetto in entrata, trova i criteri di corrispondenza e consente o nega i singoli pacchetti.
Stateless firewallè una specie di strumento rigido. Controlla il pacchetto e lo consente se soddisfa i criteri anche se non fa parte di alcuna comunicazione in corso stabilita.
Pertanto, tali firewall vengono sostituiti da stateful firewallsnelle reti moderne. Questo tipo di firewall offre un metodo di ispezione più approfondito rispetto agli unici metodi di ispezione dei pacchetti basati su ACL dei firewall senza stato.
Il firewall con stato monitora la configurazione della connessione e il processo di smontaggio per tenere sotto controllo le connessioni a livello TCP / IP. Ciò consente loro di tenere traccia dello stato delle connessioni e di determinare quali host hanno connessioni aperte e autorizzate in un dato momento.
Fanno riferimento alla rule base solo quando viene richiesta una nuova connessione. I pacchetti appartenenti alle connessioni esistenti vengono confrontati con la tabella di stato delle connessioni aperte del firewall e viene presa la decisione di consentire o bloccare. Questo processo consente di risparmiare tempo e fornisce anche una maggiore sicurezza. Nessun pacchetto può oltrepassare il firewall a meno che non appartenga a una connessione già stabilita. Può eseguire il timeout delle connessioni inattive al firewall dopo di che non ammette più i pacchetti per quella connessione.
Gateway dell'applicazione
Un gateway a livello di applicazione funge da nodo di inoltro per il traffico a livello di applicazione. Intercettano i pacchetti in entrata e in uscita, eseguono proxy che copiano e inoltrano informazioni attraverso il gateway e funzionano come fileproxy server, impedendo qualsiasi connessione diretta tra un server o un client attendibile e un host non attendibile.
I proxy sono specifici dell'applicazione. Possono filtrare i pacchetti a livello di applicazione del modello OSI.
Proxy specifici dell'applicazione
Un proxy specifico dell'applicazione accetta i pacchetti generati solo dall'applicazione specificata per cui sono progettati per essere copiati, inoltrati e filtrati. Ad esempio, solo un proxy Telnet può copiare, inoltrare e filtrare il traffico Telnet.
Se una rete si basa solo su un gateway a livello di applicazione, i pacchetti in entrata e in uscita non possono accedere a servizi che non hanno proxy configurati. Ad esempio, se un gateway esegue proxy FTP e Telnet, solo i pacchetti generati da questi servizi possono passare attraverso il firewall. Tutti gli altri servizi sono bloccati.
Filtro a livello di applicazione
Un gateway proxy a livello di applicazione, esamina e filtra i singoli pacchetti, invece di copiarli e inoltrarli ciecamente attraverso il gateway. I proxy specifici dell'applicazione controllano ogni pacchetto che passa attraverso il gateway, verificando il contenuto del pacchetto attraverso il livello dell'applicazione. Questi proxy possono filtrare particolari tipi di comandi o informazioni nei protocolli dell'applicazione.
I gateway dell'applicazione possono limitare l'esecuzione di azioni specifiche. Ad esempio, il gateway potrebbe essere configurato per impedire agli utenti di eseguire il comando "FTP put". Ciò può impedire la modifica delle informazioni memorizzate sul server da parte di un utente malintenzionato.
Trasparente
Sebbene i gateway a livello di applicazione possano essere trasparenti, molte implementazioni richiedono l'autenticazione dell'utente prima che gli utenti possano accedere a una rete non attendibile, un processo che riduce la vera trasparenza. L'autenticazione può essere diversa se l'utente proviene dalla rete interna o da Internet. Per una rete interna, è possibile consentire a un semplice elenco di indirizzi IP di connettersi ad applicazioni esterne. Ma dal lato Internet dovrebbe essere implementata un'autenticazione forte.
Un gateway applicazione in realtà inoltra i segmenti TCP tra le due connessioni TCP nelle due direzioni (Client ↔ Proxy ↔ Server).
Per i pacchetti in uscita, il gateway può sostituire l'indirizzo IP di origine con il proprio indirizzo IP. Il processo è denominato NAT (Network Address Translation). Assicura che gli indirizzi IP interni non siano esposti a Internet.
Gateway a livello di circuito
Il gateway a livello di circuito è una soluzione intermedia tra il filtro dei pacchetti e il gateway dell'applicazione. Funziona a livello di trasporto e quindi può fungere da proxy per qualsiasi applicazione.
Analogamente a un gateway applicazione, anche il gateway a livello di circuito non consente una connessione TCP end-to-end attraverso il gateway. Imposta due connessioni TCP e ritrasmette i segmenti TCP da una rete all'altra. Tuttavia, non esamina i dati dell'applicazione come il gateway applicazione. Quindi, a volte viene chiamato "Pipe Proxy".
CALZINI
SOCKS (RFC 1928) si riferisce a un gateway a livello di circuito. È un meccanismo proxy di rete che consente agli host su un lato di un server SOCKS di ottenere l'accesso completo agli host sull'altro lato senza richiedere la raggiungibilità IP diretta. Il client si connette al server SOCKS sul firewall. Quindi il client avvia una negoziazione per il metodo di autenticazione da utilizzare e si autentica con il metodo scelto.
Il client invia una richiesta di inoltro della connessione al server SOCKS, contenente l'indirizzo IP di destinazione desiderato e la porta di trasporto. Il server accetta la richiesta dopo aver verificato che il client soddisfi i criteri di filtraggio di base. Quindi, per conto del client, il gateway apre una connessione all'host non attendibile richiesto e quindi monitora attentamente l'handshaking TCP che segue.
Il server SOCKS informa il client e, in caso di successo, inizia a ritrasmettere i dati tra le due connessioni. I gateway a livello di circuito vengono utilizzati quando l'organizzazione si fida degli utenti interni e non desidera ispezionare i contenuti oi dati dell'applicazione inviati su Internet.
Distribuzione firewall con DMZ
Un firewall è un meccanismo utilizzato per controllare il traffico di rete "in entrata" e "in uscita" da una rete interna dell'organizzazione. Nella maggior parte dei casi questi sistemi hanno due interfacce di rete, una per la rete esterna come Internet e l'altra per il lato interno.
Il processo firewall può controllare strettamente ciò che è consentito attraversare da un lato all'altro. Un'organizzazione che desidera fornire l'accesso esterno al proprio server Web può limitare tutto il traffico in arrivo al firewall previsto per la porta 80 (la porta http standard). Tutto il resto del traffico come il traffico di posta, FTP, SNMP e così via non è consentito attraverso il firewall nella rete interna. Un esempio di un semplice firewall è mostrato nel diagramma seguente.
Nella semplice implementazione di cui sopra, sebbene tutti gli altri accessi dall'esterno siano bloccati, è possibile per un utente malintenzionato contattare non solo un server Web ma qualsiasi altro host sulla rete interna che ha lasciato la porta 80 aperta per errore o in altro modo.
Pertanto, il problema che la maggior parte delle organizzazioni deve affrontare è come consentire l'accesso legittimo a servizi pubblici come Web, FTP ed e-mail mantenendo al contempo una stretta sicurezza della rete interna. L'approccio tipico consiste nell'implementazione di firewall per fornire una zona demilitarizzata (DMZ) nella rete.
In questa configurazione (illustrata nel diagramma seguente), vengono distribuiti due firewall; uno tra la rete esterna e la DMZ e un altro tra la DMZ e la rete interna. Tutti i server pubblici vengono inseriti nella DMZ.
Con questa configurazione, è possibile avere regole del firewall che consentono l'accesso pubblico ai server pubblici, ma il firewall interno può limitare tutte le connessioni in entrata. Avendo la DMZ, i server pubblici ricevono una protezione adeguata invece di posizionarli direttamente su una rete esterna.
Sistema di rilevamento / prevenzione delle intrusioni
I firewall di filtraggio dei pacchetti funzionano in base a regole che coinvolgono solo le intestazioni TCP / UDP / IP. Non tentano di stabilire controlli di correlazione tra sessioni diverse.
Il sistema di rilevamento / prevenzione delle intrusioni (IDS / IPS) esegue la Deep Packet Inspection (DPI) osservando il contenuto del pacchetto. Ad esempio, il controllo delle stringhe di caratteri nel pacchetto rispetto al database di virus noti, stringhe di attacco.
I gateway dell'applicazione esaminano il contenuto del pacchetto ma solo per applicazioni specifiche. Non cercano dati sospetti nel pacchetto. IDS / IPS cerca i dati sospetti contenuti nei pacchetti e prova a esaminare la correlazione tra più pacchetti per identificare eventuali attacchi come la scansione delle porte, la mappatura della rete e la negazione del servizio e così via.
Differenza tra IDS e IPS
IDS e IPS sono simili nel rilevamento di anomalie nella rete. IDS è uno strumento di "visibilità" mentre IPS è considerato uno strumento di "controllo".
I sistemi di rilevamento delle intrusioni si trovano a lato della rete, monitorano il traffico in molti punti diversi e forniscono visibilità sullo stato di sicurezza della rete. In caso di segnalazione di anomalia da parte di IDS, le azioni correttive vengono avviate dall'amministratore di rete o da un altro dispositivo sulla rete.
Il sistema di prevenzione delle intrusioni è come un firewall e si trova in linea tra due reti e controlla il traffico che le attraversa. Applica una policy specifica sul rilevamento di anomalie nel traffico di rete. Generalmente, rilascia tutti i pacchetti e blocca l'intero traffico di rete quando rileva un'anomalia fino a quando un'anomalia non viene risolta dall'amministratore.
Tipi di IDS
Esistono due tipi fondamentali di IDS.
Signature-based IDS
Ha bisogno di un database di attacchi noti con le loro firme.
La firma è definita dai tipi e dall'ordine dei pacchetti che caratterizzano un particolare attacco.
La limitazione di questo tipo di IDS è che possono essere rilevati solo gli attacchi noti. Questo IDS può anche generare un falso allarme. Un falso allarme può verificarsi quando un normale flusso di pacchetti corrisponde alla firma di un attacco.
Un noto esempio di IDS open source pubblico è "Snort" IDS.
Anomaly-based IDS
Questo tipo di IDS crea un modello di traffico per il normale funzionamento della rete.
Durante la modalità IDS, esamina i modelli di traffico che sono statisticamente insoliti. Ad esempio, carico insolito ICMP, crescita esponenziale nelle scansioni delle porte, ecc.
Il rilevamento di qualsiasi modello di traffico insolito genera l'allarme.
La principale sfida affrontata in questo tipo di implementazione di IDS è la difficoltà nel distinguere tra traffico normale e traffico insolito.
Sommario
In questo capitolo, abbiamo discusso i vari meccanismi impiegati per il controllo dell'accesso alla rete. L'approccio alla sicurezza di rete attraverso il controllo degli accessi è tecnicamente diverso dall'implementazione dei controlli di sicurezza a diversi livelli di rete discussi nei capitoli precedenti di questo tutorial. Tuttavia, sebbene gli approcci di implementazione siano diversi, sono complementari tra loro.
Il controllo dell'accesso alla rete comprende due componenti principali: l'autenticazione dell'utente e la protezione dei confini della rete. RADIUS è un meccanismo popolare per fornire l'autenticazione centrale nella rete.
Il firewall fornisce la protezione dei confini della rete separando una rete interna dall'Internet pubblica. Il firewall può funzionare a diversi livelli del protocollo di rete. IDS / IPS consente di monitorare le anomalie nel traffico di rete per rilevare l'attacco e intraprendere azioni preventive nei confronti dello stesso.
L'informazione e la comunicazione efficiente sono due delle questioni strategiche più importanti per il successo di ogni azienda. Con l'avvento dei mezzi elettronici di comunicazione e archiviazione, sempre più aziende sono passate all'utilizzo di reti di dati per comunicare, archiviare informazioni e ottenere risorse. Esistono diversi tipi e livelli di infrastrutture di rete utilizzate per gestire l'attività.
Si può affermare che nel mondo moderno nulla ha avuto un impatto maggiore sulle imprese dei computer in rete. Ma il networking porta con sé minacce alla sicurezza che, se mitigate, consentono ai vantaggi del networking di superare i rischi.
Ruolo della rete negli affari
Al giorno d'oggi, le reti di computer sono viste come una risorsa da quasi tutte le aziende. Questa risorsa consente loro di raccogliere, analizzare, organizzare e diffondere informazioni essenziali per la loro redditività. La maggior parte delle aziende ha installato reti per rimanere competitiva.
Il ruolo più ovvio della rete di computer è che le organizzazioni possono archiviare praticamente qualsiasi tipo di informazione in una posizione centrale e recuperarla nel punto desiderato attraverso la rete.
Vantaggi delle reti
La rete di computer consente alle persone di condividere facilmente informazioni e idee, in modo che possano lavorare in modo più efficiente e produttivo. Le reti migliorano attività come l'acquisto, la vendita e il servizio clienti. Il networking rende i processi aziendali tradizionali più efficienti, più gestibili e meno costosi.
I principali vantaggi che un'azienda trae dalle reti di computer sono:
Resource sharing - Un'azienda può ridurre la quantità di denaro speso per l'hardware condividendo componenti e periferiche connesse alla rete.
Streamlined business processes - Le reti di computer consentono alle aziende di snellire i propri processi aziendali interni.
Collaboration among departments - Quando due o più dipartimenti aziendali collegano parti selezionate delle loro reti, possono semplificare i processi aziendali che normalmente richiedono quantità eccessive di tempo e impegno e spesso pongono difficoltà per ottenere una maggiore produttività.
Improved Customer Relations - Le reti offrono ai clienti molti vantaggi, come la comodità nel fare affari, una risposta rapida al servizio e così via.
Ci sono molti altri vantaggi specifici per l'azienda che derivano dal networking. Tali vantaggi hanno reso essenziale per tutti i tipi di attività l'adozione di reti di computer.
Necessità per la sicurezza della rete
Le minacce sulle reti cablate o wireless sono aumentate in modo significativo a causa del progresso della tecnologia moderna con la crescente capacità delle reti di computer. L'utilizzo schiacciante di Internet nel mondo di oggi per varie transazioni commerciali ha posto sfide al furto di informazioni e ad altri attacchi alle risorse intellettuali aziendali.
Nell'era attuale, la maggior parte delle attività vengono condotte tramite applicazioni di rete e, quindi, tutte le reti sono a rischio di essere attaccate. Le minacce alla sicurezza più comuni per la rete aziendale sono l'intercettazione e il furto dei dati e il furto di identità.
La sicurezza di rete è un campo specializzato che si occupa di contrastare tali minacce e fornire la protezione dell'usabilità, affidabilità, integrità e sicurezza dell'infrastruttura di rete di computer di un'azienda.
Importanza della sicurezza di rete per le aziende
Protecting Business Assets- Questo è l'obiettivo principale della sicurezza della rete. Per risorse si intendono le informazioni archiviate nelle reti di computer. Le informazioni sono cruciali e preziose come qualsiasi altro bene tangibile dell'azienda. La sicurezza della rete riguarda l'integrità, la protezione e l'accesso sicuro alle informazioni riservate.
Compliance with Regulatory Requirements - Le misure di sicurezza della rete aiutano le aziende a conformarsi alle normative specifiche del governo e del settore sulla sicurezza delle informazioni.
Secure Collaborative Working- La sicurezza della rete incoraggia la collaborazione dei colleghi e facilita la comunicazione con clienti e fornitori offrendo loro un accesso sicuro alla rete. Aumenta la fiducia dei clienti e dei consumatori che le loro informazioni sensibili siano protette.
Reduced Risk - L'adozione della sicurezza di rete riduce l'impatto delle violazioni della sicurezza, comprese le azioni legali che possono far fallire le piccole imprese.
Gaining Competitive Advantage- Lo sviluppo di un sistema di sicurezza efficace per le reti offre un vantaggio competitivo a un'organizzazione. Nell'arena dei servizi finanziari su Internet e del commercio elettronico, la sicurezza della rete assume un'importanza primaria.