Hardware

                                     Hardware

In ingegneria elettronica e informatica con il termine hardware si indica la parte fisica di un computer, ovvero tutte quelle parti elettroniche, elettriche, meccaniche, magnetiche, ottiche che ne consentono il funzionamento (dette anche strumentario).

Più in generale il termine si riferisce a qualsiasi componente fisico di una periferica o di una apparecchiatura elettronica.

L’etimologia del vocabolo nasce dalla fusione di due termini della lingua inglese, hard (duro, pesante) e ware (manufatto, oggetto), in contrapposizione con il software, la parte logica (e perciò soft, “morbida, leggera”) che compone il personal computer costituendone insieme all’hardware le cosiddette applicazioni.

Scheda madre

La Scheda madre è il componente principale di un PC; può occupare spazio diverso in base alla tipologia ed è dotata di circuiti integrati che hanno il compito di collegare fra loro gli altri componenti del sistema. Alloggiati sulla scheda madre è possibile trovare componenti quali la CPU, la memoria RAM, l’insieme di unità di memoria ROM che contengono il BIOS, le schede grafiche e di rete. Tutti i componenti collegati alla motherboard sono divisi tra il northbridge e ilsouthbridge.

Northbridge

Il northbridge è un circuito che permette il collegamento ad alta velocità tra i componenti critici per le prestazioni del computer:

  • La CPU, che ha il compito principale di effettuare i calcoli che permettono al computer di funzionare; ci si riferisce spesso come al cervello del computer;
  • La memoria RAM (random-access memory, memoria ad accesso casuale), che contiene le parti essenziali del sistema operativo in uso per una maggiore velocità di accesso da parte dei processi, e che costituisce la memoria primaria;
  • Gli slot di espansione principali, come PCIPCI Express e AGP, che ospitano schede e processori grafici o fisici ad alte prestazioni;
  • Nelle schede madri più recenti sono presenti slot SATA e/o ATA per il collegamento di unità disco.

Southbridge

Il southbridge gestisce le interfacce a bassa velocità, quali:

Memoria secondaria

La memoria secondaria o di massa è l’insieme di supporti che permette ai dati e alle informazioni di persistere nel sistema anche dopo lo spegnimento del computer:

  • dischi rigidi: utilizzano tradizionalmente supporti di tipo magnetico (anche se ultimamente ne sono usciti con memorie a stato solido) e tipicamente vengono usati per avviare il sistema operativo dei personal computer; hanno una capacità che arriva ad una dimensione dell’ordine dei TB.
  • nastri magnetici: supporti magnetici che per l’alta capacità ed affidabilità sono stati e vengono tipicamente utilizzati per backup di grandi dimensioni. L’aumentata affidabilità e capienza e la diminuzione dei prezzi degli hard disk ne hanno ridotto l’uso anche se restano ancora usati in molti centri di elaborazione dati.
  • floppy disk: ormai obsoleti, permettevano la persistenza ed il trasferimento dei dati; avevano una capienza dell’ordine dei 160 kB per i primi dischetti da 5¼ pollici fino ad arrivare a 2880 kB per i più moderni floppy disk da 3½ pollici.
  • dischi ottici: dispositivi che hanno nel tempo soppiantato i floppy disk ormai obsoleti per la persistenza ed il trasferimento di dati; hanno una capacità da 700MB per i CD ai 4.7 GB per i DVD standard.
  • penne USB: dispositivi riscrivibili su memorie a stato solido ed hanno una capacità che arriva ad una dimensione dell’ordine delle decine di GB. Garantisco un numero di cicli di scrittura limitato e non sono adatti per copie di sicurezza.

Floppy diskdischi ottici e penne USB posso essere definiti supporti rimovibili ovvero unità di memoria non strettamente legate alla macchina.

Dispositivi di Input e Output

Periferiche di input

Le periferiche di input consentono di acquisire dati dall’esterno. Le principali sono:

  • Tastiera (standard input): acquisisce caratteri, numeri e comandi grazie alla pressione di tasti; i caratteri corrispondenti al tasto premuto sono memorizzati nel buffer di input o, in caso di digitazione troppo veloce nel buffer di tastiera.
  • Dispositivi di puntamento: consentono di trasmettere dati di posizione spaziale al computer; sono dispositivi di puntamento il mouse e il touch pad.
  • Scanner: grazie a una tecnologia simile a quella della fotocopiatrice, acquisisce immagini; può essere associato a un programma OCR (Optical Character Recognition), in grado di convertire l’immagine in un file di testo.
  • Microfono: acquisisce e digitalizza suoni; esistono programmi di riconoscimento vocale che trasformano i suoni acquisiti in un file di testo.

Periferiche di output

Sono generalmente dispositivi che forniscono il risultato di un’elaborazione convertendolo in testo, grafica, audio quali monitor, stampanti o casse audio.

Alcuni componenti hardware                                      

 

 

                                   Componenti hardware di un PC:
1) Monitor
2) Scheda madre
3) CPU
4) Interfaccia ATA
5) RAM
6) Slot di espansione
7) Alimentatore
8) Lettore CD/DVD
9) Hard Disk
10) Tastiera
11) Mouse

 Tratto da wikipedia,l’enciclopedia libera.

Crittografia

Crittografia 

La crittografia (dall’unione di due parole greche: (kryptós) che significa “nascosto”, e (graphía) che significa “scrittura”) è la branca della crittologia che tratta delle “scritture nascoste”, ovvero dei metodi per rendere un messaggio “offuscato” in modo da non essere comprensibile/intelligibile a persone non autorizzate a leggerlo. Un tale messaggio si chiama comunemente crittogramma e le tecniche usate tecniche di cifratura.

In tal modo si garantisce la confidenzialità dei dati che è uno dei requisiti essenziali nell’ambito della sicurezza informatica impedendo così la realizzazione di diversi tipi di attacchi informatici ai dati sensibili (es. sniffing). L’approccio inverso di studio volto a rompere un meccanismo crittografico è detto invece crittoanalisi che rappresenta l’altra branca della crittologia.

Approcci storici alla crittografia

La necessità di nascondere messaggi strategici da occhi nemici è antica quanto l’uomo: ci sono tracce di cifrari antichi quanto gli Ebrei con il loro codice di atbash; gli Spartani avevano un loro particolare sistema di comunicazione dei messaggi segreti, la scitala; a Gaio Giulio Cesare si attribuisce l’uso del cosiddetto cifrario di Cesare, un sistema crittografico oggi ritenuto elementare, ma emblema della nascita di un concetto totalmente nuovo e ottimo per comprendere le idee basilari della crittografia e i primi attacchi della sua “avversaria”: la crittoanalisi.

La storia della crittografia moderna inizia con la stesura del De Cifris di Leon Battista Alberti, che per primo insegnò a cifrare per mezzo di un disco cifrante con un alfabeto segreto da spostare ad libitum ogni due o tre parole. Anche il tedesco Tritemio prevedeva una forma di cifra polialfabetica, facendo scorrere l’alfabeto ordinato di un posto ad ogni lettera del chiaro (come si definisce in gergo il testo non crittato). Ma il vero progresso nella cifratura polialfabetica è stato compiuto dal bresciano Giovan Battista Bellaso, che ha inventato la tecnica di alternare alcuni alfabeti segreti formati con parola chiave sotto il controllo di un lungo versetto chiamato contrassegno. La sua prima tavola a 11 alfabeti reciproci, uscita nel 1553, fu ripubblicata dal napoletano Giovanni Battista Della Porta dieci anni più tardi e ne prese il nome grazie alla notevole diffusione che ebbe il suo trattato De furtivis literarum notis. Il francese Vigenère utilizzò poi il versetto per cifrare ciascuna lettera con la sua tavola ad alfabeti regolari identica a quella del Tritemio e che oggi porta il suo nome. Il suo sistema è stato considerato indecifrabile per tre secoli, finché nel 1863 il colonnello prussianoFriedrich Kasiski non pubblicò un metodo per “forzarlo”, chiamato Esame Kasiski.

Qualsiasi sia il sistema crittografico utilizzato, la legge fondamentale sul corretto uso di tali tecniche fu scritta da Kerckhoffs (“Legge di Kerckhoffs“) nel suo libro del 1883 La Cryptographie Militaire e di seguito riportata: «La sicurezza di un crittosistema non deve dipendere dal tener celato il crittoalgoritmo. La sicurezza dipenderà solo dal tener celata la chiave.»

Cruciali sono anche i tempi necessari alla crittoanalisi per la decifrazione del messaggio: per diverse applicazioni di telecomunicazioni e informatica un sistema si può considerare sicuro anche se il suo sistema di cifratura risulta violabile, ma con tempi di realizzazione che renderebbero poi vani i successivi tentativi di attacco diretto.

La crittografia tradizionale moderna

Nel 1918 Gilbert Vernam maggiore dell’Esercito USA e tecnico all’AT&T Bell, perfezionò il metodo di Vigenère proponendo l’idea di usare chiavi segrete casuali lunghe almeno quanto il messaggio. Successivamente, nel 1949Claude Shannon, padre della teoria dell’informazione, nel lavoro La teoria della comunicazione nei sistemi crittografici dimostrò che questo è l’unico metodo crittografico possibile che sia totalmente sicuro.

Con il possesso di un sistema crittografico perfetto, la battaglia teorica tra crittografia e crittoanalisi si è risolta con una vittoria della prima sulla seconda. Ipotizzando di voler far uso di questa insuperabile protezione, restano però aperti molti problemi di ordine pratico. Bisogna infatti soddisfare gli stringenti requisiti del cifrario di Vernam: chiave lunga quanto il messaggio e mai più riutilizzabile. Tuttavia si hanno notizie di utilizzi di questo cifrario in ambiente militare (comunicazione con le spie: si veda a proposito One Time Pad), o per la protezione delle comunicazioni del telefono rosso tra Washington e Mosca durante la Guerra fredda. Anche il cifrario trovato nel 1967 sul corpo di Che Guevara è un’applicazione del cifrario di Vernam.

L’attuale ricerca crittografica, avendo risolto il problema teorico della garanzia della sicurezza, si dedica al superamento dei forti limiti d’uso anzidetti. Si cercano metodi più comodi ma ciononostante estremamente sicuri che, possibilmente, utilizzino chiavi corte e riutilizzabili senza compromettere la loro utilità.

Al momento non esiste alcuna tecnica crittografica che si possa definire sicura in senso assoluto, tranne il Cifrario di Vernam: tutte le altre tecniche rendono sicuro il dato solo per un certo arco temporale e non possono garantire la durata della segretezza.

Crittografia simmetrica

Fino a pochi anni fa l’unico metodo crittografico esistente era quello della crittografia simmetrica, in cui si faceva uso di un’unica chiave sia per proteggere il messaggio che per renderlo nuovamente leggibile. Il problema è condividere la chiave di cifratura con il destinatario del messaggio criptato senza che questa venga scoperta. La ricerca sulla crittografia simmetrica ha negli anni prodotto sistemi crittografici di tutto rispetto (ultimo tra tutti il cifrario Rijndael, scelto per il nuovo standard Advanced Encryption Standard per essere utilizzato nel prossimo ventennio, sostituendo l’ormai datato Data Encryption Standard).

La crittografia asimmetrica

La vera novità del secolo scorso è l’invenzione di una tecnica crittografica che utilizza chiavi diverse per cifrare e per decifrare un messaggio, facilitando incredibilmente il compito di distribuzione delle chiavi. Infatti in questo caso non è necessario nascondere le chiavi o le password: c’è una chiave per crittografare, che chiunque può vedere, e una per decifrare, che conosce solo il destinatario senza necessità quindi di riceverla (scambiarla) dal mittente. In altre parole, se A vuole ricevere un messaggio segreto da B, manda a B una scatola vuota con un lucchetto aperto senza chiavi. B mette dentro il messaggio, chiude il lucchetto, e rimanda il tutto ad A, che è l’unico ad avere le chiavi. Chiunque può vedere passare la scatola, ma non gli serve a niente. A non deve correre rischi con le sue chiavi.

Nel 1976 Whitfield Diffie e Martin E.Hellman, un matematico e un ingegnere in forza alla Stanford University, introducono l’utilizzo della chiave pubblica per la crittazione e l’autenticazione; nell’anno seguente il gruppo di ricerca del MIT formato da Ronald L. Rivest, Adi Shamir e Loenard M. Adleman realizza il primo sistema a chiave pubblica, in questo modo viene ideato l’algoritmo RSA.[1]

Il funzionamento di questo sistema è basato sul fatto che è matematicamente e computazionalmente molto facile moltiplicare due numeri primi (che singolarmente rappresentano la chiave privata, quella che solo A conosce per decifrare), ma è invece molto difficile il problema inverso ovvero risalire ai fattori primi del numero ottenuto dal precedente prodotto (che invece rappresenta la chiave pubblica che chiunque può vedere e che si usa per crittografare).

Siccome la crittografia asimmetrica è molto lenta se si devono spedire grandi quantità di dati, spesso si usa questo tipo di crittografia per scambiarsi una chiave con cui iniziare una comunicazione in crittografia simmetrica, molto più semplice, veloce e sicura.

Rientra nell’ambito della crittografia asimmetrica anche la promettente crittografia ellittica.

La crittografia quantistica

L’evoluzione dei sistemi crittografici, uniti all’evoluzione della fisica teorica hanno permesso di realizzare un cifrario di Vernam che si basa sull’utilizzo della meccanica quantistica nella fase dello scambio della chiave. Il vantaggio di questa tecnica consiste nel fatto di rendere inutilizzabili gli attacchi del tipo man in the middle: cioè, se durante lo scambio della chiave qualcuno riuscisse ad intercettarla, la cosa diverrebbe immediatamente evidente sia a chi emette sia a chi riceve il messaggio.

Articolo tratto da wikipedia, l’enciclopedia libera.

Sicurezza

Sicurezza informatica

Con il termine sicurezza informatica si intende quel ramo dell’informatica che si occupa dell’analisi delle vulnerabilità, del rischio, delle minacce o attacchi e della successiva protezione dell’integrità fisica (hardware) e logico-funzionale (software) di un sistema informatico e dei dati in esso contenuti o scambiati in una comunicazione con un utente.

Tale protezione è ottenuta attraverso misure di carattere tecnico-organizzativo e funzionali tese ad assicurarne:

  • l’accesso fisico e/o logico solo ad utenti autorizzati (autenticazione);
  • la fruizione di tutti e soli i servizi previsti per quell’utente nei tempi e nelle modalità previste dal sistema (disponibilità);
  • la correttezza dei dati (integrità);
  • l’oscuramento dei dati (cifratura);
  • la protezione del sistema da attacchi di software malevoli per garantire i precedenti requisiti.

Generalità

La sicurezza informatica è un problema sempre più sentito in ambito tecnico-informatico per via della crescente informatizzazione della società e dei servizi (pubblici e privati) in termini di apparati e sistemi informatici e della parallela diffusione e specializzazione degli attaccanti o hacker.

L’interesse per la sicurezza dei sistemi informatici è dunque cresciuto negli ultimi anni proporzionalmente alla loro diffusione ed al loro ruolo occupato nella collettività. Molti ex-hacker/cracker sono oggi dirigenti di società di sicurezza informatica o responsabili di questa in grandi multinazionali. Ciò sembra mostrare che per capire le strategie migliori di sicurezza informatica è necessario entrare nella mentalità dell’attaccante per poterne prevedere ed ostacolare le mosse.

Il raggiungimento della disponibilità dipende da diversi fattori che interferiscono tra utente e sistema, quali: robustezza del software di base e applicativo, affidabilità delle apparecchiature e degli ambienti in cui essi sono collocati.

Il sistema informatico deve essere in grado di impedire l’alterazione diretta o indiretta delle informazioni, sia da parte di utenti non autorizzati, sia da eventi accidentali; inoltre deve impedire l’accesso abusivo ai dati.

“In generale non è buona norma assumere che le contromisure adottate in un sistema siano sufficienti a scongiurare qualsiasi attacco”.

La protezione dagli attacchi informatici viene ottenuta agendo su più livelli: innanzitutto a livello fisico e materiale, ponendo i server in luoghi il più possibile sicuri, dotati di sorveglianza e/o di controllo degli accessi; anche se questo accorgimento fa parte della sicurezza normale e non della “sicurezza informatica” è sempre il caso di far notare come spesso il fatto di adottare le tecniche più sofisticate generi un falso senso di sicurezza che può portare a trascurare quelle semplici.

Il secondo livello è normalmente quello logico che prevede l’autenticazione e l’autorizzazione di un’entità che rappresenta l’utente nel sistema. Successivamente al processo di autenticazione, le operazioni effettuate dall’utente sono tracciate in file di log. Questo processo di monitoraggio delle attività è detto audit o accountability.

Per evitare invece gli eventi accidentali, non esistono soluzioni generali, ma di solito è buon senso dell’utente fare una copia di backup del sistema, fare backup periodico di dati e applicazioni, com’è tipico delle procedure di disaster recovery, in modo da poter fronteggiare qualsiasi danno imprevisto.

Analisi del rischio

La cosiddetta analisi del rischio, ovvero la valutazione di tutte le possibili minacce in termini di probabilità di occorrenza e relativo danno potenziale, tipicamente precede la fase di messa in sicurezza del sistema informatico, consentendo così di stimare il relativo rischio: in base a tale valore si decide se, come e quali contromisure di sicurezza adottare.

Tipi di sicurezza

Proprio sulla base di queste osservazioni, quando si parla di “sicurezza informatica” spesso si distinguono i concetti di sicurezza passiva e di sicurezza attiva.

Sicurezza passiva

Per sicurezza passiva normalmente si intendono le tecniche e gli strumenti di tipo difensivo, ossia quel complesso di soluzioni tecnico-pratiche il cui obiettivo è quello di impedire che utenti non autorizzati possano accedere a risorse, sistemi, impianti, informazioni e dati di natura riservata. Il concetto di sicurezza passiva pertanto è molto generale: ad esempio, per l’accesso fisico a locali protetti, l’utilizzo di porte di accesso blindate, congiuntamente all’impiego di sistemi di identificazione personale, sono da considerarsi componenti di sicurezza passiva.

Sicurezza attiva

Per sicurezza attiva si intendono, invece, tutte quelle tecniche e gli strumenti mediante i quali le informazioni ed i dati di natura riservata sono resi intrinsecamente sicuri, proteggendo gli stessi sia dalla possibilità che un utente non autorizzato possa accedervi (confidenzialità), sia dalla possibilità che un utente non autorizzato possa modificarli (integrità).

È evidente che la sicurezza passiva e quella attiva siano tra loro complementari ed entrambe indispensabili per raggiungere il desiderato livello di sicurezza di un sistema.

Le possibili tecniche di attacco sono molteplici, perciò è necessario usare contemporaneamente diverse tecniche difensive per proteggere un sistema informatico, realizzando più barriere fra l’attaccante e l’obiettivo.

Spesso l’obiettivo dell’attaccante non è rappresentato dai sistemi informatici in sé, quanto piuttosto dai dati in essi contenuti, quindi la sicurezza informatica deve preoccuparsi di impedire l’accesso ad utenti non autorizzati, ma anche a soggetti con autorizzazione limitata a certe operazioni, per evitare che i dati appartenenti al sistema informatico vengano copiati, modificati o cancellati.

Le violazioni possono essere molteplici: vi possono essere tentativi non autorizzati di accesso a zone riservate, furto di identità digitale o di file riservati, utilizzo di risorse che l’utente non dovrebbe potere utilizzare ecc. La sicurezza informatica si occupa anche di prevenire eventuali situazioni di Denial of service (DoS). I DoS sono attacchi sferrati al sistema con l’obiettivo di renderne inutilizzabili alcune risorse in modo da danneggiare gli utenti del sistema. Per prevenire le violazioni si utilizzano strumenti hardware e software.

Sicurezza nelle aziende

Dal momento che l’informazione è un bene che aggiunge valore all’impresa, e che ormai la maggior parte delle informazioni sono custodite su supporti informatici, ogni organizzazione deve essere in grado di garantire la sicurezza dei propri dati, in un contesto dove i rischi informatici causati dalle violazioni dei sistemi di sicurezza sono in continuo aumento. Per questo esistono, a carico delle imprese, precisi obblighi in materia di privacy, tra cui quello di redigere annualmente uno specifico documento programmatico sulla sicurezza.

È stato anche approvato a livello internazionale il nuovo Standard ISO 27001:2005 finalizzato alla standardizzazione delle modalità adatte a proteggere i dati e le informazioni da minacce di ogni tipo, al fine di assicurarne l’integrità, la riservatezza e la disponibilità. Lo standard indica i requisiti di un adeguato sistema di gestione della sicurezza delle informazioni (ISMS) finalizzato ad una corretta gestione dei dati dell’azienda. Una fase indispensabile di ogni pianificazione della sicurezza è la valutazione del rischio e la gestione del rischio. Il CLUSIT è l’associazione nazionale che promuove la conoscenza nelle aziende.

Sicurezza dei dati

Parametri di protezione

I principali aspetti di protezione del dato sono:

Principali cause di perdita di dati

Le cause di probabile perdita di dati nei sistemi informatici possono essere molteplici, ma in genere vengono raggruppate in due eventi:

  • Eventi indesiderati;
  • Eventi accidentali.

Eventi indesiderati

Tra i due eventi sopra citati, quelli indesiderati sono quelli per lo più inaspettati, anche se è prudente aspettarsi di tutto, e sono i cosiddetti attacchi da parte di utenti non autorizzati al trattamento di dati o all’utilizzo di servizi. Alcuni degli eventi indesiderati che si possono subire possono essere:

  • Attacchi malevoli;
  • Uso delle proprie autorizzazioni per l’accesso a sistemi da parte di utenti non autorizzati.

Attacchi malevoli

Gli attacchi malevoli vengono fatti, tramite la rete internet o altra connessione, da parte di utenti remoti che attraverso l’uso di software particolari, a volte creati da loro stessi, si intrufolano abusivamente all’interno del sistema, riuscendo ad ottenere piena disponibilità della macchina, per gestire risorse e dati senza avere i giusti requisiti richiesti.

Accesso a sistemi da parte di utenti non autorizzati

Questo tipo di attacco sostanzialmente è simile al precedente, ma ha una forma diversa. Questo attacco consiste nell’uso non autorizzato di sistemi e di dati altrui, ma a differenza di un attacco malevolo, stavolta viene usata la macchina e non la rete.

Effetti

La pericolosità degli attacchi in quanto tale, consiste non solo nella presa di possesso di requisiti, dati e servizi altrui, ma anche causa all’utente cosiddetto “derubato” una sorta di insicurezza a far fede sui sistemi informatici che spesso fanno parte della nostra vita quotidiana.

Eventi accidentali

Gli eventi accidentali non riguardano attacchi malevoli, ma fanno riferimento a eventi causati accidentalmente dall’utente stesso, tipo: uso difforme dal consigliato di un qualche sistema, incompatibilità di parti hardware, guasti imprevisti, ecc… Tutti eventi che comunque compromettono la sicurezza del sistema soprattutto in termini di disponibilità.

Per far fronte a tali evenienze, specie se derivanti da possibili guasti o danni fisici, molte volte si opera in un contesto di ridondanza degli apparati (es. server cluster) ovvero con sistemi distribuiti all’interno di piani di disaster recovery che, assicurando la tolleranza ai guasti (fault tolerance), garantiscano affidabilità e disponibilità cioè il business continuity del sistema informatico e dell’azienda. A volte si preferisce agire anche in maniera preventiva tramite piani di disaster prevention.

Sicurezza dei programmi

Il problema della sicurezza dei programmi e soprattutto dell’invio e ricezione di dati confidenziali protetti, si è posto all’attenzione degli sviluppatori di software come conseguenza della sensibile crescita dell’uso degli strumenti informatici e di internet. Per quanto riguarda la produzione di software “protetti” possiamo partire col definire il concetto di sicurezza come l’assenza da condizioni conflittuali capaci di produrre danni mortali o irreparabili ad un sistema.Nella progettazione di software è quindi fondamentale raggiungere il compromesso più funzionale tra l’efficienza d’uso del programma in questione e la sua capacità di “sopravvivenza” ad attacchi esterni e ad errori più o meno critici. Il livello base della sicurezza dei programmi è fornito dalla sicurezza del sistema operativo su cui si appoggiano i programmi applicativi.

Caratteristiche di sicurezza

Due caratteristiche fondamentali esplicano il concetto di sicurezza:

  • Safety (sicurezza): una serie di accorgimenti atti ad eliminare la produzione di danni irreparabili all’interno del sistema;
  • Reliability (affidabilità): prevenzione da eventi che possono produrre danni di qualsiasi gravità al sistema.

Un software (o programma) è tanto più sicuro quanto minori sono le probabilità che si verifichi un guasto e la gravità del danno conseguente al guasto stesso. Possiamo ora vedere, in ordine crescente, i possibili effetti dei guasti in cui può incorrere un software:

  • Nessun effetto
  • Rischio trascurabile
  • Rischio significativo
  • Rischio elevato
  • Rischio catastrofico.

Controllo della sicurezza di un programma

Una volta prodotto il software si procede alla verifica del suo comportamento, in modo tale da effettuare una ricerca estesa dei difetti presenti, per passare poi alla loro eventuale eliminazione. Esistono diversi modelli di sicurezza per il controllo dei programmi basati su due metodi differenti:

  • Semantic-based security model (modelli di sicurezza basati sulla semantica): la sicurezza del programma controllato viene esaminata in termini di comportamento del programma
  • Security-typed language (modelli di sicurezza basati sul linguaggio): i tipi delle variabili sono seguiti dall’esplicazione delle politiche adottate per l’uso dei dati battuti.

Per essere efficace un programma deve essere controllato nelle sue specifiche e deve essere privo di difetti nel codice, a questo fine viene effettuato un controllo delle specifiche del programma e delle prestazioni correlate all’affidabilità, in secondo luogo viene analizzata ogni parte di codice e funzione del sistema.

Errori di programma

L’IEEE (Institute of Electrical and Electronics Engineers) ha catalogato gli errori nel software in tre diverse voci a seconda della natura degli errori stessi. Esse sono:

  • Error: è un errore umano verificatosi durante il processo di interpretazione delle specifiche oppure durante l’uso di un metodo o nel tentativo di risoluzione di un problema
  • Failure: è un comportamento del software imprevisto ed incongruo rispetto alle specifiche del programma stesso
  • Fault: è un difetto del codice sorgente.

Gli errori di programma non nocivi, come ad esempio gli spyware ed il buffer overflow hanno la caratteristica di non modificare i file di sistema e non recare danno alle caratteristiche del sistema stesso. Troviamo qui sotto elencati una serie di errori e di attacchi al software di differente entità.

Principali tecniche di attacco

Principali tecniche di difesa

  • Antivirus: consente di proteggere il proprio personal computer da software dannosi conosciuti come virus. Un buon antivirus deve essere costantemente aggiornato ad avere in continua esecuzione le funzioni di scansione in tempo reale. Per un miglior utilizzo l’utente deve avviare con regolarità la scansione dei dispositivi del PC (dischi fissi, CD, DVD e dischetti floppy), per verificare la presenza di virus, worm. Per evitare la diffusione di virus è inoltre utile controllare tutti i file che si ricevono o che vengono spediti tramite posta elettronica facendoli verificare dall’antivirus correttamente configurato a tale scopo.
  • Antispyware: software facilmente reperibile sul web in versione freeware, shareware o a pagamento. È diventato un utilissimo tool per la rimozione di “file spia”, gli spyware appunto, in grado di carpire informazioni riguardanti le attività on line dell’utente ed inviarle ad un’organizzazione che le utilizzerà per trarne profitto.
  • Firewall: installato e ben configurato un firewall garantisce un sistema di controllo degli accessi verificando tutto il traffico che lo attraversa. Protegge contro aggressioni provenienti dall’esterno e blocca eventuali programmi presenti sul computer che tentano di accedere ad internet senza il controllo dell’utente.
  • Firma digitaleCrittografia: è possibile proteggere documenti e dati sensibili da accessi non autorizzati utilizzando meccanismi di sicurezza specifici quali: la crittografia, la firma digitale, e l’utilizzo di certificati digitali e algoritmi crittografici per identificare l’autorità di certificazione, un sito, un soggetto o un software.
  • Backup: più che un sistema di difesa si tratta di un utile sistema per recuperare dati eventualmente persi o danneggiati. Il backup consiste nell’esecuzione di una copia di sicurezza dei dati di un personal computer o comunque di dati considerati importanti onde evitare che vadano perduti o diventino illeggibili.
  • Honeypot: un honeypot (letteralmente: “barattolo del miele”) è un sistema o componente hardware o software usato come “trappola” o “esca” a fini di protezione contro gli attacchi di pirati informatici. Solitamente consiste in un computer o un sito che sembra essere parte della rete e contenere informazioni preziose, ma che in realtà è ben isolato e non ha contenuti sensibili o critici; potrebbe anche essere un file, un record, o un indirizzo IP non utilizzato.
  • Intrusion Detection System (IDS): è un dispositivo software e hardware (a volte la combinazione di tutti e due) utilizzato per identificare accessi non autorizzati ai computer. Le intrusioni rilevate possono essere quelle prodotte da cracker esperti, da tool automatici o da utenti inesperti che utilizzano programmi semiautomatici. Gli IDS vengono utilizzati per rilevare tutti gli attacchi alle reti informatiche e ai computer. Un IDS è composto da quattro componenti. Uno o più sensori utilizzati per ricevere le informazioni dalla rete o dai computer. Una console utilizzata per monitorare lo stato della rete e dei computer e un motore che analizza i dati prelevati dai sensori e provvede a individuare eventuali falle nella sicurezza informatica. Il motore di analisi si appoggia ad un database ove sono memorizzate una serie di regole utilizzate per identificare violazioni della sicurezza.
  • Network Intrusion Detection System (NIDS): sono degli strumenti informatici, software o hardware, dediti ad analizzare il traffico di uno o più segmenti di una LAN al fine di individuare anomalie nei flussi o probabili intrusioni informatiche. I più comuni NIDS sono composti da una o più sonde dislocate sulla rete, che comunicano con un server centralizzato, che in genere si appoggia ad un Database. Fra le attività anomale che possono presentarsi e venire rilevate da un NIDS vi sono: accessi non autorizzati, propagazione di software malevolo, acquisizione abusiva di privilegi appartenenti a soggetti autorizzati, intercettazione del traffico (sniffing), negazioni di servizio (DoS).
  • Steganografia: La steganografia si pone come obiettivo di mantenere nascosta l’esistenza di dati a chi non conosce la chiave atta ad estrarli, mentre per la crittografia è rendere inaccessibili i dati a chi non conosce la chiave.
  • Sistema di autenticazione: potrebbe rivelarsi utile, in particolare nelle aziende, l’utilizzo di software per l’autenticazione sicura con un secondo elemento di autenticazione basato su un insieme di caratteri disposti in uno schema suddiviso in file e colonne conosciute dall’utente che dovrà poi inserirle in una combinazione di valori per dimostrare di essere in possesso dei dati corretti. Altro sistema, più sofisticato, è quello del riconoscimento dell’utente tramite l’utilizzo dell’impronta digitale come forma di autenticazione.

Sicurezza della comunicazione

Un altro filone della sicurezza informatica si occupa delle problematiche di sicurezza connesse alla trasmissione di informazioni confidenziali in rete o su qualunque sistema di telecomunicazioni ovvero protezione dei dati in transito e sugli accessi non autorizzati alla varie risorse e servizi di rete. In tale ambito sono diffuse tecniche di autenticazione e crittografia come contromisure allo sniffing.

Sicurezza della rete Internet

Con la crescita a dismisura di internet e del “www”, le problematiche di sicurezza si sono estese anche ad essa e servono quindi idee e principi su cui basarsi. Per far fronte ai rischi che si corrono utilizzandola, l’Unione Europea mette il suo contributo tramite il programma di protezione “Safer Internet”.

Sul fronte tecnico le misure di protezione in rete si concretizzano nell’uso di opportuni protocolli di rete quale HTTPSSSLTLSIPsec e SSH che non fanno altro che applicare i metodi crittografici su uno o più livelli di architettura di retedel modello ISO-OSI.

Safer Internet

L’idea del programma di protezione della rete “Safer Internet”, è nata a seguito della crescita di internet e per la crescente presenza di bambini a contatto con questo mondo. “Safer Internet” introdotto dal Parlamento Europeo l’11 maggio 2005, vuole promuovere l’uso sicuro di internet soprattutto per i bambini: una rete europea di 21 linee nazionali attraverso le quali gli utenti finali possono denunciare anonimamente la presenza di contenuti illegali su internet, e la creazione di 23 nodi nazionali di sensibilizzazione per promuovere un uso sicuro di internet, rivolto ai bambini, ai genitori e agli insegnanti. Oltre ai provvedimenti di autoregolamentazione e allo sviluppo di tecnologie adeguate, l’istruzione gioca un ruolo chiave. È indispensabile, infatti, la partecipazione e l’istruzione di genitori e insegnanti, troppo spesso digiuni in materia di internet, che seguano con costanza i ragazzi nella navigazione, fornendo loro gli strumenti critici necessari per un approccio consapevole alla rete.

Apparati di sicurezza di rete

Una rete locale può aumentare il suo grado di sicurezza da e verso l’esterno (Internet) attraverso l’uso di sistemi come:

Firewall;

Intrusion detection system (IDS);

Intrusion prevention system (IPS).

Certificazione

Prodotti software o sistemi informatici possono essere certificati nei loro attributi di sicurezza, con valore aggiunto sul prodotto o sistema stesso in termini pubblicitari di sicurezza (certificazione di qualità in termini di sicurezza), da organismi competenti riconosciuti. Tipicamente il processo di certificazione passa attraverso una fase di valutazione del prodotto/sistema (OdV oggetto della valutazione) da parte di un laboratorio di valutazione accreditato, per il quale il committente/sviluppatore dell’operazione ha identificato un cosiddetto traguardo di sicurezza (TdS) in termini di specifiche che il suo prodotto dovrebbe assicurare. Compito del valutatore è verificare a mezzo dell’attività valutativa la congruenza o meno del prodotto/sistema alle specifiche di sicurezza richieste dal committente/sviluppatore, attraverso opportuni criteri di valutazione, redigendo poi un rapporto ed un certificato finale di pubblico dominio.

Questioni giuridiche e regolamentazione globale

Una delle principali battaglie e delle lamentele dell’industria degli AntiVirus è quella relativa alla creazione di una regolamentazione unificata e globale, una base di regole comuni per giudicare legalmente, ed eventualmente punire, i crimini informatici e i criminali informatici. Infatti, ancora oggi, anche se una società produttrice di AntiVirus dovesse riuscire a scoprire chi è il criminale informatico dietro alla creazione di un particolare virus o di un malware o di un qualsiasi attacco informatico, spesso le autorità locali non possono comunque intervenire.

Articolo tratto da wikipedia, l’enciclopedia libera.

“The power of the mind”

Cervello umano vs computer

Cervello contro computer, una sfida che inizia dai primi libri di fantascienza e prosegue nell’immaginario fino ad oggi. Chi di noi non ha mai immaginato per un momento che un computer possa sostituirci (in molti casi già lo fanno). Per fare questo nella vita di tutti i giorni, un super computer dovrebbe avere la stessa capacità di calcolo del nostro cervello. Molti diranno: “e cosa ci vuole? Non è poi tanto grande come organo in fin dei conti, un computer occupa decisamente più spazio, sarà quindi più veloce!”Altri potranno dire che è impossibile replicare la perfezione e le potenzialità della nostra mente, il nostro cervello è una macchina troppo potente da imitare. Oggi un esperimento condotto da un gruppo di ricercatori giapponesi e tedeschi ha finalmente svelato l’arcano: cercando di simulare il lavoro svolto dalla nostra mente con un super computer sono emersi dei dati che non lasciano adito a dubbi di interpretazione. In sostanza per far elaborare la stessa mole di dati processati da 1,73 miliardi di cellule nervose e 10.400 miliardi di sinapsi in un secondo ci sono voluti 82.944 processori, che componevano il super computer K e un petabyte di memoria, circa 24 byte per sinapsi: la sorpresa è che il computer è riuscito si a elaborare i dati, ma in 40 minuti! Beh un buon risultato, potreste dire, ma la notizia è ancora incompleta!Infatti la parte di cervello coinvolto nell’esperimento era solo una minima parte, per la precisione l’1%! Questo vuol dire che per riprodurre l’attività che la mente di ognuno di noi esegue in un secondo ci sarebbero voluto circa due giorni e mezzo. Dei numeri molto plateali, ammesso e non concesso che della nostra mente e dei processi che avvengono al suo interno  percezione,  oggettivamente parlando non conosciamo ancora molto. I ricercatori si sono detti soddisfatti dei risultati, asserendo che nel prossimo decennio potremmo simulare l’intera rete neuronale umana con un computer a exa-scale, mille volte più potente di un peta-scale. Purtroppo per i ricercatori posso scommettere che sarà molto dura simulare il funzionamento della nostra mente, in quanto non basta eguagliare la potenza di calcolo, esiste infatti ancora qualcosa che ci sfugge.

Cercando per il mondo esistono moltissime ricerche per conoscere meglio come funziona questo organo meraviglioso, capolavoro di Madre Natura: aziende come l’IBM o progetti come l’europeo “Human Brain Project” o l’americano “BRAIN initiative” investono ogni anno molto denaro per indagare a fondo le dinamiche che si celano dietro la nostra mente, che è, e rimarrà ancora per molto tempo, il computer più potente, anche se spesso utilizzato  male.

Tratto dall’articolo “Cervello umano vs computer” di Filippo Tartaglini