Vulnerability management: l’importanza di un approccio agile agli attacchi informatici

Durante gli ultimi anni, è cresciuta l’attenzione delle aziende su quella che viene chiamata la Vulnerability Management, cioè avere le capacità idonee di prevenzione, rilevamento e risposta alle minacce dei cyber criminali. Questa maggiore attenzione al tema è stata causata da un aumento sempre più massiccio degli attacchi informatici, più sofisticati e diversificati, che hanno provocato violazioni di diverso impatto economico nei confronti delle imprese di qualsiasi settore.

Alcune aziende stanno ancora combattendo con l’illusione di poter evitare o prevenire qualsiasi tipo di attacco. Dall’altra parte, i Chief Information Security Officer – CISO – più lungimiranti puntano invece ad affinare le competenze in tema di resilienza. Ecco perché l’attenzione tende a spostarsi dalla prevenzione delle intrusioni alla riduzione della superficie vulnerabile, attraverso il potenziamento di alcune capacità quali accuratezza nel rilevamento su larga scala e visibilità dell’intero ambiente digitale. Più piccola è la superficie vulnerabile, più efficace è la rilevazione.

In questo articolo vediamo l’importanza di un approccio agile agli attacchi informatici. 

Vulnerability Management: perché nasce un approccio agile agli attacchi informatici

Ancora oggi tante aziende continuano a considerare il Vulnerability Assessment come un processo ciclico. In quanto tale deve essere attuato una volta al mese al fine di verificare il numero di vulnerabilità che devono essere trasmesse ai responsabili delle applicazioni per la remediation – la maggior parte delle volte proprio guidata da questi stessi report. 

Paragonato al mondo dello sviluppo, questo approccio sembra il metodo Waterfall, o a cascata, che nel mondo dello sviluppo sta mostrando alcuni segni di obsolescenza in favore di approcci più agili. Ecco che è proprio la necessità di agilità che ha spinto i Chief Information Security Officer a considerare di evolvere il Vulnerability Assessment verso il Vulnerability Management. Si tratta di un processo in cui la vulnerabilità è gestita e monitorata nel tempo utilizzando dei report usati per individuare i difetti nei processi di gestione aziendale dell’IT – i cosiddetti BAU, Business As Usual. La presenza di cruscotti dinamici permette di monitorare la superficie vulnerabile in tempo reale, in un contesto della vulnerabilità arricchito. Così facendo è possibile potenziare la gestione delle patch o le SecOps con le corrette informazioni di prioritizzazione. In questo modo, il processo di Vulnerability Management assume un valore più operativo.

L’importanza di valutare il livello di maturità del processo in tema di sicurezza

Pensa adesso alla tua attività. 

Nell’ottica di ciò che è stato descritto nel paragrafo precedente, come definiresti il livello di maturità raggiunta? 

Il tuo può definirsi un processo di TVM – Threat Vulnerability Management? Stai ancora cercando di sviluppare il Vulnerability Management o riesci solo a barcamenarvi con il Vulnerability Assessment? 

Se la risposta è Threat Vulnerability Management, forse dovresti espandere il modello verso altre direzioni e processi!

Ecco cosa potresti fare. 

Potenziare la gestione delle patch

Sicuramente avrai già una visione abbastanza chiara di cosa significhi la creazione dei diversi livelli di astrazione ed un contesto in tema TVM. 

Quindi, perché non estendere queste conoscenze al fine di creare flussi di lavoro che siano in grado di ottimizzare l’operatività della remediation? Oltre ad aumentare efficienza ed efficacia, riducendo al minimo KPI? 

Il nostro consiglio è quindi quello di pianificare l’applicazione delle patch, tenendo conto di obsolescenza e scadenze, mantenendo traccia dei loro risultati, della loro applicazione e dei KPI, oltre che monitorando il riavvio macchina dopo l’applicazione di ogni patch – una delle aree più confuse del processo.

Espandersi poi verso i container e gli ambienti cloud

Questo è possibile sviluppando ulteriormente il TVM, al fine di aumentare la visibilità quando i perimetri si dissolvono, analizzando le relazioni tra le risorse stanziate negli ambienti multi cloud per verificarne le errate configurazioni. 

Lo sapevi che gli errori nelle configurazioni sono tra le principali cause di perdita di dati nei programmi di adozione del cloud?  

Inoltre, il nostro consiglio è anche quello di affrontare le sfide che i programmi di containerizzazione impongono, che stanno cambiando in modo radicale tutto il modo in cui concepiamo l’IT con concept estremi: piattaforme CaaS (container as a service), serverless computing e orchestrazione federata per l’ottimizzazione delle istanze. Queste recenti evoluzioni richiedono capacità altamente qualificate di raccolta dei dati, visibilità ed accuratezza nella elaborazione. Il tutto per poter affrontare anche esigenze organizzative più tradizionali come la Compliance.

Ottimizzare il processo di Asset Management

L’ultimo step è quello di ottimizzare il processo di Asset Management. Spesso questo processo è già operativo all’interno di aziende con gradi di efficienza differenti, che potenziano e rinnovano per costruire una Single Source of Truth (SSOT) per tutte le risorse in un ambiente digitale in costante cambiamento. 

Ecco quali sono i nuovi criteri

  • discovery;
  • normalizzazione;
  • organizzazione;
  • classificazione secondo tassonomia, in un ciclo che sia il più automatico e continuo possibile. 

Tutto ciò al fine di proseguire con la sincronizzazione con sistemi CMDB. In questo si garantisce la coerenza con il processo ITAM a prescindere da chi abbia eseguito la discovery.

Nessun processo può più essere autodefinito e soltanto tattico!

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *