Data Protection Officer: chi è e perché serve

Data Protection Officer: chi è e perché serve

Il Data Protection Officer, conosciuto come DPO, è una figura ormai essenziale in molte aziende grazie al Regolamento Generale sulla Protezione dei Dati (GDPR). Molte domande sorgono spontanee: chi ha bisogno di un DPO? È obbligatorio in tutte le aziende? Come cercare questa figura?

 

Il Data Protection Officer è una sorta di figura ibrida fra consulente e vigilante dei processi interni all’azienda.

Inoltre, il suo ruolo funge da ponte con l’Autorità Garante nazionale. Trattasi di un professionista scelto dal titolare o dal responsabile del trattamento per controllare l’applicazione del GDPR.

Infatti, il DPO può essere una figura esterna o interna all’azienda che opera in piena autonomia, con competenze giuridiche, informatiche, di risk management e di analisi dei processi.

Esistono corsi di formazione che offrono una certificazione della qualifica di DPO ma non esiste l’iscrizione in appositi albi o una specifica attestazione formale (laurea, abilitazione, ecc). Dunque, come individuare la giusta figura per la propria azienda? Perché è importante?

 

I compiti di un Data Protection Officer

L’elenco dei compiti del DPO è indicato nell’art. 39 del Regolamento europeo sulla protezione dei dati.

I doveri di un Data Protection Officer indicati sono:

      1. informare e fornire consulenza al Titolare del trattamento o al Responsabile del trattamento nonché ai dipendenti che eseguono il trattamento. Questo in merito agli obblighi derivanti dal presente regolamento nonché da altre disposizioni dell’Unione o degli Stati membri relative alla protezione dei dati;
      2. sorvegliare l’osservanza del presente regolamento, di altre disposizioni dell’Unione o degli Stati membri relative alla protezione dei dati. Questi coinvolgono anche le politiche del Titolare del trattamento o del Responsabile del trattamento in materia di protezione dei dati personali. Sono compresi anche l’attribuzione delle responsabilità, la sensibilizzazione e la formazione del personale che partecipa ai trattamenti e alle connesse attività di controllo;
      3. fornire, se richiesto, un parere in merito alla valutazione d’impatto sulla protezione dei dati e sorvegliarne lo svolgimento ai sensi dell’articolo 35;
      4. cooperare con l’autorità di controllo;
      5. fungere da punto di contatto per l’autorità di controllo per questioni connesse al trattamento. Tra queste la consultazione preventiva di cui all’articolo 36, ed effettuare, se del caso, consultazioni relativamente a qualunque altra questione.

Avere un Data Protection Officer è obbligatorio?

La nomina del DPO è obbligatoria in questi casi:

  • il trattamento dei dati è effettuato da un’autorità pubblica o da un organismo pubblico;
  • le organizzazioni private svolgono funzioni pubbliche o esercitano pubblici poteri;
  • il core business dell’azienda consiste in trattamenti che richiedono il monitoraggio regolare e sistematico degli interessati;
  • il trattamento dei dati sensibili è su larga scala (ad esempio la geo-localizzazione, il trattamento dei dati bancari, i dati personali degli utenti per l’invio di pubblicità mirata). Anche se non sono dati non su larga scala, sono compresi anche i dati personali di natura penale e i dati medici.

 

Cerchi un partner affidabile per la sicurezza informatica?

Ecco cosa possiamo fare per la tua azienda!

 

Perché è importante un Data Protection Officer?

Se il business si fonda sul monitoraggio regolare e sistematico dei dati, il DPO diventa una figura chiave.

Il monitoraggio avviene in modo costante o a intervalli periodici? Si verifica a intervalli definiti per un arco di tempo definito? Avviene in modo metodico o in un progetto complessivo di raccolta di dati? Ecco che il Data Protection Officer può essere di aiuto per numerose attività.

Si parte delle più ovvie attività di marketing basate sull’analisi dei dati, email retargeting e telecomunicazioni per arrivare all’utilizzo di telecamere per i sistemi di TVCC. Queste includono quindi anche tutte le attività dei programmi di fidelizzazione, le profilazioni per premi assicurativi o valutazioni del rischio creditizio. Sono compresi persino dispositivi indossabili o app su dispositivi mobili che monitorano forma fisica, salute, ubicazione, domotica, ecc.

Si parla dunque di una mole di dati personali a livello regionale, nazionale, europeo o addirittura internazionale che potrebbero incidere su un vasto numero di interessati. Questo potenzialmente presenta un rischio elevato.

 

Come scegliere un Data Protection Officer?

Il Gruppo dell’articolo 29 per la tutela dei dati incoraggia la nomina del DPO anche quando il GDPR non la richiede espressamente. Questo per rendere più agevole l’approccio delle aziende al GDPR. Quindi, come trovare il Data Protection Officer giusto per la propria azienda?

Premessa importante: i titolari agiscono in assoluta autonomia circa le modalità di selezione dei propri DPO. Questo implica una valutazione soggettiva del possesso dei requisiti necessari per svolgere i compiti da assegnati con gli strumenti che ritengono consoni al proprio settore.

Tuttavia esistono delle Linee Guida che prevedono questi aspetti:

  • individuare le posizioni non compatibili con la funzione di DPO
  • elaborare un regolamento interno per evitare conflitti di interesse
  • includere una spiegazione più generale sui conflitti di interesse
  • dichiarare che il DPO scelto non ha conflitti di interessi per quanto riguarda la sua funzione
  • includere nelle norme interne la garanzia che il contratto di servizio risulta preciso e dettagliato.

È fondamentale verificare l’approfondita conoscenza delle normative e delle prassi in materia di privacy e amministrazione che caratterizzano il proprio settore di riferimento. Poi è opportuno privilegiare i soggetti che possono dimostrare le proprie qualità professionali, ad esempio documentando esperienze, partecipazione a master e corsi di studio/professionali specifici, ecc.

 

Data Protection Officer e cybersecurity

Oggi i dati sono la base e la ricchezza per molte attività. Infatti, queste informazioni fanno gola a tutti i cybercriminali. Per questo ogni dato deve essere gestito e protetto in modo esemplare. Come? Migliorare la sicurezza aziendale realizzando procedure, organizzando sessioni formative e diffondendo best practice operative.

Il Data Protection Officer è un tassello per la protezione dei dati in azienda. Il DPO dev’essere inserito in un progetto più ampio, che prevede la definizione protocolli di intervento (cybersecurity) e la giusta formazione del personale (Security Awareness).

Ecco che nelle aziende si crea una “squadra per la sicurezza” dove, oltre al DPO, opera anche il CISO (Chief Information Security Officer), il CSO (Chief Security Officer) e il CIO (Chief Information Officer).

 

E ora, pronti a trovare il vostro Data Protection Officer?

 

 

Incidente informatico: ecco il primo rischio per le aziende

Incidente informatico: ecco il primo rischio per le aziende

L’incidente informatico è l’unico comune denominatore dalle piccole-medie imprese fino alle grandi aziende. Interruzioni dell’attività e incidenti informatici sono connessi e sono in cima alla classifica superando catastrofi naturali, cambiamenti legislativi e persino gli improvvisi sviluppi del mercato.

 

Cosa può rovinare un’azienda? Subito si pensa alla volatilità dei mercati finanziari, all’inasprimento della concorrenza, all’intraprendenza dei nuovi entranti, alla stagnazione o fluttuazione del mercato. Successivamente, si considera anche la perdita della reputation o del brand value. Anche la carenza di forza lavoro altamente qualificata sembra una causa plausibile. A volte si punta il dito contro quei cambiamenti legislativi, normative, regolamentazioni che spaventano gli investitori. In altri casi i pericoli sembrano scaturire da grandi disastri naturali oppure rischi chimici, incendi ed esplosioni.

Invece, ciò che manda in rovina le aziende sono le interruzioni delle attività e gli incidenti informatici. Il dramma è che questi sono connessi per quasi la totalità dei casi.

 

Incidenti informatici per small, medium e big size.

L’ Allianz Risk Barometer 2019, ricerca annuale di Allianz Global Corporate & Specialty (AGCS), riporta i principali rischi che preoccupano le aziende su scala mondiale. Hanno risposto gli esperti di sicurezza di 86 Paesi provenienti da 22 settori industriali. Trattasi di 1445 grandi società, 619 medie imprese e 818 piccole aziende.

L’interruzione delle attività si conferma principale minaccia per il settimo anno consecutivo (37% delle risposte). Mentre, per la prima volta, viene raggiunta in cima alla classifica a pari merito dagli incidenti informatici (37%).

Questa non è una casualità: sempre più spesso gli incidenti informatici comportano direttamente un blocco della produttività. Gli intervistati considerano il cyber un pericolo reale: ormai l’informatica è il cuore del business e le risorse primarie di molte aziende sono spesso dati, processi automatizzati, piattaforme di servizio.

 

Cos'è il SIEM (Security Information and Event Management) ?

Ecco perché è indispensabile per garantire la sicurezza informatica aziendale. Scoprilo nel PDF gratuito!

 

Identikit dell’ incidente informatico

Qualsiasi azione da parte del cyber-crimine, le violazioni della privacy, banali guasti tecnici o errori umani spesso causano interruzioni di sistema o perdite di dati. Gravi danni e grosse spese, l’Allianz Risk Barometer 2019 parla chiaro: un incidente informatico può causare in media una perdita superiore a 2 milioni di euro (2,3 milioni di dollari).

Del resto il 2018 è stato un anno critico, si pensi agli attacchi malware WannaCry e NotPetya, per non parlare delle numerose mega violazioni dei dati e scandali sulla privacy.

Tuttavia, è importante ricordare che dalle analisi emerge che l’errore umano rimane la causa principale di molti incidenti informatici (80%).

 

Le conseguenze di un incidente informatico

Secondo l’Allianz Risk Barometer 2019 un incidente informatico per il 69% causa perdite di entrate. Infatti, il primo danno consiste nell’interruzione delle attività con impatto inevitabile sulle supply chains.

Per il 55% dei casi avviene una perdita di reputazione. Il 48% è rappresentato da problemi legali, ovvero denunce da parte di clienti e fornitori dopo un data breach.

I costi extra per un ripristino dei dati rappresenta un 29% mentre le sanzioni corrispondono al 25%.

 

 

Questa situazione mette in luce un lato positivo: aumenta la security awareness. Da tempo cresce nelle aziende la presa di coscienza dell’importanza del rischio informatico. Del resto per il 48% degli intervistati gli incidenti informatici rimarranno il principale rischio per le aziende per i prossimi 5 anni. La corsa alla prevenzione e al monitoraggio sembra essere la scelta più appropriata se non l’unica.

Le imprese percepiscono di anno in anno la strategicità della sicurezza informatica e la necessità di affidarsi a partner solidi per una cybersecurity all’avanguardia.

Avete già pianificato la vostra strategia?

 

 

Cerchi un partner per la tua cybersicurezza?

Strategia e servizi su misura per il tuo business

Pericoli fatturazione elettronica: come difendersi

Pericoli fatturazione elettronica: come difendersi

Pericoli fatturazione elettronica: davvero questo processo presenta dei rischi per la sicurezza? Tutto parte dalla mole di informazioni e i derivanti rischi di usi impropri da parte di terzi e anche dagli hacker. Come un’impresa può agire per rendere sicura la fatturazione elettronica?

 

Pericoli fatturazione elettronica: tutto su questa croce e delizia delle aziende. Croce perché è vissuta da imprese e professionisti italiani come un onere complesso e antipatico. Delizia perché, se ben avviata, la fatturazione elettronica taglia fino all’80% dei vecchi costi, dimezzando tempi e risorse.

Sono due gli ostacoli principali per questa rivoluzione digitale: la mentalità e gli hacker.

 

Fatturazione elettronica e mentalità digitale

Il cambiamento spesso viene accolto come un problema. Figuriamoci nel business, quando non c’è tempo né voglia di avere noie. Nel caso della fatturazione elettronica è soprattutto un cambiamento mentale: si tratta di vera e propria rivoluzione culturale le aziende.

Tutto dipende direttamente dai sistemi informatici, si abbandona l’uso dei documenti cartacei, l’archiviazione è “ottica documentale”.

Ogni fattura viene prodotta, trasmessa e archiviata con formato digitale XML (eXtensible Markup Language), un linguaggio informatico di certo non comprensibile ai più. Tuttavia i processi gestionali hanno coinvolto le singole persone, reparti e procedure interne.

Per le aziende il vero trauma è abbandonare le abitudini radicate negli anni, imparare di nuovo come gestire tutti i documenti, le attività e coordinare tutti i processi che ne conseguono.

 

Vulnerabilità della fatturazione elettronica

Il grande cambiamento della fatturazione elettronica sta nella gestione del dato. Chi ora va ad utilizzare la fatturazione elettronica deve gestire nuovi punti di accesso: proprio qui nascono i rischi per la Sicurezza

Il primo punto di vulnerabilità è il software di gestione della fattura elettronica. L’utente non sa che tipo di software sia, quanto sia patchato e il suo livello di sicurezza.

L’ente preposto è il secondo punto vulnerabile: la sensibilità del dato che non è più nella sola azienda ma viene inoltrato a un ente che potrebbe essere violato.

Si aggiunge un terzo punto di accesso vulnerabile: le terze parti. Non a caso il Garante della Privacy, considerando i dati personali a rischio elevato, ha invitato l’Agenzia delle Entrate e i vari intermediari di adottare alcuni accorgimenti per rendere il sistema pienamente conforme alle previsioni del Regolamento (UE) n. 679/2016 (GDPR).

Inoltre, le aziende trasmettono i dati mediante FTP, un protocollo di trasmissione conosciuto per non essere estremamente sicuro. Un altro strumento utilizzato è la PEC, la posta elettronica certificata, che a sua volta si è rivelato vulnerabile.

 

Come sviluppare una politica di sicurezza aziendale

Scarica gratuitamente l’infografica!

 

Fatturazione elettronica e cybercrimine

Tutti questi punti di vulnerabilità espongono le aziende a due tipi di attacchi informatici: spionaggio e sabotaggio.

Un cyber criminale potrebbe spiare per sfruttare elenchi di clienti e fornitori, attività ricevute e commissionate, valori economici legati alle fatture storicizzate. In questo modo un’azienda può perdere di competitività sul mercato perché un competitor potrebbe venire a conoscenza di dove sta focalizzando il suo management o dove sono diretti gli investimenti.

Il sabotaggio è più raffinato: si può impedire l’operatività quotidiana di un’azienda per motivi tattici di mercato. Come? L’utente deve gestire il database e mantenerlo nel tempo: se viene bloccato il database non si può più accedere al sistema di fatturazione, così arrestando l’intera produzione.

 

Come rendere sicura la fatturazione elettronica

Come proteggersi da questi pericoli? Un’azienda può rendere sicuro il processo di fatturazione elettronica ? Bastano pochi passi ma fondamentali:

  • attivare un processo di security awareness
  • pianificare dei penetration test

I dipendenti spesso si rivelano il punto più debole dell’intero processo a causa della scarsa formazione ricevuta in materia di sicurezza. Istruire i propri dipendenti nel difendersi da phishing e da altre minacce di ingegneria sociale è l’ideale per proteggere informazioni sensibili.

Oltre ad attivare corsi specifici sulla cybersecurity e sull’awareness in ambito sicurezza, l’azienda dovrebbe procedere con l’analisi del rischio tecnologico.

Quando l’azienda attiva PEC, FTP o uno dei vari web server, andrebbe compiuto un penetration test. Questo serve per verificare che non vi siano vulnerabilità sul linguaggio con cui è stato scritto il software di archiviazione delle fatture. Il pen test esamina anche la metodologia di inoltro delle fatture in cloud o nel server centrale della Pubblica Amministrazione in caso di smistamento.

Ecco che tutto l’arsenale di vulnerability assessment, penetration test e code review diventa come sempre forte alleato delle aziende anche per rendere sicura la fatturazione elettronica.

 

Con la fatturazione elettronica le aziende si ritrovano a capire se hanno le competenze interne per affrontare la digitalizzazione tutto il ciclo e la conservazione digitale del dato. Un oceano di informazioni e pericoli che diventa sicuro e navigabile solo con partner tecnologici affidabili e una strategia di sicurezza preventiva e proattiva.

 

Edge Computing: cos’è, funzionalità e benefici per le aziende

Edge Computing: cos’è, funzionalità e benefici per le aziende

È l’evoluzione del Cloud e per molti ne decreterà la fine. In realtà non è proprio così: scopriamo cos’è l’Edge Computing e quali vantaggi può portare alle imprese.

 

È uno dei trend tecnologici del 2019 secondo Gartner, che lo mette al quinto posto della sua classifica. Ma cosa significa edge computing? Qual è la sua relazione con il Cloud e con l’Intelligenza Artificiale? 

 

Cos’è l’Edge Computing?

Quello dell’edge computing non è un concetto recente. Eppure è con l’avvento del Cloud e dell’IoT che l’attenzione verso questa forma di tecnologia si è fatta sempre più alta. Ma cos’è l’edge computing?

L’edge computing è un modello di infrastruttura informatica che decentralizza una parte di architettura dedita all’elaborazione dei dati.

In pratica un’infrastruttura basata sull’edge computing è composta da un centro nevralgico per la conservazione e l’elaborazione dei dati, al quale viene associato un certo numero di nodi periferici che elaborano le informazioni a livello locale.

Le dimensioni dei nodi possono variare e nulla toglie che i dati raccolti possano essere comunque trasferiti al core.

Perché? Quali sono i vantaggi?

Gli addetti all’IT conoscono bene la differenza tra il core centrale dell’infrastruttura e la parte periferica.

Agli albori dell’edge computing, però, queste architetture risultavano dispendiose e poco pratiche.

Col passare degli anni, però, la tecnologia è riuscita ad arginare questo problemi.

Anzi, col tempo ci si è resi conto che la latenza derivata dal traffico di rete impediva una corretta e veloce elaborazione dei dati raccolti e inviati alla sede centralizzata.

 

I vantaggi dell’Edge Computing

La necessità di delocalizzare nasce quindi dall’esigenza di ridurre l’enorme quantità di dati che confluiscono al Data Center e alleggerire il traffico di rete.

Spesso, infatti, raccogliere dati in locale, trasferirli al Data Center e aspettare che questo li elabori e dia una risposta può risultare dispendioso in termini di tempo.

Ciò è dovuto principalmente alla connettività, che spesso è poco performante, sia in termini di banda sia di latenza.

Inoltre, fattore non di poco conto, subentra nell’ecosistema dell’elaborazione dei dati anche il fattore privacy, la cui legislazione si fa sempre più rigida. I dati, in sostanza, vanno tutelati e, se pur non risolva il problema dei cyberattacchi, localizzarli aiuta a renderli più protetti.

Per questo le architetture di edge computing risultano l’ideale per l’IoT, ma anche per gli ambiti del retail, dello streaming, delle transazioni finanziarie e molto altro.

 

Cerchi una consulenza per gestire la tua infrastruttura IT?

Ecco cosa possiamo fare per te!

 

 

È chiaro che l’edge computing costituisca un modello, e che ogni impresa deve trovare il suo spazio di applicazione, se questo risulta compatibile con i suoi processi di business.

Un’architettura basata sul modello edge computing può quindi essere molto diversa a seconda dell’azienda.

Un’infrastruttura di edge computing può essere formata da un gran numero di dispositivi più o meno complessi, oppure, al contrario, solamente da un piccolo gateway sino a strutture iperconvergenti.

In ogni caso, i principali benefici dell’edge computing sono da un lato quello di permettere agli utenti di accedere alle informazioni di cui si necessita con maggiore rapidità. Dall’altro di garantire più protezione ai dati stessi.

 

Edge Computing, Edge Cloud e Intelligenza Artificiale

L’edge computing si adatta molto a quelle aziende spaventate dalla centralizzazione delle informazioni che caratterizza il Cloud, in quanto permette un maggiore controllo dei dati localizzati.

Ma anche le grandi aziende stanno guardando all’edge computing con interesse.

Molti sostengono che l’edge computing andrà a sostituire al Cloud (Cloud to Edge), o che comunque i due modelli costituiscano ognuno l’alternativa all’altro.

Lo scenario più probabile, invece, è che le due architetture non solo convivranno ma diventeranno complementari, e le organizzazioni più all’avanguardia coglieranno al meglio questa sinergia.

È chiaro che in questo contesto sarà necessario sviluppare software molto più sofisticati, in grado di gestire nodi centrali e nodi periferici.

È qui che l’AI, secondo gli esperti, giocherà un ruolo fondamentale: grazie all’autoapprendimento, i dati verranno analizzati e trasformati in informazioni utili a supporto della strategia di business (data driven).

Quale sarà quindi il futuro dell’edge computing?

Nel 2017 il mercato dell’edge computing ammontava a 1,47 miliardi di dollari e da qui al 2022 si stima una crescita del 35% (Grand View Research, 2018).

 

Trends tecnologia 2019: la classifica di Gartner

Trends tecnologia 2019: la classifica di Gartner

Cosa ci attende quest’anno in ambito IT? Quali saranno le tendenze che prenderanno prede in questo 2019? Ecco la classifica stilata da Gartner.

Ogni anno Gartner, l’azienda di consulenza e ricerca nonché istituzione in ambito IT, organizza il Simposyum, la più importante conferenza europea per i CIO e IT Manager. Nel corso del meeting Gartner presenta la classifica delle tendenze tecnologiche che avranno maggior impatto per l’anno a venire. Lo scopo è quello di stimolare le organizzazioni sui temi caldi dell’IT per promuovere la trasformazione digitale nelle imprese. Ecco quali saranno i trend del mondo ICT che caratterizzeranno questo 2019.

 

10) Computer quantico

“0 e 1 sono numeri. Il resto è professionalità”.

Eppure questi due numeri costituiscono tutto ciò che sappiamo sull’informatica.

Le cose però sembrano cambiare. Per decenni, infatti, la potenza dei computer è aumentata di pari passo alla miniaturizzazione delle componenti elettroniche, fino a raggiungerne il limite massimo.

Qui entrano in gioco i computer quantistici (o quantici): dispositivi basati sui principi della meccanica quantistica con capacità computazionali enormemente superiori ai computer tradizionali.

I computer quantici non si basano su una sequenza binaria bensì sui qubit (quantum bit), che a differenza del bit, il cui valore può essere 1 oppure 0, possono assumere diversi valori.

Il computer quantico, se pur ancora in fase di sviluppo, costituirà una vera rivoluzione nell’ambito informatico: in futuro, quindi, avremo computer in grado di elaborare informazioni sempre più complesse.

 

9) Privacy ed etica

L’era digitale ha portato con sé numerosi cambiamenti, anche a livello sociale, e tantissime opportunità.

Accanto a queste, però, iniziano a palesarsi sempre più questioni di carattere etico.

Quando qualcosa si evolve con tanta rapidità a volte se ne perde il controllo a livello umano, e ciò comporta una riflessione su tutti quegli aspetti sociali e morali legati alla fiducia, alla giustizia, all’educazione, alla sicurezza.

Ciò è accaduto con la tecnologia. Oggi più che mai è il tema della privacy al centro dell’attenzione.

Il dato è la nuova moneta di scambio. Se utilizzati in modo corretto, i dati ci permetterebbero di vivere un’esperienza tech estremamente personalizzata. Ma questo valore è minacciato proprio da un utilizzo poco etico della tecnologia.

E finiamo per sentirci controllati, spiati, violati.

E non c’è nulla di più deleterio, per un’azienda, che perdere la fiducia dei propri Clienti.

Già con il GDPR, in Europa, è emerso un tentativo di regolamentare la questione privacy. Quello che però è necessario è ritrovare il senso umano delle cose, anche quando è presente il filtro della tecnologia.

 

8) Smart space

Apertura, connettività, coordinazione, comprensione e obiettivi.

Questi i principi dello smart space, spazi di aggregazione dove le persone interagiscono grazie alla tecnologia.

Una trasformazione dello spazio fisico e dello spazio digitale al servizio della cooperazione e dell’ottimizzazione del tempo e della produttività.

 

7) Blockhain

Negli ultimi mesi sembra non si sia parlato d’altro. La blockchain è uno dei temi forse più controversi di questo decennio, soprattutto per la sua correlazione con il mondo delle criptovalute.

Ma la blockchain, in realtà, non riguarda solamente i bitcoin.

Si tratta di un sistema in cui le informazioni vengono verificate e protette, senza la necessità di utilizzare intermediari.

Una vera e propria rivoluzione che, in un immediato futuro, potrebbe interessare un enorme numero di settori, non solo quello finanziario.

A quanto pare uno degli ambiti in cui la blockchain sta riscontrando maggior fermento è quello dell’Internet of the Things.

 

6) Immersive experience

Realtà Virtuale, Realtà Aumentata e Realtà Mista. L’esperienza quotidiana si fa sempre più immersiva.

VA, VR e MR sono tecnologie che stanno trovando sempre più ambiti di applicazione e sempre più aziende ne comprendono le potenzialità per il proprio business.

Basti pensare alle imprese che al posto di trasportare enormi macchinari nelle fiere internazionali utilizzano la Realtà Virtuale per far provare i propri prodotti.
Architetti e impresari edili che fanno vivere un’esperienza reale ai potenziali clienti simulando l’interno della casa, regalando quindi un’esperienza che nessun rendering può dare.
Enti formativi che avvalendosi della realtà aumentata e di simulazioni realistiche possono risparmiare tempo e denaro.

E l’elenco continuerebbe, tanto che Gartner stima che entro il 2022 ben il 70% delle aziende si doterà di tecnologie di esperienza immersiva.

 

5) Edge computing

Cloud to the Edge. Così Gartner sintetizza il trend che posiziona al quinto posto della sua classifica.

Secondo la società di ricerca, le imprese, specie quelle con una forte componente IoT, dovrebbero iniziare a reinterpretare le proprie infrastrutture IT improntandole sui principi dell’edge computing, quindi distribuendo e decentralizzando le informazioni che produce.

Gartner definisce l’edge computing come “una rete mesh di micro data center, in grado di elaborare e memorizzare dati critici localmente, e di trasmettere tutti i dati ricevuti e/o elaborati a un data center centrale o a un repository di cloud storage”.

Trasferendo le componenti base di elaborazione dei dati vicine alle fonti che le generano, è evidente come questo principio si sposi alla grande con l’Internet of the Things, dove risulta indispensabile ridurre la latenza che deriva dal traffico di rete.

In tal modo i Data Center verrebbero sgravati di un’enorme mole di informazioni minori, che verrebbero quindi gestite vicino alle fonti tramite nodi, smart device o server intermedi e risolte in tempi brevi.

 

 

 

Cerchi un partner strategico per gestire la tua infrastruttura IT?

Ecco cosa possiamo fare per te!

 

 

4) Digital twin

Nati e sviluppati in particolare per il ramo automobilistico, i “gemelli digitali” sono modelli di software piuttosto complessi ma che stanno suscitando sempre maggior attenzione in tutti i settori.

Il digital twin altro non è che una copia virtuale di un sistema reale, capace di simularne comportamenti, reazioni agli stimoli esterni ed eventuali anomalie di funzionamento.

Un’idea che rientra a pieno titolo in quella più ampia dell’Industria 4.0, che potrebbe favorire una significativa riduzione di costi a lungo termine.

 

3) Sviluppo AI driven

Il modello data driven è un processo che si basa sull’analisi dei dati per il raggiungimento degli obiettivi di business.

Le aziende devono comprendere che sono proprio i dati il motore di sviluppo e la tecnologia deve porsi al servizio di questo.

La grande sfida dell’Intelligenza Artificiale consiste proprio nella capacità delle applicazioni di analizzare dati complessi per fornire predizioni strategiche.

Il questo contesto il ruolo degli sviluppatori si sta evolvendo in un modello dove Intelligenza artificiale e Big Data costituiscono il binomio perfetto per chi deve prendere decisioni di business.  

 

2) Augmented Analytics

Viviamo in un mondo in cui la produzione di dati ha raggiunto livelli esponenziali. Di conseguenza, la loro raccolta, analisi e interpretazione diventa sempre più complessa.

In questo contesto entra in gioco la cosiddetta Analisi Aumentata, che si avvale delle tecnologie di machine learning per automatizzare i processi di elaborazione e resa dei dati.

Con questa tecnologia, detta anche “Augmented Intelligence” e nata come idea già negli anni Sessanta, si vuole non solo facilitare la comprensione dei dati in relazione a cosa è successo ma anche al perché.

 

1) Autonomia delle cose

Robot, auto, elettrodomestici, macchinari, software, droni…

L’Intelligenza Artificiale è in cima alla classifica dei trend tecnologici 2019.

Oggetti che grazie all’AI lavorano in autonomia e capaci di apprendere autonomamente nuove nozioni per costruirsi una vera e propria memoria e decidere da soli cosa fare.

Si tratta senza dubbio di uno dei temi più discussi degli ultimi anni: l’intelligenza artificiale prenderà il sopravvento sull’uomo? Si sostituirà a esso? I robot intelligenti ci ruberanno il lavoro? I quesiti sono infiniti e certamente la tecnologia alla base dell’intelligenza artificiale si fa sempre più raffinata.

A oggi  l’AI non ha ancora raggiunto quelle capacità decisionali o di apprendimento autonomo tali da sostituire interamente la mente umana. quel che è certo, però, è che sempre più oggetti di uso quotidiano si stanno orientando verso questa tecnologia, che, in particolar modo per le aziende, costituisce di fatto un’enorme opportunità.

SIEM, SIM e SEM: definizione e a cosa servono

SIEM, SIM e SEM: definizione e a cosa servono

In ambito di cybersecurity, spesso SIEM, SIM e SEM vengono utilizzati come sinomimi. Vediamo invece in cosa si differenziano questi software per la sicurezza informatica e perché sono utili per le aziende.

SIEM, SIM e SEM sono prodotti che rientrano nell’ambito della gestione della sicurezza informatica aziendale.

Nel dettaglio, il SEM (acronimo di Security Event Management) si occupa della gestione degli eventi di sicurezza; il SIM (acronimo di Security Information Management) riguarda invece la gestione dei log.

E il SIEM?

In informatica il SIEM è l’acronimo di Security Information and Event Management.

Si tratta di un prodotto formato da software e servizi che coniuga le funzionalità del SIM con quelle del SEM.

Ma perché SIEM, SEM e SIM sono così importanti per le aziende? A cosa servono, nel dettaglio?

Questi prodotti semplificano di gran lunga la gestione della sicurezza aziendale da parte degli IT manager, che possono con facilità individuare, quindi bloccare, le minacce informatiche e gestire gli eventi grazie a tool di automation.

Il vantaggio di avvalersi di software SIEM è proprio la possibilità di combinare due funzioni di management indispensabili per la cybersicurezza: quella delle informazioni (SIM) e quella degli eventi (SEM).

Ma qual è la differenza tra SIM e SEM?
Vediamola nel dettaglio.

 

SEM: la gestione degli eventi di sicurezza

Il SEM (Security Event Management) si occupa di monitorare in tempo reale gli eventi nei sistemi di sicurezza, nella rete, nei dispositivi e nelle applicazioni, segnalando le anomalie e anticipando quindi eventuali disservizi.

La gestione degli eventi è una disciplina di sicurezza informatica che utilizza strumenti di ispezione dei dati per centralizzare l’archiviazione e l’interpretazione di registri o eventi generati da altri software in esecuzione su una rete.
Il logging centralizzato esisteva già precedentemente ai SEM. Ma con il Security Event Management è stato introdotto uno strumento chiave per la sicurezza informatica: la capacità di analizzare i registri raccolti per evidenziare eventi o comportamenti di interesse.

Ad esempio, con il SEM è possibile rilevare un accesso amministratore al di fuori del normale orario di lavoro, quindi informazioni sull’host, sull’Id, ecc…

Le informazioni contestuali raccolte rendono i report estremamente più dettagliati e permettono di ottimizzare i flussi di lavoro finalizzati alla risoluzione degli incidenti.

I SEM migliori offriranno un set flessibile ed estensibile di funzionalità di integrazione per garantire un corretto funzionamento con maggior parte degli ambienti dei clienti.

 

 

 

SIEM: 5 motivi per cui non puoi farne a meno

Scarica il PDF gratuito e scopri perché il SIEM è indispensabile per le aziende.

 

 

SIM: la gestione delle informazioni di sicurezza

Il SIM (Security Information Management), viene utilizzato per gestire la raccolta dei log in modalità automatica.

A differenza del SEM, il software SIM non lavora in real time ma in modalità automatizzata: attraverso un agent i dati raccolti vengono inviati al server centrale e installati nei dispositivi soggetti al monitoring.

In pratica i prodotti SIM sono software agent in esecuzione sui sistemi IT che necessitano di monitoraggio. I SIM quindi inviano le informazioni del registro a un server centralizzato che funge da “console di sicurezza”

La console di sicurezza è monitorata da un amministratore, che rivede le informazioni consolidate e interviene in risposta a eventuali allarmi emessi.

Alcuni agent possono incorporare filtri locali, per ridurre e manipolare i dati che inviano al server, anche se in genere da un punto di vista legale si raccolgono tutti i registri di controllo e di contabilità per garantire la possibilità di ricreare un incidente di sicurezza.

Il SIM si riferisce perciò alla parte della sicurezza delle informazioni che consiste nella scoperta del “cattivo comportamento” utilizzando tecniche di raccolta dei dati.

I dati inviati al server, per essere correlati e analizzati, sono normalizzati dagli agent in una forma comune, in genere XML. Questi dati vengono quindi aggregati, al fine di ridurne le dimensioni complessive.

 

In che modo il SIEM unisce le funzionalità del SEM e del SIM?

Il SIEM, in sostanza, è un Sistema di Gestione delle Informazioni e degli Eventi di Sicurezza.

Integra le funzioni di incident management con i workflow automatizzati per gestire da un’unica posizione l’intero processo di sicurezza.

Grazie a questi sistemi tutti i dati provenienti dai server, storage, pc, host, tool, device mobili vengono convogliati in un unico sistema e gestiti in modo aggregato.

Inoltre questi software alleggeriscono di gran lunga il lavoro degli amministratori di sistema, essendo in grado di reagire in modo automatico agli eventi.

Alcune imprese hanno compreso talmente bene l’importanza dell’automation che hanno iniziato a integrare i SIEM con i sistemi di machine learning e intelligenza artificiale, incrementando nuove funzionalità e ottimizzando la velocità e la precisione dei sistemi.

La sicurezza informatica non è qualcosa che un’organizzazione può sottovalutare o gestire in modo approssimativo. Cercare attacchi nel posto o nel momento sbagliato può essere molto rischiosi e comportare conseguenze potenzialmente deleterie.
Una piattaforma SIEM se configurata e monitorata correttamente, può svolgere un ruolo significativo nel consentire agli specialisti della sicurezza IT di identificare gli attacchi nel momento in cui si verificano o addirittura anticiparli, consentendo una reazione e una risoluzione più rapida.