Cybersecurity e settore pubblico
Ransomware e settore pubblico: il caso municipale che spiega cosa manca davvero a Comuni e servizi essenziali
Caso municipale e lettura operativa per enti locali e servizi essenziali. Mettiamo a fuoco supply chain, accessi, segmentazione, backup e tempi di ripristino con una ricostruzione che separa fatti, dipendenze e decisioni.
Pubblicato il: Lunedì 16 febbraio 2026 alle ore 18:03. L’articolo riflette le informazioni disponibili alla data di pubblicazione e potrebbe non includere sviluppi successivi, che possono incidere sull’inquadramento dei fatti. Eventuali aggiornamenti saranno riportati nell’Update log. In mancanza di registrazioni nell’Update log, il contenuto deve considerarsi invariato rispetto alla versione pubblicata.
Ultimo aggiornamento: Lunedì 16 febbraio 2026 alle ore 19:58. L’aggiornamento può includere interventi non sostanziali (revisione formale, correzioni, impaginazione o ottimizzazioni) e non implica necessariamente modifiche ai fatti riportati. Eventuali aggiornamenti di contenuto relativi agli sviluppi della notizia sono indicati nell’Update log.
Per costruire questa ricostruzione abbiamo allineato comunicazioni pubbliche, indicatori operativi e aggiornamenti tecnici disponibili. Dove mancano elementi pubblici (vettore di ingresso, gruppo, richiesta economica) lo diciamo senza ambiguità e trasformiamo il vuoto informativo in una lezione operativa, non in supposizioni.
Qui il punto non è raccontare l’ennesimo attacco. Il punto è capire cosa succede davvero quando un ransomware colpisce un municipio e spegne la voce digitale della città. Il caso di New Britain ci interessa perché la discontinuità è stata netta: rete e telefonia indisponibili per oltre 48 ore, uffici costretti a lavorare su procedure manuali e ripristino impostato per fasi. Nello stesso perimetro temporale abbiamo visto una seconda verità, meno intuitiva ma più pericolosa: quando cade un fornitore di pagamenti, la supply chain porta a terra incassi e servizi anche senza un attacco diretto al Comune. Da oggi vale una regola pratica: il ransomware non è un problema di file, è un problema di dipendenze e di tempo.
Mappa rapida: il caso e le decisioni che cambiano l’esito
| Passaggio | Cosa accade | Il segnale da cogliere | Cosa cambia |
|---|---|---|---|
| Il primo impatto visibile | Rete e telefoni del municipio vanno giù. Gli uffici passano a procedure manuali per non fermare del tutto sportelli e pratiche urgenti. | Quando salta la connettività, saltano anche le dipendenze interne: autenticazione, posta, file condivisi e portali al cittadino smettono di parlare. | La priorità diventa contenere e comunicare: isolare, ridurre la propagazione e mantenere in piedi i servizi indispensabili. |
| Contenimento e continuità dei servizi | La macchina pubblica lavora in modalità degradata: carta, canali alternativi e presidio dei servizi essenziali che non possono permettersi il fermo. | Se i segmenti critici restano operativi, significa che l’impatto non si è trasformato in paralisi totale. Questa è già una lezione di architettura. | Il danno resta amministrativo, non diventa emergenza di sicurezza pubblica. È un confine sottile, ma fa tutta la differenza. |
| Ripristino graduale e verifiche | Il rientro avviene a fasi: si rimettono online sistemi e servizi solo dopo controlli e bonifica, evitando il ripristino “a colpo unico”. | La metrica che conta è il tempo di ripristino. Il riscatto è un rumore di fondo se non hai una strategia di recovery pulita. | Ogni ora risparmiata arriva da decisioni prese mesi prima su backup, segmentazione e gestione delle identità. |
| La lezione operativa per tutti | Chiudere il vettore di accesso, spezzare il movimento laterale e blindare i backup. In parallelo, trattare fornitori e pagamenti come infrastruttura. | MFA e privilegi controllati riducono l’ingresso. Segmentazione e “tiering” riducono la corsa del ransomware. Backup immutabili riducono il downtime. | Il Comune torna a erogare servizi prima, e quando la supply chain esterna cade, esistono canali alternativi pronti. |
Tip: la tabella è scorrevole. Su mobile scorri con il dito a destra e a sinistra per vedere tutte le colonne.
Quando rete e telefoni restano giù per giorni, la resilienza non è teorica. È capacità di lavorare, incassare e comunicare in modo degradato.
Se il gateway dei pagamenti o il vendor del billing cade, l’ente locale perde canali di incasso e di servizio anche se la rete interna regge.
Reti piatte e privilegi larghi trasformano un incidente in contagio. Separazione e controllo accessi riducono la propagazione.
La velocità del ripristino dipende da backup puliti, isolati e provati. Il resto è tempo perso nel momento peggiore.
Quando si spegne la rete, si spegne la città digitale: la resilienza si misura in ore di ripristino e in dipendenze che sappiamo spezzare.
Trasparenza: fonti e metodo
Questa ricostruzione nasce da un lavoro che facciamo sempre allo stesso modo: prendiamo un segnale operativo (servizi giù, telefoni irraggiungibili, portali indisponibili) e lo leghiamo alle comunicazioni ufficiali, poi trasformiamo il tutto in decisioni tecniche e organizzative. Sul caso municipale, la timeline coincide con i dettagli riportati da WFSB, CT Insider e GovTech. Sulla parte supply chain dei pagamenti, l’effetto domino su municipalità e utilities trova riscontro nei bollettini WaterISAC e negli aggiornamenti pubblici del vendor, oltre alle conferme tecniche circolate su BleepingComputer.
Le raccomandazioni su identità, segmentazione e ripristino non sono opinioni: le abbiamo incrociate con framework consolidati come NIST e con le linee guida operative della CISA, tenendo sullo sfondo anche il perimetro italiano di resilienza per le pubbliche amministrazioni indicato dall’Agenzia per la cybersicurezza nazionale.
Nota di metodo: dove il dettaglio non è pubblico (vettore, gruppo, cifre) non lo riempiamo con narrazione. Lo usiamo per spiegare cosa dovresti aver già preparato per ridurre l’impatto anche quando non sai ancora tutto.
Contesto essenziale: cosa ci dice un ransomware municipale nel 2026
Un Comune non è un data center. È un sistema di fiducia che vive di scadenze, pagamenti, comunicazioni e servizi al cittadino. Quando un ransomware colpisce, la domanda vera non è “quanto è grave”, è “quanti servizi restano in piedi e con quali tempi di ripristino”.
Il caso New Britain è utile proprio perché il sintomo principale è stato immediatamente percepibile dai cittadini e dagli uffici: connettività e telefonia indisponibili. Questo tipo di impatto racconta una cosa semplice: l’ente perde la sua capacità di coordinarsi e di erogare servizio nel modo ordinario. Se in quel momento non esistono canali alternativi, l’incidente diventa un problema di ordine pubblico comunicativo prima ancora che tecnologico.
Poi c’è l’altro versante, quello che troppo spesso viene sottovalutato nelle PA locali: la supply chain. Nel settore pubblico l’outsourcing non è una scelta accessoria, è un pezzo di architettura. E quando l’outsourcing si concentra su pagamenti e billing, una crisi del fornitore diventa un fermo operativo a cascata.
In breve
- Un ransomware municipale si vede subito quando cade la voce digitale dell’ente: rete, telefoni e servizi al cittadino si fermano insieme.
- Le procedure manuali evitano lo stop totale, ma funzionano solo se sono già state definite e provate, altrimenti sono caos travestito.
- La supply chain dei pagamenti è un punto critico: un vendor colpito può spegnere incassi e portali su più città contemporaneamente.
- Segmentazione, controllo dei privilegi e backup verificati sono le tre leve che accorciano il downtime e riducono la propagazione.
- I tempi di ripristino vanno fissati prima: senza RTO dichiarati e priorità, si ripristina in ordine sbagliato e si perde il vantaggio.
Il caso municipale: New Britain e il “blackout digitale” che cambia la prospettiva
Abbiamo scelto New Britain per un motivo semplice: è un caso in cui la superficie del problema è stata immediata. Quando internet e telefonia di un municipio vanno giù, l’attacco smette di essere percepito come “questione IT” e diventa questione di servizio. Non stiamo parlando di un ufficio isolato, stiamo parlando della catena che tiene insieme sportelli, comunicazioni e flussi interni.
Come leggiamo il caso: separiamo ciò che è stato confermato pubblicamente (impatti e tempi) da ciò che deduciamo in modo rigoroso (dipendenze tecniche e scelte architetturali). È il modo più pulito per trasformare un incidente in una lezione.
Sommario dei contenuti
- Cosa sappiamo con certezza e cosa significa
- Il punto cieco: dipendenze interne e servizi che cadono insieme
- Supply chain: il caso pagamenti BridgePay e la lezione più scomoda
- Accessi: dove si rompe la catena e come si riduce il rischio
- Segmentazione: contenere non significa spegnere tutto
- Backup e ripristino: come si accorciano i tempi
- Tempi di ripristino: RTO realistici per enti locali e servizi essenziali
- Checklist operativa pronta all’uso
- FAQ
Cosa sappiamo con certezza e cosa significa
I fatti confermati sono chiari: l’attacco ha reso indisponibili connettività e telefonia del municipio per oltre 48 ore. La macchina amministrativa ha dovuto mantenere attività e servizi anche con procedure manuali. L’intervento ha coinvolto forze dell’ordine e supporto tecnico esterno, con un ripristino dichiarato come graduale.
Il significato operativo è più interessante del fatto in sé. Un fermo così, nel pubblico, non si misura con la domanda “quanti file sono stati cifrati”. Si misura con due domande che un dirigente o un responsabile IT dovrebbe farsi subito: quali servizi restano erogabili in modalità degradata e qual è l’ordine corretto per rimettere online ciò che è critico senza riaprire la porta.
Il punto cieco: dipendenze interne e servizi che cadono insieme
Quando telefoni e rete vanno giù insieme, il sospetto operativo non è “hanno spento un router”. È che il Comune dipenda da una catena unica: rete, identità, servizi di directory, sistemi di comunicazione e server applicativi condividono lo stesso destino. È normale in contesti in cui la rete è cresciuta a strati, ufficio dopo ufficio, senza una segmentazione reale e senza una gestione dei privilegi a livelli.
Qui il ransomware fa quello che sa fare meglio: sfrutta la complessità. Se l’ente usa la stessa identità per accedere a tutto, e se l’amministrazione dei sistemi passa per canali non sufficientemente protetti, l’attaccante ottiene una leva che moltiplica l’impatto. Anche senza sapere il vettore iniziale, il pattern è leggibile: il problema non è una macchina, è una dipendenza.
Supply chain: il caso pagamenti BridgePay e la lezione più scomoda
Il secondo segnale che abbiamo messo in fila in queste settimane riguarda i pagamenti. Un ransomware che colpisce un fornitore di gateway può spegnere in parallelo portali di pagamento e incassi per più enti locali, più utilities e più servizi al cittadino. E il punto, qui, è che il Comune potrebbe anche essere “pulito” dentro, ma resta fermo fuori.
Nel caso BridgePay, il vendor ha confermato un attacco ransomware e un outage prolungato dei suoi servizi. Per diversi enti locali l’effetto pratico è stato immediato: pagamenti con carta e canali online indisponibili, cittadini indirizzati verso alternative come sportelli fisici, drop box o sistemi temporanei. Un dettaglio tecnico che spesso passa inosservato è quello che ci interessa davvero: se il gateway è integrato come back end dentro i sistemi di billing, l’outage non è “un sito giù”, è una funzione che smette di esistere.
Qui la lezione va messa in agenda come priorità: i pagamenti non sono un servizio accessorio. Sono infrastruttura, perché tengono in piedi incassi e perché riducono il carico operativo sugli sportelli. Se non esiste un piano di continuità per l’incasso, si passa in poche ore da un incidente cyber a una crisi organizzativa.
Accessi: dove si rompe la catena e come si riduce il rischio
La prima domanda che ci fanno sempre è “da dove entrano”. La risposta, nel pubblico, cambia meno di quanto si creda: credenziali rubate, accessi remoti gestiti male, account di servizio troppo potenti, fornitori con canali privilegiati e spesso poco visibili. Il ransomware prospera quando l’identità è un passepartout.
Qui la scelta che cambia davvero il gioco non è uno strumento. È un modello: MFA ovunque conti, privilegi a tempo e non permanenti, amministrazione fatta da postazioni dedicate e non dal PC dell’ufficio, logging centralizzato che segnala l’anomalia prima dell’impatto. Sembra teoria finché non ti trovi con la directory sotto pressione e con le credenziali che devono essere ruotate mentre l’ente lavora su carta.
Segmentazione: contenere non significa spegnere tutto
Segmentare non significa costruire un labirinto. Significa impedire che l’attaccante trasformi un punto di ingresso in una corsa laterale. Nei Comuni il rischio classico è la rete piatta: tutto parla con tutto, e quando un account privilegiato cade, cade anche l’illusione che l’incidente resti “in un ufficio”.
Il criterio pratico che proponiamo è quello dei livelli. Primo livello: identità e infrastruttura di gestione, con accessi blindati e separati. Secondo livello: servizi al cittadino e portali. Terzo livello: postazioni e uffici. Quarto livello: ciò che non deve cadere nemmeno in modalità degradata, e qui dentro finiscono spesso servizi essenziali e componenti operative collegate alle utilities.
Quando questa separazione esiste, la risposta cambia: si può contenere senza spegnere la città digitale. Senza separazione, la scelta diventa drastica: si isola tutto e si entra in un blackout totale.
Backup e ripristino: come si accorciano i tempi
Qui smettiamo di parlare di tecnologia e iniziamo a parlare di tempo. Il ripristino veloce nasce da backup puliti, isolati e provati. Non basta avere copie, serve che l’attaccante non possa toccarle e serve che il restore funzioni davvero nel momento peggiore.
Il punto più trascurato è la protezione del sistema di backup. Se il backup vive nella stessa foresta di identità del resto, un dominio compromesso può diventare un backup compromesso. Per questo insistiamo su due idee concrete: credenziali separate e copie immutabili oppure offline. Poi c’è la prova più brutale ma più utile: test di ripristino a tempo, con un cronometro e con una checklist.
Un recovery pulito non è un restauro “completo”. È un ritorno a fasi: prima ciò che permette di autenticare e comunicare, poi ciò che serve per erogare servizi e incassare, infine ciò che è amministrazione interna. In un Comune questo ordine fa la differenza tra un fermo gestibile e una paralisi che dura settimane.
Tempi di ripristino: RTO realistici per enti locali e servizi essenziali
Ogni ente locale dovrebbe avere RTO dichiarati, non generici. Il ransomware trasforma un concetto astratto in domanda urgente: in quante ore torniamo a comunicare, in quante ore riapriamo un canale di pagamento, in quanti giorni torniamo a pieno regime.
Un modello pratico, che si adatta a Comuni medi e a utilities collegate, ragiona per classi. Comunicazioni e canali al cittadino devono rientrare per primi, perché riducono il panico e organizzano il lavoro. Identità e servizi core vengono subito dopo, perché senza identità non ripristini nulla. Pagamenti e billing vanno trattati come mission critical, perché impattano su incassi e su rapporto con la comunità. Il back office interno può rientrare in modo più graduale, ma solo se non trascina con sé i servizi esterni.
Checklist operativa pronta all’uso
Qui mettiamo nero su bianco ciò che consigliamo di avere già pronto, e ciò che va fatto nel momento in cui l’incidente si manifesta. È una lista operativa, non una lezione di principio.
Prima dell’incidente
- Inventario minimo dei servizi: cosa è essenziale, cosa è importante e cosa può fermarsi senza bloccare la città.
- Segmentazione per livelli: identità e gestione separate dai segmenti utenti e dai servizi esposti al cittadino.
- Privilegi ridotti e tracciati: MFA su accessi critici e controllo sui fornitori con accesso remoto.
- Backup con copie immutabili o offline e test di restore ripetuti, con tempi misurati e obiettivi espliciti.
Durante l’incidente
- Isolamento rapido con mandato chiaro: si decide chi può staccare e cosa non può essere staccato.
- Canale di comunicazione alternativo: aggiornamenti frequenti e istruzioni operative per cittadini e uffici.
- Presidio dei servizi essenziali e modalità degradata già prevista: il cartaceo deve essere organizzato, non improvvisato.
- Conservazione delle evidenze e coordinamento con forze dell’ordine e specialisti: serve per bonifica e per responsabilità.
Dopo il contenimento
- Rotazione credenziali e verifica dei privilegi: trattare l’identità come potenzialmente compromessa finché non si dimostra il contrario.
- Ripristino per fasi con gate di sicurezza: log e telemetria prima della riapertura dei servizi.
- Revisione contratti supply chain: clausole di notifica e piani di continuità per pagamenti, billing e servizi esterni.
Guida operativa: cosa controllare quando l’obiettivo è ridurre il downtime
Il dettaglio che spesso manca: una “mappa delle dipendenze”
Nei municipi la domanda tipica è “qual è il servizio più importante”. La domanda giusta è “da cosa dipende”. Se un portale al cittadino dipende dalla stessa identità che gestisce anche i file interni, basta un incidente sull’identità per far crollare due mondi.
La regola pratica sui backup
Un backup è utile solo se lo puoi ripristinare in sicurezza e se il ransomware non può raggiungerlo. Tradotto: almeno una copia deve essere fuori dal dominio operativo, e il restore deve essere provato con regolarità. Non è un dettaglio tecnico, è un requisito di continuità.
Il nodo supply chain sui pagamenti
Il fornitore di pagamenti va trattato come un servizio essenziale. Serve sempre un piano di fallback: alternative di incasso, comunicazione chiara ai cittadini, eventuale workaround tecnico con l’integratore e regole interne su sospensioni, proroghe e gestione delle code agli sportelli.
Suggerimento pratico: se domani mattina il portale pagamenti si spegne, l’ente deve sapere in pochi minuti che cosa comunicare, dove incassare e come registrare. Questo si decide prima, non durante.
Il commento dell’esperto
Il caso New Britain ci ha ricordato una cosa che nel settore pubblico tendiamo a dimenticare finché non brucia: il digitale è ormai un’infrastruttura civica. Quando cade, non cade un software. Cade il coordinamento tra uffici, cade la capacità di rispondere e cade la fiducia se la comunicazione non è pronta.
La seconda lezione è più scomoda perché sposta la responsabilità oltre i confini dell’ente. La supply chain dei pagamenti è una linea di servizio. Se il vendor è a terra, il Comune perde un pezzo di città digitale anche se nessuno ha toccato i suoi server. Per questo insistiamo su contratti che parlano di resilienza e su piani di continuità che non dipendono dalla speranza che “tanto torna su”.
La terza lezione è quella che distingue i Comuni che ripartono da quelli che restano fermi. Segmentazione e identità sono due facce della stessa cosa: ridurre la portata dell’incidente. Backup e test di ripristino sono l’unico modo serio di comprare tempo quando il ransomware prova a vendertelo.
Questo è un commento editoriale: una lettura operativa basata sui fatti pubblici e su pratiche consolidate di resilienza nel settore pubblico.
A cura di Junior Cristarella.
Domande frequenti
Parliamo di un caso reale o di un esempio teorico?
È una ricostruzione basata su un caso reale: un attacco ransomware che ha colpito un municipio e ha reso indisponibili rete e telefonia per oltre 48 ore, con attività amministrative portate avanti anche in modalità manuale.
Perché un ransomware in un Comune è diverso da quello in un’azienda privata?
Perché il Comune eroga servizi che non possono “chiudere” senza impatto immediato: pagamenti, anagrafe, pratiche, segnalazioni e in alcuni casi funzioni collegate a utilities. La pressione sul tempo di ripristino è più alta e la comunicazione è parte della risposta.
Cosa c’entra la supply chain con un ransomware municipale?
C’entra perché molte funzioni chiave sono esterne: pagamento bollette, piattaforme di prenotazione, notifiche, help desk e fornitori di software gestionale. Se il fornitore cade, il Comune può restare fermo anche senza una compromissione diretta della propria rete.
Da dove si inizia con la segmentazione se la rete è “piatta”?
Si parte separando ciò che governa tutto: identità e amministrazione. Poi si isolano i servizi essenziali e si riducono i percorsi laterali tra uffici. La segmentazione efficace nasce da regole di accesso e da firewall interni, non solo da VLAN.
Che caratteristiche devono avere i backup per reggere un ransomware?
Devono essere recuperabili, isolati e verificati. Serve almeno una copia offline o immutabile, credenziali di backup separate e test di ripristino ripetuti. Un backup mai provato è una speranza, non una misura di resilienza.
Che tempi di ripristino sono realistici per un ente locale medio?
Dipende dall’architettura e dalla preparazione. In pratica bisogna fissare obiettivi per classi di servizio: comunicazioni e canali al cittadino prima, sistemi di identità e file core subito dopo, poi pagamenti e gestionali. Senza questi obiettivi, si ripristina “a sentimento” e si perde tempo.
Pagare il riscatto accelera davvero il ripristino?
Non esiste una scorciatoia garantita. Anche quando arriva una chiave, resta la bonifica e resta la verifica dei sistemi. La velocità nasce da backup puliti e da una strategia di recovery che non rimetta in produzione macchine compromesse.
Timeline operativa: apri le fasi in ordine
Tocca una fase per aprire i passaggi chiave. Questa timeline è pensata per responsabili IT, dirigenti e operatori di servizi essenziali che devono trasformare un incidente in un piano.
-
Fase 1 Rilevazione e scelta di isolamento
- Il segnale iniziale è spesso banale: telefoni muti e servizi non raggiungibili. Trattalo come incidente fino a prova contraria.
- Isolare la rete è una decisione politica oltre che tecnica: serve la catena di comando, serve il mandato.
- Blocca l’espansione: account privilegiati, condivisioni e strumenti di gestione remota diventano acceleranti.
- Apri subito un canale di comunicazione alternativo verso cittadini e fornitori, perché la fiducia si gioca nelle prime ore.
Perché conta: I minuti iniziali decidono se l’incidente resta confinato o se diventa un blackout che travolge ogni ufficio.
-
Fase 2 Servizi essenziali in modalità degradata
- Definisci ciò che non può fermarsi: sicurezza pubblica, utilities, reperibilità e gestione emergenze.
- Attiva procedure manuali già previste, non improvvisate. Il cartaceo funziona solo se è stato provato.
- Separare IT e sistemi operativi essenziali evita che un problema informatico diventi un problema di servizio al territorio.
Perché conta: La continuità operativa non è una promessa. È una lista di funzioni vitali con un piano per erogarle anche senza rete.
-
Fase 3 Bonifica e recovery pulita
- Prima di ripristinare, si bonifica. Senza bonifica, il ripristino riaccende l’infezione.
- L’identità è il cuore: directory, DNS, DHCP e posta determinano se l’ente può ripartire in sicurezza.
- Le credenziali vanno trattate come compromesse finché non dimostri il contrario: rotazione e controllo accessi sono obbligatori.
- I backup devono essere verificati con restore reali, non con la sola presenza dei file.
- Gli endpoint rientrano per ultimi e rientrano “puliti”: immagini golden e controllo degli agenti di sicurezza.
Perché conta: Un recovery rapido ma sporco è solo un modo elegante per tornare giù dopo poche ore.
-
Fase 4 Ripristino a fasi con priorità dichiarate
- Prima la comunicazione e i canali di front office, poi i sistemi di back office.
- I pagamenti sono servizi. Se si fermano, si ferma la liquidità e si alza la pressione politica.
- Ogni riapertura deve avere un “gate” di sicurezza: log, telemetria e controllo delle configurazioni.
- Documenta ogni scelta: serve per audit, per responsabilità e per migliorare.
Perché conta: Il ripristino non è “torniamo online”. È “torniamo online senza riaprire le stesse porte”.
-
Fase 5 Hardening e supply chain dopo l’incidente
- La parte che nessuno vede è quella che evita il bis: segmentazione reale, non solo su carta.
- Gli accessi dei fornitori vanno trattati come accessi privilegiati. Se entrano, devono essere tracciati e limitati.
- Metti in contratto obblighi di notifica, RTO dichiarati e alternative operative se il fornitore cade.
- Esegui esercitazioni. Senza prove, il piano resta una presentazione.
Perché conta: Il vero costo arriva dopo. Se non chiudi le cause, paghi due volte: con il prossimo fermo e con la perdita di fiducia.
Chiusura
Il caso municipale di New Britain è utile perché mette a nudo la realtà: il ransomware colpisce la continuità, non solo i sistemi. L’impatto più duro arriva quando identità, comunicazioni e pagamenti condividono la stessa fragilità. Se vogliamo ridurre il downtime dobbiamo trattare supply chain e backup come infrastruttura, e dobbiamo fissare tempi di ripristino che abbiano senso sul territorio. Questo è il lavoro invisibile che oggi distingue un incidente gestibile da una paralisi.
Approfondimenti correlati
Tecnologia: cybersecurity, privacy e digitale
Il nostro hub su tecnologia e sicurezza: analisi, casi reali e guide operative per leggere il rischio digitale senza rumore.
Apri la pagina hubUpdate log
Registro degli aggiornamenti sostanziali: trasparenza su modifiche, correzioni e integrazioni informative.
- Lunedì 16 febbraio 2026 alle ore 19:12: Pubblicazione: ricostruzione del caso municipale e lettura operativa su supply chain, accessi, segmentazione e backup con focus sui tempi di ripristino.
- Lunedì 16 febbraio 2026 alle ore 19:37: Integrata la sezione supply chain con scenario pagamenti e continuità di incasso per enti locali e utilities.
- Lunedì 16 febbraio 2026 alle ore 19:58: Rafforzate timeline e FAQ con criteri pratici per definire RTO e priorità di ripristino, oltre a controlli minimi su identità e backup.