Tecnologia e policy UE
Snapchat, indagine UE sui minori: le 5 contestazioni DSA
Procedimento formale aperto dalla Commissione europea il 26 marzo 2026 contro Snapchat nell’ambito del Digital Services Act. Nel mirino ci sono verifica dell’età, rischio di adescamento e reclutamento criminale dei minori, impostazioni dell’account, contenuti che rinviano a droghe, vapes o alcol e strumenti di segnalazione. Al 28 marzo il fascicolo è aperto e ingloba anche il dossier olandese sui vapes.
Abbiamo letto il fascicolo, ricomposto i passaggi e separato ciò che è già formale da ciò che resta aperto. Il quadro è nitido: Bruxelles non sta discutendo un episodio isolato, sta testando la tenuta di Snapchat come prodotto frequentato da minori. La partita si gioca su come l’app verifica l’età, attiva le protezioni teen, limita i contatti dannosi, frena i contenuti che orientano verso merci illecite o riservate agli adulti e consente alle persone di segnalare un illecito senza attriti.
Il caso aperto da Bruxelles mette insieme età dichiarata, contatti dannosi, assetto iniziale degli account, moderazione dei contenuti e facilità di segnalazione.
Il nostro approfondimento
Mettiamo subito ordine. La Commissione europea ha aperto il 26 marzo 2026 un procedimento formale nei confronti di Snapchat nell’ambito del Digital Services Act. Il fascicolo tocca cinque aree precise: verifica dell’età, rischio di grooming e reclutamento criminale dei minori, impostazioni predefinite dell’account, contenuti che indirizzano verso droghe, vapes o alcol, sistemi di segnalazione del contenuto illecito. Nello stesso passaggio Bruxelles ha inglobato l’indagine avviata nei Paesi Bassi sul commercio di vapes verso minori. Al 28 marzo siamo nella fase istruttoria: non esiste una decisione finale e il segnale regolatorio è già chiarissimo. Per l’UE la tutela dei minori su Snapchat viene letta come rischio sistemico di prodotto.
Dato da tenere fermo: apertura del procedimento e violazione accertata non coincidono. Il fatto compiuto oggi è l’avvio formale del fascicolo.
Sommario dei contenuti
- Il quadro che si apre il 26 marzo
- Perché Bruxelles legge Snapchat come un caso di architettura
- Età dichiarata e protezioni teen
- Adescamento e reclutamento criminale
- Contenuti che portano verso droghe, vapes e alcol
- Fase procedurale, risposta di Snap e prossime mosse
- Mappa rapida del fascicolo
- Timeline
- FAQ
Il quadro che si apre il 26 marzo
La lettura corretta parte da qui. Bruxelles non sta contestando un singolo post sfuggito ai filtri e non sta trasformando un episodio isolato in caso politico. Sta guardando la struttura del servizio: come si entra, con quali protezioni si parte, chi può contattare un adolescente, quanto è facile imbattersi in riferimenti a beni vietati o soggetti a limiti d’età, quanto è semplice segnalare un abuso senza perdersi nel percorso. È la differenza che conta davvero tra moderazione reattiva e responsabilità di sistema.
Sul fronte procedurale c’è un dettaglio che spiega il peso di questo passaggio. La Commissione ha assorbito l’indagine avviata il 9 settembre 2025 dall’Autorità olandese per i consumatori e i mercati sul tema dei vapes venduti a minori tramite Snapchat. Quando Bruxelles ingloba un filone nazionale dentro un procedimento DSA rivolto a una piattaforma molto grande, ci sta dicendo che il problema supera il singolo mercato e merita una valutazione unificata a livello europeo.
Perché Bruxelles legge Snapchat come un caso di architettura
Noi leggiamo il fascicolo come una catena di quattro passaggi che si tengono insieme. Ingresso, cioè l’età. Contatto, cioè chi può raggiungere un minore e con quale frizione. Esposizione, cioè quanto facilmente un ragazzo può arrivare a contenuti che lo orientano verso merci vietate o riservate agli adulti. Rimedio, cioè quanto è semplice segnalare un illecito e ottenere una risposta comprensibile. Se uno solo di questi passaggi cede, la protezione complessiva si abbassa.
Questo è anche il motivo per cui il dossier pesa oltre Snapchat. Il DSA impone alle piattaforme online molto grandi un livello di attenzione superiore sui rischi sistemici e Snapchat rientra in quella categoria. La soglia europea è oltre i 45 milioni di destinatari mensili nell’Unione e i dati pubblici di Snap collocano il servizio sopra quel livello. In pratica Bruxelles può esercitare una vigilanza diretta e usare questo caso per fissare uno standard operativo molto più duro su come si tutela un minore dentro un prodotto di massa.
Età dichiarata e protezioni teen
Il primo nucleo riguarda l’età e qui conviene essere molto precisi. La Commissione considera insufficiente l’attuale logica basata sull’autodichiarazione per tenere fuori gli under 13 e per attivare in modo affidabile l’esperienza rafforzata destinata ai ragazzi tra 13 e 17 anni. Tradotto in termini pratici, qui contano due piani distinti. Il primo è impedire l’accesso a chi è troppo giovane. Il secondo è evitare che un adolescente finisca in un ambiente che non applica automaticamente le protezioni previste per lui.
Questa distinzione viene spesso schiacciata in un titolo generico sulla verifica dell’età. In realtà abbiamo due problemi diversi: accesso indebito dei più piccoli e mancata accensione di garanzie specifiche per chi è minorenne ma legittimamente presente. La conseguenza tecnica è importante perché sposta il giudizio dalla presenza formale delle funzioni alla loro attivazione efficace nel momento giusto.
Adescamento e reclutamento criminale
Qui arriviamo al cuore sostanziale del caso. Nella ricostruzione europea esiste il rischio che adulti si presentino come minorenni per agganciare bambini e adolescenti, con due sbocchi citati in modo esplicito: sfruttamento sessuale e reclutamento per attività criminali. Vale la pena fermarsi su questo passaggio perché cambia il registro della vicenda. Non siamo più nel terreno del semplice comfort d’uso o del benessere digitale in senso lato. Siamo nel territorio della sicurezza personale del minore.
Quando un’autorità europea mette nero su bianco questa ipotesi su una piattaforma molto grande, sta dicendo una cosa precisa sul design del servizio. Se il sistema di età è fragile, se il perimetro dei contatti è poroso e se l’utente non ha strumenti rapidi per reagire, il rischio non resta teorico. Diventa una possibilità concreta che l’architettura del prodotto deve prevenire molto prima dell’intervento a valle della moderazione.
Contenuti che portano verso droghe, vapes e alcol
Il blocco che molti leggeranno troppo in fretta è quello relativo a droghe, vapes e alcol. La nostra verifica porta a una conclusione netta: Bruxelles non si concentra soltanto sull’eventuale vendita conclusa dentro l’app. Guarda anche ai video e ai contenuti che spiegano dove comprare quei beni e come raggiungere i venditori. È una differenza tecnica enorme, perché allarga il perimetro dalla transazione finale all’intero percorso di indirizzamento.
Dentro questo segmento rientra anche il capitolo delle impostazioni predefinite e quello della segnalazione del contenuto illecito. Se le protezioni dell’account non partono in modo sufficientemente robusto al primo utilizzo, il sistema trasferisce sul ragazzo o sulla famiglia un onere che Bruxelles ritiene troppo alto. Se poi gli strumenti di segnalazione sono poco accessibili, poco intuitivi o poco chiari sul seguito del reclamo, l’intero impianto di tutela perde velocità. Nel materiale pubblico compare anche il riferimento ai dark patterns. È il segno che la Commissione sta giudicando la qualità dell’interfaccia e non soltanto il catalogo delle policy.
Fase procedurale, risposta di Snap e prossime mosse
Abbiamo guardato anche la base documentale del procedimento. Il fascicolo non nasce da una polemica di giornata ma dall’esame delle valutazioni di rischio già trasmesse dalla piattaforma e dalle risposte fornite alla Commissione nell’autunno 2025 su età e contenuti collegati a prodotti illegali. Questo dettaglio conta perché ci dice che Bruxelles è arrivata all’apertura formale dopo mesi di raccolta, confronto tecnico e consolidamento del dossier.
Sul versante aziendale Snap ha scelto una linea difensiva prevedibile ma importante. Ha detto di avere collaborato pienamente con la Commissione e di considerare sicurezza e benessere degli utenti una priorità, rivendicando che privacy e safety siano integrate nel prodotto fin dall’origine e che per gli account teen esistano livelli ulteriori di protezione. È una risposta che non nega l’esistenza del procedimento e sposta la partita sulla sufficienza concreta delle misure attuali.
Dove siamo quindi, davvero? Siamo all’apertura formale del procedimento. Questo consente alla Commissione di approfondire il fascicolo e di avanzare verso l’enforcement pieno previsto dal DSA se riterrà confermate le criticità. Snapchat può nel frattempo cercare di convincere Bruxelles con chiarimenti e correzioni operative. La cosa importante oggi è non confondere l’apertura dell’indagine con il suo esito.
Quello che cambia da subito riguarda il mercato e le altre piattaforme forse più dell’interfaccia dell’app nel giorno stesso. Il procedimento mette nero su bianco il perimetro che Bruxelles considera decisivo per i minori: età affidabile, contatti indesiderati, impostazioni iniziali, percorsi verso merci vietate o riservate agli adulti, segnalazioni davvero utilizzabili. In sostanza l’Europa sta dicendo che la tutela dei ragazzi si misura nell’architettura del servizio, non nei comunicati.
Mappa rapida: come si legge il fascicolo
| Snodo | Che cosa guarda Bruxelles | Dove si produce il rischio | Effetto pratico |
|---|---|---|---|
| Ingresso nel servizio | La Commissione guarda al modo in cui Snapchat verifica l’età e attiva l’esperienza dedicata ai minori. | L’autodichiarazione viene ritenuta insufficiente per escludere gli under 13 e per far scattare in modo affidabile le protezioni teen. | Il rischio è che utenti troppo giovani entrino e che adolescenti legittimi non ricevano il livello di tutela pensato per loro. |
| Relazioni e contatti | Il dossier valuta il pericolo che adulti si presentino come coetanei per contattare bambini e adolescenti. | Bruxelles collega questa falla a due esiti espliciti: adescamento sessuale e reclutamento per attività criminali. | La questione smette di essere solo di moderazione e diventa tema di sicurezza personale. |
| Esposizione a contenuti | L’attenzione europea non si ferma alla vendita finale e include contenuti che indicano dove reperire droghe, vapes o alcol. | La moderazione viene letta come insufficiente se lascia circolare informazioni che orientano verso quei beni. | Il perimetro del rischio si allarga dai post alla capacità dell’app di funzionare come ponte verso mercati vietati o riservati agli adulti. |
| Rimedio e protezione | Il fascicolo entra nelle impostazioni predefinite degli account e nella facilità di segnalare contenuti illeciti. | Nel materiale pubblico compaiono riferimenti a interfacce poco accessibili e a possibili dark patterns. | Se l’utente fatica a capire come proteggersi o come reclamare, la tutela arriva tardi e perde efficacia. |
Tip: la tabella è scorrevole. Su mobile scorri con il dito a destra e a sinistra per vedere tutte le colonne.
In sintesi: quattro punti che fissano il dossier
Età, contatti, contenuti, settaggi e rimedi sono finiti nello stesso fascicolo.
Sono in gioco sia l’accesso degli under 13 sia l’attivazione affidabile delle protezioni per i 13-17 anni.
Non resta laterale: Bruxelles lo incorpora e lo trasforma in un tassello della verifica europea.
La fase pubblica è appena iniziata e l’esito resta da costruire.
Le cinque contestazioni, tradotte in pratica
| Area | Lettura operativa | Perché pesa | Che cosa dirà la fase successiva |
|---|---|---|---|
| Verifica dell’età | La soluzione basata sull’autodichiarazione non viene considerata sufficiente per tenere fuori gli under 13 e per attivare sempre l’esperienza rafforzata dei 13-17 anni. | Qui si decide chi entra, con quali guardrail e con quale livello di rischio iniziale. | La fase successiva dirà se Bruxelles riterrà necessari correttivi più robusti sul piano dell’age assurance. |
| Grooming e reclutamento criminale | La Commissione teme che adulti possano fingersi minori e avviare contatti dannosi con bambini e adolescenti. | È il cuore sostanziale del caso perché collega il design dell’app alla sicurezza personale dei minori. | Il nodo sarà capire se le salvaguardie attuali limitano davvero questo tipo di contatto o se lo affrontano solo a valle. |
| Impostazioni predefinite | Le configurazioni iniziali dell’account non offrirebbero protezioni di privacy, sicurezza e comprensibilità sufficienti per i minori. | La tutela concreta dipende da ciò che è già acceso al primo utilizzo e da quanto facilmente si capisce come modificarlo. | Bruxelles guarderà all’efficacia reale delle impostazioni iniziali e alla chiarezza con cui vengono presentate. |
| Contenuti che rinviano a beni vietati o con limiti d’età | La moderazione non bloccherebbe in modo adeguato video e contenuti che indicano come reperire droghe, vapes o alcol. | Conta l’intero percorso informativo che porta l’utente verso il venditore e rende raggiungibile il bene vietato o soggetto a limiti d’età. | La vera domanda sarà quanto materiale del genere resta visibile, rintracciabile e raggiungibile da minori. |
| Segnalazioni e reclami | Gli strumenti per segnalare un illecito verrebbero giudicati poco accessibili, poco intuitivi e poco chiari sul seguito del reclamo. | Se il rimedio è faticoso, l’intero impianto di sicurezza perde velocità e capacità correttiva. | Il dossier misurerà se l’utente riesce davvero a trovare, usare e comprendere il percorso di segnalazione. |
Tip: anche questa tabella è scorrevole in orizzontale su smartphone.
Perché questo caso è sistemico e non episodico
Il punto più istruttivo del dossier è la catena causale che Bruxelles mette in fila. Se l’età viene letta male, le protezioni teen possono non scattare quando servono. Se le protezioni partono deboli, il perimetro dei contatti si allarga. Se i contenuti che indicano dove reperire beni vietati restano raggiungibili, l’esposizione cresce. Se le segnalazioni sono faticose, la correzione arriva tardi. Questa sequenza ci dice che il regolatore non sta più accettando la vecchia distinzione tra problema di policy e problema di interfaccia.
C’è anche una seconda lettura che merita attenzione. Un fascicolo nazionale sui vapes viene assorbito dentro un procedimento europeo che parla pure di grooming, impostazioni dell’account e reporting. È la prova che per l’UE i rischi dei minori sulle grandi piattaforme non sono compartimenti stagni. Vengono trattati come parti della stessa infrastruttura di rischio.
Quattro equivoci da chiudere subito
- Procedimento aperto e violazione accertata sono due cose diverse. Qui abbiamo il primo passaggio, non il verdetto.
- Il fascicolo non parla solo di grooming. Include età, account teen, impostazioni iniziali, contenuti che orientano verso beni vietati o riservati agli adulti e strumenti di segnalazione.
- Il filone sui vapes fa già parte del procedimento europeo e pesa nel perimetro complessivo del caso.
- Nel materiale pubblico di apertura non compaiono impegni formalizzati già accettati né misure cautelari già attivate nei confronti della piattaforma.
Che cosa guardare adesso, davvero
Se Bruxelles allargherà il materiale richiesto, vorrà dire che il fascicolo sta scendendo ancora più in profondità sul piano tecnico.
Un pacchetto di aggiustamenti su età, account teen o reporting sarebbe il segnale che l’azienda percepisce il rischio regolatorio come concreto.
Se il regolatore ritenesse urgente intervenire prima dell’esito finale, la portata politica del caso cambierebbe immediatamente.
È il punto che trasformerà il caso da fascicolo aperto a precedente concreto per tutto il settore.
Glossario operativo del dossier
Procedimento formale
È l’apertura ufficiale di un fascicolo di enforcement. Segna l’inizio della fase pubblica dell’indagine e non coincide con una decisione finale di violazione.
VLOP
Sigla per le piattaforme online molto grandi. Nel DSA sono i servizi che superano la soglia europea dei destinatari mensili e ricadono sotto la vigilanza diretta della Commissione.
Age assurance
Insieme di misure usate per capire con affidabilità l’età rilevante ai fini delle protezioni. Non coincide automaticamente con un unico strumento tecnico.
Dark patterns
Scelte di design che possono orientare l’utente verso decisioni che non prenderebbe con un’interfaccia più chiara o rendere più faticoso usare una tutela.
Risk assessment
Valutazione periodica dei rischi sistemici che le piattaforme molto grandi devono produrre e che può diventare materiale centrale nelle verifiche della Commissione.
Implicazioni concrete da oggi
- Per gli utenti minorenni e per le famiglie: la protezione teen entra nel cuore del controllo europeo e smette di essere una promessa di brand da prendere sulla fiducia.
- Per le piattaforme concorrenti: il messaggio è che la sicurezza dei minori verrà misurata su settaggi, flussi e frizioni reali più che sulle policy esposte nei centri assistenza.
- Per le autorità nazionali: un fascicolo locale può diventare materiale europeo quando tocca una piattaforma molto grande e un rischio sistemico.
- Per il mercato regolatorio: il binomio età più design si consolida come chiave di lettura dominante nei dossier sui minori.
Domande frequenti
Snapchat è già stata dichiarata in violazione del DSA?
No. Al 28 marzo 2026 esiste un procedimento formale aperto dalla Commissione europea. Non esiste ancora una decisione finale di non conformità.
Che cosa contesta esattamente Bruxelles?
Cinque nuclei: verifica dell’età, rischio di adescamento e reclutamento criminale dei minori, impostazioni predefinite dell’account, contenuti che indirizzano verso droghe, vapes o alcol, strumenti di segnalazione del contenuto illecito.
Perché il caso parla di vapes se il titolo pubblico richiama il grooming?
Perché il fascicolo europeo mette insieme più rischi. Il filone olandese sui vapes è stato inglobato e oggi convive con le verifiche su età, contatti dannosi, impostazioni e reporting.
La Commissione sta dicendo che Snapchat vende direttamente droga o alcol?
Il punto pubblico del dossier è più tecnico. Bruxelles guarda anche ai contenuti che spiegano dove reperire quei beni e come raggiungere i venditori, non soltanto alla chiusura di una vendita dentro l’app.
Perché conta così tanto la verifica dell’età?
Perché da lì dipendono due cose diverse: l’accesso stesso degli under 13 e l’attivazione automatica delle protezioni dedicate ai ragazzi tra 13 e 17 anni.
Che cosa ha risposto Snap?
L’azienda ha detto di avere collaborato pienamente con la Commissione, di considerare sicurezza e benessere degli utenti una priorità e di avere costruito Snapchat con privacy e safety integrate fin dall’inizio, con ulteriori tutele per gli account teen.
Ci saranno cambiamenti immediati nell’app?
Alla data di pubblicazione non è stato annunciato pubblicamente un cambiamento immediato dell’interfaccia o delle regole operative come effetto diretto dell’apertura del procedimento. La partita adesso è istruttoria.
Perché interviene Bruxelles e non resta tutto ai Paesi Bassi?
Perché Snapchat rientra tra le piattaforme online molto grandi soggette alla vigilanza diretta della Commissione europea. Il fascicolo nazionale sui vapes è stato quindi assorbito dentro una verifica DSA di scala europea.
Timeline del dossier: apri le fasi in ordine
Questa sequenza serve a leggere il caso senza comprimere tutto nel solo annuncio del 26 marzo.
-
09/09/2025 L’autorità olandese apre il filone sui vapes rivolti ai minori
- L’ACM dei Paesi Bassi avvia una verifica sulla presenza di venditori di vapes su Snapchat.
- Il focus iniziale è nazionale, ma tocca un rischio che per sua natura attraversa confini e categorie di utenti.
- Questo passaggio diventa il gancio che più tardi verrà inglobato nel procedimento europeo.
Perché conta: Ci mostra che il caso non nasce dal nulla il 26 marzo 2026: c’era già un fascicolo concreto sul tavolo.
-
10/10/2025 Bruxelles chiede chiarimenti su età e prodotti illegali
- La Commissione invia una richiesta di informazioni su verifica dell’età e diffusione di contenuti legati a beni illegali.
- Da qui il caso smette di essere solo osservazione esterna e diventa confronto tecnico con la piattaforma.
- Il baricentro passa dai sintomi ai meccanismi di prodotto.
Perché conta: È il momento in cui il dossier entra nella logica istruttoria del DSA.
-
Istruttoria preparatoria Le valutazioni di rischio di Snapchat diventano base del fascicolo
- Bruxelles costruisce la verifica anche sulle risk assessment già trasmesse dalla piattaforma in diverse annualità.
- Questo permette di leggere il problema come rischio sistemico e non come singolo episodio di moderazione mancata.
- La raccolta di materiale coinvolge anche autorità nazionali e contributi esterni.
Perché conta: Il caso assume profondità documentale e scala europea.
-
26/03/2026 Apertura del procedimento formale e assorbimento del fascicolo olandese
- La Commissione europea apre formalmente il procedimento nei confronti di Snapchat.
- Nello stesso atto ingloba il filone aperto nei Paesi Bassi sui vapes rivolti ai minori.
- Il perimetro pubblico del caso viene fissato in cinque aree di possibile non conformità.
Perché conta: Da questo punto in avanti il fascicolo ha una sede unica e una lettura sistemica.
-
28/03/2026 Stato alla pubblicazione: fascicolo aperto, esito ancora tutto da costruire
- Alla data di pubblicazione l’atto formale esiste già e non è ancora seguito da una decisione definitiva.
- Snapchat difende l’impianto delle proprie salvaguardie e conferma collaborazione con Bruxelles.
- Il nodo si sposta sulla sufficienza concreta delle misure e sulla capacità della piattaforma di dimostrarla.
Perché conta: Serve a tenere separati il fatto accaduto e il possibile esito futuro.
Chiusura
La novità sostanziale sta nel fatto che Bruxelles ha messo nello stesso fascicolo età, contatti, contenuti, impostazioni e segnalazioni. Per chi osserva l’enforcement digitale questo è il passaggio da portare via: la tutela dei minori è diventata il punto da cui l’Europa misura la credibilità operativa delle piattaforme di massa.
Approfondimenti correlati
Tecnologia: i nostri approfondimenti
La sezione tecnologia di Sbircia la Notizia Magazine raccoglie analisi, policy digitali, piattaforme e dossier regolatori.
Apri la sezione tecnologiaTrasparenza: fonti e metodo
Per chi vuole sapere come abbiamo lavorato, il perno è la documentazione ufficiale della Commissione europea. Abbiamo poi ricontrollato ogni snodo sul registro pubblico DSA, sulla pagina europea di trasparenza di Snap e con verifiche incrociate che coincidono con Reuters, Associated Press, Euronews, Bundesnetzagentur e ACM. In questo articolo separiamo sempre i fatti formalizzati, la posizione dell’azienda e le nostre deduzioni editoriali quando servono a spiegare gli effetti pratici del dossier.
Base documentale: atti pubblici della Commissione europea sul procedimento, registro DSA dei VLOP, dati di trasparenza Snap e fonti giornalistiche primarie usate come verifica incrociata.
Dati di pubblicazione e policy editoriali
Pubblicato il: Sabato 28 marzo 2026 alle ore 17:38. Il testo riflette lo stato pubblico del fascicolo disponibile a quell’ora. Eventuali sviluppi successivi verranno registrati nell’Update log.
Ultimo aggiornamento: Sabato 28 marzo 2026 alle ore 19:11. L’aggiornamento può includere integrazioni sostanziali, correzioni, affinamenti lessicali e ottimizzazioni di impaginazione. Le modifiche informative rilevanti vengono sempre esplicitate nell’Update log.
Alla data di pubblicazione la fase pubblica del dossier coincide con l’apertura del procedimento formale del 26 marzo 2026. Questo articolo distingue con rigore tra fatti accertati nei documenti, stato procedurale e interpretazioni operative utili a capire che cosa cambia davvero per utenti, aziende e regolatori.
Update log
Registro degli aggiornamenti sostanziali: trasparenza su modifiche, correzioni e integrazioni informative.
- Sabato 28 marzo 2026 alle ore 17:38: Pubblicazione del dossier con ricostruzione completa dell’apertura del procedimento formale UE contro Snapchat e del suo perimetro DSA.
- Sabato 28 marzo 2026 alle ore 18:04: Integrata la sezione sulle cinque contestazioni con traduzione operativa di verifica dell’età, contatti dannosi, impostazioni dell’account, contenuti su vapes, droga o alcol e strumenti di segnalazione.
- Sabato 28 marzo 2026 alle ore 18:37: Aggiunta la lettura procedurale sul fascicolo olandese incorporato, sulla qualifica di Snapchat come piattaforma molto grande e sulla scala europea del caso.
- Sabato 28 marzo 2026 alle ore 19:11: Rifinite timeline, glossario operativo, FAQ e sezione sulle implicazioni concrete per utenti, aziende e regolatori.