Piattaforme e regolazione UE

TikTok sotto accusa in UE per “design che crea dipendenza”: cosa può cambiare nell’app

Il 6 febbraio 2026 la Commissione europea pubblica contestazioni preliminari su TikTok nell’ambito del Digital Services Act. Nel mirino finiscono scelte di prodotto come scrolling infinito, autoplay, notifiche push e raccomandazioni molto personalizzate. Qui trovi cosa dice davvero Bruxelles, quali passaggi aspettarsi e cosa significa per utenti, creator e brand in Italia.

Digital Services Act Design dell’app Rischi per i minori Creator e brand Cosa cambia in Italia

Pubblicato il: Venerdì 6 febbraio 2026 alle ore 11:23.

Ultimo aggiornamento: Venerdì 6 febbraio 2026 alle ore 17:12.

Contenuto verificato Verificato secondo i nostri standard di fact-checking e con una ricostruzione basata su documentazione ufficiale UE e fonti giornalistiche primarie. Policy correzioni

Per questo approfondimento abbiamo consultato la comunicazione ufficiale della Commissione europea pubblicata il 6 febbraio 2026 su Shaping Europe’s digital future e il testo del Digital Services Act nella Gazzetta ufficiale dell’Unione europea. Abbiamo confrontato passaggi e reazioni anche con resoconti giornalistici di Reuters e Associated Press.

La Commissione europea ritiene in via preliminare che TikTok possa violare il Digital Services Act perché non avrebbe valutato e mitigato in modo adeguato i rischi legati a un design che stimola l’uso continuo, con un impatto potenzialmente critico sui minori. Se l’esito finale confermasse le contestazioni, l’UE può arrivare a una decisione di non conformità con sanzioni fino al 6% del fatturato annuo mondiale previsto dal DSA e con una richiesta di modifiche al prodotto. TikTok respinge l’impostazione delle accuse e annuncia battaglia.

Mappa rapida: cosa finisce nel mirino UE e cosa potrebbe cambiare

Meccanica Perché è nel mirino Il segnale da notare Cosa potrebbe cambiare
Scrolling infinito Secondo la Commissione UE la continuità del feed può alimentare un uso “automatico” e aumentare il rischio di compulsività, soprattutto tra i minori. Il punto non è il singolo video ma la sessione: quanto è facile fermarsi e quanto l’interfaccia spinge a continuare. Tra gli esempi citati da Bruxelles c’è la disattivazione progressiva dell’infinite scroll nel tempo.
Autoplay L’avvio automatico del contenuto successivo riduce la scelta consapevole e allunga la permanenza senza “decisioni” esplicite. La Commissione guarda alla capacità di TikTok di valutare e mitigare i rischi del design, non solo a dichiararli. Possibili interventi di frizione: stop o pause reali dopo un certo tempo o numero di contenuti.
Notifiche push Le notifiche sono un richiamo continuo. Se non gestite con logiche di tutela aumentano il ritorno frequente e l’uso ripetuto. Il tema è la vulnerabilità: minori e adulti vulnerabili sono al centro della valutazione sui rischi per benessere e salute mentale. È plausibile un ripensamento di intensità, default e finestre orarie, soprattutto per account adolescenti.
Raccomandazioni molto personalizzate Il sistema di raccomandazione è il motore dell’esperienza. La Commissione contesta che la personalizzazione possa intensificare la permanenza e l’uso compulsivo. Qui si incrocia il DSA: valutazione dei rischi e misure proporzionate ed efficaci che riducano l’esposizione a dinamiche dannose. Tra gli esempi UE c’è la richiesta di adattare il sistema di raccomandazione, che oggi alimenta un flusso potenzialmente senza fine.
Strumenti “non abbastanza efficaci” La Commissione sostiene che i controlli di gestione del tempo siano facili da ignorare e che gli strumenti parentali richiedano tempo e competenze extra. La differenza è sottile ma decisiva: se il controllo è solo opzionale, l’onere resta all’utente e alla famiglia. Bruxelles cita pause più efficaci sul tempo di schermo, incluse quelle notturne.

Tip: la tabella è scorrevole. Su mobile scorri con il dito a destra e a sinistra per vedere tutte le colonne.

Non è una condanna
Si parla di contestazioni preliminari: una fase formale in cui TikTok può rispondere prima dell’esito finale.
Il bersaglio è il design
Il DSA qui non entra nei contenuti ma nelle leve che tengono le persone dentro l’app.
Minori al centro
La Commissione lega l’uso compulsivo a rischi per benessere e salute mentale, con attenzione specifica ai minori.
Esempi UE di intervento
Bruxelles cita stop all’infinite scroll nel tempo, pause efficaci anche notturne e revisione delle raccomandazioni.
TikTok sotto accusa in UE per design che crea dipendenza: cosa può cambiare nell’app
Tecnologia

Quando la regolazione entra nel prodotto: la Commissione UE chiede a TikTok di dimostrare come riduce i rischi legati a un uso compulsivo.

Update log

Registro degli aggiornamenti sostanziali: trasparenza su modifiche, correzioni e integrazioni informative.

  • Venerdì 6 febbraio 2026 alle ore 15:14: Aggiornata la sezione normativa con i passaggi chiave del Digital Services Act su valutazione e mitigazione dei rischi sistemici.
  • Venerdì 6 febbraio 2026 alle ore 16:08: Aggiunta la mappa rapida che traduce le meccaniche di prodotto contestate in possibili interventi di design citati dalla Commissione.
  • Venerdì 6 febbraio 2026 alle ore 17:12: Integrazione: impatti operativi per creator e brand in Italia, più FAQ sui tempi e sugli esiti possibili della procedura.

Trasparenza: fonti e metodo

Questo approfondimento parte da documentazione ufficiale e da una lettura tecnica del quadro normativo. La base è la comunicazione della Commissione europea del 6 febbraio 2026 sulle contestazioni preliminari a TikTok e il testo del Digital Services Act nella Gazzetta ufficiale dell’Unione europea. Per contesto e reazioni abbiamo incrociato i passaggi con resoconti di Reuters e Associated Press.

Fonti principali: Commissione europea (Shaping Europe’s digital future), Gazzetta ufficiale dell’Unione europea (Digital Services Act), Reuters, Associated Press.

Approfondimenti correlati

Tecnologia: news e approfondimenti

Il nostro hub sempre aggiornato: piattaforme, IA, sicurezza online, guida ai servizi digitali e regolazione UE.

Apri la pagina hub

Contesto essenziale: perché l’UE parla di “design che crea dipendenza”

Quando si parla di regolazione delle piattaforme molti pensano subito ai contenuti illegali o alla disinformazione. In questo caso, invece, l’attenzione si sposta su qualcosa di più “silenzioso”: la struttura dell’esperienza. La Commissione sostiene che alcune scelte di interfaccia e raccomandazione possono aumentare il rischio di uso compulsivo e che TikTok non abbia dimostrato, in modo adeguato, di averlo valutato e mitigato.

È qui che il Digital Services Act diventa interessante anche per chi non si occupa di diritto. Il DSA chiede alle piattaforme molto grandi di lavorare su processi e prove: quali rischi hai identificato, come li misuri e quali misure metti davvero in campo. Se la misura è facile da ignorare o se scarica tutto sull’utente, per la Commissione potrebbe non essere sufficiente.

In breve

  • Il 6 febbraio 2026 la Commissione UE pubblica contestazioni preliminari su TikTok per presunte violazioni del DSA legate a un design considerato potenzialmente addictive.
  • Nel mirino: scrolling infinito, autoplay, notifiche push e raccomandazioni molto personalizzate, soprattutto per l’impatto sui minori.
  • Se l’esito finale confermasse le contestazioni, il DSA consente sanzioni fino al 6% del fatturato annuo mondiale e rimedi che possono includere cambi di design.
  • TikTok respinge le accuse e può difendersi prima di una decisione finale: la partita è aperta.

Il dossier: cosa contesta Bruxelles a TikTok e cosa può cambiare

La parola “addictive” può sembrare un’etichetta giornalistica, ma qui arriva da un perimetro formale: la Commissione europea la usa per descrivere un insieme di scelte di prodotto che, messe insieme, rendono difficile interrompere l’uso. È una contestazione che va al cuore dell’app, perché tocca l’architettura del feed e il modo in cui l’attenzione viene catturata e mantenuta.

Nota importante: queste sono contestazioni preliminari. Non anticipano automaticamente la decisione finale e TikTok ha diritto di difesa e replica.

Sommario dei contenuti

Cosa sappiamo oggi e cosa dice la Commissione

La Commissione europea afferma di aver condotto un’istruttoria ampia: risk assessment, report, dati e documenti interni ottenuti anche tramite richieste formali di informazioni. Nella stessa comunicazione dice di aver considerato letteratura scientifica e di aver ascoltato esperti, inclusi quelli che si occupano di dipendenza comportamentale. L’obiettivo dichiarato è capire se TikTok gestisce davvero i rischi legati a un design che spinge a restare dentro.

Il nucleo dell’accusa è questo: TikTok non avrebbe valutato e mitigato in modo adeguato i rischi per il benessere fisico e mentale, con attenzione ai minori. La Commissione cita, tra gli elementi problematici, la dinamica di “ricompensa continua” che incentiva a scorrere senza sosta e indica anche indicatori di possibile uso compulsivo come la frequenza di apertura dell’app e l’uso notturno.

Le meccaniche di prodotto nel mirino, spiegate senza fumo

Scrolling infinito: il feed che non finisce

Lo scrolling infinito è una scelta di interfaccia semplice: non c’è un “punto di chiusura” naturale. Secondo la Commissione UE questa continuità può facilitare un uso automatico e intensificare il rischio di compulsività. In altre parole, il problema non è il singolo contenuto: è la facilità con cui la sessione si allunga senza che tu te ne accorga.

Autoplay: il prossimo video parte da solo

L’autoplay elimina micro decisioni. Se non devi premere play ogni volta, la frizione scende e la permanenza tende ad aumentare. La Commissione inserisce questa dinamica nel quadro più ampio dell’uso continuo e la collega al dovere di dimostrare una mitigazione efficace del rischio, non solo la presenza di impostazioni opzionali.

Notifiche push: il richiamo fuori dall’app

Le notifiche push agiscono prima ancora che tu apra TikTok. Il punto regolatorio non è “vietarle”, almeno nelle comunicazioni ufficiali. Il punto è capire se il loro funzionamento, soprattutto per account più giovani, sia coerente con l’obiettivo di ridurre i rischi di uso compulsivo.

Raccomandazioni molto personalizzate: il motore dell’esperienza

Qui si arriva al cuore del modello. La Commissione parla di un sistema di raccomandazione altamente personalizzato che alimenta un flusso potenzialmente senza fine. È anche il passaggio più sensibile per creator e brand, perché le raccomandazioni non sono un dettaglio tecnico: sono la distribuzione.

DSA in pratica: rischio, mitigazione e sanzioni

Il Digital Services Act non chiede alle piattaforme di essere perfette. Chiede di essere responsabili in modo misurabile. Nel testo del DSA, le piattaforme molto grandi devono valutare i rischi sistemici legati al servizio e ai suoi sistemi, inclusi quelli che possono incidere su benessere e salute mentale, e devono mettere in campo misure ragionevoli e proporzionate per ridurli. Qui la Commissione sostiene che TikTok non abbia rispettato questo standard.

Sul fronte delle conseguenze, la parte chiave per capirne il peso è che il DSA prevede sanzioni fino al 6% del fatturato annuo mondiale in caso di non conformità. È una soglia prevista dal testo normativo della Gazzetta ufficiale dell’Unione europea. Nella pratica, la Commissione può anche chiedere rimedi correttivi, quindi interventi sul prodotto.

Una cosa da tenere a mente: questa partita non è un processo “morale”. È un processo di prova. La domanda implicita è se TikTok possa dimostrare che le misure adottate sono efficaci e non solo disponibili nel menu.

Cosa può cambiare nell’app: gli esempi citati da Bruxelles

La Commissione europea, nella comunicazione del 6 febbraio 2026, fa qualcosa di raro per un testo istituzionale: cita esempi concreti. Parla di disabilitare l’infinite scroll nel tempo, di introdurre pause più efficaci sul tempo di schermo incluse quelle notturne e di adattare il sistema di raccomandazione altamente personalizzato.

Tradotto in linguaggio “di prodotto”, sono tre direzioni molto chiare. La prima riguarda la continuità del feed e quindi la capacità dell’utente di fermarsi. La seconda riguarda i momenti di stacco e la loro efficacia reale. La terza riguarda la personalizzazione e la logica con cui l’app decide cosa mostrarti dopo.

Stop all’infinite scroll nel tempo: cosa significa davvero

“Disabilitare nel tempo” può voler dire introdurre un punto di arresto dopo una sessione prolungata. Non è necessariamente una schermata punitiva. Può essere un’interruzione che richiede una scelta consapevole per continuare. È una differenza piccola che spesso cambia molto, perché rimette l’azione in mano all’utente.

Pause efficaci anche di notte: la parte più delicata

La Commissione cita in modo esplicito la notte. È un dettaglio che vale oro per capire la direzione: non si guarda solo al totale delle ore, si guarda ai momenti in cui l’uso diventa più rischioso. Una pausa efficace, per definizione, non deve essere un pop up che si chiude in mezzo secondo. È qui che Bruxelles critica l’attuale impostazione: secondo la Commissione, gli strumenti sono troppo facili da ignorare.

Rivedere la raccomandazione: perché questa è la leva che sposta tutto

Se tocchi le raccomandazioni tocchi la distribuzione. La Commissione parla di un sistema altamente personalizzato che alimenta un flusso potenzialmente continuo. Intervenire qui può significare ribilanciare intensità della personalizzazione, segnali usati e modalità con cui vengono gestite situazioni di possibile uso compulsivo. Anche in questo caso, l’idea di fondo è ridurre il rischio, non “spegnere” l’app.

Creator e brand: cosa monitorare se cambia il design

Chi lavora con TikTok in Italia spesso ragiona su due indicatori pratici: quanta attenzione riesci a prendere e quanto a lungo la tieni. Se entrano più pause o se cambia la raccomandazione, l’attenzione si distribuisce in modo diverso. Non è una sentenza, è un cambiamento di contesto.

Tre domande operative che conviene farsi già adesso

  • Il tuo contenuto regge quando l’utente è più consapevole? Se la piattaforma introduce frizioni, aumenta il peso della chiarezza del valore fin dai primi secondi.
  • Stai misurando solo views o anche qualità? Salvataggi, condivisioni e completamento diventano ancora più utili quando il tempo di sessione è meno “scontato”.
  • Se una parte della distribuzione cambia, hai alternative? Diversificare non è un mantra, è gestione del rischio: newsletter, sito, altri social, community.
  • Per i brand: che cosa vale davvero per te? Notorietà, traffico, vendite, iscrizioni. Se l’attenzione si “accorcia”, la creatività deve essere più precisa.

Cosa resta aperto: tempi e punti ancora non chiari

Due cose oggi non si possono fissare con certezza. La prima è la tempistica della decisione finale: nelle informazioni pubbliche non c’è una scadenza che dica quando arriverà l’esito. La seconda è il livello di intervento: la Commissione fa esempi concreti, ma l’ampiezza delle modifiche dipende dalla risposta di TikTok e dall’evoluzione della procedura.

Quello che invece è chiaro è la direzione. L’UE sta dicendo che la tutela degli utenti, soprattutto dei più giovani, non può essere delegata solo a controlli opzionali. È un segnale di “safety by design” applicato alle piattaforme.

Utenti e famiglie: come leggere il tema senza panico

Un dubbio che sento spesso è molto umano: “Quindi TikTok verrà bloccato?”. Oggi non è questo il punto. Parliamo di contestazioni preliminari e di una possibile richiesta di adeguamento del prodotto.

Per chi usa TikTok tutti i giorni, la traduzione pratica è più semplice di quanto sembri: se la Commissione dovesse confermare le contestazioni, le modifiche toccherebbero soprattutto la continuità dell’esperienza e la gestione del tempo. In parallelo, la discussione mette al centro una cosa utile anche per le famiglie: gli strumenti esistono, ma secondo la Commissione non sono abbastanza efficaci perché si disattivano facilmente e perché richiedono uno sforzo aggiuntivo ai genitori.

Suggerimento pratico: più che inseguire l’ultima impostazione, è utile osservare le abitudini. Notifiche troppe? Ridurle è spesso il primo passo. Uso notturno? È proprio uno dei segnali citati dalla Commissione nel ragionamento sul rischio.

Il commento dell’esperto

La parte che considero più interessante, da osservatore di piattaforme, è lo spostamento culturale. Per anni abbiamo discusso di cosa circola sui social. Ora l’UE sta dicendo che conta anche come ci stai dentro. È una distinzione che cambia il lavoro dei team di prodotto, perché mette sotto lente le leve più “invisibili”: feed, raccomandazioni, continuità, notifiche.

La Commissione, nelle contestazioni preliminari, usa parole che si capiscono senza un master: parla di ricompensa continua, di autopilota, di indicatori di uso compulsivo e di misure che non generano abbastanza frizione. In sostanza, l’istituzione sta chiedendo un salto di qualità: dimostrare che il benessere non è una pagina di impostazioni, è una proprietà del design.

Per creator e brand questo non significa “fine di TikTok”. Significa che l’ottimizzazione potrebbe spostarsi dall’attenzione infinita all’attenzione più intenzionale. È un passaggio che, se avverrà, premierà contenuti più chiari e campagne meno dipendenti dal semplice scorrimento.

Questo è un commento editoriale: una lettura tecnica e giornalistica basata su documentazione ufficiale UE e su fonti primarie, non una posizione istituzionale della Commissione né di TikTok.

A cura di Junior Cristarella.

Domande frequenti

La Commissione UE ha già condannato TikTok?

No. Il 6 febbraio 2026 la Commissione ha pubblicato contestazioni preliminari. È una fase formale della procedura: TikTok può rispondere e difendersi prima di un’eventuale decisione finale.

Quali funzioni sono finite nel mirino?

Le contestazioni citano meccaniche che favoriscono l’uso continuo: scrolling infinito, autoplay, notifiche push e raccomandazioni molto personalizzate. La Commissione le collega a rischi di compulsività e a effetti sul benessere, soprattutto per i minori.

Perché si parla di “design che crea dipendenza” e non solo di contenuti?

Perché nel Digital Services Act la sicurezza riguarda anche il modo in cui il servizio funziona. La Commissione sostiene che certe scelte di interfaccia e raccomandazione possono aumentare il rischio di uso compulsivo e che la piattaforma debba dimostrare di averlo valutato e mitigato in modo efficace.

Che c’entra il Digital Services Act, in pratica?

Il DSA impone alle piattaforme molto grandi di valutare i rischi sistemici e di adottare misure di mitigazione ragionevoli, proporzionate ed efficaci. Nel caso TikTok la Commissione contesta che la valutazione e le misure sul rischio “addictive” non siano adeguate.

Quanto può essere alta la sanzione?

Il DSA prevede, in caso di non conformità, sanzioni fino al 6% del fatturato annuo mondiale. È un tetto previsto dalla norma, non una multa automatica.

Cosa potrebbe cambiare nell’app se la Commissione conferma le contestazioni?

Nella comunicazione del 6 febbraio 2026 la Commissione cita esempi di possibili interventi: disabilitare lo scrolling infinito nel tempo, introdurre pause più efficaci sul tempo di schermo incluse quelle notturne e adattare il sistema di raccomandazione altamente personalizzato.

Cosa significa per creator e brand in Italia?

Il punto non è “sparire” da TikTok. Il punto è che, se entrano più pause o cambia la raccomandazione, potrebbero cambiare le dinamiche di distribuzione. Per creator e brand diventa ancora più importante lavorare su retention reale, chiarezza del messaggio e contenuti che reggono anche quando l’utente è più consapevole e meno “in scorrimento automatico”.

Quando vedremo eventuali modifiche?

Oggi non c’è una scadenza pubblica che dica quando arriverà una decisione finale. Questa è una fase di contestazioni preliminari e la tempistica dipende dall’evoluzione della procedura e dalla risposta di TikTok.

Timeline del caso: apri le fasi in ordine

Tocca una fase per aprire i passaggi chiave. È una guida pratica per capire dove siamo e cosa osservare nelle prossime settimane.

  1. Fase 1 Dalle segnalazioni al dossier: il design entra nel perimetro della sicurezza
    • Il Digital Services Act sposta l’attenzione anche su rischi sistemici legati al funzionamento delle piattaforme.
    • Il caso TikTok ruota su dinamiche di utilizzo continuo e sui possibili effetti su benessere e salute mentale.

    Perché conta: Quando una norma ti chiede di dimostrare la mitigazione del rischio, non basta un elenco di “strumenti”: conta l’efficacia reale.

  2. Fase 2 L’indagine: documenti, dati e confronto con la ricerca
    • La Commissione indica un’istruttoria basata su risk assessment, report e risposte a richieste formali di informazioni.
    • Nel lavoro entrano dati interni e documenti, oltre a letteratura scientifica e interviste con esperti di dipendenza comportamentale.
    • Il focus dichiarato resta la tutela dei minori e di chi è più vulnerabile.
    • Si guarda anche a indicatori di possibile uso compulsivo come frequenza di apertura e uso notturno.

    Perché conta: Questa è la parte che spesso sfugge: nel DSA la “conformità” passa da processi e prove, non solo da promesse.

  3. Fase 3 Le contestazioni preliminari: la Commissione mette nero su bianco cosa non la convince
    • Il 6 febbraio 2026 la Commissione pubblica contestazioni preliminari sul “design che crea dipendenza”.
    • Vengono citate meccaniche come scrolling infinito, autoplay, notifiche e raccomandazioni molto personalizzate.
    • L’accusa ruota su valutazione e mitigazione ritenute non adeguate.

    Perché conta: È un momento chiave perché riduce l’ambiguità: da qui in avanti si discute di fatti, procedure e misure concrete.

  4. Fase 4 Difesa e decisione: cosa succede adesso
    • TikTok può rispondere e contestare la ricostruzione della Commissione.
    • Solo dopo questa fase la Commissione può arrivare a una decisione di non conformità con sanzioni e rimedi.

    Perché conta: Per utenti e aziende è il punto in cui conviene osservare i segnali: quali modifiche vengono testate e come cambiano le metriche.

  5. Fase 5 Se cambiano le scelte di design cambia anche l’ecosistema
    • Eventuali interventi su infinite scroll, pause e raccomandazioni spostano il modo in cui l’attenzione si distribuisce.
    • Per i creator cresce il peso della qualità percepita e della chiarezza della promessa del contenuto.
    • Per i brand diventa centrale misurare risultati oltre la permanenza: ricordo, intenzione, azione.

    Perché conta: Un feed meno “automatico” non è un feed peggiore: può diventare più intenzionale. Il punto è capire come si adatta l’algoritmo.

Chiusura

La contestazione UE a TikTok non è una nota a margine: mette il design al centro del tema “sicurezza”. Se la Commissione confermerà le conclusioni, la domanda diventa concreta anche per l’Italia: quanto deve essere “facile” restare dentro un feed e quanto la piattaforma deve aiutarti a fermarti, soprattutto se sei minorenne? Per creator e brand è un invito a prepararsi a un’attenzione più intenzionale. Per gli utenti è l’occasione di guardare l’app con occhi diversi: non solo contenuti, ma architettura delle scelte.

Firma digitale di Junior Cristarella
Firma digitale del direttore responsabile
Foto di Junior Cristarella
Autore Junior Cristarella Junior Cristarella segue l’impatto delle piattaforme digitali su informazione, cultura e società, con particolare attenzione alle regole europee e alle scelte di design che influenzano il comportamento degli utenti.
Pubblicato Venerdì 6 febbraio 2026 alle ore 11:23 Aggiornato Venerdì 6 febbraio 2026 alle ore 17:12