Un piano destinato a cambiare gli equilibri della sorveglianza digitale negli Stati Uniti prende forma: l’ICE sta preparando un sistema di monitoraggio dei social attivo senza sosta, fondato su analisi di contenuti pubblici e banche dati commerciali, con l’obiettivo di tradurre post e profili in operazioni sul campo. Le carte di gara parlano chiaro e aprono interrogativi urgenti.
Una macchina operativa pensata per non fermarsi
Il progetto, oggi nella fase di “raccolta d’interesse” per i potenziali appaltatori, mira a creare squadre di analisti capaci di lavorare ventiquattr’ore su ventiquattro, sette giorni su sette, con tempi di risposta rigidissimi: mezz’ora per i casi di massima priorità, un’ora per quelli urgenti, entro la giornata lavorativa per gli altri. Non si tratta di un esercizio teorico: i documenti federali delineano turnazioni continue, procedure di escalation e standard minimi di performance che il fornitore dovrà garantire, spingendosi fino a metriche del 75% — e idealmente del 95% — di pratiche evase entro le scadenze. Una pressione costante, che trasferisce la logica della “sala operativa” al ciclo infinito dei contenuti online, con la promessa di trasformare in tempi stretti tracce digitali in dossier da consegnare ai reparti sul territorio.
La richiesta dell’agenzia va oltre l’organico: il capitolato sollecita espressamente l’integrazione di intelligenza artificiale per automatizzare alcune fasi di raccolta e triage informativo, affiancando ai team strumenti in abbonamento di nuova generazione. Nel budget ricorrono voci dedicate a software di sorveglianza per oltre un milione di dollari l’anno, con l’indicazione di piattaforme capaci di filtrare e correlare grandi moli di dati eterogenei. La promessa è l’efficienza; la sfida, impedire che l’automazione riduca a scala industriale il rischio di errori, travolgendo diritti e garanzie.
Dalle piattaforme pubbliche ai dossier operativi: cosa verrà raccolto
Il perimetro informativo è esplicito: post, foto, commenti e messaggi resi pubblici su Facebook, TikTok, Instagram, YouTube, Reddit e altri network, inclusi siti meno noti o ospitati all’estero come VKontakte. A questa ricognizione di open source intelligence si affiancheranno archivi commerciali come LexisNexis Accurint e Thomson Reuters Clear, che aggregano dati su utenze, veicoli, proprietà e relazioni. Lo scopo dichiarato è cucire un quadro anagrafico, logistico e relazionale di singole persone per supportare retate e arresti. Una catena che parte da contenuti pubblici, ma approda a profili estremamente invasivi, con il rischio di spingersi oltre l’esigenza investigativa.
Nei documenti emergono anche richiami a funzionalità come analisi automatica delle minacce e, in alcuni casi, riconoscimento facciale e “sentiment analysis”. Non mancano paletti procedurali — divieto di creare profili falsi o di archiviare localmente dati personali — ma gli osservatori ricordano quanto spesso questi argini si rivelino fragili nella pratica. Quando la tecnologia accelera, la distanza tra regole sulla carta e usi reali può allargarsi in fretta, soprattutto se a valle quelle informazioni alimentano sistemi investigativi già connessi a più banche dati istituzionali.
Chi, dove e con quali strumenti lavorerà
Il cuore operativo sarà diviso tra due centri poco visibili al pubblico: il National Criminal Analysis and Targeting Center di Williston (Vermont) e il Pacific Enforcement Response Center di Santa Ana (California). A Williston è previsto un nucleo di una dozzina di analisti, incluso un program manager; a Santa Ana un organico più ampio, 16 addetti, con la presenza costante di almeno un senior analyst e tre ricercatori per turno. Queste unità opereranno come estensioni d’intelligence della divisione Enforcement and Removal Operations, ricevendo segnalazioni, sviluppando ricerche online e confezionando dossier per i team sul campo.
Gli atti di gara indicano tempistiche e logistica con precisione, fino agli indirizzi operativi delle sedi. Il bando “sources sought” pubblicato il 2 ottobre 2025 fissa scadenze e periodi di esecuzione pluriennali, con sede principale presso NCATC a Williston e PERC a Santa Ana. Sono dettagli che confermano la volontà di portare a regime un’infrastruttura stabile e scalabile, capace di uniformare metodi e risultati. Non un progetto estemporaneo, ma l’innesto di una filiera strutturata nelle attività quotidiane dell’agenzia.
Precedenti contratti e il tassello del riconoscimento facciale
Il quadro si inserisce in una trama già fitta di acquisizioni tecnologiche: negli ultimi anni l’agenzia ha investito in suite capaci di aggregare dati da centinaia di piattaforme (come SocialNet di ShadowDragon) e in strumenti che ricostruiscono gli spostamenti fisici a partire dai dati di localizzazione di app comuni (ad esempio Locate X di Babel Street). Documenti ottenuti tramite azioni FOIA quantificano investimenti significativi su entrambi i fronti, delineando una progressiva estensione della sorveglianza digitale al di là dell’uso dei soli post pubblici.
A settembre 2025 la traiettoria ha aggiunto un’ulteriore tessera: un contratto da circa 9,2 milioni di dollari tra ICE e Clearview AI per software di riconoscimento facciale, con obbligazioni iniziali già stanziate. Un passaggio che conferma l’interesse ad accoppiare la lettura dei social con la comparazione di immagini e identità, sebbene il dibattito legale sulla raccolta massiva di volti dal web resti apertissimo e oggetto di contenziosi nazionali. La tecnologia rincorre l’efficacia; la giurisprudenza insegue con passo più lento.
I tempi imposti e la spinta sull’intelligenza artificiale
Il capitolato introduce livelli di urgenza che scandiscono la giornata degli analisti: trenta minuti per minacce alla sicurezza nazionale o per soggetti nella “Top Ten” dei ricercati; un’ora per i casi urgenti; la fine del turno per gli ordinari. La soglia di qualità minima — il 75% delle pratiche evase entro i tempi — non è solo un numero: diventa un vincolo produttivo, una catena di montaggio informativa che richiede automazione, strumenti predittivi e accesso istantaneo a banche dati pubbliche e a pagamento.
In questo scenario, gli algoritmi diventano moltiplicatori di forza. L’agenzia chiede di “integrare” AI e sistemi di valutazione automatica per filtrare contenuti, stimare rischi, intercettare segnali utili. È la stessa logica che — come ricostruito da inchieste recenti — innerva l’uso di piattaforme investigative in grado di combinare flussi diversi, dai dati finanziari ai tracciati di targa, fino a impronte biometriche. Un ecosistema dove ogni nuovo appalto aggiunge uno strato, e ogni strato accresce la capacità di correlare persone, abitudini, spostamenti.
Critiche, garanzie e il confine tra minaccia e dissenso
Le perplessità non mancano, soprattutto sul terreno delle libertà civili. All’inizio del 2025 è emerso che l’agenzia aveva valutato sistemi per rilevare sui social “sentimenti negativi” verso ICE e individuare una presunta “propensione alla violenza”, accumulando report su utenti critici oltre che su potenziali autori di minacce. Giuristi e associazioni temono che questi criteri possano confondere la legittima critica politica con la pericolosità, allargando il perimetro della sorveglianza ben oltre gli obiettivi di sicurezza.
Le organizzazioni per i diritti e la privacy — tra cui EPIC ed ACLU — hanno promosso azioni legali e campagne pubbliche, denunciando l’uso di broker di dati e di dataset di localizzazione per aggirare controlli giudiziari. Il tema cruciale, avvertono, non è la sola disponibilità di contenuti pubblici, ma l’effetto cumulativo di strumenti che, messi insieme, permettono un tracciamento capillare di persone e comunità. Quando la sorveglianza diventa infrastruttura, la linea tra sicurezza e abuso si assottiglia.
Un mosaico di fonti ufficiali e d’inchiesta
La mappa che emerge è stata ricostruita incrociando documenti federali di gara e atti tecnici con approfondimenti giornalistici. I registri di procurement pubblicati la settimana del 2 ottobre 2025 fissano luoghi, tempistiche e missione dei team; le inchieste di testate specializzate hanno dettagliato organici, turnazioni e strumenti; le cause civili hanno portato alla luce contratti e flussi informativi usati dall’agenzia. Nel loro insieme, questi tasselli raccontano una strategia coerente di potenziamento del monitoraggio, più che iniziative isolate.
Accanto alle procedure su sam.gov, fanno testo le indagini che hanno documentato l’adozione di software commerciali, dalla ricerca su social all’uso di dati di localizzazione, fino al ricorso più recente a Clearview AI. È un itinerario scandito da appalti, avvisi “sole source” e giustificazioni d’urgenza, sul quale si innestano i moniti di EPIC e ACLU. Una partita che terrà banco nei prossimi mesi, tra scadenze di gara e contenziosi sul perimetro costituzionale della sorveglianza digitale.
Una riflessione che non possiamo rimandare
Di fronte a un apparato che ambisce a setacciare senza sosta il discorso pubblico, la domanda non è se la tecnologia sia potente, ma come venga governata. Lo è anche quando promette tutela e prevenzione, perché la tentazione di trasformare il dissenso in pericolo può diventare prassi senza che ce ne accorgiamo. I documenti esaminati e gli appalti recenti mostrano un’architettura che cresce per strati e connessioni, capace di combinare volti, luoghi, abitudini, reti sociali. La posta in gioco è la proporzione: quanto siamo disposti a concedere in nome dell’efficienza investigativa, e chi controlla davvero chi.
In questo contesto, il nostro dovere è raccontare con rigore e misura, mantenendo separate le responsabilità operative dalle garanzie che la democrazia pretende. Continuare a verificare, incrociare, contestualizzare — tra atti ufficiali, contenziosi e risultati sul campo — è l’unico antidoto alla semplificazione. Perché ogni scelta tecnologica produce conseguenze umane, e ogni infrastruttura di sorveglianza ci riguarda, oggi più che mai.
Domande rapide, risposte chiare
Questo piano è già operativo? No: al 6 ottobre 2025 è nella fase preliminare di raccolta d’interesse (sources sought) per i potenziali appaltatori, con scadenza fissata a metà ottobre.
Dove saranno i team e con quali compiti? A Williston (Vermont) e Santa Ana (California), con analisi OSINT h24 dei contenuti pubblici per generare dossier destinati alle operazioni sul campo.
Che strumenti useranno? Database commerciali come LexisNexis Accurint e Thomson Reuters Clear, oltre a software di sorveglianza in abbonamento e moduli di intelligenza artificiale per il triage.
È previsto l’uso di riconoscimento facciale? Il programma OSINT cita funzionalità avanzate; in parallelo, ICE ha firmato a settembre 2025 un contratto da 9,2 milioni con Clearview AI per software di matching biometrico.
Quali sono le principali criticità segnalate? Il rischio di confondere minacce reali e critica politica, l’ampiezza della raccolta dati e l’uso di broker per aggirare tutele, come evidenziato da EPIC e ACLU.
Quando arrivano le decisioni? La finestra per le manifestazioni d’interesse si chiude a ottobre 2025; eventuali bandi e aggiudicazioni seguiranno nei mesi successivi, con periodi di esecuzione pluriennali previsti dalle bozze.
