In una Napoli attraversata da mare e voci professionali, la comunità dei Consulenti del lavoro rimette l’intelligenza artificiale al centro: non un bivio tra accelerare o frenare, ma una scelta di qualità. Regole, consapevolezza, integrazione con ciò che già esiste: qui passa l’idea di futuro che non delega alle macchine il senso delle nostre decisioni.
Qualità e governo
La riflessione di Giovanni Marcantonio, segretario del Consiglio nazionale dell’Ordine, nasce durante la Convention alla Stazione Marittima di Napoli, tre giorni di confronto per i 60 anni della Categoria. Per lui, il tempo della quantità è finito: l’IA vive dei dati, ma oggi a contare è la loro qualità e la capacità di integrarli nei processi, usandola in ogni fase del lavoro senza smarrire il governo umano. L’evento è in programma dal 23 al 25 ottobre 2025, come indicato dall’organizzazione di categoria, una cornice che rende ancora più urgente la discussione.
Marcantonio non invoca divieti, ma un perimetro chiaro: diffondere un sistema che prende decisioni senza regole sarebbe, dice, una scelta irragionevole; altrettanto rischioso, però, è eccedere in norme che non dialogano con il quadro esistente. La cornice europea offre un approccio per rischi con l’AI Act, che considera le applicazioni in occupazione e gestione dei lavoratori tra gli alti rischi, una scala che distingue usi e obblighi e impone dati affidabili, tracciabilità e supervisione umana.
Professionisti al centro della rotta normativa
Se il lavoro ricade nell’area ad alto rischio, il ruolo dei professionisti diventa centrale nell’applicare la norma, ogni giorno. Qui si gioca anche il rapporto con la pubblica amministrazione: subire l’innovazione o progettare insieme strumenti e procedure. Il calendario europeo è tracciato: divieti operativi dal 2 febbraio 2025; regole per i modelli generali dall’agosto 2025; obblighi per i sistemi ad alto rischio dall’agosto 2026. Bruxelles, nonostante le pressioni, ha confermato le scadenze, scelta che spinge verso preparazione e responsabilità.
Per chi usa IA in selezione, valutazioni, promozioni o licenziamenti, la legge chiede informazione preventiva ai lavoratori, supervisione umana adeguata, corretto uso dei sistemi e controlli post‑impiego. Le sanzioni, per violazioni gravi, possono arrivare fino a decine di milioni di euro o a una quota del fatturato globale, con un percorso di entrata in vigore a tappe definito dalle analisi giuridiche per le imprese nel diritto europeo.
Domande in tasca
Gli strumenti automatici per reclutare e valutare il personale sono vietati? No. Non c’è un divieto generalizzato. Nell’AI Act questi sistemi rientrano tra gli alti rischi, quindi richiedono valutazioni d’impatto, qualità dei dati, tracciabilità e supervisione. La loro disciplina entra in applicazione principalmente dal 2 agosto 2026; fino ad allora valgono scadenze progressive per altri capitoli della normativa. È un percorso di responsabilità, non un arresto tecnologico.
Cosa devono fare ora studi e aziende? Mappare dove l’IA incide su assunzioni e gestione del personale; informare lavoratori e rappresentanze; formare chi usa gli strumenti; definire controlli umani effettivi; documentare fonti e qualità dei dati; predisporre registri e monitoraggio. Le indicazioni di organismi europei sulla sicurezza e le guide per datori di lavoro convergono su questi passaggi, nel percorso di adeguamento.
Un equilibrio che parla di responsabilità
In questo quadro, la voce dei Consulenti del lavoro non chiede barriere, ma disciplina e qualità. La Convenzione di Napoli per i 60 anni della Categoria ci consegna una bussola: la tecnologia entra in studio e in azienda se guidata da regole comprensibili, integrate con l’ordinamento e allineate alle scadenze europee, senza ansie punitive né entusiasmi ciechi. È una direzione che interroga ogni organizzazione, oggi, non domani.
Nello stesso solco di prudenza, il tesoriere Stefano Sassara ha richiamato un punto concreto: nell’ambito delle polizze professionali, attribuire all’IA l’unica causa di un danno è una forzatura che rischia di non reggere sul piano tecnico‑assicurativo. Un’osservazione che invita a progettare coperture coerenti con l’uso degli strumenti, evitando scorciatoie semantiche e scarichi di responsabilità, perché l’innovazione ha bisogno di chiarezza, non di etichette.
