Scienza

Metabarcoding long-read: workflow per primer selettivi che riduce la co-amplificazione dell’ospite

Mettiamo ordine nel nuovo workflow che sposta il baricentro del metabarcoding su un punto spesso sottovalutato: il primer. Ricostruzione tecnica, numeri di validazione e guida operativa per adattare l’approccio a microbiomi associati all’ospite e comunità in contesti complessi.

Analisi tecnica Primer design selettivo Long-read sequencing Riduzione DNA ospite Workflow ripetibile Guida operativa

Pubblicato il: Domenica 15 febbraio 2026 alle ore 17:33. L’articolo riflette le informazioni disponibili alla data di pubblicazione e potrebbe non includere sviluppi successivi che possono incidere sull’inquadramento tecnico. Eventuali aggiornamenti saranno riportati nell’Update log. In mancanza di registrazioni nell’Update log, il contenuto deve considerarsi invariato rispetto alla versione pubblicata.

Ultimo aggiornamento: Venerdì 6 marzo 2026 alle ore 09:16. L’aggiornamento può includere interventi non sostanziali (revisione formale, correzioni, impaginazione o ottimizzazioni) e non implica necessariamente modifiche ai fatti riportati. Eventuali aggiornamenti di contenuto relativi agli sviluppi della notizia sono indicati nell’Update log.

Contenuto verificato Verificato secondo i nostri standard di fact-checking e con una ricostruzione basata sulla lettura integrale del manoscritto accettato e dei materiali supplementari. Policy correzioni

Per realizzare questo approfondimento, abbiamo letto integralmente il manoscritto accettato e abbiamo ricostruito il workflow passo passo a partire da metodi, criteri di selezione e risultati sperimentali riportati. Il quadro che presentiamo qui collima con il record di pubblicazione su FEMS Microbiology Ecology e con l’indicizzazione su PubMed.

Qui il punto non è “un altro paper sul metabarcoding”. Il punto è che mette in chiaro qualcosa che molti scoprono tardi e pagando in profondità di sequenziamento: se il primer prende l’ospite o amplifica in modo sbilanciato, il dataset non diventa più vero con un filtro. In questo lavoro vediamo un workflow che sposta il controllo a monte e lo rende misurabile con un punteggio. Nel case study, un set di primer pubblicati portava a una situazione estrema con il 99% delle letture che finivano sull’ospite e questo è il tipo di rumore che uccide qualsiasi inferenza ecologica. Con primer progettati in modo discriminativo, il segnale torna leggibile senza chiedere più sequenziamento, e questa è la differenza pratica che ci interessa oggi.

Mappa rapida: il workflow in quattro passaggi

Passaggio Cosa si fa Il segnale da notare Cosa cambia
Definisci target e gruppo da escludere Separi con chiarezza cosa vuoi amplificare (target) e cosa vuoi tenere fuori (ospite o contaminanti) e scegli il locus adatto al long-read. Se il marker è sbilanciato o poco informativo, anche il primer “perfetto” produce tassonomia fragile. Riduci subito il rumore che altrimenti ti mangia profondità di sequenziamento.
Allineamento che rappresenta davvero il sistema Costruisci MSAs con sequenze target e sequenze dell’ospite, poi ripulisci gap terminali e colonne troppo ambigue. Un allineamento sporco genera primer che sembrano selettivi ma collassano appena esci dal riferimento. Trasformi il primer design in una procedura ripetibile, non in un esercizio di intuizione.
Scoring dei siti di binding Scansione a finestra scorrevole sull’MSA per trovare siti conservati nel target e divergenti nell’ospite con un punteggio unico. Score 0-1 e profili di mismatch rendono visibile dove perdi sensibilità e dove rischi co-amplificazione. Ottieni una short list ragionata invece di cento candidati indistinguibili.
Ottimizza e valida in silico e in wet-lab Aggiusti degeneracy, lunghezza e Tm, poi fai test in silico e prove su mock community e DNA reale. Il test vero è vedere se sparisce l’ospite senza distorcere troppo le abbondanze relative. Il long-read diventa informazione utile, non solo un file più grande.

Tip: la tabella è scorrevole. Su mobile scorri con il dito a destra e a sinistra per vedere tutte le colonne.

Il primer torna al centro
Qui si vede nero su bianco perché il primer decide che cosa entra nel dataset e quanta informazione resta fuori.
Uno score che rende tutto ripetibile
Il workflow formalizza mismatch e selettività in un punteggio unico, utile a scegliere e non solo a “provare”.
Long-read usato per davvero
Il case study lavora su ampliconi lunghi del locus rDNA e mostra perché il design deve cambiare quando l’obiettivo è multi-kb.
Guida pratica
Più sotto trovi criteri, controlli e limiti. È la parte che ti serve quando vuoi adattare il workflow al tuo sistema.
Metabarcoding long-read: workflow per primer selettivi che riduce la co-amplificazione dell’ospite
Scienza

Nei microbiomi complessi la differenza tra “vedere tutto” e “sentire solo rumore” spesso è una riga di primer.

Trasparenza: fonti e metodo

Questo non è un riassunto generico. Abbiamo fatto un lavoro redazionale operativo: lettura integrale del manoscritto, estrazione dei criteri di selezione dei primer, ricostruzione del punteggio e controllo della coerenza tra metodi e risultati. Sul piano degli strumenti, l’esistenza e la descrizione del software sono verificabili anche nel repository pubblico su GitHub, dove gli autori spiegano input, output e limiti noti.

Fonte principale: manoscritto accettato e materiali supplementari analizzati in redazione.

Contesto essenziale: perché i primer contano più di quanto sembri

Nei microbiomi e nelle comunità biologiche complesse, il metabarcoding ha un paradosso che conosciamo bene. Da un lato promette una fotografia della biodiversità, dall’altro passa attraverso una PCR che seleziona. Questa selezione non è neutra e spesso non è nemmeno intuitiva, perché dipende da mismatch, posizioni critiche sul 3’, contenuto GC e dinamiche di competizione in reazione.

La co-amplificazione dell’ospite è la forma più costosa di questo problema. Se la maggioranza delle reads finisce sull’ospite, il sequenziamento non sta “fallendo”, sta facendo esattamente quello che gli abbiamo chiesto con i primer. Il workflow che analizziamo oggi parte da qui e prova a rendere il primer design una procedura misurabile con un punteggio e con criteri espliciti.

In breve

  • Il problema: in un case study, primer pubblicati portavano a una dominanza dell’ospite fino al 99% delle letture.
  • La proposta: un workflow basato su allineamenti target vs ospite e su uno score per trovare siti di primer discriminativi.
  • Il tool: mbc-prime automatizza la parte più lenta, cioè scovare siti conservati nel target e divergenti nell’esclusione.
  • La validazione: mock community e DNA holobionte mostrano la sparizione delle letture dell’ospite e una quota molto alta di letture fungine con i primer nuovi.

Il lavoro: primer design discriminativo con long-read

La notizia tecnica sta tutta qui: un workflow che ti porta da un allineamento multiplo a una short list di primer con un punteggio tra 0 e 1. Sembra banale finché non lo applichi a un holobiont reale, dove l’ospite ha copie, quantità e spesso affinità che mettono KO i primer “universali”. Nel case study del lavoro, la situazione è quasi didattica proprio perché è estrema: con primer pubblicati, il segnale finiva sepolto e la maggior parte delle reads era ospite.

Nota: la sezione che segue entra nei dettagli di algoritmo, criteri e numeri sperimentali. Se stai progettando primer o stai pianificando un esperimento long-read, è la parte che ti fa risparmiare tempo.

Sommario dei contenuti

Cosa c’è di nuovo e perché conta

Il lavoro mette a fuoco un’asimmetria che rovina tanti progetti di metabarcoding. L’ospite non è solo “DNA in più”, è spesso DNA che si amplifica meglio perché è più abbondante e perché i primer si legano con meno mismatch. La conseguenza è brutale: spendi reads per misurare l’ospite e poi lo butti via oppure perdi sensibilità sui taxa rari, e nei microbiomi quello è il punto.

La proposta è un workflow dichiaratamente pratico: costruisci un allineamento multiplo con sequenze target e sequenze da escludere, usi uno strumento che scorre l’allineamento e assegna un punteggio ai siti candidati e poi progetti primer con criteri espliciti. Nel case study, l’obiettivo è ambizioso perché si punta al locus rDNA con ampliconi lunghi, quindi serve una coppia di siti di binding che regga su un range tassonomico ampio e che sia discriminativa verso l’ospite.

Il cuore tecnico: mbc-prime e lo scoring

Qui troviamo il pezzo più interessante dal punto di vista operativo. mbc-prime parte da un MSA in formato FASTA che contiene sequenze target e sequenze di esclusione. Prima preprocessa: maschera gap terminali tipici delle sequenze parziali e rimuove colonne con troppi gap o basi ambigue. Poi passa alla scansione con finestra scorrevole della dimensione del primer, 20 bp di default.

Per ogni finestra, conta le varianti di sequenza e prende la variante più abbondante nel target come candidato primer. A quel punto calcola quante sequenze, nel target e nell’esclusione, hanno 0, 1, 2, 3 o 4+ mismatch rispetto al candidato. Questo genera due profili di mismatch. La scelta di design diventa numerica: i profili vengono integrati in uno score tra 0 e 1 con una soglia di mismatch predefinita (mm = 2).

Due dettagli pratici meritano di essere fissati perché sono quelli che cambiano la vita quando provi a replicare. Primo, la lista finale non è “tutto quello che passa”: il tool filtra per un punteggio minimo e raggruppa primer sovrapposti. Secondo, il punteggio ti aiuta a ordinare, ma non sostituisce la regola di laboratorio che spesso decide tutto, cioè dove cadono i mismatch dell’ospite, con attenzione particolare al 3’.

Dal design ai primer finali: criteri e modifiche

Il case study del lavoro è costruito in modo da mostrare l’intero percorso. Gli autori vogliono amplificare l’intero locus rDNA con long-read e per farlo costruiscono due allineamenti separati, uno su SSU e uno su LSU, con funghi come target e Gentianales come gruppo di esclusione. Con le impostazioni di default ottengono 147 candidati su SSU e 371 su LSU.

La selezione è stringente: scelgono primer con score almeno 0,6 e pretendono almeno un mismatch al 3’ rispetto alle sequenze vegetali. Con questi criteri arrivano a quattro primer forward su SSU e due primer reverse su LSU. Poi entra la parte che spesso viene lasciata implicita e qui invece è dichiarata: l’ottimizzazione manuale. Un primer viene esteso di due nucleobasi al 5’, un altro viene accorciato di una base al 5’ e in due primer vengono introdotte posizioni degeneri per aumentare la copertura sul target.

La verifica in silico passa anche da un controllo di copertura sul target e di scarsa copertura su Chloroplastida tramite TestProbe. In parallelo, gli autori fanno una combinatoria tra primer per selezionare coppie con differenza di Tm contenuta e rischio basso di eterodimeri, e questa è una scelta sensata se non vuoi trasformare la selettività in una PCR instabile.

Validazione: mock community e holobiont reale

Il workflow regge perché non si ferma alla teoria. Prima viene costruita una mock community fungina con taxa diversi e con livelli differenti di GC, proprio per stressare la PCR. Si ottimizzano le temperature di annealing finché i prodotti sono puliti. Si abbandonano alcune coppie di primer perché l’obiettivo è tenere ampliconi lunghi che coprano SSU e LSU.

Nella mock community, un run di sequenziamento genera 303.100 reads con 1,1 Gb di resa e una media Qscore 18, indicata come accuratezza 98%. La classificazione viene fatta con un workflow basato su Kraken2 e su un database custom costruito sui genomi degli isolati. Il dato chiave è che il 99,80% delle reads viene classificato, segnale di qualità del campione e della pipeline. Una nota che vale oro: un taxon, Trametes versicolor, risulta sottorappresentato in una coppia di primer specifica, e questo è il tipo di bias che devi scovare prima di passare al campo.

Il test su DNA holobionte è il vero banco. Qui una coppia di primer fallisce nel produrre un amplicone di qualità, probabilmente per bassa abbondanza del target, e viene abbandonata. Con le coppie rimanenti, un run multiplex produce circa 599.335 reads con Qscore maggiore di 18. La classificazione viene fatta includendo esplicitamente un database per loci target e la sequenza rDNA di un Vinca vicino per evitare che l’ospite resti “invisibile”. Oltre il 92% delle reads viene classificato.

Il punto operativo è semplice e potente. Il primer di letteratura usato come riferimento produce una grande quota di reads dell’ospite, come ci si aspetta. Le nuove coppie di primer non producono ampliconi classificati come pianta. Quando gli autori incrociano con un database più ampio, ottengono percentuali di letture fungine tra 95% e 97% a seconda della coppia, con un dettaglio interessante: una coppia mostra anche una quota di protisti fino a circa 4,5%, segnale che il design potrebbe aprire a target microeucariotici oltre i funghi.

Cosa cambia davvero per ecologia microbica e comunità

Il cambiamento non è teorico, è economico e inferenziale. Se togli di mezzo l’ospite a monte, recuperi profondità effettiva sul target senza aumentare il numero di reads. Questo significa che puoi vedere taxa rari con più probabilità e puoi confrontare campioni con meno rischio di “false assenze” dovute a un primer che sbilancia.

La seconda conseguenza riguarda il long-read. L’amplicone lungo non ti salva da solo. Ti dà più informazione per taxa, ma ti chiede primer migliori e una classificazione che includa l’ospite, altrimenti misuri percentuali su un denominatore falsato. Il lavoro, su questo, ci lascia un messaggio chiaro: la pipeline tassonomica è parte della strategia di pulizia, non un passaggio amministrativo.

Guida pratica: adattare il workflow al tuo sistema

Se vuoi portare questo approccio nel tuo progetto, la parte più importante non è installare uno script. È costruire bene il set di training. Serve un MSA che copra la diversità del target e dell’ospite nel locus che hai scelto. Se il tuo target è ampio, non ti basta un paio di specie modello. Devi includere variabilità reale, altrimenti il primer “selettivo” amplifica bene solo quello che hai messo nell’allineamento.

Il secondo passaggio è scegliere criteri prima di vedere i risultati. Nel lavoro, due criteri sono espliciti e ti conviene farli tuoi: soglia di score per la selezione iniziale e mismatch sul 3’ verso l’ospite. Poi arriva la parte di laboratorio che fa la differenza: mock community o mix controllato, repliche tecniche e un controllo vero sul rischio di dimeri e sulla differenza di Tm tra i due primer.

Long-read significa anche chiedere più qualità al DNA e alla PCR. Ampliconi multi-kb soffrono frammentazione e inibitori, quindi la pulizia del campione diventa un componente del design. Se il tuo sistema è ambientale, preparati a investire su estrazione e su controlli di inibizione, perché la selettività non compensa un DNA degradato.

Limiti e controlli che non puoi saltare

Ci sono due limiti che vanno detti in modo netto. Primo, il primer design discriminativo non elimina il bias di PCR, lo governa. Il caso Trametes nella mock community lo dimostra: una coppia può essere selettiva e comunque distorcere abbondanze relative. Secondo, la selettività dipende dal set di sequenze che usi per allenare il design. Se la diversità del target è più ampia del tuo riferimento, rischi di perdere specie reali senza accorgertene.

Un dettaglio che abbiamo considerato cruciale è la gestione del database di classificazione. In un holobiont, l’ospite deve essere nel database. Se non lo è, una parte delle reads resta non classificata o viene spinta verso tassonomie sbagliate e questo altera l’interpretazione. Il lavoro lo affronta esplicitamente costruendo un database che includa una sequenza dell’ospite, e questo è un passaggio che molti saltano.

Guida operativa: dal paper al tuo esperimento

1) Costruisci un MSA che rappresenti davvero target e ospite

L’errore più comune è partire da poche sequenze comode. Qui serve un set che copra la diversità che ti interessa, anche a costo di lavorare di più sulla curatela iniziale. Se il target include cladi distanti, la degeneracy non basta: rischi di creare un primer troppo “molle” che amplifica male tutto.

2) Usa lo score per scegliere dove guardare, poi guarda davvero

Lo score ti serve per evitare la caccia a mano nel mare dell’allineamento. Dopo la short list, però, devi controllare posizione dei mismatch sul 3’ verso l’ospite e devi ragionare su Tm e dimeri. Il workflow funziona perché combina automatizzazione e scelta consapevole.

3) Validazione minima che consigliamo di non negoziare

Una mock community controllata o un mix di DNA noto, repliche tecniche e un controllo negativo. Se il tuo obiettivo è un amplicone lungo, verifica subito se alcune coppie falliscono per bassa abbondanza del target, come accade nel case study. Non aspettare il run di produzione per scoprire che la PCR non regge.

Suggerimento pratico: quando valuti i risultati, separa due domande. La prima è “ho escluso l’ospite?”. La seconda è “ho distorto la comunità?”. Sono due metriche diverse e vanno misurate con controlli diversi.

Angolo editoriale: perché i primer contano più di quanto sembri

Chi lavora su microbiomi e comunità biologiche sa già che il rumore non è solo “variabilità naturale”. Una parte del rumore la creiamo noi quando lasciamo che la PCR decida cosa conta. Il valore di questo lavoro sta nel riportare il primer design a un livello adulto: criteri espliciti, punteggio, validazione su controlli e poi applicazione su un holobiont reale.

Long-read, da solo, non è una bacchetta magica. Ti dà ampliconi lunghi, più segnale tassonomico e spesso una risoluzione migliore, ma ti chiede qualità a monte. Qui vediamo una strategia coerente: invece di accettare che l’ospite domini e poi pulire, si progettano primer per evitare che l’ospite entri nel dataset. È un cambio di mentalità prima ancora che una novità tecnica.

C’è un effetto collaterale che vale la pena sottolineare. Quando elimini l’ospite, abbassi anche la tentazione di “comprare” la soluzione con più reads. Questo rende gli studi più comparabili e, paradossalmente, più robusti. In ecologia microbica la robustezza nasce spesso da scelte piccole e ripetibili, e un primer progettato bene è una di quelle scelte.

Questo è un commento editoriale: è una lettura basata su metodi, criteri e risultati riportati nel manoscritto, con una trasposizione operativa per chi progetta esperimenti di metabarcoding.

A cura di Junior Cristarella.

Domande frequenti

Che cosa intendiamo davvero per “metabarcoding selettivo”?

È metabarcoding progettato per amplificare in modo sensibile un gruppo target e per ridurre in modo attivo la co-amplificazione di un gruppo non target, spesso l’ospite. La selettività non è un dettaglio estetico: decide quanta parte del sequenziamento finisce su informazione utile.

Perché i primer contano più di quanto sembri quando studiamo microbiomi?

Perché i primer sono il collo di bottiglia che definisce cosa entra nel dataset. Se un taxon ha mismatch in posizioni critiche o se l’ospite si lega meglio del target, la composizione osservata non è più una fotografia della comunità, è il risultato della chimica della PCR.

Dove entra il long-read in questo workflow?

Qui il long-read non è un vezzo. Il lavoro lo usa per puntare ad ampliconi lunghi sul locus rDNA e quindi aumentare informazione tassonomica e continuità tra regioni. Il punto pratico è che disegnare primer per ampliconi multi-kb richiede siti di binding robusti e davvero discriminativi.

Che cos’è mbc-prime e cosa restituisce in concreto?

È un programma che parte da un allineamento multiplo con sequenze target e sequenze da escludere e produce una tabella di loci candidati per primer, ciascuno con profili di mismatch e un punteggio riassuntivo tra 0 e 1. La tabella è già strutturata per decidere quali siti passano al design vero e quali vanno scartati.

Qual è la prova sperimentale più forte nel case study?

La dimostrazione arriva in due tempi. Prima una mock community controllata per verificare che l’amplificazione non distorca in modo grossolano il mix atteso. Poi il test su DNA holobionte dove si misura la sparizione delle letture dell’ospite e la tenuta della composizione della comunità osservata.

Posso adattare questo approccio ad altri marker e ad altri ospiti?

Sì, a patto di avere un set di sequenze rappresentative per target ed esclusione. Il principio non è legato ai funghi: funziona ogni volta che esiste un conflitto tra “quello che vuoi vedere” e “quello che tende a dominare la PCR”, dal 16S in tessuti animali fino a marker eDNA in campioni con DNA ad alta biomassa.

Qual è l’errore più comune quando si cerca di “ripulire” il metabarcoding?

Affidarsi solo al filtro bioinformatico e considerare la PCR un passaggio neutro. Se la PCR amplifica soprattutto l’ospite, stai spendendo budget di sequenziamento per generare un dato che poi butti. Il workflow è interessante proprio perché sposta l’investimento all’inizio, dove si decide cosa entra nel dataset.

Timeline del workflow: apri le fasi in ordine

Tocca una fase per aprire i passaggi chiave. La timeline serve a orientarti quando devi adattare l’approccio a un nuovo sistema biologico.

  1. Fase 1 Il problema reale: quando il marker è dominato dall’ospite
    • Nei microbiomi associati all’ospite, il DNA non target spesso è più abbondante e più “amplificabile”.
    • Se il primer prende l’ospite, lo fa in modo sistematico: non è un rumore casuale.
    • Il risultato pratico è spreco di reads e perdita di sensibilità sui taxa rari.
    • Lavorare dopo, in bioinformatica, significa già partire in salita.

    Perché conta: Qui nasce l’idea chiave: la pulizia del metabarcoding si decide prima della PCR, non dopo.

  2. Fase 2 Il set di training: target ed esclusione diventano un allineamento
    • Si raccolgono sequenze rappresentative per target e ospite dal locus scelto.
    • Si allinea e si ripulisce per evitare che gap e ambiguità creino falsi segnali.
    • Si prepara il terreno per confrontare mismatch e posizioni di binding in modo misurabile.

    Perché conta: Senza un MSA che rappresenti davvero la diversità del target e dell’ospite, la selettività è un’illusione elegante.

  3. Fase 3 mbc-prime: dal “guardare l’allineamento” a un punteggio ripetibile
    • Il tool scorre l’allineamento con una finestra pari alla lunghezza del primer.
    • Costruisce profili di mismatch per target e per esclusione e li sintetizza in uno score unico.
    • Filtra e raggruppa i candidati per ridurre la scelta a siti davvero interessanti.
    • Il risultato è una tabella utile a progettare primer e non una lista di sequenze arbitrarie.

    Perché conta: Quando il design diventa misurabile, puoi confrontare primer diversi senza raccontarti storie.

  4. Fase 4 Ottimizzazione: degeneracy e Tm, ma con una regola ferrea sul 3’
    • Si selezionano candidati sopra soglia e si pretende almeno un mismatch sul 3’ verso l’ospite.
    • Si ritocca lunghezza e composizione per allineare Tm e contenere rischi di dimeri.
    • Si introducono basi degeneri solo dove servono davvero per coprire la diversità del target.

    Perché conta: La selettività non basta. Il primer deve anche essere usabile in laboratorio senza diventare un generatore di bias nuovi.

  5. Fase 5 Validazione: mock community, poi holobiont reale
    • La mock community mette a nudo distorsioni di amplificazione che un campione reale maschera.
    • Il DNA holobionte conferma la domanda centrale: il primer lascia fuori l’ospite?
    • La classificazione tassonomica va legata a un database che includa esplicitamente l’ospite, altrimenti i numeri si falsano.

    Perché conta: È qui che capisci se hai progettato un primer o hai solo spostato il problema di qualche passaggio.

Chiusura

Se vogliamo studiare microbiomi e comunità evitando rumore e bias, dobbiamo smettere di considerare i primer una formalità. Questo workflow ci mostra un modo concreto per trasformare la selettività in una scelta misurabile e validata. Il long-read, in questo quadro, diventa un amplificatore di informazione solo quando il primer design fa il suo lavoro.

Firma digitale di Junior Cristarella
Firma digitale del direttore responsabile

Approfondimenti correlati

Scienza: notizie e approfondimenti

Il nostro hub Scienza: ricerche, analisi, spiegazioni e aggiornamenti che mettono ordine tra paper, dati e implicazioni pratiche.

Apri la pagina hub

Update log

Registro degli aggiornamenti sostanziali: trasparenza su modifiche, correzioni e integrazioni informative.

  • Domenica 15 febbraio 2026 alle ore 17:33: Pubblicazione: ricostruzione tecnica del nuovo workflow per primer selettivi con long-read e implicazioni operative per chi fa metabarcoding in contesti complessi.
  • Domenica 15 febbraio 2026 alle ore 18:07: Integrati i dettagli del tool mbc-prime e i numeri di validazione sperimentale riportati nel manoscritto (mock community e DNA holobionte).
  • Domenica 15 febbraio 2026 alle ore 18:49: Aggiunti controlli pratici per replicare il workflow, chiarite le ambiguità più frequenti su rumore e bias e ampliata la sezione FAQ.
Foto di Junior Cristarella
Autore Junior Cristarella Junior Cristarella dirige Sbircia la Notizia Magazine e cura l’area Scienza con un metodo di verifica basato sulla lettura integrale dei lavori scientifici, sul controllo dei materiali supplementari e sulla verifica della disponibilità di codice e dati quando dichiarati.
Pubblicato Domenica 15 febbraio 2026 alle ore 17:33 Aggiornato Venerdì 6 marzo 2026 alle ore 09:16