Deepfake e AI, i primi passi del codice europeo che segnala i contenuti prodotti dall’intelligenza artificiale
Deepfake e AI, i primi passi del codice europeo che segnala i contenuti prodotti dall’intelligenza artificiale
La Commissione Europea ha scritto una bozza di codice di buone pratiche per garantire la trasparenza dei contenuti generati dall’AI che dovrà integrare con l’AI Act

di Oreste Pollicino e Federica Paolucci 09/01/2026 20:00

Ftse Mib
45.719,26 6.57.29

+0,10%

Dax 30
25.261,64 23.30.17

+0,53%

Dow Jones
49.504,07 1.39.29

+0,48%

Nasdaq
23.671,35 23.51.13

+0,81%

Euro/Dollaro
1,1667 2.14.56

+0,21%

Spread
67,34 17.30.09

-1,63

I contenuti generati dall’intelligenza artificiale sono sempre più presenti nel web e non solo. Noti sono i casi che hanno visto come protagonisti professionisti sanzionati per averne fatto uso in modo poco trasparente. Proprio la trasparenza è l’oggetto della prima bozza del codice di buone pratiche pubblicata dalla Commissione Europea a dicembre. Il codice ha l’obiettivo di garantire che i contenuti generati e manipolati dall’AI siano contrassegnati in formati leggibili da macchine, rilevabili e interoperabili, consentendo di identificare i deepfake e i testi generati dall’AI su questioni di interesse pubblico.

Il codice della Commissione Ue

L’elaborazione del codice ha coinvolto centinaia di soggetti provenienti da industria, mondo accademico, società civile e Stati membri. Il codice è il risultato del lavoro di due gruppi di lavoro; uno focalizzato sugli obblighi per i provider, ossia i fornitori di sistemi di AI, e l’altro su quelli per i deployer, gli utilizzatori dei sistemi. Questo passaggio chiarisce che la responsabilità della trasparenza è distribuita lungo tutta la filiera e non solo a carico dell’utilizzatore finale.

Allo stato dell’arte difatti non esiste una tecnologia unica e infallibile nell’individuare i contenuti generati dall’AI; a questo scopo nella bozza si suggerisce di adottare un approccio multilivello, ossia combinare metadati con altre tecniche come fingerprinting. In particolare, le aziende che forniscono sistemi di AI dovranno essere in grado di mettere a disposizione strumenti di verifica per consentire a utenti, piattaforme e autorità di controllare se un contenuto è generato con l’AI. In questo modo si darebbe operatività al principio della trasparenza.

Gli obblighi per gli utilizzatori dei sistemi AI

Per gli utilizzatori dei sistemi invece gli obblighi consistono nel segnalare in modo chiaro e immediato i deepfake, ossia contenuti audiovisivi artificialmente generati o manipolati che appaiono autentici. Nell’ottica di contrastare la diffusione di contenuti ingannevoli e fenomeni di disinformazione i deployer dovranno inoltre indicare quando video, immagini o testi sono stati generati o alterati dall’intelligenza artificiale, in particolare se diffusi al pubblico su temi di interesse generale.

Trattandosi di una prima bozza sarà necessario seguire gli sviluppi dei lavori nei prossimi mesi per disporre di un quadro più completo e definito degli obblighi per enti e imprese. Ciò che emerge già con chiarezza tuttavia è l’impostazione del codice, che propone una tassonomia comune dei contenuti pienamente generati dall’intelligenza artificiale e di quelli prodotti con l’ausilio dell’AI, senza operare una distinzione netta tra le due ipotesi.

Se da un lato l’approccio di semplificazione è condivisibile, dall’altro, soprattutto in prospettiva di attribuzione delle responsabilità, ad esempio in caso di testi o video diffamatori, una differenziazione più marcata tra contenuti integralmente automatizzati e contenuti frutto di un intervento umano significativo potrebbe rivelarsi più funzionale.

Il quadro giuridico: l’AI Act europeo

Dal punto di vista giuridico, sebbene il code of practice si presenti come uno strumento di adesione volontaria, il suo inquadramento nell’AI Act ne potrebbe rafforzare la portata giuridica e istituzionale. Il regolamento affida infatti all’AI Office il compito di incoraggiare e facilitare l’elaborazione di codici di pratica a livello dell’Unione per garantire un’attuazione efficace degli obblighi in materia di rilevazione e segnalazione dei contenuti generati o manipolati dall’AI.

Il codice, una volta finalizzato, potrà essere formalmente approvato dalla Commissione diventando un punto di riferimento per l’implementazione dell’articolo 50 dell’AI Act. In questo senso è utile richiamare il processo di trasformazione da codice di buone pratiche a codice di condotta del codice sulla disinformazione ora divenuto un pilastro nell’applicazione del Dsa (Regolamento sui Servizi Digitali).

Soft law e hard law

In questo quadro il codice di pratica assume la funzione di cerniera tra soft law e hard law: uno strumento flessibile, costruito con il contributo degli stakeholder, ma inserito in una cornice regolatoria che consente all’Unione di passare a soluzioni più prescrittive se l’autoregolazione non dovesse rivelarsi sufficiente. Per imprese e piattaforme aderire al codice non è quindi solo una scelta reputazionale ma un modo per posizionarsi in anticipo rispetto a standard che potrebbero presto diventare obbligatori. (riproduzione riservata)