La guida dell’intelligenza artificiale non va consegnata a pochi attori privati
La guida dell’intelligenza artificiale non va consegnata a pochi attori privati

di Oreste Pollicino* e Marco Bassini** 06/05/2026 02:00

Ftse Mib
49.291,01 17.40.00

-0,82%

Dax 30
24.663,61 18.00.00

-1,02%

Dow Jones
49.535,99 19.30.40

-0,75%

Nasdaq
25.778,73 19.26.00

-0,23%

Euro/Dollaro
1,1758 19.10.43

-0,05%

Spread
74,04 17.29.54

+0,09

Il nuovo AI Index Report 2026 dello Stanford Institute for Human-Centered AI non va letto come l’ennesimo rapporto sugli sviluppi in materia di intelligenza artificiale ma come un segnale politico, economico e quasi costituzionale: l’intelligenza artificiale sta avanzando più rapidamente della nostra capacità di misurarla, comprenderla e governarla.

Stanford lo dice chiaramente: il rapporto nasce per offrire dati rigorosi a decisori pubblici, imprese e opinione pubblica, proprio perché l’intelligenza artificiale è ormai un fenomeno troppo complesso per essere lasciato alle sole narrazioni entusiaste o catastrofiste.

La velocità di un’infrastruttura quotidiana

Il primo elemento che emerge è la velocità. Nel 2025 oltre il 90% dei modelli di frontiera è stato prodotto dall’industria; il grado di adozione aziendale dell’intelligenza artificiale ha raggiunto l’88%; quattro studenti americani su cinque - tra studenti di scuole superiori e universitari - usano strumenti di intelligenza artificiale generativa per attività legate allo studio.

Inoltre l’intelligenza artificiale generativa ha raggiunto il 53% di adozione a livello di popolazione in soli tre anni, più rapidamente del personal computer e di internet.

Non siamo più davanti a una tecnologia sperimentale ma a un’infrastruttura quotidiana che entra nella formazione, nel lavoro, nella ricerca, nella medicina, nella produzione e progressivamente anche nelle decisioni pubbliche e private.
Ma il dato più interessante non è l’accelerazione in sé bensì lo scarto tra potenza e controllo.

Stanford segnala che la responsible AI non tiene il passo: i benchmark sulla sicurezza restano disomogenei, la reportistica in materia è ancora parziale e il numero di incidenti documentati legati all’intelligenza artificiale è salito a 362 dai 233 del 2024. Ricerche recenti mostrano inoltre che migliorare una dimensione della responsible AI può compromettere un’altra: i benefici in termini di maggiore protezione dei dati possono ridurre l’equità mentre quelli in termini di sicurezza possono incidere negativamente sull’accuratezza.

Non esiste ancora una matrice condivisa per gestire questi conflitti né dati standardizzati per misurarli nel tempo. È qui che la questione diventa (anche) giuridica: non basta più chiedersi se un sistema funzioni; occorre domandarsi se l’istituzione - pubblica o privata - che lo adotta sia davvero in grado di governarne gli effetti.

Tra sovranità e regolamentazione

Vi è poi un ulteriore dato, forse ancora più delicato per l’Europa: la sovranità. Gli Stati Uniti ospitano 5.427 data center, più di dieci volte qualsiasi altro Paese, mentre la produzione di chip avanzati dipende in larghissima misura da Tsmc, con sede a Taiwan. Recentemente è stata avviata un’espansione operativa di Tsmc negli Stati Uniti, ma la dipendenza strutturale da un singolo produttore resta uno dei nodi geopolitici più critici dell’intera filiera.

Questo significa che la governance dell’intelligenza artificiale non passa solo dalle norme giuridiche ma anche da condizioni materiali: capacità computazionale, infrastrutture, filiere, energia, accesso ai modelli. In questo quadro l’AI Act europeo rappresenta un passaggio essenziale ma non autosufficiente. La regolazione europea ha il merito di aver introdotto una grammatica dei rischi, degli obblighi e delle responsabilità.

Non è un caso che, secondo il report, l’Ue sia percepita globalmente come l’attore più affidabile nella regolazione dell’intelligenza artificiale, più di Stati Uniti e Cina. Un capitale reputazionale che l’Europa farebbe bene a non disperdere. Tuttavia il rapporto Stanford mostra che l’intelligenza artificiale reale è sempre meno un singolo prodotto e sempre più un ecosistema dinamico, distribuito, interdipendente.

Una mancanza di fiducia nella popolazione comune

La domanda allora non è solo se il rischio sia elevato o limitato. È se il potere che si riorganizza attraverso questi sistemi resti visibile, contestabile e governabile. C’è infine un dato umano che non va sottovalutato. Gli esperti tendono a cogliere l’impatto dell’AI sul lavoro in modo molto più positivo del pubblico: il 73% degli esperti prevede effetti positivi contro il 23% dell’opinione pubblica.

Questo divario non è segno di ignoranza dei cittadini. Traduce piuttosto un deficit di fiducia. I cittadini temono non tanto la tecnologia quanto di perdere controllo sulle condizioni concrete della propria vita privata, professionale e sociale. Per questo la vera sfida non è scegliere tra innovazione e regolazione ma costruire istituzioni capaci di accompagnare l’innovazione senza consegnare a pochi attori privati o a poche infrastrutture geopoliticamente concentrate la definizione dello spazio delle decisioni possibili.

Il punto in fondo è apparentemente semplice: non stiamo più regolando soltanto strumenti ma ambienti di potere. E se l’intelligenza artificiale diventa l’infrastruttura attraverso cui si organizzano lavoro, sapere, mercato e amministrazione pubblica, allora il compito del diritto non è rincorrere la tecnologia ma impedire che il suo sviluppo renda il potere meno afferrabile, meno responsabile e di conseguenza meno democratico. (riproduzione riservata)

*ordinario di Diritto Costituzionale
e Regolamentazione dell’AI
all’Università Bocconi
e founder di Pollicino Aidivisory

**professore di Fundamental Rights
and Artificial Intelligence
alla Tilburg University