Il blocco di ChatGPT non è neo-luddismo ma questione di democrazia e civiltà
Il blocco di ChatGPT non è neo-luddismo ma questione di democrazia e civiltà
Il provvedimento del Garante per la protezione dei dati personali nei confronti di OpenAI mira a promuovere e orientare lo sviluppo tecnologico e l’innovazione a una sola e semplice condizione: quella che il prezzo non sia a carico dei diritti, delle libertà e della dignità di miliardi di persone e i profitti concentrati nelle mani di pochi

di Guido Scorza* 31/03/2023 17:33

Ftse Mib
34.258,88 14.14.29

+0,94%

Dax 30
18.053,77 14.14.59

+0,76%

Dow Jones
38.085,80 13.31.14

-0,98%

Nasdaq
15.611,76 7.25.12

-0,64%

Euro/Dollaro
1,0715 13.59.48

-0,05%

Spread
135,87 14.29.28

-3,39

L’ordine di sospendere ogni trattamento di dati personali sotteso all’erogazione del servizio ChatGPT dal Garante per la protezione dei dati personali nei confronti di OpenAI, la società che gestisce il servizio, ha acceso, come era prevedibile, un dibattito globale.

Da una parte i plausi e dall’altra le critiche. Il leit motiv delle seconde è quello di chi ritiene che il provvedimento rischi di frenare l’innovazione e arrestare forme di progresso tecnologico capaci di offrire straordinarie opportunità per l’umanità. Vale, quindi, la pena chiarire le ragioni all’origine del blocco - che, giova ricordarlo, è stato adottato in via provvisoria ed urgente nell’ambito di un’istruttoria appena avviata - e, quindi, provare a spiegare perché queste critiche che, naturalmente, meritano rispetto sono infondate.

Le ragioni alla base del blocco sono essenzialmente tre

La prima. La società che gestisce il servizio, a quanto è dato sapere, ha addestrato – e, probabilmente, continua a addestrare – i suoi algoritmi raccogliendo da Internet – secondo quanto si dice nelle FAQ – miliardi di dati, anche personali, di miliardi di persone alle quali non ha mai rappresentato, in nessuna forma, neppure sintetica, questa intenzione.

Ed è almeno lecito dubitare che disponga di un’idonea base giuridica per una raccolta tanto massiccia di dati personali.

Nessun dubbio che il mondo intero possa avere tanto da guadagnare dall’addestramento di algoritmi come quello di OpenAI come, d’altra parte, ha tanto da guadagnare dalla ricerca medica e scientifica eppure, chi voglia fare ricerca medico-scientifica, con poche eccezioni, rigorosamente disciplinate e vigilate dalle autorità di protezione dei dati personali europee, non può farla senza informare gli interessati e, nella più parte dei casi, senza il loro consenso.

Questo perché il fine non giustifica i mezzi e non giustifica il travolgimento dei diritti, della libertà e della dignità delle persone dei quali il diritto alla privacy e alla protezione dei dati personali è baluardo.

La seconda. Le conversazioni, come quelle che si consumano con ChatGPT, ci spingono a raccontare tanto e, anzi, tantissimo di noi, probabilmente più di quanto – già moltissimo - normalmente raccontiamo nella dimensione digitale: cosa ci preoccupa, cosa ci interessa, di cosa soffriamo, la nostra fede religiosa, le nostre convinzioni politiche, le nostre relazioni familiari.

Attualmente OpenAI sembra raccogliere tutte queste informazioni senza fornire all’utente nessuna informativa preventiva come prevede, invece, la disciplina europea sulla privacy, a prescindere dal luogo di stabilimento di chi fornisce il servizio.

E non si tratta di una previsione “capricciosa” o formalistica: il punto è che senza sapere chi farà cosa con i nostri dati personali non siamo in condizione di decidere consapevolmente e liberamente cosa fare e cosa non fare, cosa dire e scrivere e cosa non dire e non scrivere.

La terza. Quando a ChatGPT viene richiesto di scrivere qualcosa a proposito di qualcuno, talvolta, lo fa in maniera inesatta, ricollegando a quella persona fatti, circostanze, competenze o “incidenti” che non le appartengono.

Così facendo distorce l’identità personale di quella persona con le conseguenze più diverse, violando un altro dei principi cardine della disciplina europea che esige che chiunque tratti i dati personali di chiunque altro, li tratti in maniera esatta.

Ecco perché, probabilmente, leggere il provvedimento appena adottato dal Garante per la privacy come un freno all’innovazione non è corretto.

Al contrario, il provvedimento, mira a promuovere e orientare lo sviluppo tecnologico e l’innovazione a una sola e semplice condizione: quella che il prezzo non sia a carico dei diritti, delle libertà e ella dignità di miliardi di persone e i profitti concentrati nelle mani di pochi.

Nessuno pensa che sia sbagliato sviluppare algoritmi come quello di OpenAI e, anzi, dovremmo essere tutti convinti che il loro uso può dischiudere all’intera umanità opportunità straordinarie, ma l’importante è che nel procedere al loro sviluppo si considerino i diritti e le libertà fondamentali come un vincolo e uno steccato insuperabile e non come un orpello rinunciabile per far prima o far meglio dal punto di vista dei risultati, dei profitti o dell’efficienza della soluzione.

In democrazia e, più semplicemente, in una società civile non tutto quello che è tecnologicamente possibile è anche giuridicamente legittimo e democraticamente sostenibile. (riproduzione riservata)

*Componente del Garante per la protezione dei dati personali