OpenAI ha lanciato la nuova app Sora, che offre una visione accelerata di un futuro in cui i video AI, i social media e l’economia dell’attenzione si fondono in un unico gigantesco bacino virale, torbido e oscuro, che corrode la realtà.
Il creatore di video Sora 2 AI di OpenAI e l’app Sora consentono agli utenti di realizzare e condividere brevi video basati sull’intelligenza artificiale con protagonisti se stessi, i propri amici e chiunque altro dia loro il permesso di essere incluso.
Il nuovo Sora arriva sulla scia del recente lancio di Meta Vibes, un clone di TikTok composto interamente da video realizzati con l’intelligenza artificiale.
Entrambe le aziende scommettono che l’interesse del pubblico per i video realizzati con l’intelligenza artificiale non sia solo una breve infatuazione per una novità tecnica, ma l’inizio di un cambiamento fondamentale nel consumo dei media.
Ciononostante, secondo un commento del sito americano Axios (www.axios.com), si apre un vaso di Pandora di potenziali problemi. Axios ne ha elencati alcuni.
Più video realizzati con l’AI ci sono online, meno chiunque può e deve fidarsi che un determinato video sia reale.
I video generati con Sora sono per ora contrassegnati da filigrana, e sia Sora che Vibes sono feed esplicitamente basati interamente sull’intelligenza artificiale. Ma se queste app diventeranno popolari, i loro clip di successo si diffonderanno su Reels, TikTok, YouTube e altre piattaforme dove si mescoleranno con filmati reali.
È meglio presumere che ogni video online, per quanto reale possa sembrare, sia fittizio fino a prova contraria.
Quando si apre il feed di Sora, si entra in un mondo ricco di immagini tratte da serie animate e videogiochi popolari.
OpenAI afferma che i titolari di proprietà intellettuale possono scegliere di non consentire la duplicazione delle loro immagini e dei loro stili.
Lo Studio Ghibli non ha mai citato in giudizio OpenAI per l’ondata virale di clip in stile Miyazaki realizzate dagli utenti con i suoi strumenti all'inizio di quest'anno, ma alla fine qualcuno porterà OpenAI in tribunale.
I contenuti esclusivamente basati sull'intelligenza artificiale spingono il mezzo ancora più lontano nella vacua irrealtà rispetto a Reels o TikTok, al punto che sembra completamente slegato dal mondo reale.
Più utilizziamo l’AI per realizzare video e più video AI consumiamo, più informazioni forniamo ai produttori di AI.
OpenAI afferma di voler evitare i peccati dei social media di vecchia scuola che mirano a massimizzare il coinvolgimento. Tuttavia, sta raccogliendo sempre più dati dagli utenti.
Combinando ciò che un algoritmo in stile TikTok sa sui tuoi gusti e sulle tue antipatie con tutto il resto che già stai rivelando a ChatGpt, OpenAI ottiene alcuni potenti strumenti per plasmare il tuo comportamento.
La funzione cameo di Sora dispone di alcune misure di sicurezza intelligenti che dovrebbero limitare gli abusi su larga scala. Ma un parco giochi di video social pieno di volti di persone reali è destinato a produrre casi orribili di bullismo, calunnia e altri tipi di danni. La capacità di internet di trovare e sfruttare usi sgradevoli e dannosi di uno strumento di social networking supererà sempre gli sforzi di una piattaforma per limitarne l'uso.
Altman ha scritto in un post sul blog questa settimana che OpenAI prova «trepidazione» a causa della storia delle app di social media che creano dipendenza e vengono utilizzate per il bullismo. «Il team ha dedicato grande attenzione e riflessione nel cercare di capire come realizzare un prodotto piacevole che non cada in quella trappola, e ha elaborato una serie di idee promettenti» che sperimenterà, ha scritto.
Tra l’amministrazione Trump riluttante a regolamentare le nuove tecnologie, aziende con budget praticamente illimitati e l’opinione pubblica è profondamente divisa su questioni politiche e sociali, il nuovo mondo dei social media video modellato dall'AI rischia non si evolverà certo con con cautela e attenzione. (riproduzione riservata)