Deepfake: L’allarme sulle immagini generate dall’intelligenza artificiale durante le elezioni
L’uso dell’intelligenza artificiale (IA) per generare immagini e video ha sollevato preoccupazioni in vari settori, incluso quello cinematografico. Attori come Scarlett Johansson e Tom Hanks hanno espresso la loro indignazione quando i loro volti sono stati utilizzati in deepfake fasulli per promuovere prodotti sui social media. Nonostante le proteste, le aziende continuano a spingere i confini di questa tecnologia innovativa.
Un esempio di ciò è Sora, un software sviluppato da OpenAI, l’azienda proprietaria di ChatGpt. Sora ha dimostrato le sue straordinarie capacità a Hollywood, dove l’intelligenza artificiale è stata oggetto di scioperi. Gli esperti avvertono che bisogna aumentare la vigilanza in vista delle elezioni che si terranno in diverse nazioni nel 2024.
Secondo Carlo Negri, ricercatore senior dell’Osservatorio Artificial Intelligence del Politecnico di Milano, grazie alla diffusione di immagini e contenuti digitali e all’avvento del Deep Learning, l’IA ha raggiunto prestazioni paragonabili a quelle umane nel riconoscimento di contenuto. Le ultime novità includono strumenti che generano immagini e video ad alto realismo grazie ai nuovi modelli generativi. Questo traguardo solleva importanti questioni legali ed etiche.
Sora è solo uno dei tanti software che sperimentano l’integrazione dell’intelligenza artificiale nella narrazione multimediale. Altri esempi includono PixVerse, invideo AI, Stable Video, Midjourney, DALL-E 3 di OpenAI, DreamStudio di Stability AI e Image Creator di Microsoft. Anche Meta e Google stanno sviluppando sistemi di IA per immagini, anche se hanno avuto problemi riguardanti le rappresentazioni razziali.
A partire da metà maggio, Google permetterà a tutti gli utenti di modificare le immagini con l’IA utilizzando l’app Foto sul proprio smartphone. L’obiettivo delle grandi aziende tecnologiche è quello di democratizzare sempre di più l’utilizzo dell’intelligenza artificiale, al fine di fidelizzare gli utenti. Tuttavia, questa democratizzazione introduce nuove criticità, come il diritto d’autore e la diffusione di contenuti falsi.
In vista delle elezioni del 2024, diverse parti del mondo dovranno affrontare sfide legate all’utilizzo dell’IA nel contesto elettorale. Gli esperti hanno sottolineato la necessità per le grandi aziende digitali di introdurre strumenti affidabili per distinguere il vero dal falso.
La questione del copyright delle immagini generate dall’IA è ancora irrisolta. Secondo voci di corridoio, Apple, Meta, Google e Amazon avrebbero stretto un accordo con Shuttershack, una piattaforma online per l’acquisto di foto e video, per ottenere la licenza di milioni di immagini. Inoltre, ci sono rumors secondo cui OpenAI avrebbe utilizzato le trascrizioni automatiche dei video di YouTube per addestrare Sora.
I legislatori europei hanno già cominciato a intervenire sull’utilizzo dell’IA generativa, inserendo alcune disposizioni nell’AI Act. Queste disposizioni impongono ai fornitori di informare gli utenti che stanno interagendo con un sistema di IA e di progettare e sviluppare modelli che garantiscano adeguati livelli di protezione contro la generazione di contenuti che violano il diritto dell’Unione. Tuttavia, si devono anche preservare i diritti fondamentali, inclusa la libertà di espressione.
In conclusione, l’utilizzo dell’intelligenza artificiale per generare immagini e video presenta sia opportunità che rischi. Mentre le innovazioni tecnologiche continuano a spingersi oltre i limiti attuali, è fondamentale affrontare le questioni legali ed etiche legate a questa tecnologia. La vigilanza e la regolamentazione saranno essenziali per garantire che l’IA sia utilizzata in modo responsabile e non dannoso durante le elezioni e in altri contesti.