Il fenomeno dei deepfake porno dei VIP sta diventando sempre più preoccupante, tanto che un comitato di vigilanza, noto come Oversight Board, ha deciso di indagare su questo problema. L’obiettivo è valutare l’efficacia delle politiche adottate da Meta, la società madre di Facebook, nel contrastare la diffusione di immagini esplicite generate dall’intelligenza artificiale che coinvolgono celebrità come la cantante Taylor Swift.

Il comitato di controllo indipendente si è preso in carico due casi particolarmente rilevanti che trattano di immagini di nudi di figure pubbliche create con l’IA. Non è stato specificato chi siano le persone coinvolte, ma è chiaro che si tratti di personaggi famosi. In un caso, un utente ha pubblicato su Instagram un’immagine generata dall’intelligenza artificiale di una donna indiana. Dopo che l’utente ha presentato ricorso al Board, Meta ha rimosso il post. Nel secondo caso, invece, un utente ha condiviso su Facebook un’immagine generata dall’IA di una donna nuda che somigliava ad un personaggio pubblico americano. Anche in questo caso, il post è stato rimosso automaticamente, ma l’utente ha fatto ricorso al comitato di controllo.

Il motivo per cui il comitato ha scelto di analizzare un caso proveniente dagli Stati Uniti e uno dall’India è quello di verificare se Meta sta proteggendo tutti gli utenti in modo equo a livello globale. Secondo Helle Thorning-Schmidt, copresidente del comitato di sorveglianza, è noto che Meta è più rapido ed efficace nel moderare i contenuti in alcuni mercati e lingue rispetto ad altri. Questa indagine servirà quindi a comprendere se l’azienda sta adottando politiche coerenti in tutte le sue piattaforme.

La decisione del comitato di vigilanza, insieme alle raccomandazioni politiche per Meta, sarà resa pubblica nelle prossime settimane. Nel frattempo, Meta ha annunciato che a partire da maggio 2024 inizierà a mostrare i contenuti generati dall’intelligenza artificiale con le relative etichette. Questo permetterà agli utenti di identificare facilmente se un’immagine è stata creata tramite l’IA o è autentica.

Il fenomeno dei deepfake porno dei VIP rappresenta una minaccia per la privacy e la reputazione delle celebrità coinvolte. L’utilizzo dell’intelligenza artificiale rende sempre più difficile distinguere tra ciò che è vero e ciò che è falso. È fondamentale che le piattaforme social adottino misure efficaci per contrastare questo fenomeno e proteggere i propri utenti. L’indagine condotta dal comitato di vigilanza su Meta rappresenta un passo importante nella lotta contro i deepfake e potrebbe portare a ulteriori politiche e regolamenti per prevenire la diffusione di immagini esplicite generate dall’IA.

In conclusione, il fenomeno dei deepfake porno dei VIP è un problema sempre più diffuso che richiede azioni concrete da parte delle società di social media. L’indagine del comitato di vigilanza su Meta rappresenta un passo nella giusta direzione per combattere questa minaccia e garantire la sicurezza degli utenti. È fondamentale che le piattaforme adottino politiche coerenti e efficaci per contrastare i deepfake e proteggere la privacy e la reputazione delle celebrità coinvolte.

Share.