OpenAI, l’azienda di intelligenza artificiale famosa per la creazione di ChatGpt e del software Sora, ha annunciato lo sviluppo di un nuovo strumento per individuare i deepfake. Questo software, attualmente in fase di test, è in grado di rilevare con un tasso di precisione del 98% se una foto è stata generata o modificata dall’intelligenza artificiale.
OpenAI ha deciso di realizzare questo strumento per aiutare le persone a riconoscere quando una foto è stata manipolata o alterata dall’intelligenza artificiale. I deepfake, ovvero immagini o video falsi in cui il volto di una persona viene sostituito digitalmente con quello di un’altra, sono diventati sempre più diffusi e rappresentano una minaccia per la veridicità delle informazioni e per la reputazione delle persone coinvolte.
La tecnologia alla base di questo nuovo software è Dall-e 3, una versione specializzata dell’IA creata da OpenAI. Questa tecnologia è utilizzata anche da Copilot Designer, un software di proprietà Microsoft che permette di creare immagini a partire da testo. OpenAI ha annunciato di aver sviluppato nuovi metodi per tracciare i contenuti e dimostrare se sono stati generati da programmi di intelligenza artificiale.
L’obiettivo di OpenAI è quello di limitare la circolazione dei deepfake, che spesso mettono in dubbio la veridicità delle azioni e dei fatti che coinvolgono politici e personaggi famosi. Per fare ciò, l’IA studierà l’immagine per individuare eventuali difetti o imprecisioni che potrebbero essere causate dall’intervento dell’intelligenza artificiale. Inoltre, OpenAI prevede di apporre una filigrana “a prova di manomissione” su ogni immagine ottenuta con Dall-e, in modo da dimostrare la sua autenticità.
Tuttavia, esistono dei limiti a questa tecnologia. Il controllo sulla veridicità del contenuto è possibile solo se la foto è stata creata o modificata con Dall-e 3 e non con altre intelligenze artificiali, come Midjourney. In questi casi, il tasso di successo si abbassa notevolmente, oscillando tra il 5% e il 10%.
È importante sottolineare che OpenAI ha lanciato il Societal Resilience Fund insieme a Microsoft, il suo principale investitore. Questa iniziativa da 2 milioni di dollari si propone di aiutare persone e aziende a comprendere i benefici e i rischi dei sistemi di intelligenza artificiale. Inoltre, OpenAI ha aderito alla Coalition of Content Provenance and Authority (C2PA), insieme a Microsoft e Adobe, per creare linee guida e standard condivisi volti a migliorare la trasparenza delle foto e dei video prodotti dall’IA.
Con l’avanzamento sempre più rapido della tecnologia dell’intelligenza artificiale, diventa sempre più importante sviluppare strumenti per contrastare la diffusione dei deepfake. Grazie all’impegno di aziende come OpenAI e Microsoft, è possibile proteggere l’autenticità delle informazioni e preservare la fiducia del pubblico.