Microsoft presenta il suo primo rapporto sulla responsabilità dell’intelligenza artificiale, esplorando i rischi e le opportunità che questa tecnologia porta con sé. Nel Responsible AI Transparency Report, l’azienda condivide le pratiche che ha adottato nel settore, mettendo in evidenza come abbia creato 30 strumenti di intelligenza artificiale responsabile nell’ultimo anno.
Uno dei punti chiave del rapporto è la necessità di mappare, misurare e gestire i rischi associati alle applicazioni di intelligenza artificiale generativa durante tutto il loro ciclo di sviluppo. Microsoft ha anche ampliato il suo team di intelligenza artificiale responsabile e ha richiesto ai partner che sviluppano applicazioni di IA generativa di valutare e misurare i rischi sin dalla fase di ideazione.
Un’altra iniziativa importante presentata nel rapporto è l’aggiunta di una filigrana nei software di Microsoft che generano o modificano immagini. Questa filigrana serve a etichettare le immagini come realizzate da un modello di intelligenza artificiale, aumentando così la comprensione e la distinzione tra foto reali e immagini generate artificialmente.
Per creare un ecosistema responsabile, Microsoft ha fornito ai clienti del servizio Azure AI degli strumenti per rilevare contenuti problematici generati dall’intelligenza artificiale. Questi strumenti sono in grado di individuare contenuti che contengono incitamento all’odio, di natura sessuale e autolesionismo, permettendo così agli utenti di valutare i rischi per la sicurezza.
È interessante notare che Microsoft ha anche preso in considerazione le segnalazioni degli utenti delle sue piattaforme per migliorare la qualità dei suoi strumenti. Ad esempio, dopo il lancio di Copilot, precedentemente noto come Bing Chat, l’azienda ha prontamente corretto le allucinazioni del chatbot. Questo è particolarmente rilevante considerando l’episodio delle immagini deepfake di celebrità come Taylor Swift, che sono diventate virali e si dice siano state realizzate con gli strumenti di intelligenza artificiale di Microsoft.
Il rapporto di Microsoft rappresenta un passo importante verso la responsabilità nell’utilizzo dell’intelligenza artificiale. L’azienda sta mettendo in atto misure concrete per gestire i rischi associati a questa tecnologia e per garantire che venga utilizzata in modo etico e sicuro. La creazione di strumenti di intelligenza artificiale responsabile e l’implementazione di filigrane per etichettare le immagini generate artificialmente sono solo alcuni esempi delle azioni intraprese da Microsoft.
È fondamentale che altre aziende nel settore dell’intelligenza artificiale seguano l’esempio di Microsoft e adottino pratiche responsabili nell’utilizzo di questa tecnologia. Solo attraverso l’impegno collettivo delle aziende e delle istituzioni sarà possibile garantire un futuro in cui l’intelligenza artificiale sia utilizzata per il bene comune, evitando rischi e abusi.