Quattro importanti testate giornalistiche hanno intentato una causa contro OpenAI e Microsoft per presunta violazione del copyright. Dopo il New York Times, anche The Intercept, Raw Story e AlterNet hanno citato in giudizio le due aziende per l’uso non autorizzato dei loro articoli da parte del famoso chatbot ChatGpt. Secondo le testate, ChatGpt copierebbe interi testi di articoli senza citare fonte e autore.

Le pubblicazioni affermano che il chatbot riproduce spesso opere di giornalismo protette da copyright senza fornire informazioni sulla loro origine. Sostengono che OpenAI potrebbe rendere trasparenti le fonti da cui ChatGpt prende il suo sapere, ma ha scelto di non farlo. Raw Story e AlterNet affermano inoltre che OpenAI e Microsoft erano consapevoli che il chatbot sarebbe stato meno popolare se gli utenti avessero saputo delle violazioni del copyright nelle sue risposte.

Nel frattempo, Google avrebbe stretto accordi con alcuni editori per fornire i suoi strumenti di intelligenza artificiale generativa, consentendo loro di pubblicare storie scritte dall’IA senza revisione giornalistica. Questo fa parte della Google News Initiative (Gni), un programma che mira a finanziare progetti di alfabetizzazione mediatica e strumenti di verifica dei fatti per i media.

La causa intentata dal New York Times a fine 2023 sostiene che OpenAI e Microsoft sono responsabili di miliardi di dollari di danni legali ed effettivi. Tuttavia, OpenAI ha chiesto a un tribunale di respingere l’affermazione, sostenendo che il Times ha approfittato di un bug di ChatGpt che faceva ripetere i testi degli articoli parola per parola.

Questa controversia solleva importanti questioni riguardo all’uso dell’intelligenza artificiale nel campo del giornalismo. Da un lato, l’IA può essere una risorsa preziosa per aiutare i giornalisti a svolgere il loro lavoro in modo più efficiente. Dall’altro lato, ci sono preoccupazioni sul fatto che l’IA possa violare i diritti d’autore e compromettere l’integrità delle fonti giornalistiche.

È fondamentale trovare un equilibrio tra l’uso dell’IA nel giornalismo e la protezione dei diritti dei giornalisti e delle testate giornalistiche. Le aziende che sviluppano e utilizzano l’IA devono essere trasparenti sulle fonti da cui attingono il loro sapere e devono rispettare i diritti d’autore. Allo stesso tempo, i media devono essere aperti all’adozione di nuove tecnologie per migliorare la loro produttività e raggiungere un pubblico più ampio.

È auspicabile che questa causa porti a una maggiore consapevolezza del problema e a una discussione più ampia sul ruolo dell’IA nel giornalismo. Solo attraverso il dialogo e la collaborazione tra giornalisti, aziende tecnologiche e istituzioni sarà possibile trovare soluzioni che soddisfino le esigenze di tutte le parti coinvolte.

Share.