La Fnsi si unisce ai sindacati dei giornalisti europei nell'esprimere «forte preoccupazione» riguardo alla posizione di alcuni governi nel confronto con il Parlamento Ue sull'AI Act.
Il tema è quello della trasparenza nell'impiego dei contenuti che alimentano i "foundational models": i modelli che servono ad addestrare i software di intelligenza artificiale generativa.
Alcuni Stati, tra cui Francia e Germania, con il sostegno dell’Italia, vorrebbero rimuovere dal testo gli obblighi di trasparenza proposti dall'Eurocamera per "certificare" i dati utilizzati da Chat Gpt e sistemi simili.
«Lo sviluppo non si può fermare - afferma Alessandra Costante, segretaria generale della Fnsi - ma è doveroso proteggere proprietà intellettuale e diritto d'autore. C'è bisogno di regole e l'AI Act europeo è un punto di partenza. Condividiamo che l'autoregolamentazione non sia affatto sufficiente e ci preoccupa ad esempio che gli editori della Fieg non stiano affrontando il dossier con il giusto spirito: pensare di vendere i contenuti editoriali italiani all'AI per addestrarla è come svendere l'argenteria di famiglia. In più c’è l’aspetto del diritto d’autore che coinvolge direttamente i giornalisti».
Già in Germania un gruppo di associazioni del settore creativo ha scritto al cancelliere Scholz evidenziando come siano «essenziali norme di trasparenza per la formazione di modelli di IA generativa» e rilevando che la trasparenza è anche necessaria «per evitare la diffusione di fake news e per consentire agli utenti di valutare la qualità dei contenuti generati dall'intelligenza artificiale».
Lo sfruttamento dei contenuti da parte dei foundational models «deve essere regolato con obblighi di trasparenza relativi al loro utilizzo. Senza quest'obbligo - sostengono le associazioni - verrebbe a mancare ogni tutela della proprietà intellettuale, mentre un simile obbligo non costituisce né un ostacolo all'innovazione né un onere sproporzionato per lo sviluppo dei sistemi di AI».