Intelligenza artificiale, come proteggerci dai contenuti prodotti

Abbiamo affrontato in altri articoli il problema della tutela degli output dell’intelligenza artificiale e quello del machine learning tramite contenuti protetti e dati personali. Oggi parliamo della tutela dei fruitori di contenuti prodotti dall’IA, sotto il particolare profilo della loro riconoscibilità.

L’IA consente di manipolare immagini e video per creare contenuti tanto realistici da sembrare autentici. L’utilizzo di queste tecnologie pone anzitutto un problema di violazione dei diritti del soggetto umano eventualmente rappresentato, ma anche un tema di affidamento da parte di chi entra in contatto con il contenuto non genuino. Questo aspetto dell’IA è affrontato nei recenti provvedimenti dell’Unione europea e del governo italiano.

Il testo europeo che regola alcuni aspetti dell’IA – il c.d. AI ACT in via di emanazione – prevede all’art. 50 un’articolata disciplina in questa materia. In sintesi, questa norma chiede anzitutto ai fornitori di sistemi di IA che generano contenuti di qualunque genere (audio, immagine, video o testuali) di garantire che gli output siano marcati come generati dall’IA. Questa regola non si applica nel solo caso in cui i sistemi di IA svolgano una funzione di mera assistenza all’attività umana, senza modificare in modo sostanziale gli input forniti dall’utilizzatore (il warning non serve dunque ad esempio per un’immagine migliorata con Photoshop).

L’art. 50 obbliga dunque anzitutto gli sviluppatori a fare in modo che i contenuti generati dai loro sistemi di intelligenza artificiale siano marcati in modo da essere riconoscibili come tali a un’analisi informatica. Regole stringenti sono poi poste a carico anche di chi utilizzi sistemi di IA per generare i c.d. deep fake. Trattasi dei contenuti che l’AI ACT (art. 3(60)) definisce come “un’immagine o un contenuto audio o video generato o manipolato dall’IA che assomiglia a persone, oggetti, luoghi, entità o eventi esistenti e che appare falsamente autentico o veritiero”. Coloro che utilizzino sistemi di IA per generare “deep fake” devono rendere noto “in maniera chiara e distinguibile al più tardi al momento della prima interazione o esposizione” che il contenuto è stato generato o manipolato artificialmente. Le modalità di questa indicazione possono variare a seconda del contenuto e del contesto, considerato che qualora esso faccia parte di un’opera che ha fini “manifestamente artistici, creativi, satirici o fittizi”, gli obblighi di trasparenza si limitano alla rivelazione dell’esistenza di tali contenuti manipolati, senza “ostacolare l’esposizione o il godimento dell’opera”.

Fonte : Wired