Getty Images ha vietato il caricamento e la vendita, sul proprio sito, di opere d’arte generate dall’Intelligenza Artificiale (IA) utilizzando modelli di sintesi di immagini come DALL-E, Midjourney, Make-A-Scene di Meta AI e Stable Diffusion. Getty è la più grande piattaforma di contenuti generati dagli utenti a introdurre questo tipo di divieto, ma decisioni simili sono state prese anche da siti come Newgrounds, PurplePort e FurAffinity.
Craig Peters, CEO di Getty Images, ha manifestato la propria preoccupazione riguardo possibili violazioni di copyright dei risultati di questi modelli di sintesi, e sulle questioni – non ancora affrontate – dei diritti sulle immagini, sui metadati delle immagini, oltre che dei diritti degli individui contenuti all’interno di tali immagini. In tale contesto, la vendita di opere d’arte o di illustrazioni IA potrebbe potenzialmente mettere gli utenti di Getty Images di fronte rischi di natura legale.
Secondo i creatori dei generatori di immagini IA la tecnologia è legale, ma questo status potrebbe essere contestato perché spesso i software (ad es., Stable Diffusion) vengono “addestrati” su immagini protette da copyright pescate a strascico da tutti i siti web, inclusi blog d’arte personali, siti di notizie e di foto stock. Il “web scraping” è legale negli Stati Uniti, e l’output che il software produce dovrebbe essere coperto dall’istituto del “fair use”, che però non fornisce una protezione forte nel caso di attività commerciale, come la vendita di tali immagini.
Altre piattaforme hanno rimosso le immagini IA per motivi diversi dalla tutela dei propri clienti, come FurAffinity, che ha affermato di aver vietato le opere d’arte IA perché danneggerebbero il lavoro degli artisti umani. Shutterstock sembra limitare alcune ricerche di contenuti IA, ma per ora non ha introdotto divieti espliciti.
La questione etica dell’utilizzo del lavoro degli artisti, senza il loro consenso, per addestrare reti neurali che creano opere d’arte quasi a livello umano, è aperta e discussa.
È stato comunque osservato che rimuovere i contenuti di IA è più facile a dirsi che a farsi. Getty Images ha dichiarato che si affiderà agli utenti per identificare e segnalare tali immagini, e che sta lavorando con la Coalition for Content Provenance and Authenticity (C2PA) per creare dei filtri. Tuttavia, nessun filtro automatico sarà completamente affidabile, e non è chiaro quanto sia facile far rispettare il divieto.