Ci troviamo nel pieno di una vera e propria rivoluzione industriale. Il termine “Intelligenza Artificiale” è entrato a tutti gli effetti nella nostra quotidianità e non fa neanche più così scalpore parlarne.
C’è chi ancora non si è approcciato alle AI, chi ne ha addirittura paura, chi è già un esperto e chi, come me, si è appassionato all’argomento e ne usa diverse nel suo lavoro.
Sia nel mio lavoro di fotografo che in quello di content creator è innegabile l’aiuto incredibile che mi stanno apportando tantissime AI come ChatGPT e l’AI generativa di Photoshop.
Però non è tutto oro quello che luccica.
Addestrare le AI con le immagini: il training
Oggi voglio parlarti di un problema legato all’addestramento delle intelligenze artificiali (IA) attraverso l’uso di immagini.
Questo processo, noto come “training“, implica l’utilizzo di grandi quantità di dati visivi per insegnare ai modelli IA a riconoscere e replicare stili e oggetti.
Ti sarà sicuramente capitato di vedere immagini generate dalle Ai che ripropongono stili di artisti famosi, l’esempio più classico è il trend uscito da poco sui social “Create Pixar Style Images” dove le nostre foto vengono trasformate in immagini in perfetto stile Pixar.
Qui un esempio con il mio cane che dorme su un’amaca e quello della mia ragazza che va in gita coi boyscout.
Immagini create con ChatGPT4
Tuttavia, questa pratica solleva significativi problemi etici e legali, specialmente per gli artisti. Senza il loro consenso, le opere possono essere sfruttate da software che apprendono a creare contenuti simili, erodendo i diritti d’autore e la proprietà intellettuale.
Per gli artisti, ciò significa non solo la perdita di controllo sulle proprie opere, ma anche potenziali perdite economiche e di unicità artistica.
Ma ecco che stanno arrivando le prime risposte in grado di contrastare questo processo e di offrire una difesa “avvelenando” le immagini in modo che il loro utilizzo indebito possa effettivamente sabotare l’apprendimento dell’IA anziché alimentarlo.
Cos'è Nightshade
Nightshade è un tool progettato per proteggere le opere artistiche digitali dall’utilizzo non autorizzato nell’addestramento di modelli di intelligenza artificiale. Funziona come un “avvelenatore” di immagini, inserendo modifiche invisibili che confondono i modelli IA.
Nightshade applica sottili alterazioni ai pixel di un’immagine che sono impercettibili all’occhio umano, ma rendono l’immagine dannosa per l’addestramento IA. Questo disturba l’apprendimento automatico, portando i modelli IA a produrre risultati errati o inutilizzabili, come confondere un cane con un bicchiere.
Nato dalle menti del professor Ben Zhao e del suo team di ricercatori dell’Università di Chicago, Nightshade è parte di un’iniziativa più ampia per bilanciare le dinamiche di potere tra gli artisti e le tecnologie IA che utilizzano dati in modo eticamente discutibile.
Dall’introduzione sul mercato, Nightshade ha ottenuto risultati impressionanti, con oltre 250.000 download nei primi cinque giorni dal rilascio. Questa straordinaria accoglienza ha dimostrato la necessità percepita dagli artisti di proteggere le loro opere dall’uso non autorizzato.
Le sperimentazioni hanno mostrato che anche poche immagini trattate con Nightshade possono significativamente compromettere la qualità delle output generative dei modelli IA, rendendo le immagini apprese sostanzialmente inutili per scopi di addestramento accurato. Questo strumento non solo protegge le singole opere, ma anche destabilizza l’addestramento su vasta scala, offrendo una soluzione potente contro l’utilizzo non etico dei dati.
Insomma, anche per noi fotografi, è uno strumento particolarmente utile soprattutto se pubblichiamo online e desideriamo salvaguardare l’integrità e l’autenticità del nostro lavoro.
Rischi e Limitazioni di Nightshade
Rovescio della medaglia, l’utilizzo di Nightshade presenta ancora alcune limitazioni.
Infatti, come riportato sulla guida ufficiale, le modifiche apportate alle immagini sono più evidenti su opere con colori piatti e sfondi uniformi, il che può comprometterne la qualità visiva. Per mitigare questo effetto, Nightshade include un’impostazione a bassa intensità che minimizza l’impatto visivo delle modifiche.
Tuttavia, questa impostazione abbasserebbe anche i livelli di sicurezza.
Conclusioni
Nightshade rappresenta un passo significativo nella lotta per i diritti degli artisti nell’ambito digitale, offrendo una soluzione pratica contro l’uso non autorizzato delle loro opere. Con l’evolversi delle tecnologie AI, strumenti come Nightshade saranno cruciali per mantenere l’equilibrio tra innovazione tecnologica e diritti creativi.
E tu cosa ne pensi?
Seguimi su Instagram per altri contenuti sul mondo della fotografia e della creazione contenuti.