Ultimo aggiornamento: 2024/04/18 8:30.
È disponibile subito il podcast di oggi de Il Disinformatico della
Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate
qui sul sito della RSI
(si apre in una finestra/scheda separata) e lo potete scaricare
qui.
Le puntate del Disinformatico sono ascoltabili anche tramite
iTunes,
Google Podcasts,
Spotify
e
feed RSS.
---
Deepfake. È la parola usata per
indicare la tecnica informatica che permette di sostituire il volto
di una persona con un altro, in foto e in video, usando l’intelligenza
artificiale, in maniera molto realistica. Così realistica che, se il
deepfake è fatto bene, la maggior parte delle persone non si
accorge affatto che si tratta di un volto sostituito.
Per molti utenti, deepfake
è sinonimo di molestia, di truffa, ma per altri invece è
un’occasione di lavoro, di scoperta della propria personalità, e
addirittura di protezione
personale.
Benvenuti
alla
puntata del 12
aprile 2024
del Disinformatico, che
stavolta racconta due casi
molto differenti di applicazione di deepfake
che spaziano dal plagio alla molestia fino all’autodifesa,
e presenta le nuove regole di Meta per la pubblicazione di deepfake
e immagini sintetiche in generale.
Io sono Paolo Attivissimo.
[SIGLA di apertura]
Influencer virtuali in crescita ma sotto attacco deepfake
Pochi mesi fa, a dicembre 2023, vi ho raccontato la mia
esplorazione del fenomeno delle cosiddette influencer virtuali:
persone che non esistono, le cui immagini e i cui video sono generati
dall’intelligenza artificiale. Identità che sono pilotate da persone reali
che scelgono le loro pose, il loro vestiario e le loro apparizioni
sui social network.
Una delle più celebri influencer
virtuali è la spagnola Aitana Lopez, gestita
da un’agenzia di moda di
Barcellona: oggi ha
oltre 300.000 follower su Instagram (@fit_aitana)
e fa guadagnare i suoi creatori tramite i
contratti pubblicitari e la
vendita di foto piccanti
su piattaforme per adulti come Fanvue.
L’idea dell’influencer
virtuale, quasi sempre al femminile (anche se c’è qualche raro,
timido tentativo al maschile), piace molto al mercato: costa molto meno di
una modella o di una
influencer in carne e ossa,
non si lamenta delle ore di lavoro o dei vestiti scomodi, non si
stanca, non invecchia, non
ingrassa e non ha spese di
trasferta. Se una campagna
pubblicitaria ha bisogno di un volto o di un corpo che attirino
l’attenzione o semplicemente indossino un certo prodotto, può rivolgersi
a questi personaggi sintetici a basso costo e alta efficienza.
Nessuno del pubblico si accorgerà che si tratta di immagini generate
dall’intelligenza artificiale.
Creare
questi personaggi virtuali è abbastanza semplice: ero riuscito
anch’io a creare un clone molto realistico di Aitana Lopez, con
l’aiuto di una coppia di
persone esperte
di grafica digitale. La parte difficile è guadagnarci
qualcosa, cercando sponsor o contratti pubblicitari e scansando le
offerte truffaldine di una selva di sedicenti promotori che si fanno
pagare promettendo di farti avere tanti follower (tutti falsi). Ho
chiuso il mio esperimento
senza rimetterci soldi,
ma ho continuato a seguire
gli sforzi di chi mi aveva
aiutato e che ora
comincia a vedere i primi guadagni. Qualche foto per la copertina di
un CD o di una playlist
di una band emergente,
qualche illustrazione per piccoli eventi, qualche fotografia sexy
venduta online, tanti
contenuti pubblicati diligentemente
tutti i giorni, e
i follower, soprattutto su Instagram, alla
fine arrivano, anche
nel mercato di lingua italiana,
al di qua e al di là della frontiera.
Profili sintetici come Francesca
Giubelli (11.000 follower), Rebecca
Galani (15.000 follower) o
Ambrissima
(37.000 follower) vengono
intervistati virtualmente dai media generalisti come se fossero
persone reali, e spostano opinioni e creano discussioni, anche su
temi impegnativi come il clima o i diritti umani, proprio come se fossero
persone reali. Non
hanno i numeri dei grandi
influencer reali, certo, ma
in compenso costano molto meno e soprattutto non
fanno gaffe e non causano imbarazzi ai loro sponsor con
le loro vicende sentimentali.
Aspettatevi, insomma, che nei
prossimi mesi siano sempre più presenti e numerosi gli influencer
virtuali le cui immagini sono generate con l’intelligenza
artificiale.
Stanno nascendo anche
le prime community di
influencer virtuali in lingua italiana, come Aitalia.community,
i cui membri si scambiano
trucchi e consigli tecnici e di marketing e si sono dati
un “manifesto
etico” di trasparenza,
che esige per esempio che i
contenuti sintetici siano sempre dichiarati come tali, a differenza
di alcuni settimanali blasonati che spacciano per autentiche
delle foto talmente ritoccate da dare due
piedi sinistri alle persone ritratte.
[Nota: Aitalia mi ha precisato di definirsi “la prima community di AI models, influencers e talents etici a livello globale” e “la prima a redarre il manifesto etico condiviso con l’internazionale” (nel senso delle “community nate fuori dai confini italiani, come AVA Models e Virtual factors”)]
Al primo
punto di questo manifesto c’è
il divieto
dei deepfake non
consensuali. Moltissimi
artisti digitali che creano e
curano belle immagini di modelle e modelli virtuali si vedono infatti
plagiare il lavoro da operatori
senza scrupoli, che scaricano in
massa le immagini prodotte
da questi artisti,
sostituiscono i volti
dei loro personaggi usando
la tecnica del deepfake, senza
permesso e senza compenso, e
così riusano
a scrocco la fatica altrui
ripubblicandola sui propri
profili social, che spesso hanno un seguito maggiore di quello degli
artisti originali.
È un nuovo
tipo di pirateria dei contenuti,
ed è un problema
che
tocca anche le modelle e i modelli in carne e ossa. Nelle
varie piattaforme social,
infatti, abbondano i profili
che hanno centinaia di migliaia di follower, con i relativi guadagni,
ottenuti pubblicando
le foto o
i reel, ossia
i video, di persone reali,
quasi sempre donne, e sostituendone i volti per
spacciarli per
immagini
create
da loro. Lo segnala per
esempio un
articolo
su 404media,
facendo nomi e cognomi di questi sfruttatori della fatica altrui.
Molti creatori di contenuti si
stanno difendendo usando il watermarking,
ossia la sovrimpressione di scritte semitrasparenti per identificare
l’autore originale dell’immagine sintetica o reale, ma
i software di intelligenza artificiale riescono spesso a cancellare
queste sovrimpressioni.
Se state pensando di fare l’influencer
virtuale o reale perché vi sembra un lavoro facile, o di promuovere
la vostra arte online, mettete in conto anche il rischio della
pirateria. E se pensavate che
fare la modella o il modello fosse uno dei pochi lavori non
influenzati dall’intelligenza artificiale, devo darvi una
delusione: a
parte forse marmisti e pizzaioli,
non si salva nessuno.
Salva dallo stalking grazie al deepfake: Sika
Moon
Dalla Germania arriva un caso molto particolare di uso positivo
della tecnica del deepfake,
segnalato in un’intervista pubblicata da Die
Tageszeitung e dedicata a
una giovane donna che si fa chiamare Sika Moon e pubblica e
vende online
le proprie foto e i propri video per adulti. Questo è il suo lavoro
a tempo pieno, e le sue attività sulle varie piattaforme social sono
seguite in media da circa 4 milioni di persone al mese, dandole
guadagni mensili che lei definisce “stabilmente a cinque
cifre”.
Anche
il suo lavoro è stato toccato dall’intelligenza artificiale. Per
cinque anni ha lavorato pubblicando sulla piattaforma Onlyfans,
mostrando il suo vero volto, ma delle esperienze di stalking che
definisce “terribili”
l’hanno costretta a proteggersi ricorrendo all’anonimato,
ottenuto in questo caso facendo un deepfake
a se stessa. Il viso della donna in questione, infatti, nelle foto e
nei video è generato con l’intelligenza artificiale, ed è
differente dal suo, ma è talmente realistico che pochi si accorgono
della manipolazione. Ora ha
cambiato piattaforma, perché Onlyfans rifiuta i contenuti generati
sinteticamente.
Questo
deepfake, insomma, le
ha permesso di evitare che il suo lavoro fosse sabotato dagli stalker
e le consente di proseguire la propria attività in sicurezza. È un
tipo di uso positivo di
questa tecnologia che non riguarda solo chi vuole proteggersi da
persone pericolosamente
invadenti ma vale anche, per
esempio, per chi vive in un ambiente in cui è considerato reato,
tipicamente solo per le donne, mostrare il proprio volto oppure è
comunque necessario coprirlo o mascherarlo per non farsi identificare, per provare in sicurezza esperienze altrimenti impossibili. Un deepfake, insomma, è una
maschera che però lascia passare tutta l’espressività di un viso.
Inoltre, sempre
grazie all’intelligenza artificiale, Sika Moon
può comunicare con i propri fan direttamente nella loro lingua. Ha
infatti fatto clonare la propria voce e quindi può ora inviare
messaggi vocali ai suoi follower parlando ogni volta nella loro rispettiva
lingua.
Nell’intervista, Sika Moon
segnala inoltre un altro fenomeno interessante che riguarda le
immagini generate dall’intelligenza artificiale: in
molte culture
l’idea stessa che una fotografia di una persona possa essere creata
sinteticamente è inconcepibile o
fa molta fatica a essere accettata. In fin dei conti, una foto è una
foto, un disegno è un disegno. Solo il computer permette di creare
in grandi quantità disegni che sembrano fotografie.
“La gente in India, nei paesi africani e in quelli arabi
di solito non lo capisce affatto”,
spiega Sika Moon, nonostante il
suo profilo dichiari chiaramente che molte sue immagini sono
completamente generate dall’intelligenza
artificiale. E quello che
dice corrisponde anche alla mia esperienza nel seguire le attività di
altre persone che fanno lo stesso lavoro di Sika Moon appoggiandosi
all’informatica per le proprie immagini.
Tutto questo sembra indicare che
l’impatto culturale dell'IA sarà differente nei vari paesi del
mondo. In quelli tecnologizzati verrà probabilmente attutito dalla
familiarità con la tecnologia, ma in altri sarà molto più
destabilizzante. Forse
sarebbe opportuno tenerne conto, per non creare una nuova forma di
inquinamento digitale da esportare.
Nuove regole di Meta per i contenuti sintetici
La stragrande maggioranza delle foto, dei video e degli audio
generati dall’intelligenza artificiale circola sui social network
ed è lì che ha il maggiore impatto. Ma allora perché i social
network non fanno qualcosa per impedire la diffusione di fake news,
inganni e manipolazioni che usano l’intelligenza artificiale?
La risposta a questa domanda è che in realtà i social fanno
qualcosa, ma quello che fanno è inadeguato, perché la tecnologia si
evolve talmente in fretta che le regole scritte per esempio dal
gruppo Meta per uniformare la gestione dei contenuti sintetici da
parte di Facebook, Instagram e Threads risalgono a soli quattro anni
fa ma sono completamente obsolete. Nel 2020 i contenuti realistici
generati dall’intelligenza artificiale erano rarissimi e si temeva
soprattutto la manipolazione dei video. Da allora, invece, sono
emerse le immagini sintetiche realistiche producibili in massa e
anche i contenuti audio falsi e creati artificialmente.
E così Meta ha presentato le sue nuove regole con un comunicato
stampa il 5 aprile scorso: prossimamente smetterà di censurare direttamente i
contenuti “innocui” generati dall’intelligenza artificiale e a
partire da maggio applicherà un’etichetta di avviso a una gamma
più vasta di contenuti video, audio e di immagini se rileverà che
sono stati creati o manipolati adoperando l’intelligenza
artificiale o se chi li pubblica li indicherà spontaneamente come
generati usando questa soluzione.
Mentre finora le regole bandivano soltanto i video realizzati o
alterati con l’intelligenza artificiale che facevano sembrare che una persona avesse detto
qualcosa che non aveva detto, ora verranno etichettati anche i video
modificati per attribuire a una persona un comportamento o un
gesto che non ha commesso. Da luglio, inoltre, Meta smetterà di
censurare i contenuti generati che non violano le regole su argomenti
come le interferenze elettorali, il bullismo, le molestie, la
violenza e l’istigazione. In sostanza, ci saranno meno rimozioni e
più etichettature di avvertimento.
Tuttavia c’è il problema che al momento attuale Meta si affida
agli indicatori
standard per riconoscere le immagini sintetiche. Molti software
per la generazione di immagini, come quelli di Google, OpenAI,
Microsoft, Adobe, Midjourney e Shutterstock, includono nelle proprie immagini
un indicatore visibile o rilevabile digitalmente, una sorta di
bollino che le marca come sintetiche, e Meta usa solo questo
indicatore per sapere se un’immagine è alterata oppure no; non fa
nessun altro controllo. Di conseguenza, un creatore ostile può quindi generare
immagini o video senza indicatori, o togliere questi indicatori da
contenuti esistenti, che non verranno riconosciuti ed etichettati da
Meta come sintetici.
Per colmare almeno in parte questa lacuna, Meta offrirà agli
utenti la possibilità di etichettare volontariamente i contenuti
generati con l’intelligenza artificiale e applicherà penalità a
chi non usa questa etichettatura. Ma è chiaro che chi vuole
ingannare o disseminare disinformazione non aderirà certo a questo
volontariato e potrà farla franca anche con le nuove regole. Come al
solito, insomma, i social network fanno troppo poco, troppo tardi.
Fonte aggiuntiva: Ars
Technica.