Tecnologia / I pericoli

Condivise sul Web foto false di Rose Villain nuda: «Mi sono sentita violata, ho denunciato»

La realizzazione di immagini e videoclip senza veli con l’intelligenza Artificiale e senza il consenso dei soggetti ritratti prende il nome di “Deepfake” o “Deepnude”. Il Garante per la protezione dei dati personali ha diffuso una scheda informativa per sensibilizzare gli utenti sui rischi dell’IA

NORME Il G7 a Trento per regolamentare l'Intelligenza Artificiale 
IL MONITO Mattarella: "L'IA è una rivoluzione, ma resti umana" 
LA RICERCA IA, gli Industriali si affidano al Dipartimento di Ingegneria

di Elena Piva

MILANO. «Stanno girando foto di me nuda che ovviamente sono dei fake. La cosa mi mette un grande disagio e mi fa sentire violata. Ho già sporto denuncia ma vorrei ricordare che è illegale ed è punibile chi crea, diffonde e condivide materiale di questo tipo. È una violenza a tutti gli effetti». A lanciare questo messaggio attraverso il proprio profilo di Instagram è stata Rose Villain, cantante rap italiana, che ha fatto sapere di aver avanzato una denuncia contro coloro che hanno creato immagini false utilizzando l’Intelligenza Artificiale.

La realizzazione di immagini, fotogrammi e videoclip senza veli attraverso l’intelligenza Artificiale e senza il consenso dei soggetti ritratti (celebrità o persone comuni, naturalmente) prende il nome di “Deepfake” o “Deepnude”. Non è un caso se il Garante per la protezione dei dati personali ha elaborato una scheda informativa al fine di sensibilizzare gli utenti sui rischi connessi agli usi malevoli di questa nuova tecnologia, sempre più frequenti, anche a causa della diffusione di app e software che rendono possibile realizzare deepfake elaborati e sofisticati, anche da un semplice smartphone.

«il problema è che queste cose succedono anche a persone fragili che magari non sanno proteggersi, tutelarsi e difendersi come possono e devono fare» ha aggiunto Rose Villain (all’anagrafe Rosa Luini), che ha da poco debuttato anche sulla piattaforma di streaming Netflix nel ruolo di giudice del talent “Nuova Scena”, dedicato ai giovani talenti del rap italiano. Attualmente nella Top 3 dei brani più ascoltati in questi momento in Italia con “Come un tuono” ft Guè, l’artista ha anche all’undicesimo posto in classifica il brano “Click Boom!” con il quale ha gareggiato sul palco del Teatro Ariston durante il Festival di Sanremo. 

Il 15 marzo a Trento si è svolto un summit del G7 proprio dedicato all’Intelligenza Artificiale e la dichiarazione finale della plenaria ha avuto come atto conclusivo le “Applicazioni in linea con principi e valori base delle nostre democrazie” per un uso dell’IA etico e responsabile.

Nelle sei pagine di Vademecum a firma del Garante per la protezione dei dati personali, si specifica che «con la tecnologia del deepnude, infatti, i visi delle persone (compresi soggetti minori) possono essere “innestati”, utilizzando appositi software, sui corpi di altri soggetti, nudi o impegnati in pose o atti di natura esplicitamente sessuale. È anche possibile prendere immagini di corpi vestiti e “spogliarli”, ricostruendo l’aspetto che avrebbe il corpo sotto gli indumenti e creando immagini altamente realistiche».

Il fenomeno è nato nel campo delle celebrità allo scopo di screditare o ricattare. Negli ultimi tempi, con la sempre maggiore diffusione di software

che utilizzano questa tecnologia, il rischio coinvolge anche le persone comuni, le quali possono diventare oggetto di azioni psicologicamente e socialmente molto dannose. Come, ad esempio, il “revenge-porn”, cioè la condivisione online - a scopo di ricatto, denigrazione o vendetta, da parte di ex partner, amanti o spasimanti respinti - di foto e video a contenuto sessuale o addirittura pornografico, che, nel caso del deepnude, sono ovviamente falsi. Video e fotografie di questo genere alimentano anche la pratica del sexting (cioè lo scambio e diffusione di immagini di nudo, che a volte coinvolge spesso minori), la pornografia illegale e, purtroppo, anche la pedopornografia. Denigrare, deridere e punire sono azioni cardine del bullismo e del cyberbullismo, fenomeni che colpiscono soprattutto persone fragili e adolescenti. 

 

Nel gennaio 2023 la tv britannica ITV ha caricato sulla propria piattaforma di streaming la prima stagione di “Deep Fake Neighbour Wars”, dove i volti riconoscibili di Tom Holland, Matthew McConaughey, Greta Thunberg, Kim Kardashian, Ariana Grande, Billie Eilish, Dua Lipa, Adele, Harry Kane e tanti altri prendono parte al reality mediante deepfake. Nessuno di loro infatti ha effettivamente partecipato alla serie: gli attori in scena sono in realtà comici e imitatori poco conosciuti che vengono svelati alla fine di ogni puntata (i cui volti nella maggior parte del tempo vengono modificati per assomigliare il più possibile a una celebrità da imitare). Si ricorderà anche uno dei primi usi dell’Intelligenza Artificiale usata per dimostrarne il potenziale propagandistico in politica nel 2018, quando il comico e regista statunitense Jordan Peele aveva realizzato una serie di brevi deepfake in cui impersonava l’ex presidente Barack Obama.

Il Garante suggerisce, a protezione di sé stessi, le seguenti pratiche:

- Evitare di diffondere in modo incontrollato immagini personali o dei propri cari, ricordando che le stesse potrebbero rimanere online per sempre o che qualcuno potrebbe essersene appropriato

- Si può imparare a riconoscere un deepfake: l’immagine può appare pixellata (“sgranata” o sfocata); gli occhi delle persone possono muoversi in modo innaturale; la bocca può apparire deformata; la luce e le ombre sul viso possono apparire anormali.

- Se si ha il dubbio che un video o un audio siano un deepfake realizzato all’insaputa dell’interessato, occorre evitare assolutamente di condividerlo (per non moltiplicare il danno) e segnalarlo come falso alla piattaforma che lo ospita (ad esempio, un social media).

- Se si ritiene che il deepfake sia stato utilizzato in modo da compiere un reato o una violazione della privacy, ci si può rivolgere alle autorità di polizia.

comments powered by Disqus