SEGRE: “Pochi possibilità di ricorso per le vittime delle foto di nudo deepfake”

Le ragazze adolescenti negli Stati Uniti vengono prese sempre più di mira o minacciate con false foto di nudo create con l’intelligenza artificiale o altri strumenti. Tutte loro hanno modi limitati per cercare responsabilità o ricorso, poiché le scuole e le legislature statali faticano a mettersi al passo con le nuove tecnologie. Lo dichiarano i legislatori, esperti legali e una vittima che ora sta sostenendo un disegno di legge federale. Dall’inizio della sessione scolastica del 2023, i casi che coinvolgono ragazze adolescenti vittime di false foto di nudo, note anche come deepfakes, si sono moltiplicati in tutto il mondo, comprese le scuole superiori del New Jersey e dello stato di Washington. I dipartimenti di polizia locali stanno indagando sugli incidenti, i legislatori si stanno affrettando per emanare nuove misure che impongano le punizioni contro gli autori delle foto e le famiglie colpite stanno spingendo per risposte e soluzioni.
Deepfake irrealistici possono essere realizzati con semplici strumenti di fotoritocco che esistono da anni. Ma due distretti scolastici ritengono che le foto false di adolescenti siano state generate dall’intelligenza artificiale.
La tecnologia A.I. sta diventando sempre più disponibile, come la diffusione stabile (tecnologia open source in grado di produrre immagini da messaggi di testo) e gli strumenti di “scambio di volti” che possono mettere il viso di una vittima al posto di quello di un artista pornografico in un video o una foto. Anche le app che pretendono di “spogliare” le foto vestite sono state identificate come possibili strumenti utilizzati. Sono state trovate disponibili gratuitamente negli app store. Questi deepfake moderni possono avere un aspetto più realistico e più difficile da identificare immediatamente come falsi.

Lascia un commento

error: Questo contenuto è protetto