In risposta agli scandali legati all’uso di deepfake e alla circolazione di materiale di sfruttamento sessuale dei minori (CSAM), aziende leader nel settore tecnologico come Meta e Google hanno iniziato a definire nuovi standard per prevenire l’abuso dell’intelligenza artificiale (AI) nella generazione di contenuti pedopornografici. L’ente Thorn ha introdotto il concetto di “Safety by Design”, integrando misure di sicurezza preventiva e utilizzando tecnologie di rilevamento avanzate, per evitare l’inclusione di CSAM nei dataset impiegati per formare gli algoritmi di AI.
Nel 2023, un gruppo di studiosi dell’Università di Stanford ha scoperto CSAM in un database controllato da Stability AI, inducendo l’azienda a migliorare i processi di selezione dei dati per i propri modelli AI. Thorn enfatizza l’importanza critica della sicurezza nei modelli AI, in particolare per la tutela dei minori, in un clima di incertezza continua sulla loro effettiva implementazione e di critiche, come quelle rivolte alla piattaforma CivitAI. L’adozione dell’IA presenta una sfida notevole per le forze dell’ordine, che si trovano di fronte a un numero limitato di segnalazioni che raramente si concretizzano in misure giuridiche incisive, quali arresti. A dispetto delle polemiche che hanno colpito alcuni metodi in uso, Thorn è fermamente impegnata nello sviluppo di soluzioni tecnologiche innovative per identificare e combattere lo sfruttamento sessuale dei minori.