
Il Garante per la protezione dei dati personali torna a lanciare l’allarme sui deepfake non consensuali realizzati tramite intelligenza artificiale. L’Autorità ha ribadito le criticità già evidenziate a gennaio, richiamando anche il provvedimento di blocco adottato contro Clothoff e chiedendo strumenti più incisivi per contrastare la diffusione di questi contenuti.
Le tecnologie basate sull’intelligenza artificiale sono ormai accessibili a un pubblico sempre più ampio e vengono spesso sfruttate anche per attività illecite. Già nell’ottobre 2025 il Garante aveva disposto la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti della società sviluppatrice di Clothoff, applicazione capace di creare deepfake di nudo partendo da fotografie di persone vestite. Secondo l’Autorità, il servizio presentava diverse violazioni del GDPR e dell’AI Act europeo.
Il Garante ha inoltre sollecitato maggiori poteri di intervento per impedire dall’Italia l’accesso ai servizi che consentono la generazione di deepfake non consensuali. L’obiettivo è intervenire con maggiore rapidità per fermare la diffusione virale dei contenuti e limitare la catena delle condivisioni. Attualmente, gli ordini di blocco vengono emessi principalmente da AGCOM o dall’autorità giudiziaria.
Sul fronte europeo, il Parlamento UE punta a vietare i sistemi di intelligenza artificiale in grado di creare o manipolare immagini intime o sessualmente esplicite, comprese le cosiddette app di “nudificazione”. Tuttavia, il negoziato con il Consiglio europeo non ha ancora portato a un accordo definitivo.