Nuova policy di Meta, che vuole bollare le immagini generate con AI

L'azienda Meta ha annunciato un metodo ancora più completo per etichettare le immagini generate con AI e segnalare i contenuti fake

Meta ha recentemente annunciato che ha intenzione di segnalare immagini e video creati con l’intelligenza artificiale. «Stiamo lavorando con i partner del settore su standard tecnici comuni per identificare i contenuti di intelligenza artificiale, inclusi video e audio. Nei prossimi mesi etichetteremo le immagini che gli utenti pubblicheranno su Facebook, Instagram e Threads», ha scritto in un post Nick Clegg, presidente degli Affari globali e manager di Meta. Lo scopo infatti è quello di ridurre il rischio di disinformazione, causata dalle immagini generate dall’intelligenza artificiale e spacciate come reali.

In realtà Meta attualmente segnala manualmente le immagini attraverso il suo generatore, con diciture come “Imaginated by AI” e con il watermark, filigrana digitale che ha lo scopo di aiutare le persone a individuare gli elementi deepfake del web. Da ora, l’azienda prevede di etichettare ancora più immagini che circoleranno nelle sue piattaforme. Questo sistema prevede però molte falle e lacune: il watermaking può essere infatti manipolato e c’è anche la possibilità di generare filigrane invisibili resistenti a ogni tipo di attacco e che non lascerebbero individuare le immagini artificiali.

Il manager di Meta ha infine dichiarato che «in questo periodo, ci aspettiamo di imparare molto di più su come le persone creano e condividono i contenuti di intelligenza artificiale, di quale tipo di trasparenza hanno bisogno e su come queste tecnologie si stanno evolvendo. Quello che apprendiamo guiderà le best practice di settore e il nostro approccio futuro».