Severamente vietate anche le inserzioni create per dissuadere le persone dall’andare a votare, mettere in discussione la legittimità dei metodi e dei processi dell’elezione e del suo esito
(di La Svolta – Tiscali) – Mancano poche settimane per la chiamata alle urne dei cittadini dell’Unione europea, pronti a votare per eleggere i propri rappresentanti come Membri del Parlamento Europeo. Mentre da un lato sulle elezioni incombe l’ombra degli attacchi informatici e della diffusione di fake news, dall’altro c’è chi già è al lavoro per garantire sicurezza e informazione onesta.
Durante la Munich Security Conference dello scorso febbraio, infatti, 20 aziende avevano annunciato un accordo per contrastare l’abuso della tecnologia durante le Elezioni Europee 2024, con particolare attenzione alla diffusione dei deepfake: alcune importanti misure preventive erano già state illustrate da Microsoft, Google e TikTok.
Le 3 Big Tech le hanno, poi, condivise con altre 17 aziende che hanno aderito a un accordo formale per la protezione informatica: si tratta di Adobe, Amazon, Anthropic, Arm, ElevenLabs, Ibm, Inflection AI, LinkedIn, McAfee, Nota, OpenAI, Snap, Stability AI, TrendMicro, Truepic, X e Meta.
Proprio quest’ultima, da qualche giorno ha reso noti i provvedimenti attuati per preservare l’evento democratico di giugno dai cybercriminali e dalla circolazione di notizie false o fuorvianti e garantirne l’integrità sulle sue piattaforme.
Con l’avvicinarsi delle elezioni, verrà attivato da Meta un Elections Operations Center europeo, cioè un centro operativo elettorale che riunirà gli esperti di tutta l’azienda provenienti dai vari team di intelligence, scienza dei dati, ingegneria, ricerca, operazioni, politica dei contenuti. Questa squadra, composta dai migliori professionisti, lavorerà incessantemente per identificare potenziali minacce di fake news e mettere in atto misure di mitigazione in tempo reale su app e tecnologie.
Intanto, in casa Meta è già in fase di espansione la più grande rete di fact-checking di qualsiasi piattaforma, con l’ingresso di 3 nuovi partner in Bulgaria, Francia e Slovacchia che si aggiungeranno ai 26 già presenti, con una copertura totale in 22 lingue e centinaia di fact-checkers: a loro il compito di individuare e la valutare i contenuti relativi alle elezioni utilizzando il metodo rilevamento delle parole chiave per raggruppare i contenuti correlati in un unico topic.
“I nostri partner che si occupano di fact-checking sono stati, inoltre, inseriti nel nostro nuovo strumento di ricerca, Meta Content Library, che dispone di una potente capacità di ricerca per supportarli nel loro lavoro”, spiegano in una nota.
Nell’eventualità della presenza di contenuti pubblicati in rete, ma smentiti dai fact-checkers, questi verranno accompagnati da un’etichetta di segnalazione di verifica e verrà ridotta la loro visibilità nel feed: come spiegano gli esperti, tra luglio e dicembre 2023, oltre 68 milioni di contenuti visualizzati nell’Ue su Facebook e Instagram erano soggetti a etichette di fact-checking e gli eventi già verificati hanno dimostrato che quando un post contiene l’etichetta del fact-checking il 95% delle persone non clicca per visualizzarlo.
Particolare attenzione, poi, verrà riservata ai contenuti generati dall’intelligenza artificiale e ai deepfake: tutti i materiali pubblicati sulle piattaforme appartenenti al colosso verranno attentamente esaminati dal team di esperti, valutati e classificati. Quei contenuti che dovessero risultare classificati come altered, cioè con audio, video o foto falsificati, manipolati o trasformati, verranno etichettati e declassificati nel feed per ridurre la loro visibilità nel flusso di notizie e, di conseguenza, limitarne la diffusione.
Per quanto riguarda le immagini fotorealistiche create con gli strumenti di MetaAI, a oggi queste vengono già etichettate come “immagini create tramite intelligenza artificiale” sulle piattaforme a marchio Meta, ma ora la holding di Facebook, Instagram e Whatsapp è a lavoro per creare strumenti idonei a etichettare anche quei contenuti prodotti tramite altri supporti, come quelli Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock e condivisi sui suoi portali.
Per scoraggiare i comportamenti scorretti e la diffusione delle fake news prodotte tramite AI, ancora, il team di Meta sta già ultimando i progetti di nuove funzionalità per gli utenti, affinché coloro che decideranno consapevolmente di condividere video o audio prodotti tramite intelligenza artificiale etichettino il materiale autonomamente fin dal momento della prima diffusione.
Il rischio della mancata segnalazione è una sanzione che può andare dall’eliminazione del contenuto stesso alla temporanea sospensione dell’account. Le stesse funzionalità saranno previste anche per gli inserzionisti che utilizzeranno l’IA generativa per contenuti politici o sociali.
Verranno, poi, severamente vietate le inserzioni create per dissuadere le persone dall’andare a votare, mettere in discussione la legittimità dei metodi e dei processi dell’elezione e del suo esito e rivendicare anticipatamente una vittoria elettorale.
Dal 2016, Meta ha investito più di 20 miliardi di dollari in sicurezza e protezione, ha quadruplicato le dimensioni del team globale impiegato in quest’area, portandolo a circa 40.000 persone, tra cui 15.000 revisori di contenuti che esaminano i contenuti su Facebook, Instagram e Threads in più di 70 lingue, comprese tutte le 24 lingue ufficiali dell’Ue. L’azienda ha, inoltre, implementato strumenti di trasparenza leader del settore per annunci su questioni sociali, elezioni o politica e sviluppato politiche complete per prevenire interferenze elettorali e frodi elettorali.
Ora è pronta a utilizzare tutte le risorse su cui ha investito in questi anni per contrastare la disinformazione e la diffusione di contenuti prodotti tramite AI in un momento storico fondamentale per l’Unione europea.