La view

Pictet AM: i deepfake detectors come opportunità di investimento

Pictet AM, in un commento di Yves Kramer, spiega che i sistemi avanzati di protezione e difesa sono in forte crescita, con l’IA generativa che rappresenta anche parte della soluzione con soluzioni innovative

di Stefano Caratelli 27 Maggio 2024 15:15

financialounge -  deepfake mercati Next Pictet Asset Management Yves Kramer
I deepfake, i falsi media manipolati digitalmente, rappresentano una sfida importante per la sicurezza informatica, ma offrono anche una grande opportunità di investimento. Infatti, le aziende di cybersicurezza in grado di adottare l’IA nella progettazione di sistemi specializzati di difesa digitale avranno forti prospettive di crescita nei prossimi anni. Per contrastare la crescente minaccia rappresentata dalle false rappresentazioni, gli investimenti in sicurezza informatica stanno aumentando considerevolmente, con un focus su soluzioni come Zero Trust e Secure Access Service Edge, adottate per contrastare le minacce che utilizzano l'IA generativa.

LA VULNERABILITA’ DEL 2024, ANNO ELETTORALE GLOBALE


E’ l’indicazione di un commento di Yves Kramer, Senior Investment Manager, Thematic Equities di Pictet Asset Management, che sottolinea che le molte tornate elettorali globali del 2024 coincide con l'avvento dei deepfake generati dall’IA, che potrebbero diffondere disinformazione per influenzare gli elettori. Kramer spiega che i deepfake sono prodotti da una tecnica di sintesi dell’immagine che riproduce le sembianze di una persona usando l’IA, in particolare il "deep learning", e vengono creati addestrando un modello di apprendimento automatico su un ampio set di immagini o video di una persona, per esempio un candidato politico, per replicarne le peculiarità.

CONTENUTI DEEPFAKE IN CRESCITA ESPONENZIALE


Solo tra il 2019 e il 2020, la quantità di contenuti deepfake è aumentata del 900%, ed entro il 2026 la maggioranza dei contenuti online potrebbe essere generata in modo artificiale, rendendo ancora più difficile distinguere i contenuti autentici, perché più dati sono disponibili, più il falso è realistico e la minaccia cresce. La vulnerabilità dell'IA generativa, nei confronti di cyberattacchi, violazioni e manipolazioni sta alimentando la domanda prevenzioni sempre più avanzate. Secondo la società di consulenza USA Gartner, nel 2024 la spesa per la sicurezza informatica dovrebbe aumentare di circa il 14%, e la crescita potrebbe essere ancora più rapida in futuro.

MA ANCHE LE SOLUZIONI INNOVATIVE DI DIFESA SI MOLTIPLICANO


L’esperto di Pictet AM ritiene probabile che assisteremo ad un aumento delle soluzioni “Zero Trust”, che verificano le credenziali internamente e esternamente, e prevede inoltre una crescita del SASE, che sfrutta il monitoraggio dell'identità e del comportamento. La stessa IA generativa può essere parte della soluzione, perché la sicurezza informatica adatta modelli linguistici di grandi dimensioni per rilevare gli attacchi e contrastare le minacce generate da altre macchine. Le aziende di cybersicurezza in grado di adottare l’IA nella difesa digitale, attese in forte crescita, sono al centro della strategia Pictet-Security.

TECNICHE RAFFINATE PER INDIVIDUARE I FALSI


Ma in questa fase storica i protagonisti dei deepfake restano comunque un passo avanti, per la quantità di risorse dedicate allo sviluppo di nuovi contenuti generativi, mentre le tecniche di rilevamento sono state sviluppate su dati di provenienza occidentale. Una delle tecniche più efficaci finora impiegate ricava qualità uniche dei filmati reali che i deepfake non possono cogliere. Il FakeCatcher di Intel, ad esempio, identifica le immagini false di persone utilizzando la foto-pletismografia, che rileva i cambiamenti del flusso sanguigno nel viso.

FIRMA DIGITALE E PROBLEMI DI PRIVACY


Un’altra iniziativa promettente segnalata da Kramer è quella della Coalition for Content Provenance and Authenticity, che utilizza una firma digitale crittografata per garantire maggior trasparenza sulle modalità di creazione di un contenuto multimediale e gli strumenti utilizzati. Un approccio che presenta vantaggi, ma potrebbe sollevare questioni etiche di privacy, con il timore che lo standard imposto possa rivelare troppi dati sulla provenienza dell'immagine.

ANCHE GLI UTENTI DEVONO CONTRIBUIRE


La tecnologia da sola non potrà mai risolvere completamente il problema dei deepfake, sottolinea in conclusione l’esperto di Pictet AM. Ma, aggiunge, è necessario che i consumatori imparino ad osservare e valutare in maniera più critica i contenuti che consultano, invece di fidarsi di tutto ciò che si vede senza verificarne origine e credibilità.

Trending