Cari lettori, preparatevi. Se pensavate che le truffe online fossero già un bel grattacapo, beh, allacciate le cinture. L’intelligenza artificiale ha deciso di fare amicizia con la parte meno raccomandabile del web, sfornando una generazione di imbrogli talmente realistici da far impallidire il mago Houdini.
Cambiare faccia al volo durante una videochiamata? Fatto. Trasformare la voce per implorare un bonifico urgente da parte della nonna? Fatto anche quello. E non parliamo di effetti speciali da film di fantascienza, ma di operazioni alla portata di (quasi) tutti, capaci di superare persino le verifiche di sicurezza più sofisticate. Marco Ramilli, fondatore della startup IdentifAI, ci avverte: non stiamo più parlando delle solite e-mail truffaldine a cui ormai siamo (quasi) vaccinati. Qui l’ingegneria sociale si fa seria, sfruttando il morphing di volto e voce con un’efficacia inquietante.
E il bello (si fa per dire) è che non sono solo i VIP a rischiare di ritrovarsi la loro immagine usata per loschi traffici. No, amici, la festa è aperta a tutti, soprattutto ai più vulnerabili, come i nostri anziani, già fin troppo spesso bersaglio di sciacalli digitali. Ma non finisce qui: pare che ci fosse persino un sito, tale “Mr. Deepfakes”, dove si pagavano fior di quattrini (fino a 1500 dollari!) per creare video porno fasulli con tanto di cambio di faccia. Un vero e proprio “chi l’ha visto?” in versione hard e artificiale.
I numeri da capogiro
I numeri, poi, sono da capogiro. Dal 2017 al 2022 si contavano “solo” 22 incidenti legati ai deepfake. Nel 2024 siamo schizzati a 150, con un aumento del 257%. E udite udite: solo nel primo trimestre del 2025, gli incidenti hanno già superato l’intero anno precedente, segnando un +19%. Insomma, la tendenza è chiara: i malintenzionati hanno trovato un nuovo, potentissimo alleato nell’IA.
Dalle false identità per frodare banche e assicurazioni ai scontrini taroccati per rimborsi, fino alle truffe vocali che sfruttano la somiglianza con i nostri cari, il panorama è desolante. E non dimentichiamoci delle immagini di personaggi famosi, perfette per truffe online o, peggio ancora, per manipolazioni politiche. Ricordate i video fasulli di Trump che minacciava il Pakistan? Ecco, l’IA è già al lavoro anche su quel fronte.
La preoccupazione di Ramilli è palpabile: se oggi l’IA rappresenta “solo” il 5% delle frodi, si stima che in quattro anni questa percentuale possa schizzare al 60-70%. Un vero e proprio tsunami di inganni digitali che rischia di minare la nostra fiducia nel mondo online.
Attenti siamo nella giungla!
Quindi, amici, apriamo gli occhi (e le orecchie). In questa giungla digitale sempre più insidiosa, la cautela non è mai troppa. Forse è il caso di iniziare a guardare ogni video e ascoltare ogni audio con un sano pizzico di sospetto. E magari, affidarci a qualche “detective digitale” come IdentifAI per non finire nella rete di questi astuti “malandrini 2.0”. Perché, diciamocelo chiaramente, il rischio di perdere non solo la faccia, ma anche i nostri sudati risparmi, si fa ogni giorno più concreto.