Deepfake: sventata truffa alla Ferrari

Security Awareness
19 Agosto 2024
deepfake-ferrari-truffa

Quando il “fattore umano” fa la differenza e allontana i criminali! Manager attento salva la Ferrari da un tentativo di truffa.

Sicuramente bisogna fare i complimenti al manager della Ferrari che ha sventato un tentativo di truffa ai danni dell’azienda di Maranello ma, in fondo, ha fatto ciò che tutti dovrebbero fare: è stato attento, consapevole, si è insospettito e ha messo in atto un semplicissimo escamotage che ha subito allontanato il rischio.

É successo in una calda giornata di luglio.
Il manager della Ferrari ha ricevuto alcuni messaggi su WhatsApp dall’amministratore delegato Benedetto Vigna che lo allertava di una presunta grande acquisizione. I messaggi arrivavano però da un numero sconosciuto e non riconoscibile. La motivazione per questo era la necessità di mantenere la massima discrezione.

“Sii pronto a firmare l’accordo di non divulgazione che il nostro avvocato ti invierà al più presto. L’autorità di regolamentazione del mercato italiano e la Borsa di Milano sono già state informate. Rimani pronto e ti preghiamo di mantenere la massima discrezione”.
Questo il tenore dei messaggi ai quali è seguita una telefonata con la voce molto realistica di Vigna. Addirittura con l’accento della Basilicata dell’ad della Ferrari. Ma nel suono della voce il manager ha notato alcuni strani suoni metallici, un campanello d’allarme che, insieme al numero sconosciuto e all’immagine del profilo diversa dal solito, ha fatto scattare la mossa salvifica: una semplicissima domanda off topic e molto amichevole:

“Scusa Benedetto, qual è il titolo del libro che mi hai consigliato?”

Una doccia fredda per il criminale che stava mettendo in atto la truffa utilizzando le più innovative tecniche di deepfake. Tanto fredda che la telefonata si è subito interrotta e il pirata ha abbandonato immediatamente il suo tentativo di frode nel provare a colpire la Ferrari.

L’episodio, raccontato da Bloomberg, sottolinea da un lato quanto lo strumento del deepfake sia sempre più utilizzato dagli hacker e dall’altro quanto però ci siano margini per difendersi da questo genere di attacchi. Sia perché le tecniche utilizzate dai malfattori non sono ancora perfette e quindi con un po’ di attenzione possono essere riconosciute, sia perché è stata sufficiente una semplice strategia per bloccare un attacco che avrebbe creato molti danni alla Ferrari.

Parliamo di foto, video e audio creati grazie a software di intelligenza artificiale che, partendo da contenuti reali, riescono a modificare o ricreare le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una voce. Un genere di attacchi sempre più utilizzato e che in genere riesce nei suoi intenti criminali. Basti pensare all’attacco subito lo scorso febbraio da un’azienda di Hong Kong truffata con una falsa videoconferenza o alla truffa dei due comici russi Vovan e Lexus che hanno assunto i panni del presidente della Commissione dell’Unione africana Moussa Faki per telefonare a diversi leader europei.

Il punto che preoccupa molto gli esperti è che questa tecnologia, se oggi mostra ancora dei punti deboli, in un futuro non molto lontano potrà perfezionarsi sempre di più, rendendo quasi impossibile riconoscere i fake dalla realtà e prevenire truffe simili a quella tentata alla Ferrari. Un rischio non solo per le aziende ma anche per i privati cittadini che possono essere facilmente truffati se attaccati sul fronte delle “emozioni”. Immaginiamo per esempio dei genitori che ricevono la chiamata da un figlio che ha bisogno di soldi, oppure delle persone non sufficientemente scaltre tecnologicamente che ricevono telefonate da parenti o amici in difficoltà.

Un rischio molto alto per tutti e che può colpire in modo trasversale, tanto che lo stesso Garante della Privacy ha messo ha punto una scheda informativa per sensibilizzare gli utenti sui rischi connessi agli usi malevoli di questa tecnologia e per sventare i temibili furti di identità.

Tra i punti essenziali elencati dal Garante leggiamo:

  • Evitare di diffondere in modo incontrollato immagini personali o dei propri cari. In particolare, se si postano immagini sui social media, è bene ricordare che le stesse potrebbero rimanere online per sempre o che, anche nel caso in cui si decida poi di cancellarle, qualcuno potrebbe già essersene appropriato.
  • Anche se non è semplice, si può imparare a riconoscere un deepfake. Ci sono elementi che aiutano: l’immagine può appare pixellata (cioè un pò “sgranata”sfocata); gli occhi delle persone possono muoversi a volte in modo innaturale; la bocca può apparire deformata o troppo grande mentre la persona dice alcune cose; la luce e le ombre sul viso possono apparire anormali.
  • Se si ha il dubbio che un video o un audio siano un deepfake realizzato all’insaputa dell’interessato, occorre assolutamente evitare di condividerlo (per non moltiplicare il danno alle persone con la sua diffusione incontrollata). E si può magari decidere di segnalarlo come possibile falso alla piattaforma che lo ospita (ad esempio, un social media).
  • Se si ritiene che il deepfake sia stato utilizzato in modo da compiere un reato una violazione della privacy, ci si può rivolgere, a seconda dei casi, alle autorità di polizia (ad esempio, alla Polizia postale) o al Garante per la protezione dei dati personali.

In generale rimane sempre valida la raccomandazione di mantenere presenza e consapevolezza, di non fare mai azioni dettate dall’impulsività e di non fidarsi mai ciecamente di nessuno, soprattutto quando si ricevono richieste di soldi. 
Anche se a scriverci è il nostro capo supremo a cui è difficile dire di no. Meglio verificare sempre chiamando il diretto interessato e accertarsi dell’autenticità della richiesta.

Non sono comportamenti difficili da adottare, si tratta di sviluppare un’attenzione e una sensibilità che possono senz’altro essere allenate attraverso una formazione efficace e su misura su cui mai come oggi è importante investire tempo e risorse.

Basta una attacco che va a buon fine per rovinare un’azienda come Ferrari sia sul fronte economico sia su quello della reputazione.

Quest’ultimo caso della Ferrari lo dimostra: un manager con una adeguata postura digitale ha salvato l’azienda da una brutta avventura. Una conferma che il fattore umano, essendo l’anello più debole della catena, rimane quello più preso di mira. Rafforzarlo significa mettere davvero in sicurezza persone e aziende.

ISCRIVITI ALLA NEWSLETTER

Articoli correlati