Le chiamate truffa dell’intelligenza artificiale che imitano voci familiari: ecco come funzionano

0
422

Le telefonate truffa che utilizzano l’intelligenza artificiale per imitare le voci di persone conosciute vengono utilizzate per sfruttare ignari cittadini. Queste chiamate utilizzano la cosiddetta IA generativa, che si riferisce a sistemi in grado di creare testo, immagini o qualsiasi altro media, come i video, sulla base delle richieste di un utente.

I deepfakes hanno acquisito notorietà negli ultimi anni con una serie di incidenti di alto profilo, come l’utilizzo delle sembianze dell’attrice Emma Watson in una serie di pubblicità suggestive apparse su Facebook e Instagram.

C’è stato anche il video del 2022, ampiamente condiviso – e poi smentito – in cui il presidente ucraino Volodymyr Zelensky sembrava dire agli ucraini di “deporre le armi”.

Ora la tecnologia per creare un audio deepfake, una copia realistica della voce di una persona, sta diventando sempre più comune. Per creare una copia realistica della voce di una persona sono necessari dati per addestrare l’algoritmo. Ciò significa disporre di molte registrazioni audio della voce dell’obiettivo. Più sono gli esempi di voce della persona che si possono inserire negli algoritmi, migliore e più convincente sarà la copia finale.

Molti di noi condividono già dettagli della propria vita quotidiana su Internet. Ciò significa che i dati audio necessari per creare una copia realistica di una voce potrebbero essere prontamente disponibili sui social media. Ma cosa succede una volta che una copia è in circolazione? Qual è la cosa peggiore che può accadere? Un algoritmo di deepfake potrebbe consentire a chiunque sia in possesso dei dati di far dire a “voi” quello che vuole. In pratica, questo può essere semplice come scrivere un testo e far sì che il computer lo pronunci ad alta voce con la vostra voce.

Questa capacità rischia di aumentare la diffusione della disinformazione audio. Può essere usata per cercare di influenzare l’opinione pubblica internazionale o nazionale, come si è visto con i “video” di Zelensky.

Ma l’ubiquità e la disponibilità di queste tecnologie pone sfide significative anche a livello locale, in particolare per quanto riguarda la crescente tendenza delle “chiamate truffa dell’intelligenza artificiale”. A molti sarà capitato di ricevere una telefonata truffaldina o di phishing che ci dice, ad esempio, che il nostro computer è stato compromesso e che dobbiamo immediatamente effettuare il login, dando potenzialmente al chiamante l’accesso ai nostri dati.

Spesso è molto facile accorgersi che si tratta di uno scherzo, soprattutto quando chi chiama fa richieste che qualcuno di un’organizzazione legittima non farebbe. Tuttavia, immaginate che la voce all’altro capo del telefono non sia solo quella di un estraneo, ma sembri proprio quella di un amico o di una persona cara. Questo comporta un nuovo livello di complessità e di panico per il malcapitato destinatario.

Una storia recente riportata dalla CNN racconta di un incidente in cui una madre ha ricevuto una chiamata da un numero sconosciuto. Quando ha risposto al telefono, si trattava di sua figlia. La figlia era stata presumibilmente rapita e stava telefonando alla madre per trasmettere una richiesta di riscatto.

In realtà, la ragazza era sana e salva. I truffatori avevano fatto un falso della sua voce. Non si tratta di un caso isolato: le varianti della truffa includono un presunto incidente d’auto, in cui la vittima chiama la famiglia per chiedere denaro per aiutarla dopo l’incidente.

Un vecchio trucco con una nuova tecnologia

Non si tratta di una truffa nuova in sé, il termine “truffa del rapimento virtuale” è in circolazione da diversi anni. Può assumere diverse forme, ma un approccio comune è quello di indurre le vittime a pagare un riscatto per liberare una persona cara che ritengono minacciata.

Il truffatore cerca di ottenere una conformità indiscussa, in modo da indurre la vittima a pagare un riscatto rapido prima che l’inganno venga scoperto. Tuttavia, l’avvento di tecnologie AI potenti e disponibili ha alzato notevolmente la posta in gioco, rendendo le cose più personali. Una cosa è riattaccare il telefono a un chiamante anonimo, ma ci vuole una vera e propria fiducia nella propria capacità di giudizio per riattaccare il telefono a una persona che sembra proprio vostro figlio o il vostro partner.

Esiste un software in grado di identificare i deepfake e di creare una rappresentazione visiva dell’audio chiamata spettrogramma. Quando si ascolta la chiamata potrebbe sembrare impossibile distinguerla dalla persona reale, ma le voci possono essere distinte quando gli spettrogrammi vengono analizzati fianco a fianco. Almeno un gruppo ha offerto un software di rilevamento da scaricare, anche se l’uso di queste soluzioni può richiedere una certa conoscenza tecnica.

La maggior parte delle persone non è in grado di generare spettrogrammi, quindi cosa si può fare quando non si è certi che ciò che si sta ascoltando sia reale? Come per qualsiasi altra forma di media in cui ci si possa imbattere: siate scettici.

Se ricevete una chiamata da una persona cara all’improvviso e questa vi chiede denaro o fa richieste che sembrano fuori dal normale, richiamatela o inviatele un messaggio per confermare che state davvero parlando con lei.

Con l’espansione delle capacità dell’IA, i confini tra realtà e finzione si confonderanno sempre di più. E non è detto che riusciremo a rimettere la tecnologia nella scatola. Ciò significa che le persone dovranno essere più caute.

 

 

Questo articolo è stato pubblicato su TheConversation
Traduzione per Livepress.it – Beatrice Privitera