Un attacco dell’IA in atto che è difficile da rilevare per gli esseri umani

0
8
AI attack

Dalla clonazione vocale ai deepfake

Gli attacchi da parte dell’intelligenza artificiale possono colpire quasi tutti, quindi è bene stare sempre all’erta. L’utilizzo dell’intelligenza artificiale per prendere di mira l’utente è già una realtà, secondo un esperto di sicurezza che ha lanciato l’ avvertimento.

L’IA sembra alimentare ovunque funzioni, app e chatbot che imitano gli esseri umani. Anche se non utilizzate questi strumenti basati su questa tecnologia, i criminali potrebbero comunque prendervi di mira basandosi solo sul vostro numero di telefono.

Per truffarvi, ad esempio, i criminali possono impiegare l’intelligenza artificiale per produrre voci false, persino quelle che assomigliano ai vostri cari.

“Molte persone pensano ancora all’intelligenza artificiale come a una minaccia futura, ma gli attacchi reali stanno avvenendo proprio ora”, ha dichiarato l’esperto di sicurezza Paul Bischoff in un articolo del The Sun.

Clone telefonico

“Penso che l’audio deepfake in particolare sarà una sfida perché noi umani non possiamo facilmente identificarlo come falso, e quasi tutti hanno un numero di telefono“.

In pochi secondi è possibile effettuare una clonazione vocale con l’intelligenza artificiale. Inoltre, sarà sempre più difficile distinguere tra una voce reale e un’imitazione.

Sarà fondamentale ignorare le chiamate sconosciute, utilizzare parole sicure per confermare l’identità di chi chiama e prestare attenzione ai segnali rivelatori delle truffe, come le richieste urgenti di informazioni o denaro.

Un ricercatore di intelligenza artificiale ha messo in guardia da sei miglioramenti che rendono i deepfake più “sofisticati” e pericolosi di prima e possono ingannare la vista. Naturalmente, oltre alle voci “deepfake”, ci sono altre minacce poste dall’IA.

Paul, un sostenitore della privacy dei consumatori di Comparitech, ha lanciato un avvertimento sul fatto che gli hacker potrebbero sfruttare i chatbot basati sull’IA per rubare le vostre informazioni personali o addirittura ingannarvi.

“I chatbot basati sull’intelligenza artificiale potrebbero essere utilizzati per il phishing per rubare password, numeri di carte di credito, numeri di previdenza sociale e altri dati privati“, ha dichiarato al The U.S. Sun.

“L’intelligenza artificiale nasconde le fonti di informazione da cui attinge per generare le risposte.

Truffe romantiche con l’IA

Attenzione ai truffatori che usano chatbot basati sull’intelligenza artificiale per ingannarvi… Ecco cosa dovreste sapere sui rischi posti dai bot artificiali per le truffe sentimentali, come riportato dal The U.S. Sun:

I truffatori sfruttano i chatbot con intelligenza artificiale per truffare gli utenti online. Questi chatbot sono camuffati da persone reali e possono essere difficili da identificare.

Alcuni campanelli d’allarme, tuttavia, possono aiutare a individuarli. Ad esempio, è probabile che non si tratti di una persona reale se il chatbot risponde in modo troppo rapido e generico. Se il chatbot tenta di trasferire la conversazione dall’app di incontri a un’altra app o sito web, questo è un altro segnale di allarme.

Inoltre, si tratta di una truffa se il chatbot richiede denaro o informazioni personali. Quando si comunica con estranei su Internet, è fondamentale usare cautela e vigilanza, soprattutto quando si parla di argomenti delicati. In genere è vero quando qualcosa sembra troppo bello per essere vero.

Chiunque appaia troppo idealista o eccessivamente desideroso di approfondire la relazione deve destare sospetti. Se siete consapevoli di questi indicatori, potete proteggervi dal rischio di diventare vittime di frodi da parte di chatbot gestiti dall’intelligenza artificiale.

“Le risposte potrebbero essere imprecise o tendenziose e l’IA potrebbe attingere da fonti che dovrebbero essere riservate”.

IA ovunque

L’intelligenza artificiale diventerà presto uno strumento necessario per gli utenti di Internet, il che rappresenta una grande preoccupazione. Decine di milioni di persone utilizzano già chatbot alimentati dall’IA e il numero è destinato ad aumentare.

Inoltre, apparirà in una crescente varietà di prodotti e applicazioni. Ad esempio, Microsoft Copilot e Gemini di Google sono già presenti in prodotti e dispositivi, mentre Apple Intelligence – che lavora con ChatGPT di OpenAI – alimenterà presto l’iPhone. Pertanto, il pubblico deve capire come utilizzare l’IA in modo sicuro.

“L’IA verrà gradualmente (o improvvisamente) integrata nei chatbot, nei motori di ricerca e in altre tecnologie esistenti”, ha spiegato Paul.

“L’IA è già inclusa per impostazione predefinita in Google Search e Windows 11, e le impostazioni predefinite sono importanti.

“Anche se avremo la possibilità di disattivare l’IA, la maggior parte delle persone non lo farà”.

Deepfake

Sean Keach, responsabile del settore tecnologico e scientifico del The Sun e del The U.S. Sun, ha spiegato che uno degli sviluppi più preoccupanti nella sicurezza online è l’emergere dei deepfake.

Quasi nessuno è al sicuro perché la tecnologia deepfake è in grado di creare video dell’utente anche a partire da una sola foto. L’improvviso aumento dei deepfake ha alcuni vantaggi, anche se tutto sembra senza speranza.

Per cominciare, le persone sono ora molto più consapevoli dei deepfake. Le persone saranno quindi attente agli indizi che indicano che un video potrebbe essere falso. Le aziende tecnologiche stanno inoltre investendo tempo e risorse nello sviluppo di strumenti in grado di identificare il materiale fraudolento dell’intelligenza artificiale.

Ciò implica che i contenuti falsi verranno segnalati dai social media con maggiore frequenza e sicurezza. Probabilmente sarà più difficile identificare gli errori visivi man mano che i deepfake diventeranno più sofisticati, soprattutto tra qualche anno.

La migliore linea di difesa è quindi quella di usare il buon senso e di essere scettici su tutto ciò che si vede online. Chiedetevi se ha senso che qualcuno abbia creato il video e chi trae vantaggio dal fatto che lo guardiate.
È possibile che stiate guardando un video falso se qualcuno si comporta in modo strano o se siete messi di fretta nel compiere un’azione.

Man mano che la tecnologia dell’intelligenza artificiale continua a progredire e a integrarsi nella nostra vita quotidiana, il panorama delle minacce informatiche si evolve con essa. Se da un lato l’IA offre numerosi vantaggi, dall’altro presenta nuove sfide per la sicurezza online e la privacy personale. La chiave per navigare in questo nuovo terreno sta nella consapevolezza, nell’educazione e nella vigilanza.

Gli utenti devono essere informati sulle più recenti minacce alimentate dall’IA, come la clonazione vocale e i deepfake, e sviluppare capacità di pensiero critico per mettere in dubbio l’autenticità dei contenuti digitali. È fondamentale adottare le migliori pratiche per la sicurezza online, tra cui l’uso di password forti, la cautela nell’utilizzo delle informazioni personali e la verifica dell’identità dei contatti attraverso mezzi sicuri.

Le aziende tecnologiche e gli esperti di cybersicurezza stanno lavorando per sviluppare strumenti di rilevamento e salvaguardie migliori contro le truffe guidate dall’intelligenza artificiale. Tuttavia, la responsabilità finale ricade sui singoli individui che devono rimanere scettici e attenti nelle loro interazioni online.