Ultim'ora
Tecnologia
Tecnologia Cosa sono i deepfake e come riconoscerli

Cosa sono i deepfake e come riconoscerli

I deepfake sono foto, video e audio creati grazie a software di intelligenza artificiale (AI). Scopriamo i rischi dell’uso malevolo di questa nuova tecnologia e come riconoscerli

L'intelligenza artificiale (IA) sta avendo uno sviluppo rapido e inarrestabile: porta diversi vantaggi e rappresenta un alleato utile per le attività dell’uomo. Ma, al tempo stesso, lo sviluppo di un’IA sempre più intuitiva ed efficace ha portato alla nascita di alcuni dilemmi etici, destinati a diventare più complessi se si continuasse a sviluppare tali contenuti senza adeguate forme di controllo. Uno di questi dilemmi è costituito da uno dei “figli” nati dall’IA generativa: il deepfake.

Cos’è un deepfake

Il deepfake è una tecnica utilizzata per la sintesi di immagini umane basata sull'intelligenza artificiale che utilizza la tecnologia di apprendimento automatico chiamata Generative Adversarial Networks per combinare e sovrapporre immagini, video e audio esistenti con video o immagini originali.

Il termine deepfake deriva dalla tecnologia sottostante “deep learning”, che è una forma di intelligenza artificiale. Gli algoritmi di deep learning, che insegnano da soli a risolvere i problemi quando vengono forniti grandi set di dati, vengono utilizzati per scambiare volti nei contenuti video e digitali per creare supporti falsi dall'aspetto realistico.

Nella maggioranza dei casi, i dati reali vengono manipolati per creare contenuti altamente convincenti che possono essere molto difficili da distinguere rispetto alla controparte reale. Ad esempio, le sembianze di una persona in un'immagine o in un video esistente (compresi il volto e la voce) vengono sostituite con quelle di qualcun altro.

I pericoli del deepfake

La tecnologia alla base dei deepfake viene sfruttata dagli hacker per creare testi da utilizzare per creare messaggi di phishing più realistici rispetto al passato, in cui gli errori di ortografia evidenti fungevano da “campanello d’allarme” per indicare che un messaggio non era autentico.

Il deepfake permette di creare video e registrazioni audio falsi ma molto realistici che sembrano mostrare persone che dicono o fanno cose che, in realtà, non hanno mai fatto.

Tale processo consente di produrre fake news, compiere atti di cyberbullismo o vari altri crimini informatici e, nei casi più gravi, falsi video pornografici di celebrità e revenge porn. Alcune celebrità si sono purtroppo ritrovate in situazioni davvero spiacevoli a causa di deepfake ed alcuni soggetti politici sono apparsi in alcuni video nei quali sembravano pronunciare parole che in realtà non avevano mai pronunciato.

Come riconoscere e proteggersi dai deepfake

Il diffondersi del fenomeno del deepfake ha destato molta preoccupazione e, conseguentemente, una serie di contromisure per contrastare il fenomeno. Molti paesi stanno cercando di impedire l’uso illegale relativo alla produzione degli stessi, mentre alcune piattaforme di social media, tra cui Facebook e X, hanno bandito i deepfake dalle loro reti.

Anche diversi programmi di sicurezza informatica e software antivirus si stanno attrezzando contrastare in modo efficace il fenomeno. Sul blog di Bitdefender vengono condivisi alcuni suggerimenti utili per proteggersi dai deepfake.

1. Prestare maggiore attenzione agli indicatori dell'ingegneria sociale

Anche se il testo che accompagna un tentativo di phishing potrebbe diventare più sofistica to nei prossimi mesi, molti dei segnali comportamentali dell'ingegneria sociale probabilmente rimarranno gli stessi: indirizzo di un mittente sospetto, allegati e-mail che sembrano "fuori contesto", collegamenti a domini registrati di recente, e un senso di urgenza nel messaggio che invitano ad agire immediatamente. Imparare a individuare tali indicatori diventerà ancora più importante man mano che il testo e le immagini nei messaggi di phishing acquisiranno un aspetto più verosimile.

2. Riconoscere i segnali di immagini e video

Mentre la tecnologia che replica le sembianze di qualcuno tramite immagini o video è destinata a diventare più avanzata con l'intelligenza artificiale generativa, attualmente ci sono alcuni segnali rivelatori dal fatto che tali immagini potrebbero essere fraudolente, tra cui distorsioni o incongruenze nella foto o nel video, luci o ombre non corrispondenti, corpo strano movimenti, espressioni facciali innaturali e problemi di sincronizzazione che creano una disconnessione tra il movimento delle labbra e l'audio.

3. Aumentare il livello di sicurezza della posta elettronica

Gli attacchi generati dall’intelligenza artificiale potrebbero avere conseguenze ancora più disastrose soprattutto per le azienda: una violazione dei dati può avere ripercussioni legali, finanziarie e reputazionali significative per una società di qualsiasi dimensione. Meccanismi di difesa frettolosi potrebbero non essere più sufficienti quando si tratta di identificare e-mail dannose nella casella di posta dei tuoi dipendenti.

Uno dei modi migliori per impostare misure di protezione contro le truffe causate dall’ingegneria sociale difficili da rilevare è garantire che ogni dipendente abbia una protezione di sicurezza informatica sufficiente installata su qualsiasi dispositivo utilizzato per accedere ai materiali di lavoro, inclusi telefoni e tablet. È anche una buona idea organizzare sessioni regolari e obbligatorie di sensibilizzazione sulla sicurezza per istruire i dipendenti sulle migliori pratiche.

4. Combattere “il fuoco con il fuoco”

Sebbene l’intelligenza artificiale generativa stia facendo nascere tutta una serie di sfide, essa al tempo stesso può rappresentare la soluzione per affrontarle: ad esempio, la tecnologia alla base dell’intelligenza artificiale può aiutare a generare password più efficaci e a riconoscere le minacce in tempo reale tramite il rilevamento intelligente. Rimanere aggiornati su come l'intelligenza artificiale possa essere applicata in questi ambiti può aiutare a comprendere e combattere meglio il suo “lato oscuro”.

Leggi anche