
Giorgia Meloni e Elly Schlein in un video generato dall'intelligenza artificiale
MILANO – Reale o generato dall’intelligenza artificiale? Capita di chiederselo sempre più spesso, di fronte a un contenuto digitale. E se la domanda nasce (quasi) spontanea, la risposta può non essere altrettanto immediata, soprattutto se non si hanno i mezzi giusti per formularla. È per supplire a questo deficit tecnologico-interpretativo che nasce, nel 2024, IdentifAI. La start-up, con sede a Milano, è specializzata nell’addestramento di modelli “degenerativi”: utili, cioè, a individuare i contenuti creati con l’AI, l’intelligenza artificiale, con un margine di accuratezza vicino al 100%.
Il diritto di conoscere l'origine dei contenuti
“Il nostro obiettivo è garantire un diritto umano, la conoscenza della vera origine di immagini, tracce audio e video che popolano il web – spiega il cofondatore di IdentifAI Marco Ramilli, esperto internazionale di sicurezza informatica, scrittore e hacker etico –. Ogni giorno siamo chiamati a prendere posizione sui temi più disparati, ma come possiamo farlo in modo veramente consapevole e autonomo se restiamo esposti a contenuti non verificati e potenzialmente falsi?”. È stato proprio uno dei casi più noti di deep fake a far nascere in Ramilli e nel suo socio, Marco Castaldo, entrambi già attivi nel campo della cybersicurezza, l’idea di creare IdentifAI.
“Ricordo ancora che ero in taxi – racconta Ramilli – quando degli amici mi chiamarono per chiedermi cosa pensassi di un’immagine incredibile che spopolava in Rete e ritraeva il Pontefice con indosso un costoso piumino. Sul momento ciò che mi colpì non fu la fotografia in sé, ma il grado di polarizzazione che aveva generato sui social già a poche ore dalla sua diffusione. E anche quando poi la Santa Sede smentì e si seppe che si trattava di una creazione dell’AI, la gente continuava a discuterne. In quel momento ho compreso l’impatto che un contenuto può avere sulla società e mi sono detto: voglio provare a trovare una soluzione”.
Le truffe nell'era dell'intelligenza artificiale
Certo, le truffe e le falsificazioni sono vecchie come il mondo. Tuttavia, se in passato erano in pochi a detenere le capacità per fabbricare imbrogli a regola d’arte, oggi l’intelligenza artificiale è uno strumento a portata di tutti.
“La facilità di utilizzo dell’AI generativa aumenterà vertiginosamente il numero di contenuti manomessi”, afferma Ramilli. E per far fronte a questo problema serviranno sempre più sensibilizzazione e tecnologie di detezione e supporto. “Andiamo verso un futuro in cui saremo costretti a provare la realtà, non più la menzogna – riflette ancora lo startupper –. È un radicale cambio di paradigma”.
Considerato, poi, che il 90% delle informazioni trasmesse al nostro cervello sono visuali e che questo processa le immagini sessantamila volte più velocemente dei testi scritti, i rischi sono molteplici, per i privati e per le organizzazioni. In ambito economico, i deep fake possono essere utilizzati per manipolare i mercati finanziari, ad esempio tramite video falsi di dirigenti che annunciano decisioni o crisi immaginarie. Ma possono anche danneggiare i singoli, tramite frodi di impersonificazione con la conseguente acquisizione di dati sensibili. Altri pericoli riguardano il settore politico e geopolitico: la distorsione dell’informazione costituisce una minaccia diretta alla democrazia e alla stabilità dei rapporti internazionali, già precaria o, in alcuni casi, del tutto compromessa.
La sfida del tempo e della conoscenza
La sfida per il futuro? Mettere chiunque nella condizione di conoscere immediatamente la vera origine dell’immagine o del video che sta guardando. “Crediamo che il fattore tempo, quando si parla di contenuti visuali e, dunque, di emozioni sia fondamentale – commenta il fondatore della start up –. Se vediamo, ad esempio, una fotografia che ritrae la distruzione causata da un bombardamento, subito ci schieriamo e proviamo odio per i responsabili dell’accaduto. Quando, poi, scopriamo che si tratta di un’immagine generata con l’AI, ci sentiamo manipolati sul fronte che, in quanto umani, ci rende più vulnerabili: quello dell’emotività.
Senza contare i danni che possono scaturire dalle decisioni pratiche che eventualmente prenderemmo in reazione a un’informazione particolarmente coinvolgente. Per questo è un nostro diritto sapere a priori se quello che stiamo guardando è reale o no”.
E, per arrivare in tempo, sarà necessario impiegare sistemi come IdentifAI a monte, di modo che quando l’immagine modificata raggiunge gli occhi dell’osservatore sia chiaramente bollata come non reale. “Al di là dell’ausilio tecnologico – conclude Ramilli – resta molto importante insegnare alle nuove generazioni, continuamente immerse in un flusso di informazioni visive manipolate, a interrogarsi sempre sulla loro fonte di provenienza”.