L’intelligenza artificiale promette di regalarci un mondo migliore, una vita più lunga e forse anche più felice, ma quali sono i rischi? Abbiamo girato la domanda ad Alessandro Curioni, docente all’Università Cattolica di Milano nel corso di Sicurezza dell’Informazione. E presidente di DI.GI. Academy società specializzata in materia di cybersecurity.
L’intelligenza artificiale: rischi e rimedi secondo Alessandro Curioni
Siamo in pericolo o no?
«Prima di tutto: rispetto al tema potremmo immaginare tre posizioni. Gli apocalittici che evocano lo spettro di un futuro come quello stile Terminator e Matrix. Poi ci sono gli ottimisti a oltranza che pensano ai soli vantaggi e spesso minimizzano. Perché in fondo si sta ancora parlando di “Weak AI”. Ovvero quel particolare tipo di intelligenza artificiale specializzata: simile a un uomo, ma soltanto rispetto a uno specifico compito».
E la terza categoria?
«È quella che definisco i “Blade Runner” perché la loro posizione si sintetizza da una battuta del protagonista dell’omonimo film. Che, a proposito dei replicanti, afferma: “Sono come ogni altra macchina: possono essere un vantaggio o un rischio. Se sono un vantaggio non sono un problema mio“. Detto questo le intelligenze artificiali offrono straordinarie opportunità. Ma la storia ci insegna che laddove ci sono le occasioni si presentano anche i rischi».
Quali, per esempio?
«Il vero problema si chiama fragilità. Basta veramente poco per indurre in errore un algoritmo intelligente che viene addestrato su basi dati enormi. Che devono essere mantenute integre fino all’ultimo bit. In caso contrario la nostra intelligenza artificiale potrebbe commettere errori macroscopici».
Tipo?
«Facciamo un esempio che ormai è di scuola. Qualche anno fa un gruppo di ricercatori di Google e della New York University introdusse delle piccolissime alterazioni, impercettibili per l’occhio umano, nell’immagine di un panda. Fatto questo la sottopose ad un algoritmo specializzato nel riconoscimento delle immagini. Il software affermò con una probabilità del 99,3 per cento che la fotografia era quella di un gibbone. Viene definito Adversarial Attack ovvero la possibilità di indurre in errore l’algoritmo manipolando i dati. In certi casi quelli sui quali viene addestrato in altri quelli che deve comprendere».
Come si può intervenire?
«Personalmente mi concentrerei sul prevenire. Questo significa lunghe sperimentazioni che prevedano test ripetuti su basi dati diversificate, costruite e selezionate da team diversi. Perché non di rado uno dei problemi è il trasferimento nell’algoritmo di pregiudizi molto umani. Immaginate come potrebbe comportarsi un’intelligenza artificiale che si addestri sotto il controllo di chi è più o meno consapevolmente razzisti».
La soluzione?
«Non meno importante sarebbe garantire che una volta consolidate le basi dati, siano poi preservate da manipolazione illecite. Questi sono soltanto dei suggerimenti di base. Fatemi dire che si tratta soltanto del punto di partenza».
giornalista appassionato di tutto quanto fa tecnologia, caporedattore del quotidiano Il Giornale