Intelligenza artificiale. Un pericolo per la umanità ?

“Io continuo a suonare l’allarme, ma fintanto che le persone non vedranno dei robot scendere per strada per uccidere tutto il mondo, non sapranno come reagire”. Queste cose inquietanti sono scritte da Elon Musk, il patron di Tesla e di Space X, e molto dedito agli scoop mediatici. Una frase che ha innescato, il 24 luglio, uno scambio graffiante con il patron di Facebook, Mark Zuckerberg, che ha qualificato queste affermazioni di “irresponsabilita’”, ed ha vantato i progressi che promettono l’intelligenza artificiale (IA) nell’ambito della sanita’ o della sicurezza stradale. “Ho discusso con Mark Zucherberg di tutto questo, ha risposto pubblicamente Elon Musk su Twitter. La sua comprensione della materia, e’ limitata”.

Se lo scontro ha fatto scatenare le malelingue degli internauti in quel giorno, esso e’ soprattutto un campanello d’allarme di una questione poco conosciuta dalla gran massa delle persone, che fanno confusione tra i fantasmi della scienza-fiction, la realta’ scientifica, gli annunci pomposi e le informazioni falsificate che circolano a proposito dell’IA -come quella secondo la quale alcuni ingegneri di Facebook avrebbero bloccato di corsa dei programmi che avevano inventato un loro proprio linguaggio.
Se il pessimismo mostrato da Elon Musk, che riassume un certo immaginario collettivo, sembra, per la comunita’ scientifica, estremamente esagerato, l’intelligenza artificiale solleva tuttavia altri problemi ben piu’ concreti e pressanti.
Preoccupazione per i posti di lavoro
Uno dei timori piu’ spesso evocati a proposito dei recenti progressi dell’IA e della robotica, e’ il loro impatto con il lavoro. Queste tecnologie renderanno l’essere umano obsoleto per alcuni mestieri fino ad oggi risparmiati dalla meccanizzazione e dalla digitalizzazione? Niente e’ sicuro. Diversi studi seri sono stati pubblicati in materia, e tendono… a contraddirsi. Alcuni ricercatori di Oxford stimano, per esempio, in uno studio pubblicato nel 2013, che il 47% dei posti di lavoro americani e’ minacciato. Tre anni dopo, l’OCSE diceva, per proprio conto, che il 9% dei posti di lavoro erano minacciati nei ventuno Paesi che fanno parte del suo organismo.
“Gli studi si interessano per l’appunto su un fenomeno di distruzione tout-court di posti di lavoro”, sottolineava Marie-Claire Carrère-Gée, presidente del Consiglio di orientamento per l’impiego, nell’ambito di una audizione al Senato francese il 19 gennaio. “ma questi non si interessano della creazione di posti di lavoro”, ne’ tantomeno alle trasformazioni degli impieghi esistenti che queste tecnologie potrebbero generare. “Ogni grande ondata di innovazione tecnologica, c’e’ la paura di una disoccupazione di massa. Ma la storia mostra che da sempre il progresso tecnologico ha creato posti di lavoro, e questo anche negli ultimi anni”.
Impossibile quindi prevedere con certezza l’impatto dell’intelligenza artificiale sull’impiego nei prossimi anni, sia che si tratti di distruzione che di trasformazione dello stesso.
Programmi cosi’ razzisti e sessisti come gli esseri umani
Un certo numero di tecnologie di IA “apprendono” a partire da enormi basi di dati create dagli umani, a cui esse si devono ispirare per arrivare a delle conclusioni. Questi lotti di dati sono spesso distorti. Risultato: diversi programmi hanno gia’ mostrato che essi riproducono il razzismo o il sessismo degli umani. Quando un programma di IA e’ diventato giudice di un concorso di bellezza nel 2016, ha eliminato la maggior parte dei candidati neri. Un’altra tecnologia, concepita per produrre legami tra le parole, ha riprodotto certi stereotipi, associando per esempio le donne all’ambiente domestico e gli uomini alle professioni scientifiche…
L’IA apprende quindi i nostri specifici pregiudizi per meglio riprodurli. Come migliorare la situazione? Se le basi dei dati sono distorte, e’ anche -secondo Emmanuel Mogenet, direttore di Google Research Europe- perche’ essi sono spesso incompleti, e non molto rappresentativi delle minoranze. “Abbiamo bisogno di trovare quegli ambiti in cui non abbiamo raccolto abbastanza dati -spiegava al quotidiano Le Monde lo scorso aprile. E’ un problema che stiamo riscontrando, che ci preoccupa enormemente, perche’ si vedono dei modelli che ignorano le minoranze. E questo va avanti”.
Hackerare la mente umana – e la democrazia
Eric Horvitz lo ha detto senza scrupoli: si ha paura “di attacchi dell’IA sulla mente umana”. Questo eminente specialista di intelligenza artificiale, direttore di Microsoft Research Lab, ha presentato, al festival SXSW che si e’ tenuto a marzo ad Austin (Texas), i pericoli potenziali dell’IA sui quali si potrebbe, secondo lui, riflettere gia’ da oggi. Quello che lui intende per “attacchi” non ha niente a che vedere con un delirio cyberpunk di impianto di tecnologie nel cervello. Il pericolo e’ ben piu’ concreto -ed e’, per lui, gia’ qui,
Eric Horvitz evoca per esempio dei programmi di IA capaci di redigere un tweet “specificamente strutturato” per una persona. “Su cosa twittava? Quando risponde? A quali eventi ha partecipato? Queste informazioni posso essere utilizzate per fare un tweet in modo che per noi e’ quasi impossibile non cliccarlo”.
Una nuova tappa per la pubblicita’ cablata, ma non solo. “Alcune aziende utilizzano questi dati per personalizzare dei messaggi, ma anche per influenzare il modo in cui le persone votano, come Cambridge Analytica”. Eric Horvitz evoca ugualmente il rischio delle “fake news” le false informazioni create ad hoc, che potrebbero beneficiare di queste tecnologie: oggi, dei programmi sono per esempio capaci di far dire cio’ che vogliono a Barack Obama o Vladimir Putin, anche su video. Un problema che non e’ specifico dell’intelligenza artificiale, ma queste tecnologie permettono di automatizzare e semplificare questi metodi di condizionamento.
Lo spettro delle armi autonome
Essendo noto il livello di tecnologie d’IA e di robotica, niente si oppone tecnicamente alla creazione di armi letali autonome. Oggi, gli eserciti sostengono che le macchine che essi utilizzano sono sempre controllate a distanza da un umano, come i droni dell’esercito americano, e che nessuno prende mai la decisione di sparare. Ma nessun regolamento internazionale vieta oggi l’uso di armi letali autonome, argomento che e’ oggetto di discussione in sede ONU.
Nel 2015, piu’ di un migliaio di persone, tra le quali numerosi ricercatori di IA, ma anche personalita’ come Elon Musk o l’astrofisico Stephen Hawking, avevano firmato un appello per vietare queste armi. “L’intelligenza artificiale e’ arrivata ad un punto dove la messa in opera di tali sistemi sara’ -materialmente, se non legalmente- fattibile entro qualche anno, e non decenni, e i problemi sono importanti: le armi autonome sono state descritte come la terza rivoluzione nelle tecniche della guerra, dopo la polvere da sparo e le armi nucleari”, si legge in questo appello.
Una nuova tappa nella sorveglianza
L’osservazione grazie al computer ha conosciuto importanti progressi in questi ultimi anni grazie ai progressi del “deep learnig” (apprendimento automatico profondo). Dei programmi sono ormai capaci di riconoscere i volti, di distinguere un gatto o un cane e di descrivere delle immagini. Inoltre, queste innovazioni si applicano in video, e notoriamente alla videosorveglianza. La SNCF (la societa’ statale delle ferrovie francesi -ndr) per esempio ha annunciato, poco dopo gli attentati di novembre del 2015 nella regione parigina, che sperimentava delle tecnologie di rilevamento delle persone sospette a partire da telecamere di sorveglianza, basandosi su criteri come “il cambio di temperatura corporale, l’aumento del livello di voce o il carattere agitato dei gesti, che possono essere sintomo di una certa ansia”.
Facendo riferimento a tecnologie di riconoscimento facciale, questo tipo di sistema potrebbe per esempio permettere di individuare in diretta una persona che si ferma ed abbandona un pacco sospetto. Ma anche un militante per i diritti umani in una dittatura o una persona omosessuale in un Paese dove questa e’ vietata. Questi sistemi sono ancora lontani da funzionare perfettamente, e il rischio di “falso positivo” rimane notevole.
Sistemi opachi
Grazie alle tecnologie di intelligenza artificiale, e’ possibile creare dei programmi che permettano di selezionare dei curriculum vitae, di proporre delle diagnostiche mediche o di approvare una domanda di prestito. Una buona parte delle decisioni prese da questi programmi… non sono spiegabili. Concretamente, gli ingegneri non sanno rintracciare la moltitudine di calcoli effettuati dalla macchina per arrivare alla sua conclusione.
In pratica, questo significa che se la vostra domanda di prestito e’ rifiutata, o il vostro CV bocciato, nessuna spiegazione vi potra’ essere fornita. Una situazione imbarazzante, che spiega tra l’altro perche’ oggi le tecnologie di IA non sono generalmente utilizzate se non per suggerire delle soluzioni, validate poi dagli esseri umani.
Spiegare il funzionamento di queste tecnologie, basate su delle reti di neuroni artificiali, e’ una delle grandi sfide dei ricercatori in materia di IA, che vi lavorano sopra. “La spiegazione del comportamento e’ molto importante, e’ quello che determina l’accettazione da parte della societa’ di questi sistemi”, spiega David Sadek, direttore della ricerca a Mines Telecom, al Senato francese, lo scorso 19 gennaio.
Questi ultimi mesi, la controversia che c’e’ stata su APB che disciplina le scelte di orientamento dei laureati -che non e’ un programma di IA, ma il cui codice e’ rimasto per molto tempo segreto- ha gia’ mostrato che l’opacita’ dei sistemi automatizzati pone importanti problemi.
Importanti questioni di diritto da regolamentare
“Se i robot si sviluppano, chi ne sara’ responsabile? Bisogna porsi la questione della riparazione in caso di danni”, sottolinea Jean-Yves Le Déaut, allora parlamentare, nell’ambito di una audizione al Senato francese il 19 gennaio scorso. La questione preoccupa, anche se la legge non sembra che stia per cambiare, ne’ in Francia ne’ altrove. “I sistemi automatizzati vanno sempre piu’ utilizzati per prendere delle decisioni su delle situazioni che gli ingegneri non possono piu’ predire”, spiega Derek Kinj, professore di diritto alla facolta’ di diritto dell’Universita’ del Texas, nell’ambito del festival SXSW a marzo.
“Chi, per esempio, sara’ responsabile delle azioni delle vetture autonome?”. La questione ritorna spesso, e preoccupa di gia’ gli assicuratori: se una vettura autonoma uccide qualcuno in un incidente, la responsabilita’ sara’ del costruttore, dell’ingegnere che ha sviluppato l’IA, del proprietario della vettura o della persona al posto del conduttore? Questioni pressanti, nel momento in cui alcune vetture autonome sperimentali hanno gia’ effettuato delle prove, in Usa, per milioni di Km su delle vere strade.
Ma per Terminator, bisogna ripassare
“La singolarita’ mi rende nervoso”. Ad aprile, Jean Ponce, ricercatore di computer vision alla Scuola Normale Superiore (ENS), criticava quelli che sostengono il concetto che indica il momento ipotetico in cui l’intelligenza artificiale sorpassera’ l’intelligenza umana. “Io non vedo personalmente nessun segnale che la macchina intelligente sia piu’ vicina a noi oggi che non in precedenza”, spiegava in una conferenza organizzata da Google a Parigi.
Nell’immaginario collettivo, l’intelligenza artificiale evoca instancabilmente le immagini dei film Terminator, in cui le macchine intelligenti hanno dichiarato guerra all’uomo. Nella realta’, pero’, la grande maggioranza dei ricercatori in IA sostiene di non avere la minima idea del modo in cui potrebbe essere creata una macchina cosi’ intelligente come l’uomo, capace di dialogare naturalmente, di disporre di senso comune, di umore, capace di comprendere il suo specifico ambiente… E ancora meno sotto la forma di un robot umanoide.
L’idea di una IA che sfugge dal controllo del suo creatore provoca anche dei sorrisi in seno alla comunita’, che a stento comprende perche’ alcuni temano che un programma concepito per giocare al gioco del go possa improvvisamente essere preso dalla voglia di attaccare la razza umana.
“E’ incredibile constatare l’interesse che questo suscita presso le persone -dice Horvitz, direttore di Microsoft Research Lab, durante il festival SXSW-. I giornalisti hanno la tendenza a diffondere un punto di vista estremo, mentre la realta’ e’ molto piu’ tenue di quella”. Per lui, questa “rimane una questione molto interessante, (…) sulla quale e’ bene metterci un occhio, e non bisogna ridere dicendo che le persone sono folli”. Ma -sottolinea- “sono questioni molto a lungo termine, e dobbiamo riflettere su cio’ che ci concerne direttamente, ora”.

(articolo di Morgane Tual, pubblicato sul quotidiano Le Monde del 04/08/2017)

Shortlink:

Condividere Articolo

Passare con il mouse sul banner e attendere che esca un elenco; cliccare poi sull'icona del social net che riteniamo più opportuno divulgare la notizia ed seguire la procedura richiesta.
Bookmark and Share
Posted by on 02/12/2017. Filed under ARCHIVIO, SOCIETA'. You can follow any responses to this entry through the RSS 2.0. You can leave a response or trackback to this entry

You must be logged in to post a comment Login