http://www.valigiablu.it/ 14 Settembre 2016
Intelligenza artificiale: la grande bellezza e il lato oscuro di Fabio Chiusi
Gli sviluppi, sempre più rapidi, dell'intelligenza artificiale richiedono un'etica, una politica, una visione del rapporto tra tecnologia ed esseri umani in cui la prima sia al servizio dei secondi e non viceversa. La questione è già oggi concretissima. Un esempio? Il 7 maggio scorso in Florida, Joshua Brown, quarant’anni, si trova alla guida della sua amata Tesla modello S. Visto che la vettura è dotata di funzioni di autoguida, il pilota – un entusiasta degli sviluppi dell’intelligenza artificiale per l’automobilismo, come testimoniato dai suoi stessi video su YouTube – si concede la visione di un film della saga di Harry Potter su un lettore DVD portatile. Agli ostacoli, ne è certo, penseranno il radar e il sistema di visione computerizzata di cui è dotato il veicolo, che consente una modalità di guida nel traffico e frenata automatica, mentre la macchina va a tutta velocità. Ma qualcosa va storto. I suoi sensori, ed è una prima volta storica, non si accorgono di un camion con rimorchio che sta svoltando a sinistra dalla corsia opposta della US27, la strada che copre i quasi 800 chilometri che attraversano lo Stato. La Tesla S, prodotto dell'azienda diretta da Elon Musk che Brown venera come un idolo, non si ferma. Passa sotto al rimorchio e il parabrezza viene tranciato di netto. Poi esce di strada, colpendo un palo dell’elettricità. Quello che è sempre più difficile chiamare “pilota” non sopravvive all’incidente e diventa la prima vittima dell’era delle self-driving car. Tesla, nella sua ricostruzione dell’accaduto, contesta che si sia trattato di un problema dell’“autopilota”: semmai, sostiene, l'intelligenza artificiale del veicolo ha fallito nel distinguere il chiarore del cielo dalla fiancata del camion, bianca anch'essa. L’auto del resto non è ancora come quelle di Google, non è del tutto autonoma, e Brown non avrebbe dovuto distogliere del tutto l'attenzione dalla guida. Eppure già in questo caso si pone un interrogativo importante: di chi è la colpa? Un quesito, oggetto peraltro di un'inchiesta del National Transportation Safety Board, che apre ad altre questioni. Più “artificiale” è l’intelligenza che ci circonda, più il concetto di responsabilità – legale, ma anche in senso etico – sfuma e ci confonde. E se l’auto fosse stata abbastanza “intelligente” da dover decidere che fare di fronte a un dilemma morale? La storia della filosofia pone il famoso Trolley Problem, la circostanza per cui si è costretti a decidere se intervenire per salvare più vite umane, ma uccidendone una o non fare nulla lasciando che quelle stesse vite abbiano fine. Finora le auto-robot non si sono mai trovate di fronte a nulla di simile. Ma, se davvero nel futuro prossimo diverranno la normalità, è molto probabile che accada. E allora cosa faremo? Sosterremo, come gli ingegneri di Google, che casi del genere non si verificheranno a meno di un errore a monte? Se anche lo facessimo, non avremmo una risposta al quesito: colpa dell’intelligenza dentro al motore, di chi l’ha programmato, di un passante, del caso, di chi o cosa esattamente?
I prossimi cento anni dell'intelligenza artificiale (AI) A domande come questa è dedicato il primo rapporto di un gruppo di 17 studiosi riunito a Stanford, finanziato da Eric Horvitz di Microsoft Research e composto da accademici delle principali università americane ed esperti del settore privato, sotto l’egida del One Hundred Years Study on Artificial Intelligence. Si tratta di uno straordinario sforzo di comprensione della contemporaneità e di come le tecnologie di oggi informeranno il nostro futuro prossimo. L’obiettivo è quello di raccontare, con un rapporto ogni cinque anni per ben un secolo, l’evoluzione dell’intelligenza artificiale (AI) illustrandone le criticità che si porranno da qui al 2030 per le città-tipo del Nord America e in otto settori cruciali: robotica, sanità, educazione, svago, effetti sulla comunità svantaggiate, sulla pubblica sicurezza, sul lavoro e naturalmente sui trasporti. Come ogni lavoro di questo tipo, anche il rapporto di Stanford poggia su alcune fondamentali, ma contestabili, premesse. Una è l’idea che non sia possibile ottenere una definizione generica e condivisa dell'AI dato che la sua applicazione cambia a seconda dei vari campi in cui si utilizza. Di conseguenza, non sarebbe possibile, né auspicabile, regolare il settore in generale. Inoltre, l’AI è concepita come un insieme di applicazioni tecnologiche che può e deve arrecare benefici all’umanità. Su questo aspetto, scrivono gli autori del rapporto, si misura il suo merito: “Il metro del successo delle applicazioni di AI è il valore che sono in grado di creare per le vite umane”.
E l'ipotesi "Terminator"? Proprio per questo motivo non stupisce che lo studio escluda alla radice, senza problematizzarla, l’ipotesi “Terminator”, ossia che intelligenze artificiali di livello umano possano fare la loro irruzione nel panorama evolutivo delle tecnologie e finire per travolgere o assoggettare l’umano. “Contrariamente alle più fantasiose predizioni per l’AI nella stampa”, si legge, “il panel di studiosi non ha trovato ragioni di preoccuparsi che l’AI rappresenti una minaccia immediata per l’umanità”. Anche le sue applicazioni militari vengono deliberatamente ignorate, pur se definite “potenzialmente destabilizzanti”. Eppure non pochi studiosi prendono l’ipotesi catastrofista sul serio. Lo stesso Musk, insieme a Stephen Hawking, i fondatori di Google DeepMind e altri ricercatori hanno firmato per esempio una recente “lettera aperta” sempre sulle conseguenze e gli impatti sociali, umani ed economici dell’AI, ma nella prospettiva ben più fosca che qualcosa possa andare storto e l’uomo debba trovarsi a combattere con le intelligenze sintetiche da lui create, non perché fondamentalmente malevole, ma per una interpretazione dei loro compiti contraria ai fini umani. Del resto anche gli stessi studiosi, nel rapporto, ritengono plausibile la prospettiva di un’AI intelligente come l’uomo: “la differenza tra una calcolatrice e il cervello umano non è di genere, ma di scala, velocità, grado di autonomia e generalità”. E allora perché già nei prossimi 15 anni non potrebbe replicarsi una razionalità simile alla nostra? Se il cervello non è un unicum evolutivo, cosa dovrebbe impedire il successo di tentativi come quello, di certo attualmente parascientifico, del futurologo Ray Kurzweil di "costruire" una mente fatta di neuroni digitali? In assenza di una condivisa e contraria teoria della mente, difficile dirlo. Il panel di Stanford esclude minacce “immediate”, ma diversi autori sostengono che il progresso, per l’accelerazione che ha subito negli ultimi decenni, è imprevedibile. E le conseguenze nefaste potrebbero dunque verificarsi senza preavviso. Su questo ordine di quesiti il rapporto non si pronuncia: non può, avendo eliminato la domanda alla radice. Ciò che invece lo studio sottolinea in più passaggi è l’insieme dei benefici che può derivare da una lettura non catastrofista del futuro prossimo dell’AI. Parole che di certo non dispiaceranno ai committenti, o ai capi delle multinazionali dei dati che stanno costruendo parte sempre più considerevole dei loro imperi sulla scommessa di una intelligenza artificiale applicata in modi via via più precisi e utili a mantenere gli utenti incollati a monitor e smartphone: catalogando e taggando automaticamente le loro foto e video; mettendo a frutto le enormi quantità di informazioni private di cui dispongono per fornire sistemi educativi “personalizzati” o cure mediche più precise, tempestive e meno legate al giudizio soggettivo degli esperti; trasformando ogni governo in un insieme di analisi di tracce digitali delle preferenze dei cittadini. Insomma, le conseguenze sono “quasi interamente” benefiche. Eppure gli stessi autori sottolineano, in uno dei passaggi più significativi del rapporto, che la nostra società si trova in un momento critico per la determinazione di come applicare tecnologie basate sull’AI in modi che consentano di promuovere, e non ostacolare, valori democratici come libertà, uguaglianza e trasparenza. Se va tutto bene o "quasi", come mai l'umano si trova di fronte a un bivio così radicale? Su questo il rapporto tace.
Per un'AI al servizio dell'uomo Che fare dunque affinché l'AI resti al servizio dell'uomo? Lo studio risponde con tre raccomandazioni piuttosto generiche:
Il vero filo conduttore è tuttavia il tentativo, ben riassunto dal New York Times, di costruire un modello di autoregolamentazione del complesso mondo dell'intelligenza artificiale, minimizzando, e prevenendo, le interferenze statali e dunque i limiti imposti dall’alto allo sviluppo del settore. Tutto il rapporto, infatti, sembra suggerire che la società debba modellarsi intorno allo sviluppo tecnologico, pur se a misura d’uomo. Come in questo passaggio: Piuttosto che “più” regole, o regole “più severe”, sarebbe opportuno modellare politiche per incoraggiare una innovazione utile, creare e trasferire competenze, e promuovere una responsabilità aziendale e civica ampia nell’affrontare le questioni sociali critiche sollevate da queste tecnologie. Ma alla domanda su come distribuire in modo equo i benefici dell’AI, senza che restino nelle mani dei (pochissimi) suoi produttori aumentando dunque le disuguaglianze esistenti, non è detto che si debba rispondere prevedendo un ruolo minore di governi e istituzioni pubbliche. Se un “dibattito energico e informato” è ciò che serve, come scrive il panel di Stanford, è bene che sia libero da pregiudiziali ideologiche.
Cosa l'AI fa già di buono per l'uomo Dove il lavoro del team di studiosi riesce invece al meglio è nell’elaborazione di quesiti a partire da applicazioni concrete dell’AI nei vari settori analizzati. Nella visione computerizzata: “per la prima volta”, si legge, "i computer sono in grado di svolgere alcuni compiti (ancora rigidamente definiti) di classificazione visiva meglio degli esseri umani”; nella comprensione del linguaggio naturale: il 20% delle ricerche su Google avviene già a voce, e la prospettiva di un (buon) traduttore in tempo reale è diventata concreta; nel crowdsourcing di intelligenze umane per risolvere problemi che i computer non sono in grado di risolvere, aumentandone così la potenza; inoltre, nel tentativo di rendere tra loro comunicanti gli oggetti connessi, e ciascuno o quasi attualmente dotato di un proprio protocollo comunicativo: “l’AI potrebbe contribuire a districare questa Torre di Babele”. Il rapporto resta comunque opera di interpretazione del futuro, dunque lavoro di suggestioni e ipotesi, anche radicali e futuribili. Come nel caso del mondo dei trasporti, che attraverserà una vera e propria rivoluzione grazie all’automazione. “I trasporti autonomi diverranno presto comuni”, si legge in una interpretazione perfettamente congruente con quella dei grossi produttori di vetture che si autoguidano. Gradualmente, proseguono gli studiosi senza dare troppo peso alle possibili resistenze di cittadini e lavoratori del settore, gli abitanti delle città nordamericane “possederanno meno auto, vivranno più distanti dal lavoro, spenderanno il loro tempo in modo diverso, portando a una organizzazione urbana totalmente nuova”. Ci sarà bisogno dunque di meno spazi per parcheggi e i trasporti pubblici dovranno riorientarsi verso spostamenti personalizzati e veloci, con tutto ciò che ne consegue (saranno garantiti i servizi minimi per ogni tratta?). In cambio, bus e metropolitane potranno godere dell’aumentata efficienza derivante dall’uso civico dei Big Data. Anche nella sanità le promesse sono radicali: radiologia automatica o quasi, digitalizzazione delle prestazioni sanitarie, aiutanti robot ai medici nella formulazione di diagnosi sempre più complesse e una migliore comprensione e utilizzo dell’intero corpus della letteratura medica grazie ad analisi automatiche saranno presto realtà. Lo stesso nell’istruzione, con corsi online di massa aperti e gratuiti che hanno già ampliato le classi dei migliori atenei del mondo a migliaia di studenti, invece che a poche decine, modalità di insegnamento personalizzate sulle capacità e gli interessi del singolo allievo e forme di apprendimento basate su “applicazioni di realtà virtuale” (niente male studiare la battaglia di Waterloo trovandosene nel mezzo). Sorveglianza, lavoro, solitudine: cosa si perde nell'era dell'AI Pur se i rischi associati a ogni innovazione sono ben evidenziati, sorprende che nell’era della sorveglianza globale i problemi derivanti dall’aspirazione predittiva dell’AI – anticipare comportamenti dannosi, o illegali, per esempio – non vengano presi maggiormente di petto. Videocamere davvero intelligenti? Per ora sono una scommessa, ma il rapporto le scambia per inevitabili. Non solo: si menziona, come nulla fosse, che “c’è in corso un lavoro significativo sulle simulazioni delle folle per comprendere come queste ultime possano essere controllate”. I benefici, ammesso che si producano, saranno tali da bilanciare la sgradevole sensazione che le proprie libertà personali potrebbero diventare un ricordo? Lo stesso pregiudizio positivo inficia in parte l’analisi sul futuro del lavoro, che pur si può avvalere di uno dei massimi esperti del settore, Erik Brynjolfsson, co-autore di The Second Machine Age, un testo molto critico, pur se pieno di speranze. Infatti il rapporto scrive che l’effetto dell’automazione sul lavoro “sta rendendo di fatto tutti più ricchi”, e se ci stiamo concentrando sui posti di lavoro a rischio di sostituzione robotica è soltanto perché gli aspetti negativi saltano maggiormente all’occhio del pubblico. Peccato che la letteratura in materia dica ben altro. Nell’era dell’Internet delle cose, in cui tutti gli oggetti saranno connessi e intelligenti, resta da ultimo una domanda, ben sollevata dagli autori: riusciremo a continuare a godere della solitudine, in un mondo permeato di agenti sociali fittizi che “vivono” nelle nostre case, nelle auto, negli uffici, nelle camere di ospedale e nei telefoni? Dal “tutti connessi” al “troppo connessi”, in altre parole, il passo è breve. Ma non abbiamo assolutamente idea di come impedire che l’AI ci soffochi anche solo con la sua benevola presenza e lo studio non fornisce alcuna indicazione in merito. Forse per questa e altre risposte di natura etica e antropologica dobbiamo attendere il rapporto del 2021. Ammesso che non sia un robot, a scriverlo. |