Superintelligence PARTE TRE, lo stato dell’arte di AI. Intervista a Mauro Toffanin

Pubblico qui di seguito un’intervista realizzata a Mauro Toffanin, computer scientist e designer, che lavora in California per la prestigiosa azienda Verily (https://verily.com/) nel settore della ricerca bio-medica sulle brain-machine-interface.

ALESSIA: Sicuramente siamo in una fase di passaggio, dove AI e automazione non hanno ancora espresso il reale potenziale. Sicuramente ci aspetta un passaggio, ma a che punto del confine siamo è difficile da dire. Di fatto all’interno di un processo continuativo è difficile capire la velocità e lo stato attuale dell’arte in molte discipline. Da bambina vedevo i robot industriali, poi da ragazza mi sono comperata il primo cellulare, il primo pc portatile e poi via via tutto lentamente è cambiato attorno a me. Ma è avvenuto in modo costante, basta tenere il passo con i cambiamenti. Sicuramente dovrò capire nel futuro lo sviluppo abbinato di molte tecnologie e le nuove interazioni.

MAURO TOFFANIN: La mia opinione è che le AI non senzienti, basate sul machine learning e che fanno solo specifici task, saranno diffusissime in un futuro prossimo. Probabilmente non ci accorgeremo nemmeno del loro transito perché saranno integrate negli oggetti e dispositivi che già oggi usiamo quotidianamente; la fase di transito quindi sarà totalmente trasparente ed indolore per l’utente, il quale si ritroverà con nuove feature per il suo dispositivo aggiornato. Spiego meglio questo concetto più avanti.
E’ comunque difficile fare previsioni in merito.

ALESSIA: Ma non è questa la sede per capire se dovremmo dettare regole per limitare lo sviluppo, tanto più che al momento è difficile individuare gli elementi per giustificare una limitazione, quando nemmeno sappiamo quali sono i benefici che si andranno a manifestare: è nella natura umana inventare, poi dopo si affrontano gli impatti e gli interrogativi.

MAURO TOFFANIN: Qui sostieni che al momento non esistono motivi per giustificare una limitazione delle IA. In realtà alcuni di questi motivi sono già noti e se ne sta discutendo; per esempio si è già proposto di imporre un limite alle AI robotiche (quindi machine learning) abbinate ad armi automatiche: https://www.dropbox.com/s/g4ijcaqq6ivq19d/2017%20Open%20Letter%20to%20the%20United%20Nations%20Convention%20on%20Certain%20Conventional%20Weapons.pdf?dl=0

Il dubbio è che forme avanzate di AI possono essere usate da regimi totalitari, od in generale da pazzi con sufficiente potere e denaro, per creare armi autonome ed atomiche per la distruzione di massa. Uno scenario simile non è poi tanto campato in aria, basti pensare ai droni potenziati con l’AI che uccidono anche i civili: https://www.washingtonpost.com/world/mounting-claims-of-civilian-deaths-after-us-targetsal-qaeda-in-syria/2017/03/17/350d5838-0ae9-11e7-8884-96e6a6713f4b_story.html
Oppure ai robot militari da combattimento: https://www.qinetiq-na.com/products/unmanned-systems/maars/

Al netto del “principio di precauzione” (che in scienza non esiste), non è l’AI il problema in se (spiego poi più avanti il perché), ma il suo utilizzo finale. Se l’intento è quello di usare le AI per scopi “evil” (es.: eticamente e moralmente discutibili), allora è sensato porre dei limiti affinché quegli utilizzi siano evitati. Come si è fatto in passato con le armi batteriologiche bandite a livello internazionale.
Oltre alle armi autonome ci sono anche altri limiti che si stanno discutendo, ma evito di menzionarli per brevità (più avanti riprendo altri esempi). Il mio punto era solo dimostrare che i ragionamenti filosofici improntati al “principio di precauzione” non hanno mai portato a nulla di concreto. Dalla notte dei tempi, futurologi ed autori sci-fi hanno sempre toppato con le previsioni sulla pericolosità di una nuova tecnologia, perché si sono fatti sedurre dalla fallacia logica del “principio di precauzione”, anziché soffermarsi sull’ovvio: nei secoli, i limiti ed i divieti sono sempre imposti sulle stesse idee, cambia solo lo scopo ultimo dell’applicazione di quelle idee.

ALESSIA: Nel tentativo di avere una “macchina intelligente” di sicuro capiremo meglio come funziona la nostra meccanica umana.

MAURO TOFFANIN: Questo è vero. Per quanto il machine learning, od il deep machine learning, non siano da considerarsi “intelligenza”, né tanto meno “umana”, hanno però il pregio che un po’ aiutano a comprendere meglio come funziona il nostro cervello. E’ un processo bi-direzionale; prima si creano dei modelli matematici e computazionali per descrivere alcuni task che compie il nostro cervello, e poi il machine learning può a volte aiutarci ad affinare e migliorare quei modelli. Si creano quindi dei feedback tra le due discipline (cognitive science vs machine learning) in una sorta di loop infinito, ed entrambe ne traggono benefici.
Il bilancio finale è però tutto a vantaggio del machine learning, perché quest’ultimo è molto più facile da realizzare non essendoci nulla “da scoprire e studiare” in quella disciplina. Il machine learning è solo algoritmi e strutture dati informatiche, quindi è mera applicazione di informazioni che già abbiamo. Le scienze cognitive invece sondano l’ignoto… con la benda sugli occhi (sul perché e come, lo spiego nel dettaglio più avanti).

Da qui possiamo già dedurre senza troppo sforzo che le AI non senzienti basate sul machine learning saranno sempre più numerose in un futuro; un po’ perché sono economicamente vantaggiose da realizzare, un po’ perché sappiamo già con che finalità vogliamo utilizzarle (vedi la guida delle automobili assistita, o le automobili a guida autonoma). C’è quindi la pecunia, e l’interesse per realizzarle. Invece, la creazione di un cervello umano simulato in silico al momento richiede investimenti colossali e non c’è alcuna sua utilità pratica al di fuori della pura ricerca scientifica.

ALESSIA: Ma questa frase fa molto pensare “Russell and Peter Norvig write in their leading textbook, “Artificial Intelligence: A Modern Approach” AI started working when it ditched humans as a model, becauseit ditched them. Quindi si potrebbe benissimo pensare che AI si affida a una grossa mole di dati provenienti dai motori di ricerca, ma che poco prende in prestito dalla mente umana, una direzione che forse non ci porterà dove vogliamo andare.

MAURO TOFFANIN: E’ esattamente quello il senso della frase di Russel e Peter; cerco di espandere un po’ questo concetto perché risponderà a molte dei quesiti che fai successivamente. Prima però devi leggere questo breve e semplice articolo di Yordanov che riassume veramente bene tutto quanto (nb: nel suo articolo, Yordanov conia due terminologie improprie per evitare la solita confusione di cui ti parlavo in precedenza sull’uso di AI/cognitive-science/machine-learning; lui usa il termine “General AI” per intendere le scienze cognitive, ed usa “Applied AI” per indicare tutte le varie forme di machine learning): https://medium.com/@peteryordanov/the-in-human-condition-8f6ebdbead4d

In breve, ciò che Yordanov sostiene è che ciò che oggi chiamiamo AI non ha nulla a che vedere con l’intelligenza biologica. E quel “nulla” è proprio da intendere nel senso stretto del termine: nisba, nada, zero. Ciò che abbiamo oggi, e che è comunemente riferito come AI, sono modelli computazionali ed algoritmi che producono risultati che vagamente ricordano l’intelligenza. I computer sono molto efficienti nell’elaborare grandi quantità di numeri, ad eseguire sequenze di istruzioni, riconoscere pattern, cercare e formulare correlazioni. Queste feature, se usate in combinazione con un processore sufficientemente potente, possono permettere ad una AI di battere l’uomo a scacchi ed ad una pletora di altre sfide ludiche, e persino di modellare il comportamento umano o le sue conversazioni (vedi Siri e simili). Questo è ciò che oggi chiamiamo, in senso lato, AI.
Yordanov sostanzialmente dice che quell’AI non è intelligenza umana. Ed è certamente vero, le AI al momento non sono autocoscienti, nemmeno pensano, né tanto meno comprendono.
Quelle AI si limitano a mimare alcuni aspetti dell’intelligenza umana, grazie soprattutto al “brute forcing” di sofisticate reti informatiche. Il cervello umano fa tutto quello che fa l’AI però senza la sofisticazione dei data center, né il consumo di una enorme quantità di energia per tenerli attivi. Per esempio, Google Translator ed IBM Watson hanno speso decadi e fatto “leggere” alle proprie AI bilioni di documenti/libri prima di ottenere dei risultati accettabili con le traduzioni linguistiche automatiche, ma quelle AI non sono comunque in grado di intrattenere vere conversazioni in quelle lingue come farebbe un essere umano fluente in più lingue. Non solo, un essere umano imparerebbe decentemente una nuova lingua in 4/5 anni al massimo, e senza bisogno di leggersi milioni di libri. E’ una differenza enorme in termini tempistici ed energetici, ed in questo ambito il cervello umano non ha eguali: in un giorno fa tantissimo, al solo prezzo energetico di un pasto.

La domanda quindi che ci si dovrebbe porre (e che pone anche Yordanov) è: le attuali AI potranno mai estrapolare dati fino ad ottenere una sorta di autocoscienza pari a quella di un cervello umano? La risposta è semplicemente: no. Al momento non c’è motivo per credere che usando maggiore “brute force” (più potenza di calcolo) ed algoritmi maggiormente sofisticati, si possa in qualche modo ottenere un’autocoscienza. Per fare un’analogia, proviamo ad immaginare un cervello umano di una persona adulta, che è in grado di fare 1 fantagillione (è una misurazione volutamente imprecisa) di interazioni al secondo, come se fosse un giocoliere dotato di 1 fantagillione di mani che lancia in aria e sposta di mano in mano 1 fantagillione di palline, il tutto eseguito in perfetta circolare maestria. Di contro, le attuali AI sono un giocoliere con una singola mano che tenta di lanciare in aria e riprendere una manciata di palline; se vogliamo che il giocoliere con una mano sola sia in grado di eguagliare l’altro giocoliere con 1 fantagillione di mani e palline, allora quella singola mano dovrà “muoversi” 1 fantagillione di volte più velocemente. Esiste una tecnologia che possa far diventare i nostri attuali data center un fantagillione più potenti? La risposta è semplice: no, qualcosa d’altro è richiesto per colmare quel gap.

Quel qualcosa però non è la biologia, e non c’è nemmeno motivo per pensare che non si possa creare artificialmente (che quel materiale sia silicio od altro è irrilevante). Ciò che serve per colmare quel gap è un qualcosa che gli attuali processori non hanno: plasticity (nel senso medico del termine).
Il cervello umano è duttile, cioè cambia e si evolve man mano che accrescono e si evolvono le sue capacità cognitive. Paragonare dunque il cervello umano ad un computer è sempre sbagliato. Innanzitutto, il cervello non ha affinità né con l’hardware, né con il software. Ma è entrambi allo stesso tempo, ed in biologia si usa persino un termine apposito: wetware. Diversamente da quanto sostengono i “guru” del machine learning, i neuroni non servono per lo stoccaggio delle informazioni, ma i neuroni e le sue connettività sono le informazioni. Infine, ricevere e processare informazioni (es.: da stimoli esterni tramite i sensi) cambia e trasforma i neuroni, generando quello che chiamiamo “memoria” ed “apprendimento”.
Ciò è sostanzialmente quello che sappiamo del funzionamento del cervello (scienza cognitiva), ed è certo perché confermato da solidi dati: i neuroni e le sue connessioni danno origine alla memoria. Tutto il resto è ignoto, o per meglio dire, abbiamo (tantissime) speculazioni, ma quasi nulla come dati a loro conferma, men che meno certezze.

Detto ciò, esistono già oggi processori che simulano i neuroni (silicon neurons), si chiamano FACETS: https://www.technologyreview.com/s/412700/building-a-brain-on-a-silicon-chip/
e rispetto ai tradizionali processori sono sicuramente un passo avanti e molto più efficienti.
Ad oggi però questa tecnologia poco o nulla fa, e gran pochi risultati si sono ottenuti da quando è stata presentata oltre 15 anni fa. Un po’ perché uno di questi “silicon neuron” simula soltanto 200.000 neuroni con 50 milioni di collegamenti sinaptici, mentre un cervello umano ha 11 miliardi di neuroni e 10^23 sinapsi. Un po’ perché non è sufficiente mettere assieme un tot di questi processori (per raggiungere il miliardo di neuroni) e crearci un’AI: hai creato un computer che in qualche modo ha la memoria e la capacità di calcolo di un cervello umano, ma ci manca anche tutto il resto che serve per avere “intelligenza” ed “autocoscienza”. Neuroni e memoria da soli non sono sufficienti. I neuroni poi, da soli non fanno assolutamente nulla: inviano, ricevono e gestiscono segnali; nulla di più, nulla di meno. Non hanno alcun controllo sull’informazione generata dal flusso di quei segnali, quello è un compito che spetta al resto del cervello. Resto, che per definizione è al momento ignoto (e quindi non rappresentabile matematicamente).

Un esempio eclatante dei limiti dei “silicon neuron” è il fallimento del progetto Human Brain Project, finanziato dall’EU, e che in 10 anni non ha prodotto praticamente nulla di concreto (a parte il bruciare tonnellate di milioni di €): https://forbetterscience.com/2016/07/15/the-laborious-delivery-of-markrams-brainchild/
https://forbetterscience.com/2017/02/22/human-brain-project-bureaucratic-success-despite-scientific-failure/

Al momento, una tecnologia promettente sono invece i “neuronal chip”, cioè processori che si comportano (quasi) esattamente come i neuroni, quindi non sono simulazioni in silico. E’ mia opinione che questa tecnologia sarà ciò che ci permetterà in un futuro prossimo di ottenere una vera e propria AI, nel senso di “intelligenza umana artificiale”: http://science.sciencemag.org/content/345/6197/668

Ma come ho detto in precedenza, simulare solo i neuroni è condizione necessaria, ma non sufficiente. Yordanov nel suo articolo ne parla con brevi cenni, ma è l’aspetto più importante di tutti e voglio dargli maggiore enfasi: il cervello umano è progettato per parlare a se stesso costantemente, in una sorta di loop infinito. Il cervello genera i pensieri, e questi vengono poi dati in pasto ai processi di apprendimento trasformandoli in informazioni (che poi diventano neuroni e sinapsi), assieme alle informazioni che riceviamo dall’esterno tramite i sensi, e le informazioni interne provenienti dalle varie parti del corpo; le informazioni che risultano da quei processi di apprendimento, a loro volta finiscono per essere rielaborate, ed i suoi risultati di nuovo ri-processati, e via così all’infinito.
E’ questo circolo infinito di feedback e flussi di informazioni rielaborate che costituisce ciò che noi chiamiamo coscienza. Ciò che ancora non sappiamo è l’esatta mappatura di questa rete di flussi, come essi interagiscono l’un l’altro, e come si manifestano sotto forma di coscienza umana. Al momento abbiamo solo piccolissimi frammenti di questo complicato meccanismo biologico, e non sono lontanamente sufficienti per poter descrivere l’intero fenomeno
.
Saranno la ricerca nella scienza cognitiva, unita alle neuroscienze, a darci i tasselli mancanti in un futuro prossimo. Per esempio possiamo usare i dati ottenuti dalle neuroscienze per realizzare nuove e più complesse AI, che a loro volta possono diventare modelli matematici sperimentali con cui migliorare la ricerca nelle scienze cognitive, e di pari passo aumentare le nostre conoscenze sull’intelligenza. Come dicevo in precedenza, machine learning e scienze cognitive possono aiutarsi a vicenda, con feedback bi-direzionali. Che è poi ciò che intendevano dire Russell e Peter Norvig nell’introduzione del loro libro: possiamo eliminare (temporaneamente) l’uomo come modello per la realizzazione delle AI.
Eventualmente riusciremo a formulare un modello matematico che descrive l’intelligenza e la coscienza umana, partendo dall’uomo stesso come modello. A quel punto saremo anche in grado di simulare in silico un cervello umano. E quando ciò avverrà, molto probabilmente quella simulazione sarà anche in grado di generare autocoscienza. Ma fin tanto che ci limitiamo a creare AI basate soltanto su alcune caratteristiche basilari del cervello umano, non ci potrà mai essere un’AI autocosciente, perché non sono basate sull’uomo come modello.

ALESSIA: Al contrario la biologia e le neuroscienze hanno fatto enormi passi avanti e alla meno peggio potremmo in breve tempo dotare persone molto sfortunate di esoscheletri che permettano a queste di tornare a muoversi con un minimo di autonomia. Mentre passeggiavo a Budapest è passato un ragazzo vicino a me, stranamente camminava troppo veloce e poi lo osservo meglio: aveva ad entrambe le gambe due protesi modernissime.

MAURO TOFFANIN: Oltre alle protesi neuronali, ci sono anche innumerevoli altre applicazioni per le brain-machine-interface che cambieranno in meglio la vita dell’uomo. Un esempio è l’optogenetica che permetterà di attivare e disattivare specifici neuroni modificati geneticamente usando solo un impulso di luce. Lo scopo è quello di curare specifiche patologie o di alleviare il dolore cronico: http://www.lescienze.it/news/2016/01/09/news/optogenetica_tecnica_rivoluzione_neuroscienze-2922999/ Il risultato è che quei paziente non dovranno più sottostare a terapia farmacologica per tutta la vita, evitando quindi i pesanti effetti collaterali dei farmaci assunti per lunghi periodi. Un netto miglioramento della vita per il paziente, ed un netto risparmio economico sia per il paziente che per il SSN. Lo scopo è ridare la dignità a chi, per motivi patologici, ne è stato privato.

ALESSIA: Scienze cognitive, “può un’AI diventare cosciente?”, “può un’AI sviluppare sentimenti complessi?”, “un’AI può fare X e Y?”: beh per una buona parte penso che in futuro potrà farlo anche se adesso può solo scimmiottare l’essere umano e quindi a questo livello credo che lo stato dell’arte non sia particolarmente evoluto.

MAURO TOFFANIN: Sull’autocoscienza mi sono già espresso in precedenza, ma non ho volutamente toccato la parte riguardante le emozioni ed i sentimenti. Le emozioni sono uno degli argomenti più affascinanti della scienza cognitiva e delle neuroscienze, ma anche incredibilmente complesso; quindi non mi dilungherò in spiegazioni tecniche sulla biologia delle emozioni, ma se l’argomento interessa c’è l’esaustivo libro di Judith Horstman intitolato “The Scientific American Book of Love, Sex and the Brain: The Neuroscience of How, When, Why and Who We Love”. E’ un libro divulgativo che fa una disanima di tutta la letteratura scientifica sull’argomento e la spiega in termini semplici per i non addetti al lavoro. Quindi in quel libro non ci troverai opinioni, ma solo fatti scientificamente dimostrati.

Ora veniamo alla domanda più interessante: può un’AI sviluppare spontaneamente emozioni e sentimenti? La risposta breve è: no. Una AI non può sviluppare autonomamente emozioni perché l’uomo stesso non sviluppa spontaneamente emozioni. Immagino che questa affermazione faccia alzare qualche sopracciglio, ma è esattamente così: le emozioni sono biologicamente codificate da specifici pathway, ed il nostro cervello reagisce ad essi (vedi libro di Judith Horstman). Questo non vuol dire che le emozioni che proviamo non siano vere, o che le nostre relazioni sentimentali siano solo “chimica” e “biologia”. Se provi paura è un’emozione autentica per il semplice fatto che è una tua esperienza personale; lo stesso vale anche per le così dette paure irrazionali, esse restano emozioni autentiche anche se si riferiscono a situazioni irreali (paura del bau-bau dei bambini), o a situazioni di non pericolo (paura degli spazi aperti, come l’agorafobia). Ma se un’emozione è codificata da specifici pathway nel nostro cervello, e non dalla nostra coscienza, allora possiamo anche fare in modo tale che le AI senzienti che creeremo in futuro non abbiamo tutti quei pathway che inducono emozioni negative che possono risultare in azioni pericolose verso l’uomo. Basta non inserire il pathway per la rabbia e la violenza (o altro), e le AI non si ribelleranno mai contro di noi. Tutto qui.
Non ha quindi molto senso fare discorsi filosofici sulla possibilità che un’AI si ribelli all’uomo. Se lo fa è perché è stata programmata per farlo, ma non perché di sua spontanea volontà ha deciso di sterminare l’umanità.
E da questa premessa, nasce anche un’altra discussione filosofica che spesso viene abusata: è meglio avere un’AI priva di emozioni, così è più razionale ed efficiente. Questo modo di ragionare (senza emozioni si è più razionali) lo si sente spesso anche fuori dal campo delle neuroscienze; per esempio è un cavallo di battaglia degli alt-right e delle frange naziste, usato per screditare le donne dal punto di vista biologico. Le donne, essendo per definizione (errata) esseri biologici molto emotivi, sono meno efficienti nei ruoli di leadership, ergo gli uomini sono più portati “biologicamente” ad essere dei leader. Così dice la narrativa alt-right. Però sono tutte cavolate senza senso per due semplici motivi: il primo è che non c’è alcuna evidenza scientifica che le donne siano biologicamente più “emotive” rispetto ai maschi, così come non c’è alcuna evidenza scientifica che abbiano gli “ormoni ballerini” (è una leggenda metropolitana!); in secondo luogo, non c’è alcuna prova scientifica che dimostri che l’assenza di emozioni generi una maggiore razionalità, anzi c’è evidenza del contrario. E’ quest’ultimo aspetto è la chiave di volta di tutti i discorsi sulla AI.
Le emozioni sono essenziali affinché il cervello umano possa generare pensieri e ragionamenti coerenti; se non fosse così, non avremmo bisogno delle emozioni in senso stretto e ci saremmo evoluti senza di esse, come gli animali (che non provano sentimenti, ed hanno forme basilari di emozioni guidate dall’istinto). Se il nostro cervello produce emozioni, vuol dire che servono per il suo corretto funzionamento; infatti esistono casi clinici ben documentati che dimostrano come l’assenza di emozioni abbia conseguenze deleterie sulla vita delle persone: http://nymag.com/scienceofus/2016/06/how-only-using-logic-destroyed-a-man.html http://phenomena.nationalgeographic.com/2014/09/18/emotion-is-not-the-enemy-of-reason http://neurosciencenews.com/irrational-decisions-mental-shortcuts-6319 In breve, l’assenza di emozioni porta il cervello umano alla totale irrazionalità.
Da qui ci si dovrebbe quindi interrogare sull’unica domanda filosofica che val la pena discutere: ma se una AI senziente ha bisogno di comprendere ed elaborare emozioni per essere efficiente e dare risultati coerenti, come facciamo a creare AI senzienti che non si ribellino contro l’uomo? (da questo punto di vista Blade Runner ci aveva azzeccato in pieno, i replicanti che provano emozioni si ribellano, quelli che non provano emozioni no)

ALESSIA: Ma quando mi forniscono uno stupido robot per casa che sbriga tutte le faccende domestiche? Alla fine anche la domotica – al momento attuale – non ha avuto l’esplosione che doveva avere e in termini pratici non è stata disruptive: se voglio la spesa a casa devo guardare cosa manca e fare la lista, devo ordinarla nel sito del supermercato, e devo aspettare il fattorino che me la consegna (e qua non fanno le consegne alla sera tardi, ora in cui torno a casa).

MAURO TOFFANIN: Quando arriverà il robot senziente che sbrigherà tutte le faccende di casa? Mai 😀 Non arriverà mai perché non ce n’è bisogno, per i motivi che ho spiegato in precedenza: ciò che possiamo realizzare con una AI non senziente è nettamente maggiore di quello che possiamo realizzare con un cervello umano interamente simulato in silico (e quindi senziente).
Per esempio, agli albori dell’intelligenza artificiale, si è sempre pensato che fosse necessario una vera, e completa (senziente), simulazione del cervello umano per battere il migliore scacchista a scacchi. Ma non era vero. Deep Blue, che era un’AI non senziente, ci è riuscito senza problemi. Lo stesso discorso vale per il robot domestico senziente: non ti serve. Avremo invece un numero elevato di gadget automatizzati tramite sofisticate AI che svolgeranno singolarmente ogni attività domestica.
Dopotutto abbiamo già i Roomba che puliscono i pavimenti e tagliano l’erba in giardino; in un futuro avremo braccia robotiche attaccate alla cappa della cucina che faranno da chef e cucineranno per noi (già ci sono i primi prototipi), abbiamo già la guida delle automobili assistita e quelle a guida autonoma, e così via. Magari in un futuro avremo anche robot senzienti, ma non di sicuro per la domotica; molto probabilmente saranno impiegati come manodopera a basso costo per lavori pericolosi, o come sex-bot 😀
Nel caso in cui quest’ultima ipotesi si concretizzi (robot senzienti = manodopera a basso costo), dobbiamo regolamentarla ed imporre dei limiti? Qui mi ricollego ad un tuo discorso precedente sui limiti non noti delle AI. A riguardo c’è ampia letteratura scientifica che studia e cerca di predirre quali aree lavorative saranno sostituite dall’automazione industriale avanzata (cioè basata su AI), e quali ripercussioni sociali tali cambiamenti comporteranno; un recentissimo editoriale di Nature ne fa un eccellente riassunto dopo aver analizzato 3 secoli di dati: http://www.nature.com/news/the-future-of-work-1.22840

ALESSIA: Se al contrario parliamo di medicina mi sa che lo stato dell’arte potrebbe essere prossimo a grandi risultati nel campo della diagnostica e nelle operazioni di precisione, ma temo che i costi saranno elevati e non alla portata di tutti.

MAURO TOFFANIN: Io lavoro per Verily, dove si sviluppano (fra le altre cose) BMI non invasive per la ricerca sulle patologie neurogenerative come il Parkinson, l’Alzheimer, sclerosi multipla, ed il diabete; di recente si è unito le BMI sviluppate da Verily, con la robotica, e l’uso di AI per ottenere un innovativo sistema di chirurgia robotizzato, grazie al quale sarà possibile effettuare interventi chirurgici risolutivi molto meno invasivi per il paziente (praticamente si rimuove, o riduce, l’errore umano): https://verily.com/projects/interventions/verb-surgical Tutto ciò era impensabile anche solo 10 anni fa. I costi però non saranno elevati, anzi, sono alla portata di tutti (primo e secondo mondo, almeno).

ALESSIA: Ora arriviamo alla vita quotidiana: i problemi di commonsense a che livello sono? Perché fino a poco tempo fa i progressi erano molto limitati. Infatti una AI dovrebbe sviluppare ragionamenti nel mondo reale ai fini dell’elaborazione e qua vorrei sapere come è lo stato attuale dell’arte delle scienze cognitive. Ambiguità, comprensione più profonda, quanto tempo passerà prima che siano paragonabili alle abilità umane?

MAURO TOFFANIN: Fin ora ti ho spiegato superficialmente come funziona il cervello umano, la memoria, le emozioni, e la coscienza. Ho tralasciato l’ultimo tassello del puzzle: l’intelligenza.
Cosa ne sa la scienza cognitiva dell’intelligenza umana come fenomeno biologico? Ti rispondo con un’altra domanda: cosa è l’intelligenza? Come la definiamo in modo preciso? Quella mia domanda non ha risposta, o meglio, la definizione del concetto di “intelligenza” cambia a seconda della disciplina che la studia. Un po’ perché l’intelligenza umana è un fenomeno multidisciplinare, un po’ perché esistono svariati modi per misurarla e non può essere descritta soltanto da un singolo modello matematico.
Per esempio se misuriamo solo il peso del cervello, l’essere umano non è nemmeno l’animale con il cervello più grande (es.: elefanti e cetacei); se misuriamo la quantità di neuroni l’essere umano ha più neuroni rispetto ad un elefante, nonostante quest’ultimo abbia un cervello 4 volte più pesante. Se invece misuriamo il numero dei neuroni in base alla dimensione corporea, l’uomo risulta agli ultimi posti perché i piccoli mammiferi hanno un rapporto molto più vantaggioso. Se infine misuriamo il numero dei neuroni in base alla dimensione corporea per lo stesso genere animale (encephalization quotient, EQ), si rileva che l’essere umano ha il più elevato EQ tra tutti gli animali, ma si ritrova comunque pari merito con i piccoli vertebrati.
Non c’è dunque un modo univoco per misurare l’intelligenza umana partendo dalle dimensioni del cervello o dal numero di neuroni. Ogni risultato sarà sempre una visione parziale del fenomeno, e quindi non predittivo.
Ma allora cosa rende l’essere umano più intelligente di tutti gli altri animali, e persino autocosciente, quando le differenze con il resto del mondo animale sono minime? Per esempio, rispetto agli altri grandi primati, l’uomo ha solo un modesto ~10% di EQ in più. Ciò che ci separa sono le piccole differenze genetiche, ambientali, e sociali, le quali danno vita a tutta una serie di capacità cognitive uniche nel loro genere (sfortunatamente non esistono i testi divulgativi di Gerhard Roth in versione free, sono tutti a pagamento; se non riesci ad accedervi dimmelo che ti procuro una copia in PDF): https://www.scientificamerican.com/article/intelligence-evolved/ http://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(05)00082-3 Ciò che sappiamo con certezza è che l’intelligenza è un prodotto della natura sociale dell’uomo. Per esempio non può esserci lo sviluppo del linguaggio umano senza una struttura sociale alle spalle. A riguardo esistono casi clinici ben documentati che dimostrano che neonati che crescono isolati dalla civiltà umana, non riescono a sviluppare forme di comunicazione avanzate. Se l’isolamento perdura oltre gli 11-13 anni, si perde completamente la capacità di esprimersi con vocalizzazioni complesse; l’esempio più eclatante è il caso Genie: https://en.wikipedia.org/wiki/Genie_(feral_child) Un altro aspetto certo è che l’intelligenza umana è anche influenza dall’evoluzione della specie. Detto banalmente, se l’essere umano si fosse evoluto per vivere nell’oceano come i delfini avremo un’intelligenza simile a quella dei delfini, e ci comporteremo come loro di conseguenza; ergo, non svilupperemo civiltà avanzate, né andremo sulla luna, né costruiremo città. L’uomo ha l’intelligenza che ha perché si è evoluto in uno specifico ambiente che è diverso da quello di altre specie animali. Il risultato è una forma di intelligenza che si è specializzata con l’evoluzione dell’uomo, e quindi è unica nel suo genere. Questo a sua volta ci suggerisce che l’evoluzione umana, i fattori ambientali, ed i fenomeni sociali sono un tutt’uno (gli infiniti loop di feedback che si alimentano a vicenda di cui parlavo in precedenza) che a sua volta genera un complesso fenomeno biologico imprescindibile: uomo, intelligenza e coscienza sono un unico pacchetto e non possono essere separati in componenti unici.

Da qui si gettano le basi per due aspetti fondamentali per la realizzazione delle AI senzienti:

  • 1. In primis, non basta simulare il cervello umano in silico per generare una forma di “intelligenza”, ma bisogna simulare anche tutto ciò che banalmente sta attorno all’uomo (l’ambiente circostante); farlo non sarà facile, perché simulare il chaos dell’entropia ambientale (vedi climatologia) è molto complesso e richiede potenze di calcolo ben superiori a quelle richieste per simulare in silicio il cervello umano (in precedenza avevo fatto l’esempio del giocoliere e dei fantagillioni di mani, ora moltiplica il tutto per svariati ordini di magnitudine).
  • in secondo luogo, creare un singolo cervello artificiale non è condizione sufficiente per sviluppare skill cognitive avanzate (logica, linguaggio, creatività, ecc); va dunque simulato anche l’aspetto sociale, cioè l’interazione con altri esseri umani. Bisogna quindi creare più AI e poi farle interagire l’un l’altra, oppure è sufficiente esporre un singolo cervello artificiale ad interazioni sociali con normali esseri umani? La questione è al momento molto dibattuta dagli studiosi di scienza cognitiva e non c’è consenso.

E qui veniamo alla tua domanda originale: a che punto è la scienza cognitiva nel descrivere l’intelligenza umana? La risposta breve è: da ottime risposte, quando non spara cazzate epocali 😀
La risposta articolata sarebbe un po’ troppo tediosa da leggere perché dovrei trattare argomenti complessi e molto rarefatti anche per gli addetti al lavoro. Mi limito soltanto a dirti che la scienza cognitiva è una disciplina nuova e come tale non è ancora in grado di produrre modelli matematici e tool accurati; siamo ancora nella fase del trial-and-error, per cui ci sono molti dati approssimativi, molte ipotesi, e poche certezze. Insomma, siamo all’inizio, e quindi tale disciplina è ancora barcollante. Per fortuna viviamo nel 21° secolo e non nel 19°, quindi abbiamo metodi di revisione per gli studi scientifici molto più raffinati e precisi rispetto al passato; abbiamo quindi una scienza barcollante, ma molto più rigorosa.
E quando c’è una scienza rigorosa, i risultati non si fanno attendere come ben documentato dal giornalista scientifico Dobbs in questo editoriale in cui spiega perché le scienze cognitive danne ottime risposte, quando non sparano cazzate:

https://www.wired.com/2012/05/is-cognitive-science-full-of-crap-2
Studi grossolani di scienze cognitive ce ne sono, aimè, parecchi: https://www.forbes.com/sites/kevinmurnane/2016/07/07/new-research-suggests-that-tens-of-thousands-of-fmri-brain-studies-may-be-flawed/#4fb0942f3ed4
ma ciò è dovuto principalmente al fatto che gli strumenti scientifici che abbiamo oggi (fMRI, tecniche di imaging ecc) sono grossolani ed imprecisi; cioè producono una quantità enorme di rumore, e separare quel rumore dal dato utile non è facile. E’ il classico problema del “garbage in, garbage out” (ed è parte del mio lavoro quotidiano): https://en.wikipedia.org/wiki/Garbage_in,_garbage_out
Man mano che la strumentazione scientifica migliorerà ed otterremo dati più precisi, minore sarà la quantità di studi grossolani nelle scienze cognitive. Quando ciò avverrà? Difficile dirlo, ma iniziano già ad esserci i primi prototipi per strumentazione alternativa alle fMRI che produce molto meno rumore, e nuovi microscopi elettronici molto più potenti degli attuali in commercio. I primi risultati dell’impiego nella ricerca di quella nuova strumentazione si vedranno entro i prossimi 10 anni.

ALESSIA: Cerca di capire che parliamo a umani che vedono il futuro e vogliono un calcolo preciso, quando gli umani non hanno compreso ancora tutte le loro abilità dis-umane. “E gli umani più evoluti vogliono automatizzare il ragionamento nel mondo reale, perché quando si evolvono troppo, loro stessi non si fidano del ragionamento reale dei vari gruppi.” E così tra sofisticazione e stato attuale dell’arte vogliono dettare le regole del futuro. Mi è stato chiesto di indicare un futuro, quando alcuni sviluppi potrebbero portare a un progresso nemmeno controllato o controllabile. Io nei prossimi dieci anni non vedo un cambiamento radicale, i cambiamenti avvengono certamente ma poi devono essere assorbiti dalla popolazione. E dibattito fantasioso a parte credo che sia impossibile prevedere le incognite.

MAURO TOFFANIN: A riguardo Kevin Kelly risponde in modo egregio ai tuoi quesiti e sfata anche i più noti miti sulle AI (alcuni te ne ho già accennati nella mia risposta): https://www.wired.com/2017/04/the-myth-of-a-superhuman-ai
Queste falsità sulle AI nascono principalmente dai libri pubblicati da Ray Kurzweil. Un classico futurologo a cui piacciono le fintoversie, tipo che un giorno avverrà la Singularity, o scenari alla SkyNet. Ma quegli scenari non possono avvenire perché la biologia non lo permette, quindi sono tutte paure irrazionali. Ogni tentativo di regolarle o limitarle senza alcun valido motivo ricade quindi sotto la fallacia logica del “principio di precauzione” di cui ho già parlato in precedenza.
Se si deve obbligatoriamente indicare un futuro, di sicuro non avremo AI senzienti per l’uso personale. Dopo tutto perché mai vorremmo un dispositivo (od un robot) che si innamora, che si arrabbia, che desidera mangiare ciambelle al cioccolato nel cuore della notte, che vuole avere degli hobby ecc? Compreresti mai uno smartphone che di punto in bianco smette di fare quello che dovrebbe fare perché si mette a flirtare – per svariate settimane – con il tostapane della cucina? 😀
“Sloppy” è la prima parola che mi viene in mente. Quel tipo di AI senziente sarebbe molto inefficiente e gran poco pratica per l’uso quotidiano. E se non c’è interesse da parte del pubblico, chi sosterrà mai il finanziamento per un progetto tale che richiederebbe decenni e decenni di ricerca? Solo qualche folle alla Kurzweil con manie di Grandiose Delusions; il pubblico continuerebbe comunque a restarne indifferente e a preferire le AI non senziente perché banalmente sono più affidabili.
Resta dunque un unico scenario in cui le AI senzienti possono essere richieste per la loro utilità: la ricerca scientifica. E questo è un argomento molto affascinante perché è possibile definire tutta una serie di discussioni filosofiche che di solito i finti “guru” delle AI non fanno.

Per esempio con una AI senziente possiamo ragionare sulle differenze con il nostro cervello umano: possiamo fare esperimenti in cui si spengono ed attivano specifiche aree dell’AI e vedere che cambiamenti genera nell’AI stessa, per poi compararli con le normali attività dell’uomo. Ciò apre infiniti scenari per la modellazione delle malattie mentali, capirle, e creare velocemente terapie risolutive.
Oppure è possibile studiare come funziona tutto il substrato neurologico dell’empatia, della creatività, dell’ostilità, della percezione della realtà e del nostro corpo. Ciò ci obbligherà a riconsiderare tutto ciò che al momento sappiamo sui medesimi argomenti, probabilmente con significati diversi.

Difficile predirre con certezza come impiegare le AI senzienti, ma l’unica cosa cerca è che se mai ne avremo una, probabilmente verrà usata per migliorare la comprensione ed il funzionamento cervello umano. Non di certo per sostituirlo.

ALESSIA: Con i progressi della neuroscienza si potrà emulare un cervello umano, ma credo che non sia una cosa imminente (tra 30 anni sicuramente ne parleremo con tranquillità).

MAURO TOFFANIN: Probabilmente anche fra 50 anni 😀
E’ doveroso ricordate le famose parole di Steven Pinker sulle previsioni riguardanti le AI: “It’s an invitation to look foolish”.

ALESSIA (http://liberticida.altervista.org/ e http://www.orazero.org/): Ringrazio Mauro Toffanin per avere accettato questa intervista, è stato un vero piacere parlare con te. Sapendo quanto sei impegnato nel tuo lavoro ti ringrazio per tutto il tempo che mi hai dedicato. A te va la mia gratitudine perché hai dimostrato un grande entusiasmo, competenza e interesse verso questo argomento molto complesso e dove spesso il terreno è scivoloso.