venerdì 10 novembre 2017

Essere umani

Alla domanda su "chi siamo?" prova a rispondere, in maniera apparentemente sorprendente Essere umani di Brian Christian, poeta e vincitore del titolo di "umano più umano" nel 2009.
Un'indegna introduzione
La storia inizia con il premio Loebner, una competizione internazionale tra intelligenze artificiali indetta e finanziata da Hugh Loebner. L'idea del premio nasce dal gioco dell'imitazione ideato da Alan Turing, meglio noto come test di Turing, cristallizzatosi su una formula non troppo diversa da quella proposta dal matematico britannico. Alcuni giudici, infatti, chattano per cinque minuti con un utente che non possono vedere e danno a ciascuno una sorta di livello di umanità. Alla fine vengono assegnati due premi, uno al bot risultato più umano e l'altro all'... umano più umano. In Essere umani Brian Christian racconta della sua esperienza e di come si è preparato per la sua partecipazione, di fatto realizzando una ricerca su ciò che ci rende umani.
In ultima analisi, ciò che mi ha stupito di più del libro di Christian è come, utilizzando il semplice obiettivo di dimostrarsi umano durante il test di Turing, ci si avvicini a vari aspetti più o meno connessi tra loro, come l’intelligenza, il linguaggio, la compressione delle informazioni.
I bot come terapisti
Il cuore del Premio Loebner, il moderno test di Turing, sono le ricerche sui bot. Questi sono essenzialmente dei programmi di chat (da cui il nome più preciso di chatterbot) che dialogano con gli utenti cercando di simulare degli esseri umani nel modo migliore possibile.
Il primo software di questo genere fu ELIZA, sviluppato nel 1966 da Joseph Weizenbaum. A partire da ELIZA i bot si sono sviluppati sempre di più, riuscendo ad avvicinarsi in molte occasioni al superamento del test di Turing. L'osservazione più interessante sull'argomento è che una delle principali applicazioni dei bot è nell'ambito dell'assistenza psicologica: un bot, infatti, si rivela un terapista migliore di un essere umano!
Ovviamente di possibili applicazioni se ne possono immaginare moltissime, dall'ambito letterario (vedi, ad esempio, Le argentee teste d’uovo per un'interpretazione umoristica della vicenda), a quelli politico, giornalistico e così via. E ci si aspetta che potrebbero tranquillamente affrontare qualunque genere di lavoro, almeno nel momento in cui li si dota di corpi adatti a qualunque scopo.
Certo c'è da dire che il vantaggio dei bot che hanno partecipato al premio Loebner, e in fondo di un po' tutti i bot che circolano in giro, è la loro specializzazione. I bot del premio devono convincere i giudici che sono esseri umani, un compito leggermente più semplice che esserlo sul serio, proprio grazie alle possibilità che concede lo studio del linguaggio. Una delle caratteristiche di questi bot, però, è una qual certa mancanza di creatività, non solo relativamente alla gestione della conversazione(1), ma anche nella capacità di cambiare argomento all'improvviso o in base agli spunti dell'interlocutore.
Questo, però, ci porta dritti alla delicata questione della progettazione di un'intelligenza artificiale e quindi a uno dei pionieri nel campo, Claude Shannon, che ha tra l’altro anche contribuito allo sviluppo teoria matematica della crittografia.
Ho sposato un calcolatore
A dirla così sembra quasi che Shannon abbai fatto chissà cosa per sposare il proprio calcolatore. In realtà all'epoca i calcoli venivano ancora eseguiti da esseri umani, donne per la precisione. E la moglie di Shannon, Betty, era un’analista numerica ai Bell Labs, dove si conobbero, per poi sposarsi nel 1949.
Curiosità della vita privata a parte, Shannon viene considerato il padre della teoria dell'informazione grazie all'articolo A Mathematical Theory of Communication (2), pubblicato nel 1948 in due parti sui numeri di luglio e ottobre del Bell System Technical Journal.
L'articolo si concentra sul problema della migliore codifica per l'informazione che si vuole trasmettere. Shannon, utilizzando gli strumenti della teoria della probabilità svilupati da Norbert Wiener, sviluppò il concetto di entropia dell'informazione come la misura dell'incertezza in un messaggio: era l'inizio della teoria dell'informazione.
Una versione popolare e accessibile del lavoro viene publicata su The Mathematical Theory of Communication, un libro scritto da Shannon insieme con Warren Weaver. Questi osservò che la parola informazione nella teoria della comunicazione non è legata a ciò che si dice, ma a ciò che si potrebbe dire. Ovvero l'informazione è una misura della libertà di scelta quando si seleziona un messaggio.
Un altro importante articolo nel campo fu Prediction and Entropy of Printed English del 1951(3), fondamentale per fornire una base statistica all'analisi del linguaggio e per la compressione delle informazioni. Inoltre l'aggiunta dello spazio come 27.ma lettera diminuisce l'incertezza nella lingua scritta, fornendo una connessione chiaramente quantificabile tra pratica culturale e cognizione probabilistica.
Obiezione, vostro onore!
Il Motore Analitico non ha alcuna pretesa di originare nulla. Può fare qualunque cosa noi sappiamo come ordinargli di eseguire.
Questa può essere considerata come la prima obiezione della storia allo sviluppo dell'intelligenza artificiale, come la chiamiamo oggi. A formularla fu Ada Lovelace, cui rispose all’incirca un secolo dopo Alan Turing nel famosissimo Computing Machinery and Intelligence(4).
Il matematico britannico, però, seguendo Douglas Hartree(5), ricorda come l'obiezione della Lovelace è fondamentalmente conseguenza dell'impossibilità, all'epoca, di progettare una macchina in grado di
'pensare da sé', o in cui, in termini biologici, si potrebbe creare un riflesso condizionato, che servirebbe come base per 'apprendere'.
Un paio di varianti all'obiezione di Lady Lovelace sono "non fanno nulla di realmente nuovo" e "non ci sorprendono".
Sulla questione dell'originalità, Turing obietta a sua volta che in fondo il lavoro originale degli esseri umani potrebbe semplicemente essere
la crescita di un seme piantato all'interno dall'insegnamento, o l'effetto del seguire principi generali ben noti.
Relativamente alla capacità di sorprendere delle macchine, Turing ricorda che, in effetti, le macchine continuano a sorprenderlo, per via delle capacità di calcolo, non sempre (e ancora oggi non completamente) esplorate. D'altra parte si potrebbe obiettare che è proprio Turing a sorprendersi. Qui, però, distaccandosi un attimo dalle argomentazioni specifiche dell'articolo(4), si può allora chiedere alla macchina non di stupirci, ma di stupirsi. O, per meglio dire, si può insegnare alla macchina a stupirsi.
La parte conclusiva dell'articolo di Turing, infatti, si concentra sul machine learning, l'addestramento delle macchine come strumento per la realizzazione di un'intelligenza artificiale in grado di competere con quella umana. E qui Turing apre la strada a un genere di sfida differente rispetto al gioco dell'imitazione introdotto nel suo articolo(4):
Molte persone pensano che un’attività molto astratta, come giocare a scacchi, sarebbe la scelta migliore. Si può anche sostenere che è meglio fornire alla macchina i migliori organi di senso che i soldi possono acquistare e poi insegnarle a comprendere e parlare inglese. Questo processo potrebbe seguire l’insegnamento normale di un bambino. Le cose dovrebbero essere indicate e nominate, ecc. Ancora una volta non so quale sia la risposta giusta, ma credo che entrambi gli approcci debbano essere processati.
Morte degli scacchi
Dei due approcci, Turing affrontò quello scacchistico(6), ma non fu il primo, visto che tre anni prima ad affrontare il problema della programmazione di una macchina per giocare a scacchi fu Shannon(7), che propose una funzione di valutazione delle posizioni dei pezzi sulla scacchiera.
Per realizzare un buon software in grado di giocare a scacchi bisogna, infatti, far sì che il programma sia in grado di decidere quali siano le mosse migliori da fare. Una definizione ottimale è di tipo ricorsivo: bisogna scegliere la mossa che lasci il giocatore nella condizione migliore rispetto al suo avversario. Prima di compiere la scelta è, però, necessario considerare anche la contromossa e la contromossa della contromossa e così via, costruendo alla fine una sorta di albero delle mosse possibili lungo il quale si sviluppa la partita. Un simile approccio, però, richiede un tempo e una potenza di calcolo che non sempre sono disponibili, per cui bisogna affrontare il problema in una maniera differente, un modo che permetta di scegliere tra tutte le mosse possibili con un criterio differente. E questo criterio lo fornisce il manuale.
In ogni manuale di scacchi sono presenti le mosse di moltissime partite, in particolare le aperture e le chiusure. Questo vuol dire che i migliori software di scacchi cercano di trasformare una partita in una apertura con subito dopo una chiusura, aggirando così la sua parte più interessante, bella e creativa, quella in cui i pezzi si muovono e si dispongono prima dello scontro finale.
Questo approccio "da manuale", rischia di portare il gioco degli scacchi verso la morte definitiva, visto che viene sempre più utilizzato dai giovani giocatori. Questi fanno sempre più affidamento sulla memoria più che alle variazioni sulle mosse.
Un esempio di questo modo di affrontare il problema sono le sfide tra Garry Kasparov e Deep Blue: una delle vittorie di Kasparov si basa proprio su una mossa non prevista dai programmatori perché "non da manuale", mentre la vittoria decisiva di Deep Blue si basa su un singolo errore di Kasparov presente nel manuale: il software, quindi, sapeva perfettamente come condurre la partita a suo vantaggio a partire da quell'errore.
Molto prima degli scacchi, però, a morire fu la dama, che al contrario se ne rese conto ben prima dell'arrivo dei software giocatori. La morte della dama avvene nel campionato mondiale del 1863 che si svolse a Glasgow, in Scozia. James Wyllie e Robert Martins giocarono 40 partite, di cui 21 erano la stessa identica partita, le altre 19 vennero giocate con la stessa medesima apertura, denominata Apertura Glasgow, e tutte e 40 finirono in pareggio. La morte della dama era servita grazie alla teoria dell’apertura e alla scarsa audacia dei giocatori persino ai più alti livelli.
Una delle soluzioni a questo stato di cose fu l'idea molto semplice di costringere i giocatori a iniziare una partita nel mezzo, con un'apertura già giocata: con il 1900 si introdusse la "restrizione delle due mosse". Prima di ogni partita vengono scelte a caso due mosse iniziali per ciascun giocatore, generando un gioco più dinamico, ma comunque destinato a generare un manuale sufficientemente vasto da ridurre i vantaggi di questa scelta.
Così nel 1934 si introdusse la restrizione delle 3 mosse che ha permesso di risolvere il problema di "creatività" presente nella dama. A questa restrizione si sta introducendo anche il "sorteggio degli 11" dove uno dei 12 pezzi viene tolto casualmente a entrambi i giocatori.
Sconvolti dal problema della sempre maggiore influenza della teoria delle aperture e delle tecniche della memorizzazione, per recuperare il valore di creatività degli scacchi un altro grande campione del gioco come Bobby Fischer propose il rimescolamento dei pezzi nella posizione di partenza. La sua versione del gioco, nota come Fischer Random o Chess960, ha il suo campionato del mondo e molti dei principali giocatori degli scacchi tradizionali sono passati a 960.
Il linguaggio
Se pensiamo al secondo approccio suggerito da Turing(4), un passo intermedio potrebbero esere i cyborg. Uno degli ingegneri più attivi nel campo, Kevin Warwick, non è solo stato uno dei partecipanti al premio Loebner, ma è da considerarsi a tutti gli effetti il primo cyborg della storia, visto che ha iniziato a impiantarsi elementi elettronici all'interno del corpo.
Fondamentalmente le ricerche di Warwick generano discussioni e problemi etici, ma se vediamo la questione dal punto di vista sanitario, come per le ricerche di Braincontrol, probabilmente i lati positivi della faccenda sono indubbiamente superiori rispetto alle difficoltà. E forse è proprio l’approccio da cui si affronta il problema che dovrebbe fare la differenza: d'altra parte Warwick vede già il lato romantico delle sue ricerche, visto che anche sua moglie possiede gli stessi impianti. L'obiettivo è far sì che comunichino tra loro a distanza, generando così una maggiore empatia e, perché no, una sorta di telepatia tecnologica!
Fino a che questa rivoluzione non sarà completa, dovremo accontentarci dei modi classici di comunicazione. A tal proposito secondo Albert Mehrabian
il 55 per cento di quello che trasmettiamo quando parliamo dipende dal linguaggio del nostro corpo, il 38 per cento dal nostro tono di voce e un misero 7 per cento dalle parole che scegliamo.(8)
Forse è per questo che le ricerche sull'intelligenza artificiale si stanno intrecciando sempre più con quelle sulla robotica, seguendo finalmente la fantasia dei grandi scrittori di fantascienza, Isaac Asimov su tutti.
Qualcuno dirà che il rischio è consegnare il mondo, chiavi in mano, alla dominazione delle macchine e alla loro fredda logica, ma in questa paura ci sono un paio di errori di fondo: un'intelligenza artificiale in grado di competere con quella umana potrebbe non essere molto più logica rispetto a quella umana, e soprattutto, come sperimentato dalle intelligenze più sopraffine, il suo destino rischia di essere quello di una noia profonda.
Forse, il senso della ricerca/sfida sull'intelligenza artificiale non dovrebbe essere quello di creare qualcosa in grado di competere con gli esseri umani, ma di migliorare questi ultimi.
E in un certo senso è proprio lo stesso messaggio di Brian Christian con Essere umani.
  1. Assenza di interiezioni come "Uh" o "Uhm" anche nel discorso scritto, o assenza di momenti di sovrapposizione nella conversazione: quante volte ci siamo trovati non solo a parlarci ma anche a scriverci uno sull'altro?
  2. Claude E. Shannon: A Mathematical Theory of Communication, Bell System Technical Journal, Vol. 27, pp. 379–423, 623–656, 1948. doi:10.1002/j.1538-7305.1948.tb01338.x (sci-hub)
  3. Shannon, Claude E. Prediction and entropy of printed English. Bell Labs Technical Journal 30, no. 1 (1951): 50-64. doi:10.1002/j.1538-7305.1951.tb01366.x (pdf)
  4. Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460. (html)
  5. Hartree, D. R. (1950). Calculating instruments and machines.
  6. Turing, A. M. (1953). Chess. Faster Than Thought (pp. 286-195). London, Pitman.
  7. Shannon, Claude E. Programming a computer for playing chess. In Computer chess compendium, pp. 2-13. Springer New York, 1988. doi:10.1007/978-1-4757-1968-0_1 (txt - download)
  8. Traduzione di Mauro Capocci

Nessun commento:

Posta un commento