Qualcosa su Alice e Bob

I robot con abilità linguistiche creative hanno conquistato l'immaginazione popolare. Hanno anche riacceso le ansie per una robocalisse

Alice e Bob, Alice e Bob Facebook, bot di Facebook, bot di intelligenza artificialeAlice e Bob, i bot di Facebook diventati infami a causa di un'imprevista deficienza nella logica di programmazione, fanno parte di un esperimento per costruire macchine negoziali. C R Sasikumar

Internet è in fiamme con titoli drammaticamente carichi di sventura che proclamano che Facebook ha dovuto staccare la spina dai robot di intelligenza artificiale (AI) canaglia che hanno sviluppato un proprio linguaggio, in cui stavano conducendo conversazioni private disumane. Si leggono come teaser per un Terminator globocalypse, che è il peggior incubo dei primati che usano strumenti, da sostituire con la sua stessa creazione, la macchina.

La realtà è meno drammatica ma più emozionante. I bot sono agenti autonomi originariamente programmati per svolgere compiti di pulizia sui canali di comunicazione o per tentare di superare il test di Turing. Possono iscriverti, cacciarti se ti comporti male, tenere aperte le chat room quando nessuno è a casa, fornire informazioni e mascherarsi da umani. Sul sistema Internet Relay Chat, il bot Eggdrop era il preferito di tutti i tempi.

I nipoti di tali bot bidelli sono incorporati in moderni agenti di ricerca e messaggeri e hanno capacità di intelligenza artificiale. Parlano con gli utenti come farebbe un essere umano, rispondono alle domande di routine e offrono consigli. Se il tuo telefono sembra conoscere la tua mente e tira fuori le cose giuste senza che ti venga chiesto, gran parte del merito deve andare ai bot che lavorano dietro le quinte. Come gli umani, i robot possono imparare dall'esperienza e sono destinati a cose più grandi nelle situazioni del mondo reale.



Alice e Bob, i bot di Facebook diventati infami a causa di un'imprevista deficienza nella logica di programmazione, fanno parte di un esperimento per costruire macchine negoziali. Stavano semplicemente cercando di capire come condividere una serie di oggetti, come le palle, in modo che nessuna delle due parti si sentisse presa in giro. Durante la contrattazione, Alice ha fatto affermazioni inizialmente incomprensibili come, Balls hanno zero a me a me a me a me a me… E seguirono i titoli spaventosi.

L'apprendimento è guidato da incentivi, come sanno insegnanti e genitori. In questo caso, è stato definito il sistema di ricompensa dell'esercizio: una migliore condivisione e soddisfazione reciproca, l'essenza della contrattazione. Ma non c'era alcun incentivo per i bot a continuare a comunicare in inglese, che è una lingua notoriamente illogica. Così sono scivolati in un argot semplificato, più efficiente, simile al neolingua, che non è proprio inglese, ma non incomprensibile come pubblicizzato.

L'affermazione di Alice, che è stata erroneamente interpretata come un'affermazione di indipendenza dalla macchina, indicava solo sgomento per essere stata modificata (avere zero) e ciascuna per me rappresentava un oggetto che lei richiedeva. Stava facendo esattamente il lavoro per cui era programmata: contrattare duramente come un negoziante nel Grand Bazaar di Istanbul. E se scopriva che l'inglese della regina si metteva in mezzo, non era sola. Molte razze delle ex colonie sentivano che la lingua principale impediva le comunicazioni nelle loro comunità.

Solo i negoziatori umani professionisti devono essere ansiosi se i giganti della Silicon Valley stanno investendo in programmi di contrattazione. Anche i terroristi e i partecipanti al summit dovrebbero temere la pensione, perché in situazioni di ostaggio e accordi internazionali, potrebbero trovarsi di fronte a una macchina imperscrutabile e implacabile che è molto più intelligente di Deep Blue, il supercomputer IBM che ha sfidato il campione di scacchi Garry Kasparov nel 1996.

L'impulso a sviluppare linguaggi privati ​​è un tratto molto umano. Prima che le borse fossero informatizzate, gli agenti di cambio del trading floor comunicavano le offerte con segnali manuali che erano incomprensibili per gli altri. Per secoli, le forze dell'ordine sono state sconcertate dai canti dei ladri, i linguaggi artificiali dei detenuti che sono incomprensibili per i loro carcerieri. Tra i criminali di lingua inglese del 20 ° secolo, la parola senza senso arkitnay significava, stai zitto, qualcuno sta origliando. In India, William Henry Sleeman studiò Ramaseeana, il cant of Thuggee, e pubblicò un vocabolario nel 1836. Una delle commedie meno rappresentate ma più intriganti di Tom Stoppard è l'Amleto di Dogg, in cui gli scolari interpretano Shakespeare nella loro lingua, Dogg. Era un po' come un cifrario a trasposizione. Ad esempio, i pomeriggi significavano ciao a Dogg.

Non importa i profeti di sventura, la cosa interessante di Alice e Bob è che nel creare un linguaggio, hanno tradito un tratto molto umano, che non erano stati esplicitamente programmati per esibire. Sessant'anni fa, furono scritti i primi robot per esplorare proprio questa domanda: le macchine potrebbero essere programmate per comportarsi come gli umani? Riusciranno a superare il test di Turing? In un articolo del 1950 intitolato Computing Machinery and Intelligence, Turing suggeriva essenzialmente che se le comunicazioni di una macchina sembrano essere umane, allora la macchina dovrebbe essere considerata umana.

Il primo bot di elaborazione del linguaggio naturale a uscire dal laboratorio e guadagnare popolarità di massa è stato Eliza, creato nel 1964 da Joseph Weisenbaum al MIT. Lo scrisse per dimostrare che le comunicazioni testuali uomo-macchina non potevano elevarsi al livello di una conversazione umana. Al contrario, Eliza ha sollevato le aspettative del pubblico sul fatto che avrebbe superato il test di Turing. Trent'anni dopo, speranze ancora più grandi furono ispirate da Julia, creata dal fondatore di Lycos Michael Mauldin per competere per il Premio Loebner, il Santo Graal del test di Turing. Ma oltre un certo punto, le chat di Julia si snodano in riflessioni casuali sulle proprietà di cani e gatti (puoi chattare con una versione moderna di lei su scratch.mit.edu/projects/2208608).

Ora, i robot con abilità linguistiche creative hanno conquistato l'immaginazione popolare, riaccendendo le ansie per una robocalisse. Ma uno sviluppo nel laboratorio di intelligenza artificiale di Google è in realtà più eccitante. A settembre 2016, Google ha lanciato il suo sistema di traduzione automatica neurale, che applica il deep learning alla lingua. Due mesi dopo, hanno spinto la busta: se una macchina imparasse a tradurre, diciamo, tra hindi e tedesco e tra hindi e inglese, potrebbe tradurre tra inglese e tedesco senza la lingua ponte dell'hindi? Potrebbe, suggerendo che la rete neurale ha imparato qualcosa di fondamentale su come la mente collega concetti e grammatiche per forgiare le lingue. Il piccolo pesce Babele giallo, simile a una sanguisuga, il traduttore universale vivente sognato da Douglas Adams alla fine degli anni Settanta, è ora in bilico vicino al tuo orecchio.

Naturalmente, dal momento che non esiste una prognosi a lungo termine per l'IA, l'avvertimento di persone che dovrebbero conoscere meglio, come Elon Musk e Stephen Hawking, dovrebbe ricevere la dovuta attenzione. Ci dovrebbe essere una regolamentazione, nonostante le proteste dei fautori della libertà di innovare, come Mark Zuckerberg. E dovrebbe svilupparsi un consenso generale, concordando su linee che non devono essere attraversate, come nel caso degli interventi sul genoma umano. Ma non si può negare che gli esperimenti di Facebook e Google stanno portando avanti lo scopo originale dell'IA, che era quello di modellare e comprendere aspetti della mente umana. Le luride storie mediatiche che attraggono sono sensazioni passeggere. Il giorno dopo sono adatte per incartare il pesce.