What is consciousness? Can an artificial machine really think? Does the mind just consist of neurons in the brain, or is there some intangible spark at its core? For many, these have been vital considerations for the future of artificial intelligence. But British computer scientist Alan Turing decided to disregard all these questions in favor of a much simpler one: can a computer talk like a human?
Cos'è la coscienza? Può una macchina davvero pensare? La mente è composta solamente dai neuroni del cervello o c'è una scintilla intangibile nel profondo? Per molti, queste sono state considerazioni vitali per il futuro dell'intelligenza artificiale. Ma l'informatico britannico Alan Turing decise di ignorare tutte queste domande per privilegiarne una molto più semplice: un computer può dialogare come un essere umano?
This question led to an idea for measuring aritificial intelligence that would famously come to be known as the Turing test. In the 1950 paper, "Computing Machinery and Intelligence," Turing proposed the following game. A human judge has a text conversation with unseen players and evaluates their responses. To pass the test, a computer must be able to replace one of the players without substantially changing the results. In other words, a computer would be considered intelligent if its conversation couldn't be easily distinguished from a human's.
Questa domanda portò all'idea di misurare l'intelligenza artificiale che diventerà nota come il test di Turing. Nell'articolo del 1950, "Computing Machinery and Intelligence," Turing propose il seguente gioco. Un arbitro umano discute testualmente con giocatori nascosti ed valuta le loro risposte. Per passare il test, un computer deve essere in grado di sostituire uno dei giocatori senza cambiare significativamente i risultati. In altre parole, un computer si considera intelligente se la sua conversazione non si riesce a distinguere da quella di un umano.
Turing predicted that by the year 2000, machines with 100 megabytes of memory would be able to easily pass his test. But he may have jumped the gun. Even though today's computers have far more memory than that, few have succeeded, and those that have done well focused more on finding clever ways to fool judges than using overwhelming computing power. Though it was never subjected to a real test, the first program with some claim to success was called ELIZA. With only a fairly short and simple script, it managed to mislead many people by mimicking a psychologist, encouraging them to talk more and reflecting their own questions back at them. Another early script PARRY took the opposite approach by imitating a paranoid schizophrenic who kept steering the conversation back to his own preprogrammed obsessions. Their success in fooling people highlighted one weakness of the test. Humans regularly attribute intelligence to a whole range of things that are not actually intelligent. Nonetheless, annual competitions like the Loebner Prize, have made the test more formal with judges knowing ahead of time that some of their conversation partners are machines.
Turing previde che entro l'anno 2000, i computers con 100 MB di memoria sarebbero stati in grado di passare facilmente il suo test. Forse correva troppo. Anche se i computer attuali hanno molta più memoria, pochi hanno avuto successo e quelli che ci sono riusciti, più che altro hanno trovato modi intelligenti per ingannare i giudici piuttosto che usare una grande potenza di calcolo. Anche se non è mai stato sottoposto a un vero test, il primo programma, che in qualche modo ebbe successo, fu chiamato ELIZA. Con uno script abbastanza corto e semplice, riuscì a ingannare molti, imitando uno psicologo, che li incoraggiava a parlare di più e riproponeva le loro stesse domande. Un altro tra i primi script, PARRY, usò un approccio opposto imitando un paranoico schizofrenico che continuava a deviare la conversazione sulle sue ossessioni preprogrammate. Il loro successo nell'ingannare le persone sottolineò una debolezza del test. Gli esseri umani considerano comunemente intelligenti una serie di cose, che non lo sono realmente. Eppure, competizioni annuali come il Premio Loebner, hanno reso il test più formale con giudici che sanno in anticipo che alcuni dei loro compagni di conversazione sono macchine.
But while the quality has improved, many chatbot programmers have used similar strategies to ELIZA and PARRY. 1997's winner Catherine could carry on amazingly focused and intelligent conversation, but mostly if the judge wanted to talk about Bill Clinton. And the more recent winner Eugene Goostman was given the persona of a 13-year-old Ukrainian boy, so judges interpreted its nonsequiturs and awkward grammar as language and culture barriers. Meanwhile, other programs like Cleverbot have taken a different approach by statistically analyzing huge databases of real conversations to determine the best responses. Some also store memories of previous conversations in order to improve over time. But while Cleverbot's individual responses can sound incredibly human, its lack of a consistent personality and inability to deal with brand new topics are a dead giveaway.
Ma, mentre la qualità è migliorata, molti programmatori di chat hanno usato strategie simili a ELIZA e PARRY. Catherine, vincitrice del 1997, riusciva a sostenere una conversazione straordinariamente precisa e intelligente, ma perlopiù se il giudice volesse parlare di Bill Clinton. E un vincitore più recente Eugene Goostman incarnava un ragazzino ucraino di 13 anni, quindi i giudici interpretavano le sue dichiarazioni illogiche e una strana grammatica come barriere culturali e linguistiche. Nel frattempo, altri programmi come Cleverbot hanno usato un approccio diverso analizzando statisticamente enormi database di vere conversazioni per determinare le migliori risposte. Alcuni memorizzano anche ricordi di precedenti conversazioni per migliorare con il tempo. Ma, mentre le risposte di Cleverbot possono sembrare incredibilmente umane, la mancanza di una vera personalità e l'incapacità di trattare argomenti nuovi lo tradiscono.
Who in Turing's day could have predicted that today's computers would be able to pilot spacecraft, perform delicate surgeries, and solve massive equations, but still struggle with the most basic small talk? Human language turns out to be an amazingly complex phenomenon that can't be captured by even the largest dictionary. Chatbots can be baffled by simple pauses, like "umm..." or questions with no correct answer. And a simple conversational sentence, like, "I took the juice out of the fridge and gave it to him, but forgot to check the date," requires a wealth of underlying knowledge and intuition to parse. It turns out that simulating a human conversation takes more than just increasing memory and processing power, and as we get closer to Turing's goal, we may have to deal with all those big questions about consciousness after all.
Chi all'epoca di Turing avrebbe potuto prevedere che i computer attuali sarebbero stati in grado di pilotare un'astronave, eseguire delicati interventi chirurgici, e risolvere enormi equazioni, ma essere in difficoltà in una banale conversazione? Il linguaggio umano sembra essere un fenomeno straordinariamente complesso che neanche il più grande dizionario può catturare. I programmatori di chat possono farsi ingannare da semplici pause come "umm..." o domande senza alcuna risposta corretta. E una semplice frase di una conversazione come: "Ho preso il succo dal frigo e gliel'ho dato, ma ho dimenticato di controllare la data," richiede molte conoscenze pregresse e intuizione per l'analisi grammaticale. Sembra che per simulare una conversazione umana ci voglia molto più che una grande memoria e potenza di calcolo, e man mano che ci avviciniamo sempre più all'obiettivo di Turing, dopotutto ci potremmo trovare a dover affrontare