What is consciousness? Can an artificial machine really think? Does the mind just consist of neurons in the brain, or is there some intangible spark at its core? For many, these have been vital considerations for the future of artificial intelligence. But British computer scientist Alan Turing decided to disregard all these questions in favor of a much simpler one: can a computer talk like a human?
Qu'est-ce que la conscience ? Une machine peut-elle vraiment penser ? L'esprit n'est-il qu'un enchevêtrement de neurones, ou existe-t-il une insaisissable étincelle en son sein ? Nombreux sont ceux qui pensent que ces questions sont cruciales pour l'avenir de l’Intelligence Artificielle. Mais le scientifique britannique Alan Turing a décidé d'écarter ces questions au profit d'une autre, beaucoup plus simple : un ordinateur peut-il parler comme un être humain ?
This question led to an idea for measuring aritificial intelligence that would famously come to be known as the Turing test. In the 1950 paper, "Computing Machinery and Intelligence," Turing proposed the following game. A human judge has a text conversation with unseen players and evaluates their responses. To pass the test, a computer must be able to replace one of the players without substantially changing the results. In other words, a computer would be considered intelligent if its conversation couldn't be easily distinguished from a human's.
Cette question a amené une idée pour mesurer l’Intelligence Artificielle qui deviendrait très vite connue sous le nom de « Test de Turing ». Dans son article de 1950, « Intelligence et machines informatiques », Turing propose le jeu suivant : un juge humain reçoit la transcription d'une conversation sans voir les joueurs et évalue leurs réponses. Pour réussir le test, un ordinateur doit pouvoir remplacer l'un des joueurs sans changer les résultats de façon significative. En d'autres mots, on considère que l'ordinateur est intelligent si sa conversation ne peut pas être
Turing predicted that by the year 2000, machines with 100 megabytes of memory would be able to easily pass his test. But he may have jumped the gun. Even though today's computers have far more memory than that, few have succeeded, and those that have done well focused more on finding clever ways to fool judges than using overwhelming computing power. Though it was never subjected to a real test, the first program with some claim to success was called ELIZA. With only a fairly short and simple script, it managed to mislead many people by mimicking a psychologist, encouraging them to talk more and reflecting their own questions back at them. Another early script PARRY took the opposite approach by imitating a paranoid schizophrenic who kept steering the conversation back to his own preprogrammed obsessions. Their success in fooling people highlighted one weakness of the test. Humans regularly attribute intelligence to a whole range of things that are not actually intelligent. Nonetheless, annual competitions like the Loebner Prize, have made the test more formal with judges knowing ahead of time that some of their conversation partners are machines.
facilement différenciée de celle d'un humain. Turing conjectura que d'ici l'an 2000, des machines avec 100 Mégabytes de mémoire réussiraient facilement le test. Mais il a été trop optimiste. Bien que nos ordinateurs aujourd'hui possèdent bien plus de mémoire que ça, peu ont réussi, et ceux qui ont bien marché se sont plus concentrés sur des façons astucieuses de duper les juges plutôt que d'utiliser leur phénoménale puissance de calcul. Bien qu'il n'ait jamais été soumis à un test réel, le premier programme à revendiquer un succès s'appelait ELIZA. Avec un code plutôt simple et court, il s'est débrouillé pour tromper les gens en imitant un psychologue, c'est-à-dire encourager les gens à parler plus, en leur renvoyant leur propres questions. Un autre précurseur, PARRY, a adopté une approche opposée en imitant un schizophrénie paranoïde qui oriente sans cesse la conversation vers ses propres obsessions. Sa réussite à duper les gens a mis la lumière sur une faiblesse du test. Les humains qualifient d'intelligence une grande variété de choses qui en fait n'en sont pas. Toutefois, des concours annuels comme le prix Loebner, ont rendu le test plus formel : les juges savent à l'avance que certains de leurs interlocuteurs sont des machines.
But while the quality has improved, many chatbot programmers have used similar strategies to ELIZA and PARRY. 1997's winner Catherine could carry on amazingly focused and intelligent conversation, but mostly if the judge wanted to talk about Bill Clinton. And the more recent winner Eugene Goostman was given the persona of a 13-year-old Ukrainian boy, so judges interpreted its nonsequiturs and awkward grammar as language and culture barriers. Meanwhile, other programs like Cleverbot have taken a different approach by statistically analyzing huge databases of real conversations to determine the best responses. Some also store memories of previous conversations in order to improve over time. But while Cleverbot's individual responses can sound incredibly human, its lack of a consistent personality and inability to deal with brand new topics are a dead giveaway.
Malgré un saut qualitatif, les programmateurs d'agents conversationnels ont utilisé des stratégies similaires à celles d'ELIZA et de PARRY. Catherine, vainqueur de l'édition de 1997, pouvait maintenir un niveau soutenu et raffiné de conversation mais sur un seul sujet : Bill Clinton. Pour un lauréat plus récent, Eugene Goostman, on a donné la personnalité d'un garçon ukrainien de 13 ans ; ainsi ses contresens, sa grammaire maladroite furent interprétées comme obstacles linguistiques ou culturels. Pendant ce temps, d'autres programmes comme Cleverbot, ont adopté une approche différente en analysant statistiquement d'énormes bases de données de vraies conversations afin de déterminer les meilleures réponses. Certains stockent aussi des traces de conversations antérieures afin d'améliorer au fil du temps. Même si les réponses individuelles de Cleverbot peuvent paraître incroyablement humaines, c'est son manque de cohérence et son incapacité à traiter des sujets complètement nouveaux qui le trahissent de façon criante.
Who in Turing's day could have predicted that today's computers would be able to pilot spacecraft, perform delicate surgeries, and solve massive equations, but still struggle with the most basic small talk? Human language turns out to be an amazingly complex phenomenon that can't be captured by even the largest dictionary. Chatbots can be baffled by simple pauses, like "umm..." or questions with no correct answer. And a simple conversational sentence, like, "I took the juice out of the fridge and gave it to him, but forgot to check the date," requires a wealth of underlying knowledge and intuition to parse. It turns out that simulating a human conversation takes more than just increasing memory and processing power, and as we get closer to Turing's goal, we may have to deal with all those big questions about consciousness after all.
Qui, du temps de Turing, aurait pu prédire que les ordinateurs d'aujourd'hui pourraient piloter un vaisseau spatial, effectuer des chirurgies délicates, et résoudre d'énormes équations, mais devraient toujours batailler pour tenir une conversation élémentaire ? Le langage humain se révèle être un processus étonnamment complexe qui ne peut même pas être saisi par le plus grand dictionnaire. Un robot peut être dérouté par des pauses simples, comme « Heu... » ou des questions sans réponse correcte. Et une phrase simple comme : « J'ai sorti le jus d'orange du frigo et je lui ai donné, mais j'ai oublié de vérifier la date. » réclame une richesse de connaissances sous-jacentes et de l'intuition pour être décryptée. Il s'avère que simuler une conversation humaine exige bien plus qu'une augmentation de mémoire ou de puissance de calcul, et en nous rapprochant de l'objectif de Turing, nous aurons à faire face à ces fameuses questions sur la conscience après tout.