Τι είναι η συνείδηση; Μπορεί ένα τεχνητό μηχάνημα πράγματι να σκέφτεται; Μήπως το μυαλό αποτελείται μόνο από νευρώνες στον εγκέφαλο ή μήπως υπάρχει μια άυλη σπίθα στον πυρήνα του; Για πολλούς, αυτά ήταν σημαντικά ζητήματα για το μέλλον της τεχνητής νοημοσύνης. Αλλά ο Βρετανός επιστήμονας υπολογιστών, Αλαν Τούρινγκ, αποφάσισε να αγνοήσει όλες αυτές τις ερωτήσεις για μια πολύ απλούστερη: μπορεί ένας υπολογιστής να μιλήσει σαν άνθρωπος; Αυτή η ερώτηση οδήγησε στην ιδέα της μέτρησης της τεχνητής νοημοσύνης η οποία θα γίνει γνωστή ως το τεστ Τούρινγκ. Το 1950 στην εφημερίδα «Μηχανήματα υπολογισμού και Ευφυΐα», ο Τούρινγκ πρότεινε το ακόλουθο παιχνίδι. Ένας ανθρώπινος κριτής έχει μια συνομιλία κειμένου από αόρατους παίκτες και αξιολογεί τις απαντήσεις τους. Για να περάσει το τεστ, ουπολογιστής πρέπει να μπορεί να αντικαταστήσει έναν από τους παίκτες χωρίς να αλλάζει ουσιαστικά τα αποτελέσματα. Με άλλα λόγια, θα θεωρείται ευφυής αν η συνομιλία του δεν θα μπορεί να διακριθεί εύκολα από μια ανθρώπινη. Ο Τούρινγκ προέβλεψε ότι μέχρι το 2000, μηχανές με 100 megabytes μνήμη θα μπορούν εύκολα να περάσουν το τεστ του. Αλλά ίσως βιάστηκε στην πρόβλεψή του. Ακόμη και αν σήμερα οι υπολογιστές έχουν πολύ περισσότερη μνήμη από αυτή λίγοι τα κατάφεραν, και αυτοί που τα πήγαν καλά επικεντρώθηκαν περισσότερο στο να βρουν τρόπους εξαπάτησης των κριτών αντί να χρησιμοποιήσουν συντριπτική υπολογιστική ισχύ. Αν και ποτέ δεν υποβλήθηκε σε μια πραγματική δοκιμασία, το πρώτο πρόγραμμα που είχε κάποια επιτυχία ονομαζόταν ΕΛΙΖΑ. Με μονάχα ένα αρκετά μικρό και απλό προγραμματάκι, κατάφερε να παραπλανήσει πολλούς ανθρώπους μιμούμενο έναν ψυχολόγο, ενθαρρύνοντας τους να μιλούν περισσότερο και αντικατοπτρίζοντας τις δικές τους ερωτήσεις πίσω σε αυτούς. Ένα άλλο πρόγραμμα, το «PARRY», ακολούθησε αντίθετη προσέγγιση μιμούμενο έναν παρανοϊκό σχιζοφρενή που καθοδηγούσε την συζήτηση πίσω στις δικές του προγραμματισμένες εμμονές. Η επιτυχία τους στην εξαπάτηση ατόμων τόνισε μια αδυναμία του τεστ. Οι άνθρωποι αποδίδουν την ευφυΐα τους σε μια σειρά πραγμάτων τα οποία στην πραγματικότητα δεν είναι ευφυή. Παρόλα αυτά, ετήσιοι διαγωνισμοί, όπως τα βραβεία Loebner, έχουν κάνει το τεστ πιο επίσημο με τους κριτές να ξέρουν εκ των προτέρων ότι μερικοί από τους συνομιλητές τους είναι μηχανές. Αλλά ενώ η ποιότητα έχει βελτιωθεί, προγραμματιστές έχουν χρησιμοποιήσει στρατηγικές όπως το ELIZA και το PARRY. Η Catherine, η νικήτρια του 1997, μπορούσε να διεξάγει μια απίστευτα συγκεντρωμένη και ευφυή συζητήση, αλλά κυρίως αν ο κριτής ήθελε να συζητήσει για τον Μπιλ Κλίντον. Και στον πιο πρόσφατο νικητή, στον Eugene Goostman είχε δοθεί ο χαρακτήρας ενός 13χρονου αγοριού από την Ουκρανία, έτσι οι κριτές ερμήνευαν τα λάθη του και την περίεργη γραμματική ως γλωσσικά και πολιτισμικά εμπόδια. Στο μεταξύ άλλα προγράμματα σαν το Cleverbot προσέγγισαν διαφορετικά με την στατιστική ανάλυση τεράστιων βάσεων δεδομένων πραγματικών συνομιλιών για να εντοπίσουν τις καλύτερες απαντήσεις. Μερικά επίσης αποθηκεύουν αναμνήσεις προηγούμενων συνομιλιών ώστε να βελτιώνονται με το χρόνο. Ενώ οι απαντήσεις του Cleverbot μπορεί να ακούγονται απίστευτα ανθρώπινες, η έλλειψη συγκροτημένης προσωπικότητας και η ανικανότητα να έρθει αντιμέτωπο με ολοκαίνουρια θέματα τελικά το προδίδουν. Ποιος στην εποχή του Τούρινγκ θα προέβλεπε ότι οι σημερινοί υπολογιστές θα μπορούσαν να πιλοτάρουν διαστημόπλοια, να εκτελέσουν λεπτές χειρουργικές επεμβάσεις, και να λύσουν τεράστιες εξισώσεις, αλλά ακόμα να δυσκολεύονται με την ψιλοκουβέντα; Η ανθρώπινη γλώσσα αποδεικνύεται ένα εκπληκτικά περίπλοκο φαινόμενο το οποίο δεν καταγράφεται ακόμη και με το μεγαλύτερο λεξικό. Τα Chatbots μπορεί να μπερδευτούν από απλές παύσεις, όπως «Μμμ...» ή ερωτήσεις χωρίς σωστή απάντηση. Και μια απλή πρόταση συνομιλίας, όπως «Έβγαλα από το ψυγείο τον χυμό και του τον έδωσα, αλλά ξέχασα να τσεκάρω την ημερομηνία λήξης», απαιτεί έναν πλούτο προϋπάρχουσας γνώσης και διαίσθησης για να το αναλύσει. Φαίνεται ότι η προσομοίωση μιας ανθρώπινης συνομιλίας χρειάζεται περισσότερο από την αύξηση της μνήμης και της επεξεργαστικής ισχύος, και όσο πλησιάζουμε στον στόχο του Τούρινγκ, ίσως τελικά πρέπει να αντιμετωπίσουμε όλα τα μεγάλα ερωτήματα για την συνείδηση.
What is consciousness? Can an artificial machine really think? Does the mind just consist of neurons in the brain, or is there some intangible spark at its core? For many, these have been vital considerations for the future of artificial intelligence. But British computer scientist Alan Turing decided to disregard all these questions in favor of a much simpler one: can a computer talk like a human? This question led to an idea for measuring aritificial intelligence that would famously come to be known as the Turing test. In the 1950 paper, "Computing Machinery and Intelligence," Turing proposed the following game. A human judge has a text conversation with unseen players and evaluates their responses. To pass the test, a computer must be able to replace one of the players without substantially changing the results. In other words, a computer would be considered intelligent if its conversation couldn't be easily distinguished from a human's. Turing predicted that by the year 2000, machines with 100 megabytes of memory would be able to easily pass his test. But he may have jumped the gun. Even though today's computers have far more memory than that, few have succeeded, and those that have done well focused more on finding clever ways to fool judges than using overwhelming computing power. Though it was never subjected to a real test, the first program with some claim to success was called ELIZA. With only a fairly short and simple script, it managed to mislead many people by mimicking a psychologist, encouraging them to talk more and reflecting their own questions back at them. Another early script PARRY took the opposite approach by imitating a paranoid schizophrenic who kept steering the conversation back to his own preprogrammed obsessions. Their success in fooling people highlighted one weakness of the test. Humans regularly attribute intelligence to a whole range of things that are not actually intelligent. Nonetheless, annual competitions like the Loebner Prize, have made the test more formal with judges knowing ahead of time that some of their conversation partners are machines. But while the quality has improved, many chatbot programmers have used similar strategies to ELIZA and PARRY. 1997's winner Catherine could carry on amazingly focused and intelligent conversation, but mostly if the judge wanted to talk about Bill Clinton. And the more recent winner Eugene Goostman was given the persona of a 13-year-old Ukrainian boy, so judges interpreted its nonsequiturs and awkward grammar as language and culture barriers. Meanwhile, other programs like Cleverbot have taken a different approach by statistically analyzing huge databases of real conversations to determine the best responses. Some also store memories of previous conversations in order to improve over time. But while Cleverbot's individual responses can sound incredibly human, its lack of a consistent personality and inability to deal with brand new topics are a dead giveaway. Who in Turing's day could have predicted that today's computers would be able to pilot spacecraft, perform delicate surgeries, and solve massive equations, but still struggle with the most basic small talk? Human language turns out to be an amazingly complex phenomenon that can't be captured by even the largest dictionary. Chatbots can be baffled by simple pauses, like "umm..." or questions with no correct answer. And a simple conversational sentence, like, "I took the juice out of the fridge and gave it to him, but forgot to check the date," requires a wealth of underlying knowledge and intuition to parse. It turns out that simulating a human conversation takes more than just increasing memory and processing power, and as we get closer to Turing's goal, we may have to deal with all those big questions about consciousness after all.