ما هو الوعي؟ هل يمكن لآلة اصطناعية التفكير حقاً؟ هل يتألف العقل من خلايا عصبية في الدماغ فقط؟ أم أن هناك شرارة غير ملموسة في جوهره؟ للكثير من الناس، كانت هذه اعتبارات أساسية من أجل مستقبل من الذكاء الاصطناعي لكن عالم الحاسوب البريطاني ألان تورنغ قرر التغاضى عن هذه الأسئلة بسؤال أبسط من ذالك بكثير: هل يمكن للحاسوب التكلم مثل البشر ؟ يقود هذا السؤال إلى مفهوم لقياس الذكاء الاصطناعي والذي سيغدو معروفاً بشدة على أنه اختبار تورنغ. في بحث عام 1950، "الآلات الحاسبة والذكاء" طرح تورنغ اللعبة التالية: يقوم القاضى البشرى بمحادثة نصية مع مشاركين لا يراهم ويقوم بتقييم استجاباتهم. يجب على الحاسوب أن يكون قادرا على إستبدال أحد الأطرف لإجتياز الإختبار بدون تغيير النتائج فعلياً. وبعبارة أخرى، سيتم إعتبار الحاسوب ذكياً إن كان يصعب تمييز محادثته عن محادثة الإنسان. توقع تورنغ أنه بحلول عام 2000, ستستطيع الآلات بذاكرة 100 ميغابايت اجتياز اختباره بسهولة. لكنه ربما قد استبق الأحداث. على الرغم من أن حواسيب اليوم بها ذاكرة أكبر من ذلك بكثير إلّا أن قلة هى التى اجتازت الاختبار، وتلك التي قدمت أداءاً جيداً ركزت على إيجاد الطرق ذكية لخداع الحكام أكثر من اعتمادها على القدرة الحاسوبية الكبيرة. بالرغم من أنها لم تخضع أبداً لاختبار حقيقي, إلّا أن سبب نجاح البرنامج الأول كان يدعى "إلايزا". مستخدماً فقط نصاً بسيطاً وقصير تماماً تمكن من تضليل الكثير من الناس بتقليده لطبيب نفسي, وتشجيعهم على التحدث أكثر, والقيام بعكس أسألتهم لطرحها عليهم. نص آخر يسمى "باري" اتخذ الطريقة المعاكسة بتقليده المريض المصاب بانفصام الشخصية والجنون الذى حافظ على توجيه المحادثة إلى فِكره المبرمج مسبقاً. سلط ضوء نجاحهم فى خداع الناس على أحد نقاط ضعف الاختبار. ينسب الناس عادةً الذكاء إلى مجموعة كاملة من الأشياء لا تتصف حقيقةً بالذكاء. مع ذلك، قامت المسابقات السنوبة كـ "جائزة لوبنر" بجعل الاختبار أكثر رسمية بوضع حكام يعرفون مسبقاً أن بعض محدثيهم آلات. لكن بالرغم من أن الجودة تحسنت، إلّا أن الكثير من مبرمجى المحادثة إستخدموا استراتيجيات مشابهة بـ "إلايزا" و "باري". تمكنت كاثرين الفائزة عام 1997، من القيام بمحادثة بارعة ومركزة بشكل مثير للدهشة، ولكنها فى الغالب اذا أراد القاضى التحدث عن "بيل كلنتون". وأعطي فائزاً جديداً أخراً "يوجين غوستمان"، شخصية ولد أوكراني صاحب 13 عاماً، فسر القضاه التناقضات وقواعد النحو الغريبة التي اتبعها على أنها حواجز لغوية وثقافية. بينما اتبعت برامج أخرى مثل "كليفربوت" طريقاً مختلقاً، بتحليل إحصائي لقواعد البيانات الضخمة من المحادثات الحقيقية لتحديد أفضل الإستجابات. بينما خزن بعضها أيضا ذكريات لمحادثات سابقة من أجل تحسينها مع مرور الوقت. ولكن فى حين أن إستجابات "كليفربوت"، كل على حدا تبدوكاستجابات البشر بشكل كبير, إلّا أن افتقارها لثبات الشخصية وعدم قدرتها على التعامل مع مواضيع جديدة، هي مساوئ واضحة. من كان يتوقع في أيام "تورنغ" أن حواسيب اليوم ستكون بمقدورها قيادة المركبات الفضائية, والقيام بالعمليات الجراحية الدقيقة, وحل المعادلات الهائلة, لكنها مازالت تواجه صعوبة فى أكثر الأحاديث الأساسية وأبسطها؟ و يتضح أن اللغة البشرية هي ظاهرة معقدة بشكل مثير للدشة حيث لا يمكن حصرها حتى باكبر قاموس. قد تضطرب روبوتات المحادثة بسبب فواصل بسيطى مثل "اممم" أو أسئلة ليس لها إجابات صحيحة. وقد تتطلب جملة محادثة بسيطة مثل، "أخذت العصير من الثلاجة وأعطيته إياه، ولكني نسيت تفقد التاريخ"، ثروة من المعرفة الضمنية والحدس لتحليلها. كما يتضح ان محاكاة المحادثة البشرية تتطلب أكثر من مجرد زيادة الذاكرة وقدرة المعالجة, وبينما نقترب من هدف "تورنغ"، ربما يجب علينا في النهاية التعامل مع كل تلك الأسئلة الكبيرة التى تتعلق بالوعي.
What is consciousness? Can an artificial machine really think? Does the mind just consist of neurons in the brain, or is there some intangible spark at its core? For many, these have been vital considerations for the future of artificial intelligence. But British computer scientist Alan Turing decided to disregard all these questions in favor of a much simpler one: can a computer talk like a human? This question led to an idea for measuring aritificial intelligence that would famously come to be known as the Turing test. In the 1950 paper, "Computing Machinery and Intelligence," Turing proposed the following game. A human judge has a text conversation with unseen players and evaluates their responses. To pass the test, a computer must be able to replace one of the players without substantially changing the results. In other words, a computer would be considered intelligent if its conversation couldn't be easily distinguished from a human's. Turing predicted that by the year 2000, machines with 100 megabytes of memory would be able to easily pass his test. But he may have jumped the gun. Even though today's computers have far more memory than that, few have succeeded, and those that have done well focused more on finding clever ways to fool judges than using overwhelming computing power. Though it was never subjected to a real test, the first program with some claim to success was called ELIZA. With only a fairly short and simple script, it managed to mislead many people by mimicking a psychologist, encouraging them to talk more and reflecting their own questions back at them. Another early script PARRY took the opposite approach by imitating a paranoid schizophrenic who kept steering the conversation back to his own preprogrammed obsessions. Their success in fooling people highlighted one weakness of the test. Humans regularly attribute intelligence to a whole range of things that are not actually intelligent. Nonetheless, annual competitions like the Loebner Prize, have made the test more formal with judges knowing ahead of time that some of their conversation partners are machines. But while the quality has improved, many chatbot programmers have used similar strategies to ELIZA and PARRY. 1997's winner Catherine could carry on amazingly focused and intelligent conversation, but mostly if the judge wanted to talk about Bill Clinton. And the more recent winner Eugene Goostman was given the persona of a 13-year-old Ukrainian boy, so judges interpreted its nonsequiturs and awkward grammar as language and culture barriers. Meanwhile, other programs like Cleverbot have taken a different approach by statistically analyzing huge databases of real conversations to determine the best responses. Some also store memories of previous conversations in order to improve over time. But while Cleverbot's individual responses can sound incredibly human, its lack of a consistent personality and inability to deal with brand new topics are a dead giveaway. Who in Turing's day could have predicted that today's computers would be able to pilot spacecraft, perform delicate surgeries, and solve massive equations, but still struggle with the most basic small talk? Human language turns out to be an amazingly complex phenomenon that can't be captured by even the largest dictionary. Chatbots can be baffled by simple pauses, like "umm..." or questions with no correct answer. And a simple conversational sentence, like, "I took the juice out of the fridge and gave it to him, but forgot to check the date," requires a wealth of underlying knowledge and intuition to parse. It turns out that simulating a human conversation takes more than just increasing memory and processing power, and as we get closer to Turing's goal, we may have to deal with all those big questions about consciousness after all.