What is consciousness? Can an artificial machine really think? Does the mind just consist of neurons in the brain, or is there some intangible spark at its core? For many, these have been vital considerations for the future of artificial intelligence. But British computer scientist Alan Turing decided to disregard all these questions in favor of a much simpler one: can a computer talk like a human?
อะไรคือสติสัมปชัญญะ เครื่องจักรกลสามารที่จะคิดได้หรือเปล่า ความคิดของเราเป็นแค่การรวมกัน ของเส้นประสาทในสมองหรือเปล่า หรือมันมีอะไรบางอย่างที่ยากต่อการอธิบาย ซ่อนอยู่ในหัวใจสำคัญของมัน สำหรับใครหลาย ๆ คน นี่เป็นเรื่องสำคัญที่จะต้องพิจารณา เพื่ออนาคตของจักรกลอัฉริยะ แต่นักวิทยาศาสตร์คอมพิวเตอร์ชาวอังกฤษ อลัน ทัวริง ตัดสินใจที่จะเพิกเฉยต่อคำถามเหล่านี้ เพื่อคำถามที่ง่ายกว่าคือ คอมพิวเตอร์สามารถพูดได้อย่างมนุษย์หรือเปล่า
This question led to an idea for measuring aritificial intelligence that would famously come to be known as the Turing test. In the 1950 paper, "Computing Machinery and Intelligence," Turing proposed the following game. A human judge has a text conversation with unseen players and evaluates their responses. To pass the test, a computer must be able to replace one of the players without substantially changing the results. In other words, a computer would be considered intelligent if its conversation couldn't be easily distinguished from a human's.
คำถามนั้นนำไปสู่แนวคิดเพื่อการวัด จักรกลอัฉริยะ ที่ต่อมาเป็นที่รู้จักกันอย่างแพร่หลาย ว่า การทดสอบแบบทัวริง ในเอกสารทางวิทยาศาสตร์ปี ค.ศ. 1950 "เครื่องกลคอมพิวเตอร์และอัฉริยภาพ" ทัวริงเสนอเกมส์ดังต่อไปนี้ กรรมการมนุษย์มีการสื่อสารทางข้อความ กับผู้เล่นที่มองไม่เห็น และประเมินการตอบสนองของผู้เล่นนั้น เพื่อที่จะผ่านการทดสอบ คอมพิวเตอร์ จะต้องสามารถแทนที่ผู้เล่นสักคนหนึ่ง โดยไม่ทำให้เกิดผลลัพท์ ที่เปลี่ยนแปลงไปอย่างมีนัยสำคัญ หรือพูดอีกอย่างหนึ่งก็คือ คอมพิวเตอร์จะถูกพิจารณาว่ามีอัฉริยภาพ ถ้าหากการสนทนาของมัน ไม่สามารถถูกบ่งบอกได้โดยง่ายโดยมนุษย์
Turing predicted that by the year 2000, machines with 100 megabytes of memory would be able to easily pass his test. But he may have jumped the gun. Even though today's computers have far more memory than that, few have succeeded, and those that have done well focused more on finding clever ways to fool judges than using overwhelming computing power. Though it was never subjected to a real test, the first program with some claim to success was called ELIZA. With only a fairly short and simple script, it managed to mislead many people by mimicking a psychologist, encouraging them to talk more and reflecting their own questions back at them. Another early script PARRY took the opposite approach by imitating a paranoid schizophrenic who kept steering the conversation back to his own preprogrammed obsessions. Their success in fooling people highlighted one weakness of the test. Humans regularly attribute intelligence to a whole range of things that are not actually intelligent. Nonetheless, annual competitions like the Loebner Prize, have made the test more formal with judges knowing ahead of time that some of their conversation partners are machines.
ทัวริงคาดว่าพอถึงปี ค.ศ. 2000 เครื่องจักรที่มีหน่วยความจำ 100 เมกะไบต์ จะสามารถผ่านการทดสอบนี้ได้โดยง่าย แต่เขาอาจจะคิดล่วงหน้าไกลไปสักหน่อย แม้ว่าคอมพิวเตอร์ทุกวันนี้ จะมีความจำมากกว่านั้นมาก ก็มีเป็นส่วนน้อยเท่านั้นที่ผ่านการทดสอบ และพวกที่ทำได้ดี ก็มุ่งความสนใจไปยังวิธีการที่ชาญฉลาด ในการหลอกกรรมการ มากไปกว่าจะใช้ความสามารถอันทรงพลัง ของคอมพิวเตอร์ แม้ว่ามันจะไม่เคยถูกทดสอบจริง ๆ โปรแกรมแรกที่มีการกล่าวอ้างว่า ประสบความสำเร็จ มีชื่อว่า อิไลซา (ELIZA) ด้วยข้อความที่ค่อนข้างสั้นและง่าย มันสามารถที่จะทำให้คนหลายคนเข้าใจผิด โดยเลียนแบบนักจิตวิทยา คือทำให้พวกเขาพูดมากขึ้น และสะท้อนคำถามของพวกเขา ให้ย้อนกับไปหาตัวพวกเขา อีกหนึ่งข้อความ PARRY ใช้วิธีการที่ตรงข้ามกัน โดยเลียนแบบผู้ป่วยจิตเภทที่หวาดระแวง ผู้ที่คอยกำกับการสนทนา ให้กลับมายังหัวข้อที่เขาหมกมุ่น ความสำเร็จของพวกมันในการหลอกคน บ่งบอกถึงจุดอ่อนหนึ่งที่สำคัญของการทดสอบนี้ โดยทั่วไปคนมักจะให้คุณสมบัติของอัฉริยภาพ กับสิ่งต่าง ๆ มากมาย ที่อันที่จริงแล้วไม่ได้มีอัฉริยภาพ ไม่ว่าอย่างไรก็ดี การแข่งขันประจำปี อย่าง ลอบเนอร์ ไพรซ์ (Loebner Prize) ได้ทำให้การทดสอบเป็นทางการมากขึ้น โดยทำให้กรรมการรู้ตัวก่อนการทดสอบ ว่าคู่สนทนาบางคนของพวกเขา เป็นจักรกล
But while the quality has improved, many chatbot programmers have used similar strategies to ELIZA and PARRY. 1997's winner Catherine could carry on amazingly focused and intelligent conversation, but mostly if the judge wanted to talk about Bill Clinton. And the more recent winner Eugene Goostman was given the persona of a 13-year-old Ukrainian boy, so judges interpreted its nonsequiturs and awkward grammar as language and culture barriers. Meanwhile, other programs like Cleverbot have taken a different approach by statistically analyzing huge databases of real conversations to determine the best responses. Some also store memories of previous conversations in order to improve over time. But while Cleverbot's individual responses can sound incredibly human, its lack of a consistent personality and inability to deal with brand new topics are a dead giveaway.
แต่ในขณะที่คุณภาพได้รับการปรับปรุงพัฒนา โปรแกรมหุ่นยนต์สนทนาบางโปรแกรม ได้ใช้แนวทางเดียวกับ ELIZA และ PARRY แคทรีน ผู้ชนะประจำปี ค.ศ. 1997 สามารถมีสมาธิจดจ่อได้อย่างน่าทึ่ง และมีการสนทนาที่มีอัฉริยภาพ แต่ส่วนใหญ่จะเป็นตอนที่ กรรมการพูดเรื่องบิล คลินตัน และผู้ชนะล่าสุด ยูจีน กอสแมน ได้ให้บุคลิกของเด็กชายชาวยูเครน อายุ 13 ปี กรรมการก็เลยตีความคำพูดที่ไม่มีเหตุผล และไวยากรณ์ที่ตะกุกตะกัก ว่าเป็นอุปสรรคทางภาษาและวัฒนธรรม ในขณะเดียวกัน โปรแกรมอื่น ๆ อย่าง เคลเวอร์บอท ได้ใช้วิธีการอื่น โดยวิเคราะห์ฐานข้อมูลขนาดใหญ่ในเชิงสถิติ ของการสนทนาจริง ๆ เพื่อกำหนดการตอบสนองที่ดีที่สุด บางโปรแกรมยังเก็บความทรงจำ ของการสนทนาครั้งก่อน ๆ เอาไว้ เพื่อที่จะพัฒนาปรับปรุงมันในครั้งต่อไป แต่ในขณะที่แต่ละตัวคำตอบของเคลเวอร์บอท ฟังดูคล้ายมนุษย์มาก มันขาดบุคลิกที่มีความสม่ำเสมอ และการที่มันไม่สามารถ จะประมวลผลเรื่องใหม่ ๆ ได้ เป็นการเผยไต๋หมดเปลือก
Who in Turing's day could have predicted that today's computers would be able to pilot spacecraft, perform delicate surgeries, and solve massive equations, but still struggle with the most basic small talk? Human language turns out to be an amazingly complex phenomenon that can't be captured by even the largest dictionary. Chatbots can be baffled by simple pauses, like "umm..." or questions with no correct answer. And a simple conversational sentence, like, "I took the juice out of the fridge and gave it to him, but forgot to check the date," requires a wealth of underlying knowledge and intuition to parse. It turns out that simulating a human conversation takes more than just increasing memory and processing power, and as we get closer to Turing's goal, we may have to deal with all those big questions about consciousness after all.
ใครก็ตามที่อยู่ในช่วงเวลาของทัวริง จะไปคาดว่าคอมพิวเตอร์ในทุกวันนี้ จะสามารถควบคุมยานอวกาศ ทำการผ่าตัดที่ซับซ้อน และแก้ไขสมการได้มากมาย แต่แค่คุยเรื่องง่าย ๆ ก็ยังตะกุกตะกัก กลายเป็นว่าภาษาของมนุษย์ เป็นปรากฏการณ์ซับซ้อนที่น่าทึ่ง ที่ไม่สามารถจัดเก็บได้ โดยพจนานุกรมที่ใหญ่ที่สุด โปรแกรมหุ่นยนต์สนทนาอาจจนด้วยเกล้า ด้วยคำใช้เอื้อนเอ่ยอย่าง "อืม" หรือคำถามที่ไม่มีคำตอบที่ถูกต้อง และประโยคสนทนาธรรมดา ๆ อย่าง "ฉันเอาน้ำผลไม้ออกมาจากตู้เย็น แล้วให้กับเขาไป แต่ลืมตรวจสอบวันที่" ต้องการความรู้พื้นฐานค่อนข้างมาก และไหวพริบในการตีความ กลายเป็นว่าการจำลองการสนทนาของมนุษย์ ต้องใช้มากกว่าการเพิ่มความจำ และประสิทธิภาพในการประมวลผล และเมื่อเรายิ่งเข้าใกล้กับเป้าหมายของทัวริง เราอาจจะต้องเผชิญหน้ากับคำถามสำคัญ เกี่ยวกับสติสัมปชัญญะในท้ายที่สุด