What is consciousness? Can an artificial machine really think? Does the mind just consist of neurons in the brain, or is there some intangible spark at its core? For many, these have been vital considerations for the future of artificial intelligence. But British computer scientist Alan Turing decided to disregard all these questions in favor of a much simpler one: can a computer talk like a human?
Czym jest świadomość? Czy maszyna naprawdę potrafi myśleć? Czy umysł składa się tylko z neuronów w mózgu, czy u sedna leży jeszcze jakaś nienamacalna iskierka? Dla wielu to rozważania kluczowe dla przyszłości sztucznej inteligencji. Brytyjski informatyk Alan Turing postanowił te pytania zlekceważyć i zadać prostsze. Czy komputer potrafi rozmawiać jak człowiek?
This question led to an idea for measuring aritificial intelligence that would famously come to be known as the Turing test. In the 1950 paper, "Computing Machinery and Intelligence," Turing proposed the following game. A human judge has a text conversation with unseen players and evaluates their responses. To pass the test, a computer must be able to replace one of the players without substantially changing the results. In other words, a computer would be considered intelligent if its conversation couldn't be easily distinguished from a human's.
To pytanie doprowadziło do pomysłu pomiaru sztucznej inteligencji, znanego dziś jako test Turinga. W publikacji "Computing Machinery and Intelligence" z 1950 roku Turing zaproponował następującą grę. Człowiek sędzia prowadzi rozmowę tekstową z graczami, których nie widzi, a potem ocenia ich odpowiedzi. Aby zdać test, komputer musi zastąpić jednego z graczy, nie zmieniając znacząco wyników. Komputer zostanie uznany za inteligentny, jeśli rozmowy z nim nie będzie można łatwo odróżnić od ludzkiej.
Turing predicted that by the year 2000, machines with 100 megabytes of memory would be able to easily pass his test. But he may have jumped the gun. Even though today's computers have far more memory than that, few have succeeded, and those that have done well focused more on finding clever ways to fool judges than using overwhelming computing power. Though it was never subjected to a real test, the first program with some claim to success was called ELIZA. With only a fairly short and simple script, it managed to mislead many people by mimicking a psychologist, encouraging them to talk more and reflecting their own questions back at them. Another early script PARRY took the opposite approach by imitating a paranoid schizophrenic who kept steering the conversation back to his own preprogrammed obsessions. Their success in fooling people highlighted one weakness of the test. Humans regularly attribute intelligence to a whole range of things that are not actually intelligent. Nonetheless, annual competitions like the Loebner Prize, have made the test more formal with judges knowing ahead of time that some of their conversation partners are machines.
Turing przewidywał, że do 2000 roku maszyny ze stumegabajtową pamięcią będą mogły z łatwością zdać ten test. Ale trochę się pośpieszył. Choć dzisiejsze komputery mają znacznie większą pamięć, udało się to tylko kilku, a te, które odniosły sukces, znalazły sprytny sposób na oszukanie sędziów zamiast użyć ogromnej mocy obliczeniowej. Choć nigdy nie poddano go prawdziwym testom, pierwszym programem, który podobno odniósł sukces, była ELIZA. Przy pomocy krótkiego i prostego tekstu wprowadziła w błąd wiele osób, naśladując psychologa i zachęcając ludzi, aby mówili więcej, albo powtarzając ich własne pytania. Inny wczesny program PARRY przyjął odwrotną strategię i udawał paranoidalnego schizofrenika, który ciągle kierował rozmowę na wcześniej zaprogramowane obsesje. Ich sukces w zmyleniu ludzi uwydatnił jedną słabość testu. Ludzie przypisują inteligencję rzeczom, które tak naprawdę nie są inteligentne. Coroczne konkursy, jak Nagroda Loebnera, sformalizowały test, a sędziowie z góry wiedzą, że część uczestników rozmowy to maszyny.
But while the quality has improved, many chatbot programmers have used similar strategies to ELIZA and PARRY. 1997's winner Catherine could carry on amazingly focused and intelligent conversation, but mostly if the judge wanted to talk about Bill Clinton. And the more recent winner Eugene Goostman was given the persona of a 13-year-old Ukrainian boy, so judges interpreted its nonsequiturs and awkward grammar as language and culture barriers. Meanwhile, other programs like Cleverbot have taken a different approach by statistically analyzing huge databases of real conversations to determine the best responses. Some also store memories of previous conversations in order to improve over time. But while Cleverbot's individual responses can sound incredibly human, its lack of a consistent personality and inability to deal with brand new topics are a dead giveaway.
Choć poprawiła się ich jakość, wiele programatorów chatbotów używa podobnych strategii jak ELIZA i PARRY. Zwyciężczyni z 1997 roku, Catherine, potrafiła w skupieniu prowadzić niezwykle inteligentną rozmowę, ale głównie wtedy, gdy sędzia chciał rozmawiać o Billu Clintonie. Późniejszy zwycięzca Eugene Goostman otrzymał osobowość trzynastoletniego chłopca z Ukrainy, więc sędziowie uznali błędy formalne i osobliwą gramatykę za barierę językową i kulturową. Programy jak Cleverbot podeszły do tego inaczej, analizując ogromne bazy danych pełne rzeczywistych rozmów, aby określić jak najlepsze odpowiedzi. Niektóre programy przechowują dawne konwersacje, aby z biegiem czasu zwiększać jakość rozmowy. Choć pojedyncze odpowiedzi Cleverbota mogą brzmieć niewiarygodnie ludzko, brak stałej osobowości i niemożność radzenia sobie z nowymi tematami całkowicie go zdradzają.
Who in Turing's day could have predicted that today's computers would be able to pilot spacecraft, perform delicate surgeries, and solve massive equations, but still struggle with the most basic small talk? Human language turns out to be an amazingly complex phenomenon that can't be captured by even the largest dictionary. Chatbots can be baffled by simple pauses, like "umm..." or questions with no correct answer. And a simple conversational sentence, like, "I took the juice out of the fridge and gave it to him, but forgot to check the date," requires a wealth of underlying knowledge and intuition to parse. It turns out that simulating a human conversation takes more than just increasing memory and processing power, and as we get closer to Turing's goal, we may have to deal with all those big questions about consciousness after all.
Kto w czasach Turinga mógł przewidzieć, że dzisiejsze komputery będą pilotować statek kosmiczny, przeprowadzać skomplikowane operacje i rozwiązywać zawiłe równania, ale wciąż nie będą sobie radziły z najzwyklejszą pogawędką? Język ludzki okazuje się wyjątkowo złożonym zjawiskiem, którego nie da się uchwycić nawet w największym słowniku. Już zwykłe przerywniki jak "hmmm..." czy pytania bez poprawnej odpowiedzi mogą zmylić chatboty. Proste zdanie "Wyjąłem sok z lodówki i mu go podałem, ale zapomniałem sprawdzić datę." wymaga przenikliwości i intuicji analitycznej. Okazuje się, że stymulacja rozmowy to coś więcej niż zwiększanie pamięci i szybkości przetwarzania, a w miarę zbliżania się do celu Turinga możliwe, że w końcu będzie trzeba zmierzyć się z pytaniem o świadomość.