What is consciousness? Can an artificial machine really think? Does the mind just consist of neurons in the brain, or is there some intangible spark at its core? For many, these have been vital considerations for the future of artificial intelligence. But British computer scientist Alan Turing decided to disregard all these questions in favor of a much simpler one: can a computer talk like a human?
Что такое сознание? Может ли искусственная машина думать по-настоящему? Наш разум — это только нейроны мозга или он таит в своей основе некую «невидимую» искру? Для многих в ответах на эти жизненно важные вопросы кроется будущее искусственного интеллекта. Британский учёный-информатик Алан Тьюринг решил проигнорировать все эти вопросы, задав лишь один простой: «А может ли компьютер говорить, как человек?»
This question led to an idea for measuring aritificial intelligence that would famously come to be known as the Turing test. In the 1950 paper, "Computing Machinery and Intelligence," Turing proposed the following game. A human judge has a text conversation with unseen players and evaluates their responses. To pass the test, a computer must be able to replace one of the players without substantially changing the results. In other words, a computer would be considered intelligent if its conversation couldn't be easily distinguished from a human's.
Вопрос привёл к возникновению идеи измерения искусственного интеллекта, которая впоследствии стала известна как тест Тьюринга. В вышедшей в 1950 году статье «Вычислительные машины и мозг» Тьюринг предложил следующую игру: человек-судья вступает в переписку с невидимыми партнёрами и оценивает их ответы. Чтобы пройти тест, компьютер должен заменить кого-то из партнёров так, чтобы судья не заметил подмены. Другими словами, компьютер будет обладать интеллектом, если диалог с ним не будет отличаться от общения с человеком.
Turing predicted that by the year 2000, machines with 100 megabytes of memory would be able to easily pass his test. But he may have jumped the gun. Even though today's computers have far more memory than that, few have succeeded, and those that have done well focused more on finding clever ways to fool judges than using overwhelming computing power. Though it was never subjected to a real test, the first program with some claim to success was called ELIZA. With only a fairly short and simple script, it managed to mislead many people by mimicking a psychologist, encouraging them to talk more and reflecting their own questions back at them. Another early script PARRY took the opposite approach by imitating a paranoid schizophrenic who kept steering the conversation back to his own preprogrammed obsessions. Their success in fooling people highlighted one weakness of the test. Humans regularly attribute intelligence to a whole range of things that are not actually intelligent. Nonetheless, annual competitions like the Loebner Prize, have made the test more formal with judges knowing ahead of time that some of their conversation partners are machines.
Тьюринг предсказывал, что к 2000 году компьютеры, имеющие 100 мегабайт памяти, смогут легко пройти его тест. Однако он слишком опережал события. И хотя сегодня памяти у компьютеров намного больше, чем он думал, немногим удалось пройти тест, а те, кто добился хороших результатов, скорее, находили хитрые способы обмануть судей, а вовсе не задействовали мощь компьютеров. И пускай настоящий тест она не проходила, ELIZA стала первой программой, добившейся определённого успеха. Применяя довольно простой и короткий сценарий, программа смогла обмануть немало людей, подражая психотерапевту, позволяя людям больше говорить самим, а затем возвращая им их же вопросы. В ещё одном раннем сценарии PARRY применялся противоположный подход: программа выдавала себя за параноидального шизофреника, уводящего разговор к заранее заданным навязчивым идеям. То, как программы одурачили людей, выявило слабое место теста. Люди зачастую признают наличие интеллекта за многими вещами, которые интеллектом не обладают. Вместе с тем ежегодно проводятся конкурсы типа премии Лёбнера, сделавшие тест более формальным; так, судьи заранее знают, что кто-то из партнёров по разговору — компьютер.
But while the quality has improved, many chatbot programmers have used similar strategies to ELIZA and PARRY. 1997's winner Catherine could carry on amazingly focused and intelligent conversation, but mostly if the judge wanted to talk about Bill Clinton. And the more recent winner Eugene Goostman was given the persona of a 13-year-old Ukrainian boy, so judges interpreted its nonsequiturs and awkward grammar as language and culture barriers. Meanwhile, other programs like Cleverbot have taken a different approach by statistically analyzing huge databases of real conversations to determine the best responses. Some also store memories of previous conversations in order to improve over time. But while Cleverbot's individual responses can sound incredibly human, its lack of a consistent personality and inability to deal with brand new topics are a dead giveaway.
И хотя качество программ улучшилось, многие чат-боты применяют те же стратегии, что и ELIZA с PARRY. Победитель конкурса 1997 года Катрин могла вести на удивление внимательную и интеллектуальную беседу, но только если судья обсуждал с ней Билла Клинтона. А недавний победитель Евгений Густман выдавал себя за тринадцатилетнего подростка из Украины, поэтому судьи приписали несуразность речи и грамматические ошибки следствию языкового и культурного барьера. Однако другие программы, например, Cleverbot, пошли другим путём: анализируя статистику огромных баз данных реальных разговоров, они попробовали найти наиболее подходящие ответы. Некоторые способны были хранить данные о ранее проведённых беседах, чтобы постепенно улучшать качество разговора. И хотя отдельные ответы Cleverbot'а могут показаться на удивление «человеческими», отсутствие полноценной личности и неспособность переключаться на новые темы выдают программу с головой.
Who in Turing's day could have predicted that today's computers would be able to pilot spacecraft, perform delicate surgeries, and solve massive equations, but still struggle with the most basic small talk? Human language turns out to be an amazingly complex phenomenon that can't be captured by even the largest dictionary. Chatbots can be baffled by simple pauses, like "umm..." or questions with no correct answer. And a simple conversational sentence, like, "I took the juice out of the fridge and gave it to him, but forgot to check the date," requires a wealth of underlying knowledge and intuition to parse. It turns out that simulating a human conversation takes more than just increasing memory and processing power, and as we get closer to Turing's goal, we may have to deal with all those big questions about consciousness after all.
Кто бы во времена Тьюринга мог предсказать, что сегодня компьютерам под силу пилотировать космический корабль, выполнять сложные операции, решать огромные уравнения, но они по-прежнему отчаянно пытаются обуздать простейший светский трёп? Человеческий язык оказался поразительно сложным явлением, охватить которое невозможно, обладая хоть самым большим словарём. Чат-ботов можно сбить с толку простейшими фразами типа «М-м» или вопросами, не имеющими правильных ответов. А простейшая фраза вроде: «Я достал сок из холодильника и налил ему, вот только дату забыл посмотреть» на самом деле тянет за собой целый груз фоновых знаний и интуитивных догадок. Оказывается, что для симуляции человеческого разговора нужно куда больше, нежели увеличить память и скорость обработки, и по мере приближения к цели Тьюринга, возможно, нам всё же понадобится найти ответы на все эти сложные вопросы о сознании.