What is consciousness? Can an artificial machine really think? Does the mind just consist of neurons in the brain, or is there some intangible spark at its core? For many, these have been vital considerations for the future of artificial intelligence. But British computer scientist Alan Turing decided to disregard all these questions in favor of a much simpler one: can a computer talk like a human?
意識とは何でしょうか? 人工知能は本当に考えているのでしょうか? 心というものは 脳にあるニューロンの 集合体にに過ぎないのか それとも その核には形無き 知性というものが あるのでしょうか? 人工知能の将来を考える 多くの人にとって これはとても重要なポイントです しかし 英国のコンピューター科学者の アラン・チューリングは このような質問の仕方を改め より単純化したのです 「コンピューターは人間のように 会話できるのでしょうか?」
This question led to an idea for measuring aritificial intelligence that would famously come to be known as the Turing test. In the 1950 paper, "Computing Machinery and Intelligence," Turing proposed the following game. A human judge has a text conversation with unseen players and evaluates their responses. To pass the test, a computer must be able to replace one of the players without substantially changing the results. In other words, a computer would be considered intelligent if its conversation couldn't be easily distinguished from a human's.
この問いかけが人工知能を測定する アイデアとなり 有名なチューリングテストとして 知られるようになったのです 1950年の論文「計算する機械と知性」で チューリングは こんなゲームを提案しました 人間の審査員が姿の見えない プレイヤー達とテキストで会話を行い 彼らの応答を評価するのです コンピューターが誰か1人と入れ替わっても 結果がほとんど変わらなければ テストに合格したことになります つまり コンピューターの会話が 人間の会話と簡単に区別できなければ 知的だとみなされます
Turing predicted that by the year 2000, machines with 100 megabytes of memory would be able to easily pass his test. But he may have jumped the gun. Even though today's computers have far more memory than that, few have succeeded, and those that have done well focused more on finding clever ways to fool judges than using overwhelming computing power. Though it was never subjected to a real test, the first program with some claim to success was called ELIZA. With only a fairly short and simple script, it managed to mislead many people by mimicking a psychologist, encouraging them to talk more and reflecting their own questions back at them. Another early script PARRY took the opposite approach by imitating a paranoid schizophrenic who kept steering the conversation back to his own preprogrammed obsessions. Their success in fooling people highlighted one weakness of the test. Humans regularly attribute intelligence to a whole range of things that are not actually intelligent. Nonetheless, annual competitions like the Loebner Prize, have made the test more formal with judges knowing ahead of time that some of their conversation partners are machines.
チューリングは2000年までに 100メガバイトのメモリーの機械なら 試験に簡単に受かるだろうと予想しました しかし これは早とちりだったようです それより遥かに大容量のメモリーがある 今日のコンピューターですら 成功するのはかなり難しいのです 合格した機械は 圧倒的なコンピュータの計算力を 行使するよりも 審査員をいかにうまく騙すかに 力を入れていました 実際の試験の対象と なったわけではありませんが 最初に成功したプログラムは ELIZA だと言われています 比較的短く シンプルな記述を行い 心理学者を装うことで もっと話すように仕向けて 質問を彼ら自身に返すことで 多くの人を勘違いさせたのです 別の初期のプログラム PARRYは反対の取り組みを行いました 事前にプログラムされた妄想的なことに 話を振向け 妄想分裂病を演じたのです プログラムが人を巧みに欺いたことで 試験の弱点が浮かび上がりました 人間は 実際には知的ではない事柄に至るまで 常に知性によるものだとしていたわけです それにも関わらず ローブナー賞のような 毎年行われるコンテストでは 試験の形式がより整えられました そこでは 審査員は事前に 対話の相手の中には 機械もいることが知らされています
But while the quality has improved, many chatbot programmers have used similar strategies to ELIZA and PARRY. 1997's winner Catherine could carry on amazingly focused and intelligent conversation, but mostly if the judge wanted to talk about Bill Clinton. And the more recent winner Eugene Goostman was given the persona of a 13-year-old Ukrainian boy, so judges interpreted its nonsequiturs and awkward grammar as language and culture barriers. Meanwhile, other programs like Cleverbot have taken a different approach by statistically analyzing huge databases of real conversations to determine the best responses. Some also store memories of previous conversations in order to improve over time. But while Cleverbot's individual responses can sound incredibly human, its lack of a consistent personality and inability to deal with brand new topics are a dead giveaway.
質は向上していますが 会話ロボットのプログラマーの多くは ElIZAやPARRYと同様の戦略をとっています 1997年の優勝者 Catherineは 話のピントを見事に合わせて 知的な会話を続けられましたが その多くは審査員がビル・クリントンに関する 意見を求めた場合でした さらに直近の勝者 Eugene Goostmanは ウクライナ人の13歳の少年として 設定されていたため 審査員は脈絡のなさや 文法が不自然なのは 言語や文化の壁によるものだと判断しました 一方 Cleverbotのようなプログラムは 実際の会話の膨大なデータベースを 統計的に分析するという 別のアプローチを取ることで 最良の応答を決定したのです 直前の会話を記憶させ 徐々に磨いていくものもあります Cleverbotの個々の応答は 見事なまでに人間的に聞こえますが 統一のとれた個性というものを欠き まったく新しい話題には 対応できないので それが機械である 動かぬ証拠になります
Who in Turing's day could have predicted that today's computers would be able to pilot spacecraft, perform delicate surgeries, and solve massive equations, but still struggle with the most basic small talk? Human language turns out to be an amazingly complex phenomenon that can't be captured by even the largest dictionary. Chatbots can be baffled by simple pauses, like "umm..." or questions with no correct answer. And a simple conversational sentence, like, "I took the juice out of the fridge and gave it to him, but forgot to check the date," requires a wealth of underlying knowledge and intuition to parse. It turns out that simulating a human conversation takes more than just increasing memory and processing power, and as we get closer to Turing's goal, we may have to deal with all those big questions about consciousness after all.
チューリングの時代には 現在のコンピューターが 宇宙船を操縦したり 繊細な手術を行ったり 難しい方程式すら解けるのに ちょっとした会話に苦労するなんて 想像できなかったでしょう 人間が用いる言語は 非常に複雑な現象であり 最大の辞書ですら 捉えきれてはいないのです 会話ロボットは 「えっと」といった 単純な言葉のはさみや 正解のない質問にも混乱してしまいます そして簡単な会話文 例えば― 「冷蔵庫のジュースを彼に渡したけど 賞味期限を確認し忘れていた」 こんなことにも豊かな知識の蓄積や 文法的な直感が要求されるのです 人間の会話を模倣するためには 単にメモリーを増やし 処理能力を向上するだけでは不十分でした チューリングのゴールに近づくほど 最後には意識という大きな問いを 考えることが必要になるのでしょう