Was ist Bewusstsein? Kann eine Maschine wirklich denken? Besteht der Verstand nur aus Neuronen im Gehirn oder ist ein unfassbarer Funke der Kern der Intelligenz? Für viele sind diese Überlegungen ausschlaggebend für die Zukunft der künstlichen Intelligenz. Der britische Informatiker Alan Turing entschied sich jedoch gegen diese Fragen und stellte eine viel einfachere: Kann ein Computer sich unterhalten wie ein Mensch? Diese Frage führte zu der Idee, künstliche Intelligenz zu messen, die als der Turing-Test bekannt werden sollte. In seiner Arbeit "Computer und Intelligenz" von 1950 schlug Turing das folgende Spiel vor. Ein menschlicher Richter unterhält sich schriftlich mit unsichtbaren Spielern und bewertet ihre Reaktionen. Um den Test zu bestehen, muss ein Computer einen der Spieler ersetzen, ohne die Ergebnisse wesentlich zu verändern. Ein Computer gilt also als intelligent, wenn dessen Unterhaltung sich schwer von der eines Menschen unterscheiden lässt. Turing sagte voraus, dass im Jahr 2000 Maschinen mit 100-MB-Speicher seinen Test ohne Probleme bestehen würden. Das war vielleicht etwas voreilig. Die heutigen Computer verfügen zwar über weit mehr Speicher, aber es ist nur wenigen gelungen, und die erfolgreichen Computer konzentrierten sich eher darauf, die Richter auf schlaue Art zu täuschen, als ihre überwältigende Rechenleistung einzusetzen. Das erste Programm, das als erfolgreich gelten könnte, hieß ELIZA; es wurde allerdings nie wirklich getestet. Es täuschte mit einem relativ einfachen Programm viele Tester, indem es einen Psychologen nachahmte, der sie ermutigte, mehr zu erzählen und der ihre eigenen Fragen an sie zurück stellte. Ein weiteres frühes Programm, PARRY, verfolgte den umgekehrten Ansatz, indem es einen paranoid Schizophrenen imitierte, der das Gespräch immer wieder auf seine programmierten Manien lenkte. Diese Erfolge beim Täuschen der Tester hob eine Schwäche des Tests hervor. Menschen halten immer wieder viele Dinge für intelligent, die eigentlich nicht intelligent sind. Trotzdem haben jährliche Wettbewerbe wie der Loebner-Preis den Test formaler gemacht: Die Richter wissen vorher, dass einige der Gesprächspartner Maschinen sein werden. Aber auch wenn sich die Qualität verbessert hat, nutzen viele Chatbot-Programmierer ähnliche Strategien wie ELIZA und PARRY. Catherine, der Gewinner von 1997, konnte beeindruckend konzentrierte und intelligente Gespräche führen, allerdings vor allem dann, wenn es um Bill Clinton ging. Der aktuellere Gewinner Eugene Goostman war als 13-jähriger Junge aus der Ukraine konzipiert, sodass die Richter seine unlogische und ungeschickte Grammatik als sprachliche und kulturelle Unterschiede deuteten. Andere Programme wie Cleverbot nutzen derweil einen anderen Ansatz, indem sie riesige Datenbanken mit echten Gesprächen statistisch auswerten, um die beste Antwort zu ermitteln. Manche speichern auch frühere Unterhaltungen, um sich mit der Zeit zu verbessern. Aber während einzelne Antworten von Cleverbot sehr menschlich klingen mögen, sind die uneinheitliche Persönlichkeit und seine Unfähigkeit, mit neuen Themen umzugehen, sehr verräterisch. Wer hätte zu Turings Zeiten vorhergesehen, dass die heutigen Computer Raumschiffe steuern, komplizierte Operationen durchführen und riesige Gleichungen lösen können, aber immer noch am einfachsten Smalltalk scheitern? Die menschliche Sprache hat sich als extrem komplex herausgestellt, und nicht einmal das größte Wörterbuch kann sie vollständig erfassen. Chatbots können durch einfache Pausen wie "ähm..." oder Fragen ohne korrekte Antwort verwirrt werden. Einfache Alltagssätze wie "Ich habe den Saft aus dem Kühlschrank genommen und ihn ihm gegeben, aber vergessen, nach dem Datum zu sehen" verlangen viel Hintergrundwissen und Intuition, um sie richtig zu deuten. Um eine menschliche Unterhaltung zu simulieren, ist also mehr nötig als mehr Speicher und Rechenleistung, und während wir uns Turings Ziel nähern, müssen wir uns vielleicht doch die großen Fragen nach dem Bewusstsein stellen.
What is consciousness? Can an artificial machine really think? Does the mind just consist of neurons in the brain, or is there some intangible spark at its core? For many, these have been vital considerations for the future of artificial intelligence. But British computer scientist Alan Turing decided to disregard all these questions in favor of a much simpler one: can a computer talk like a human? This question led to an idea for measuring aritificial intelligence that would famously come to be known as the Turing test. In the 1950 paper, "Computing Machinery and Intelligence," Turing proposed the following game. A human judge has a text conversation with unseen players and evaluates their responses. To pass the test, a computer must be able to replace one of the players without substantially changing the results. In other words, a computer would be considered intelligent if its conversation couldn't be easily distinguished from a human's. Turing predicted that by the year 2000, machines with 100 megabytes of memory would be able to easily pass his test. But he may have jumped the gun. Even though today's computers have far more memory than that, few have succeeded, and those that have done well focused more on finding clever ways to fool judges than using overwhelming computing power. Though it was never subjected to a real test, the first program with some claim to success was called ELIZA. With only a fairly short and simple script, it managed to mislead many people by mimicking a psychologist, encouraging them to talk more and reflecting their own questions back at them. Another early script PARRY took the opposite approach by imitating a paranoid schizophrenic who kept steering the conversation back to his own preprogrammed obsessions. Their success in fooling people highlighted one weakness of the test. Humans regularly attribute intelligence to a whole range of things that are not actually intelligent. Nonetheless, annual competitions like the Loebner Prize, have made the test more formal with judges knowing ahead of time that some of their conversation partners are machines. But while the quality has improved, many chatbot programmers have used similar strategies to ELIZA and PARRY. 1997's winner Catherine could carry on amazingly focused and intelligent conversation, but mostly if the judge wanted to talk about Bill Clinton. And the more recent winner Eugene Goostman was given the persona of a 13-year-old Ukrainian boy, so judges interpreted its nonsequiturs and awkward grammar as language and culture barriers. Meanwhile, other programs like Cleverbot have taken a different approach by statistically analyzing huge databases of real conversations to determine the best responses. Some also store memories of previous conversations in order to improve over time. But while Cleverbot's individual responses can sound incredibly human, its lack of a consistent personality and inability to deal with brand new topics are a dead giveaway. Who in Turing's day could have predicted that today's computers would be able to pilot spacecraft, perform delicate surgeries, and solve massive equations, but still struggle with the most basic small talk? Human language turns out to be an amazingly complex phenomenon that can't be captured by even the largest dictionary. Chatbots can be baffled by simple pauses, like "umm..." or questions with no correct answer. And a simple conversational sentence, like, "I took the juice out of the fridge and gave it to him, but forgot to check the date," requires a wealth of underlying knowledge and intuition to parse. It turns out that simulating a human conversation takes more than just increasing memory and processing power, and as we get closer to Turing's goal, we may have to deal with all those big questions about consciousness after all.