Vor 10 Jahren schrieb ich ein Buch mit dem Titel „Unser letztes Jahrhundert?“ Fragezeichen. Meine Verleger entfernten das Fragezeichen. (Gelächter) Die amerikanischen Verleger ersetzten unseren Titel durch „Unsere letzte Stunde“. Amerikaner mögen sofortige Genussbefriedigung und auch das Gegenteil. (Gelächter)
Ten years ago, I wrote a book which I entitled "Our Final Century?" Question mark. My publishers cut out the question mark. (Laughter) The American publishers changed our title to "Our Final Hour." Americans like instant gratification and the reverse. (Laughter)
Mein Thema ist folgendes: Unsere Erde existiert seit 45 Millionen Jahrhunderten. Aber dieses Jahrhundert ist ein besonderes: Zum ersten Mal hält unsere menschliche Spezies die Zukunft des Planeten in ihren Händen. In fast der gesamten Geschichte der Erde gingen die Gefahren von der Natur aus -- Krankheiten, Erdbeben, Asteroiden usw. Aber von nun an kommen die schlimmsten Gefahren von uns. Und das ist heutzutage nicht nur die nukleare Bedrohung; in unserer vernetzten Welt können Netzwerkausfälle globale Kettenreaktionen auslösen; Luftverkehr kann innerhalb von Tagen Epidemien verbreiten und soziale Medien können Panik und Gerüchte buchstäblich in Lichtgeschwindigkeit verbreiten. Wir sorgen uns zu sehr über kleinere Risiken -- unwahrscheinliche Flugzeugabstürze, Krebserreger im Essen, geringe Strahlendosis usw. Aber wir und unsere führenden Politiker leugnen katastrophale Szenarien. Die schlimmsten sind zum Glück noch nicht eingetreten. Wahrscheinlich werden sie das auch nicht. Aber wenn ein Ereignis potentiell verheerend sein kann, ist großer Einsatz gerechtfertigt, um sich davor zu schützen -- auch wenn es unwahrscheinlich ist. Genauso, wie wir unser Haus gegen Brandschäden versichern.
And my theme was this: Our Earth has existed for 45 million centuries, but this one is special — it's the first where one species, ours, has the planet's future in its hands. Over nearly all of Earth's history, threats have come from nature — disease, earthquakes, asteroids and so forth — but from now on, the worst dangers come from us. And it's now not just the nuclear threat; in our interconnected world, network breakdowns can cascade globally; air travel can spread pandemics worldwide within days; and social media can spread panic and rumor literally at the speed of light. We fret too much about minor hazards — improbable air crashes, carcinogens in food, low radiation doses, and so forth — but we and our political masters are in denial about catastrophic scenarios. The worst have thankfully not yet happened. Indeed, they probably won't. But if an event is potentially devastating, it's worth paying a substantial premium to safeguard against it, even if it's unlikely, just as we take out fire insurance on our house.
Die Wissenschaft bietet immer größere Macht und Versprechen, aber ihre Nachteile werden auch immer beängstigender. Wir werden immer angreifbarer. Innerhalb weniger Jahrzehnte werden Millionen dazu in der Lage sein, schnell voranschreitende Biotechnologien zu missbrauchen, genau wie das heute mit der Cybertechnologie geschieht. In einem TED-Talk sah Freeman Dyson Kinder in der Zukunft mit der Erschaffung von Organismen spielen wie seine Generation mit Chemiebaukästen. Damit mögen wir am Rande von Science Fiction sein, aber selbst wenn nur ein Teil seines Szenarios wahr werden würde, könnten unser Ökosystem und sogar unsere Spezies sicher nicht lange unversehrt überleben. Es gibt z. B. einige Öko-Extremisten, die glauben, dass es für den Planeten, für Gaia, besser wäre, wenn es viel weniger Menschen gäbe. Was passiert, wenn diese Leute synthetische Biotechnik beherrschen, die bis 2050 weit verbreitet sein wird? Und wenn sich bis dahin andere Science Fiction-Albträume in Wirklichkeit verwandeln: Wenn Roboter ein Eigenleben entwickeln oder ein Netzwerk eigenständig zu denken beginnt, dann ist das eine Gefahr für uns alle.
And as science offers greater power and promise, the downside gets scarier too. We get ever more vulnerable. Within a few decades, millions will have the capability to misuse rapidly advancing biotech, just as they misuse cybertech today. Freeman Dyson, in a TED Talk, foresaw that children will design and create new organisms just as routinely as his generation played with chemistry sets. Well, this may be on the science fiction fringe, but were even part of his scenario to come about, our ecology and even our species would surely not survive long unscathed. For instance, there are some eco-extremists who think that it would be better for the planet, for Gaia, if there were far fewer humans. What happens when such people have mastered synthetic biology techniques that will be widespread by 2050? And by then, other science fiction nightmares may transition to reality: dumb robots going rogue, or a network that develops a mind of its own threatens us all.
Wie können wir uns durch Vorschriften vor solchen Risiken schützen? Wir müssen es versuchen. Doch diese Unternehmen sind so konkurrenzstark, so globalisiert und von wirtschaftlichem Druck getrieben, dass alles, was getan werden kann, irgendwo getan werden wird, egal was Vorschriften dazu sagen. Wie mit der Drogengesetzgebung -- Wir scheitern am Versuch der Regulierung. Im globalen Dorf wird es Dorftrottel geben und diese werden es zu globaler Reichweite bringen.
Well, can we guard against such risks by regulation? We must surely try, but these enterprises are so competitive, so globalized, and so driven by commercial pressure, that anything that can be done will be done somewhere, whatever the regulations say. It's like the drug laws — we try to regulate, but can't. And the global village will have its village idiots, and they'll have a global range.
Wie ich schon in meinem Buch schrieb: Es wird eine holprige Fahrt durch dieses Jahrhundert. Es mag einige Rückschläge für unsere Gesellschaft geben -- eine 50-prozentige Wahrscheinlichkeit für einen schweren Rückschlag. Gibt es jedoch absehbare Ereignisse, die sogar noch schlimmer sein könnten, die alles Leben auslöschen können? Als ein neuer Teilchenbeschleuniger online gestellt wurde, stellten viele ängstlich die Frage, ob er die Erde zerstören könnte, oder noch schlimmer, das Gebilde des Weltraums auseinanderzureißen vermag. Glücklicherweise konnte man die Gemüter beruhigen. Andere und ich haben betont, dass die Natur die gleichen Experimente schon zigmal mittels Kollisionen kosmischer Strahlung durchgeführt hat. Doch Wissenschaftler sollten sicherlich vorsichtig mit Experimenten sein, die Bedingungen hervorrufen, die es in der natürlichen Welt zuvor noch nicht gab. Biologen sollten die Freisetzung potentiell zerstörerischer, genetisch veränderter Krankheitserreger vermeiden.
So as I said in my book, we'll have a bumpy ride through this century. There may be setbacks to our society — indeed, a 50 percent chance of a severe setback. But are there conceivable events that could be even worse, events that could snuff out all life? When a new particle accelerator came online, some people anxiously asked, could it destroy the Earth or, even worse, rip apart the fabric of space? Well luckily, reassurance could be offered. I and others pointed out that nature has done the same experiments zillions of times already, via cosmic ray collisions. But scientists should surely be precautionary about experiments that generate conditions without precedent in the natural world. Biologists should avoid release of potentially devastating
Übrigens hängt unsere besondere Aversion gegen das Risiko existentieller Katastrophen von einer philosophischen und ethischen Frage ab, die da lautet: Ziehe zwei Szenarien in Betracht. Szenario A löscht 90 % der Menschheit aus. Szenario B löscht 100 % aus. Wieviel schlimmer ist B im Vergleich zu A? Einige würden sagen um 10 % schlimmer. Die Zahl der Opfer ist um 10 % höher. Aber ich behaupte, dass B noch viel schlimmer ist. Als Astronom kann ich mir nicht vorstellen, dass Menschen das Ende der Geschichte sind. Wir befinden uns 5 Milliarden Jahre vor der Sonnenverbrennung, und das Universum könnte für immer weiter bestehen. Also könnte post-menschliche Evolution auf der Erde und weit darüber hinaus so lange dauern wie der Evolutionsprozess, aus dem wir, und noch viel Herrlicheres, hervorgegangen sind. Gewiss wird künftige Evolution auf einer technologischen Zeitskala viel schneller erfolgen, als die Zeitskala natürlicher Evolution.
genetically modified pathogens. And by the way, our special aversion to the risk of truly existential disasters depends on a philosophical and ethical question, and it's this: Consider two scenarios. Scenario A wipes out 90 percent of humanity. Scenario B wipes out 100 percent. How much worse is B than A? Some would say 10 percent worse. The body count is 10 percent higher. But I claim that B is incomparably worse. As an astronomer, I can't believe that humans are the end of the story. It is five billion years before the sun flares up, and the universe may go on forever, so post-human evolution, here on Earth and far beyond, could be as prolonged as the Darwinian process that's led to us, and even more wonderful. And indeed, future evolution will happen much faster, on a technological timescale, not a natural selection timescale.
Also sollten wir sicherlich im Hinblick auf diese gravierenden Folgen nicht einmal ein Risiko von eins zu einer Milliarde eingehen, dass das Aussterben der Menschen dieses immense Potential verhindern kann. Einige vorstellbare Szenarien könnten tatsächlich Science Fiction, andere hingegen beunruhigend realistisch sein. Es ist eine wichtige Maxime, dass das Unbekannte nicht gleichzusetzen ist mit dem Unwahrscheinlichen. Darum richten wir an der Cambridge University ein Studienzentrum ein, um zu untersuchen, wie man diese existentiellen Risiken mindern kann. Es scheint, als sei es nur für wenige die Mühe wert, über diese möglichen Katastrophen nachzudenken. Wir brauchen all die Hilfe von anderen, die wir bekommen können, weil wir die Hüter eines wertvollen, blassblauen Punktes im weiten Kosmos sind, einem Planeten, der 50 Millionen Jahrhunderte vor sich hat. Setzen wir die Zukunft nicht aufs Spiel.
So we surely, in view of those immense stakes, shouldn't accept even a one in a billion risk that human extinction would foreclose this immense potential. Some scenarios that have been envisaged may indeed be science fiction, but others may be disquietingly real. It's an important maxim that the unfamiliar is not the same as the improbable, and in fact, that's why we at Cambridge University are setting up a center to study how to mitigate these existential risks. It seems it's worthwhile just for a few people to think about these potential disasters. And we need all the help we can get from others, because we are stewards of a precious pale blue dot in a vast cosmos, a planet with 50 million centuries ahead of it. And so let's not jeopardize that future.
Ich möchte mit dem Zitat eines großartigen Wissenschaftlers, Peter Medawar, abschließen. „Die Glocken, die die Stunde der Menschheit schlagen, sind wie die Glocken für das Vieh auf der Alpenwiese. Sie sind an unsere eigenen Hälse gebunden und es kann nur unsere Schuld sein, wenn sie nicht wohlklingend und melodisch ertönen.“
And I'd like to finish with a quote from a great scientist called Peter Medawar. I quote, "The bells that toll for mankind are like the bells of Alpine cattle. They are attached to our own necks, and it must be our fault if they do not make a tuneful and melodious sound."
Vielen Dank.
Thank you very much.
(Applaus)
(Applause)