Ten years ago, I wrote a book which I entitled "Our Final Century?" Question mark. My publishers cut out the question mark. (Laughter) The American publishers changed our title to "Our Final Hour." Americans like instant gratification and the reverse. (Laughter)
Il y a 10 ans, j'ai écrit un livre intitulé « Notre dernier siècle ? ». Point d'interrogation. Mes éditeurs ont retiré le point d'interrogation. (Rires) Les éditeurs américains l'ont renommé « Notre Dernière Heure ». Les Américains aiment la satisfaction immédiate et l'autre extrême. (Rires)
And my theme was this: Our Earth has existed for 45 million centuries, but this one is special — it's the first where one species, ours, has the planet's future in its hands. Over nearly all of Earth's history, threats have come from nature — disease, earthquakes, asteroids and so forth — but from now on, the worst dangers come from us. And it's now not just the nuclear threat; in our interconnected world, network breakdowns can cascade globally; air travel can spread pandemics worldwide within days; and social media can spread panic and rumor literally at the speed of light. We fret too much about minor hazards — improbable air crashes, carcinogens in food, low radiation doses, and so forth — but we and our political masters are in denial about catastrophic scenarios. The worst have thankfully not yet happened. Indeed, they probably won't. But if an event is potentially devastating, it's worth paying a substantial premium to safeguard against it, even if it's unlikely, just as we take out fire insurance on our house.
Le sujet du livre, c'est que notre Terre existe depuis 45 millions de siècles, mais ce siècle est spécial. C'est le tout premier où le futur de la planète dépend de nous Dans l'histoire de la Terre, en général les menaces sont venues de la nature - les maladies, les tremblements de terre, les asteroïdes etc. mais à partir de maintenant, les pires dangers viennent de nous-mêmes. Et à présent, il ne s'agit plus seulement de la menace nucléaire; Dans notre monde interconnecté, les pannes de réseau peuvent se répandre partout ; les voyages en avion peuvent répandre des pandémies en quelques jours ; et les media sociaux peuvent propager panique et rumeurs à la vitesse de la lumière, littéralement. On s'inquiète trop des risques mineurs : accidents d'avion improbables, alimentation cancérigène, exposition à de faibles doses de radiations, etc. Mais nous et nos politiciens nions les possibilités de scénarios catastrophiques. Heureusement le pire n'est pas encore arrivé. Probablement, il n'arrivera jamais. Mais s'il existe un évènement potentiellement dévastateur, ça vaut la peine de payer une prime élevée pour nous en protéger, même s'il est peu probable, comme on assure sa maison contre l'incendie.
And as science offers greater power and promise, the downside gets scarier too. We get ever more vulnerable. Within a few decades, millions will have the capability to misuse rapidly advancing biotech, just as they misuse cybertech today. Freeman Dyson, in a TED Talk, foresaw that children will design and create new organisms just as routinely as his generation played with chemistry sets. Well, this may be on the science fiction fringe, but were even part of his scenario to come about, our ecology and even our species would surely not survive long unscathed. For instance, there are some eco-extremists who think that it would be better for the planet, for Gaia, if there were far fewer humans. What happens when such people have mastered synthetic biology techniques that will be widespread by 2050? And by then, other science fiction nightmares may transition to reality: dumb robots going rogue, or a network that develops a mind of its own threatens us all.
Et bien que la science offre des pouvoirs et des promesses de plus en plus grands ses inconvénients deviennent aussi de plus en plus effrayants. Nous devenons plus vulnérables que jamais. D'ici quelques décennies des millions de personnes seront capables d'abuser d'une biotechnologie très avancée comme ils abusent aujourd'hui de la cyber technologie. Freeman Dyson, dans une conférence de TED a prévu que des enfants concevraient et créeraient de nouveaux organismes aussi habituellement que sa génération jouait avec une boîte de chimie. Cela peut sembler être de la science fiction, mais même si seulement une partie de son scenario se produit, cela suggère que notre écologie et même notre espèce ne s'en sortirait certainement pas indemne. Par exemple, il y a des extrémistes écologistes qui pensent qu'il serait mieux pour la planète, pour Gaïa, s'il y avait beaucoup moins d'humains. Qu'arrivera-t-il quand ces personnes maîtriseront les techniques de la biologie synthétique qui seront répandues en 2050 ? De là, d'autres cauchemars de la science-fiction pourraient devenir réalité : des robots dévoyés, ou un réseau qui développe son propre esprit. et menace tout le monde.
Well, can we guard against such risks by regulation? We must surely try, but these enterprises are so competitive, so globalized, and so driven by commercial pressure, that anything that can be done will be done somewhere, whatever the regulations say. It's like the drug laws — we try to regulate, but can't. And the global village will have its village idiots, and they'll have a global range.
Peut-on se prémunir contre ces risques par la régulation ? Il faut essayer, mais ces entreprises sont si compétitives, si mondialisées, et tellement motivées par la pression commerciale, que tout ce qui est possible sera tenté, quoiqu'en disent les régulations. Comme les lois sur la drogue sont autant d'échecs. Et le Village Mondial aura aussi ses idiots,
So as I said in my book, we'll have a bumpy ride through this century. There may be setbacks to our society — indeed, a 50 percent chance of a severe setback. But are there conceivable events that could be even worse, events that could snuff out all life? When a new particle accelerator came online, some people anxiously asked, could it destroy the Earth or, even worse, rip apart the fabric of space? Well luckily, reassurance could be offered. I and others pointed out that nature has done the same experiments zillions of times already, via cosmic ray collisions. But scientists should surely be precautionary about experiments that generate conditions without precedent in the natural world. Biologists should avoid release of potentially devastating genetically modified pathogens.
qui auront une portée mondiale. Alors comme je dis dans mon livre, on va traverser une mauvaise passe au cours de ce siècle. Notre société connaîtra peut-être des revers. Il y a en effet 50% de chance d'un revers grave. Mais y a-t-il des évènements imaginables que seraient encore pires ? Des évènements qui pourraient éliminer toute vie ? Quand un nouvel accélérateur de particules a été mis en marche, des gens anxieux ont demandé : pourrait-il détruire la Terre ? Ou pire, déchirer la structure de l'espace ? Heureusement, on a pu les rassurer. D'autres et moi-même avons indiqué que la nature a déjà mené les mêmes expériences des millions de fois, via des collisions de rayons cosmiques. Mais certainement les scientifiques devraient être prudents à propos des expériences qui génèrent des conditions sans précédent dans la nature. Les biologistes devraient éviter la dissémination dans l'environnement
And by the way, our special aversion to the risk of truly existential disasters depends on a philosophical and ethical question, and it's this: Consider two scenarios. Scenario A wipes out 90 percent of humanity. Scenario B wipes out 100 percent. How much worse is B than A? Some would say 10 percent worse. The body count is 10 percent higher. But I claim that B is incomparably worse. As an astronomer, I can't believe that humans are the end of the story. It is five billion years before the sun flares up, and the universe may go on forever, so post-human evolution, here on Earth and far beyond, could be as prolonged as the Darwinian process that's led to us, and even more wonderful. And indeed, future evolution will happen much faster, on a technological timescale, not a natural selection timescale.
de pathogènes génétiquement modifiés potentiellement nuisibles. Et au fait, notre aversion particulière pour la possibilité d'un désastre existentiel dépend d'une question philosophique et éthique. La voici : considérez deux scénarios. Dans le scénario A, 90% de l'humanité est anéantie. Dans le scénario B, 100% de l'humanité est anéantie. À quel point B est-il pire que A ? Certains diraient 10% pire. Le nombre de morts est de 10% plus élevé. Moi, j'affirme que B est incomparablement pire. Comme astronome, je ne peux pas croire que les humains soient la fin de l'histoire. Il reste 5 milliards d'années avant que le soleil ne s'embrase, et l'univers pourrait durer éternellement. Alors l'évolution post-humaine, ici sur Terre et bien loin ailleurs, pourrait se prolonger autant que le processus darwinien, qui a abouti à nous, et à des choses encore plus merveilleuses. Et en effet, l'évolution future arrivera plus rapidement, à une échelle de temps technologique
So we surely, in view of those immense stakes, shouldn't accept even a one in a billion risk that human extinction would foreclose this immense potential. Some scenarios that have been envisaged may indeed be science fiction, but others may be disquietingly real. It's an important maxim that the unfamiliar is not the same as the improbable, and in fact, that's why we at Cambridge University are setting up a center to study how to mitigate these existential risks. It seems it's worthwhile just for a few people to think about these potential disasters. And we need all the help we can get from others, because we are stewards of a precious pale blue dot in a vast cosmos, a planet with 50 million centuries ahead of it. And so let's not jeopardize that future.
et non à l'échelle de la sélection naturelle. Par conséquent, compte tenu des enjeux immenses, nous ne devrions même pas accepter un risque de un sur un milliard que l'extinction de l'humanité tue cet énorme potentiel. En fait, certains scénarios pourraient relever de la science fiction, mais d'autres malheureusement pourraient s'avérer bien réels. Une importante maxime dit que inconnu ne signifie pas improbable. Et c'est pourquoi à l'Université de Cambridge nous installons un centre de recherche pour examiner comment atténuer ces risques existentiels. Il semble qu'il vaille la peine pour quelques chercheurs de réfléchir aux catastrophes possibles. Et nous avons besoin de toute l'aide possible. Car nous sommes protecteurs d'un petit point bleu pâle si précieux dans ce vaste cosmos. Une planète qui a encore 50 millions de siècles à venir. Alors ne compromettons pas son avenir.
And I'd like to finish with a quote from a great scientist called Peter Medawar. I quote, "The bells that toll for mankind are like the bells of Alpine cattle. They are attached to our own necks, and it must be our fault if they do not make a tuneful and melodious sound."
Je terminerai par une citation du grand scientifique Peter Medawar. Je cite : « Les cloches qui sonnent pour l'humanité sont comme les cloches des vaches des Alpes. Elles sont attachées à nos propres cous et ce doit être notre faute si ces cloches ne font pas un son musical et mélodieux. »
Thank you very much.
Merci beaucoup.
(Applause)
(Applaudissements)