Ten years ago, I wrote a book which I entitled "Our Final Century?" Question mark. My publishers cut out the question mark. (Laughter) The American publishers changed our title to "Our Final Hour." Americans like instant gratification and the reverse. (Laughter)
Hace 10 años escribí un libro que titulé: "¿Nuestro siglo final?" Signos de interrogación. Mis editores quitaron los signos de interrogación. (Risas) Los editores estadounidenses cambiaron el título por: "Nuestra hora final". A los estadounidenses les gusta la gratificación instantánea y lo contrario. (Risas)
And my theme was this: Our Earth has existed for 45 million centuries, but this one is special — it's the first where one species, ours, has the planet's future in its hands. Over nearly all of Earth's history, threats have come from nature — disease, earthquakes, asteroids and so forth — but from now on, the worst dangers come from us. And it's now not just the nuclear threat; in our interconnected world, network breakdowns can cascade globally; air travel can spread pandemics worldwide within days; and social media can spread panic and rumor literally at the speed of light. We fret too much about minor hazards — improbable air crashes, carcinogens in food, low radiation doses, and so forth — but we and our political masters are in denial about catastrophic scenarios. The worst have thankfully not yet happened. Indeed, they probably won't. But if an event is potentially devastating, it's worth paying a substantial premium to safeguard against it, even if it's unlikely, just as we take out fire insurance on our house.
El tema era este: Nuestra Tierra ha existido durante 45 millones de siglos, pero este siglo es especial; es el primero en el que una especie, la nuestra, tiene el futuro del planeta en sus manos. Durante casi toda la historia de la Tierra, las amenazas provinieron de la Naturaleza: enfermedades, terremotos, asteroides, etc.; pero a partir de ahora, los peores peligros vienen de nosotros. Y ahora no solo está la amenaza nuclear; en nuestro mundo interconectado, las fallas de red pueden propagarse en cascada por el mundo; los viajes en avión pueden propagar pandemias por el mundo en cuestión de días; y los medios sociales pueden propagar pánico y rumores literalmente a la velocidad de la luz. Nos preocupamos demasiado por riesgos menores: accidentes aéreos improbables, sustancias cancerígenas en los alimentos, dosis bajas de radiación, etc.; pero nosotros y nuestros políticos negamos los escenarios catastróficos. Por suerte, aún no ha sucedido lo peor. De hecho, quizá no ocurrirá. Pero si un evento es potencialmente devastador, vale la pena pagar una prima sustancial para protegerse en contra de eso, aunque sea poco probable, así como tenemos un seguro de incendio en nuestra casa.
And as science offers greater power and promise, the downside gets scarier too. We get ever more vulnerable. Within a few decades, millions will have the capability to misuse rapidly advancing biotech, just as they misuse cybertech today. Freeman Dyson, in a TED Talk, foresaw that children will design and create new organisms just as routinely as his generation played with chemistry sets. Well, this may be on the science fiction fringe, but were even part of his scenario to come about, our ecology and even our species would surely not survive long unscathed. For instance, there are some eco-extremists who think that it would be better for the planet, for Gaia, if there were far fewer humans. What happens when such people have mastered synthetic biology techniques that will be widespread by 2050? And by then, other science fiction nightmares may transition to reality: dumb robots going rogue, or a network that develops a mind of its own threatens us all.
Y así como la ciencia ofrece mayor poder y más promesas, el lado negativo da más miedo también. Somos cada vez más vulnerables. En unas pocas décadas, millones podrán usar mal los rápidos avances en biotecnología así como hoy usan mal la cibertecnología. Freeman Dyson, en una charla TED, previó que los niños diseñarán y crearán nuevos organismos tan rutinariamente como su generación jugaba con juegos de química. Bueno, esto puede ser de ciencia ficción, pero, de ocurrir ese escenario, nuestra ecología e incluso nuestra especie seguramente no sobreviviría mucho tiempo indemne. Por ejemplo, hay algunos eco-extremistas que piensan que sería mejor para el planeta, para Gaia, si hubiera muchos menos humanos. ¿Qué sucederá cuando estas personas dominen técnicas de biología sintética comunes en el 2050? Para entonces, otras pesadillas de ciencia ficción pueden hacerse realidad: robots tontos que se vuelven hostiles, o una red desarrolla una mente propia y nos amenaza a todos.
Well, can we guard against such risks by regulation? We must surely try, but these enterprises are so competitive, so globalized, and so driven by commercial pressure, that anything that can be done will be done somewhere, whatever the regulations say. It's like the drug laws — we try to regulate, but can't. And the global village will have its village idiots, and they'll have a global range.
Bueno, ¿podemos protegernos de tales riesgos con regulación? Sin duda hay que probar, pero estas empresas son tan competitivas, tan globalizadas, impulsadas por tanta presión comercial, que cualquier cosa posible de hacer se hará en alguna parte, sin importar lo que digan las regulaciones. Es como las leyes antinarcóticos, tratamos de regular, pero no podemos. Y la aldea global tendrá sus tontos de aldea, que tendrán un rango global.
So as I said in my book, we'll have a bumpy ride through this century. There may be setbacks to our society — indeed, a 50 percent chance of a severe setback. But are there conceivable events that could be even worse, events that could snuff out all life? When a new particle accelerator came online, some people anxiously asked, could it destroy the Earth or, even worse, rip apart the fabric of space? Well luckily, reassurance could be offered. I and others pointed out that nature has done the same experiments zillions of times already, via cosmic ray collisions. But scientists should surely be precautionary about experiments that generate conditions without precedent in the natural world. Biologists should avoid release of potentially devastating genetically modified pathogens.
Por eso, como dije en mi libro, tendremos un viaje lleno de baches en este siglo. Puede haber retrocesos en nuestra sociedad; de hecho, existe una probabilidad del 50 % de un severo revés. Pero ¿hay eventos concebibles que puedan ser incluso peores, que puedan extinguir la vida? Cuando aparece un nuevo acelerador de partículas, algunos preguntan con inquietud: ¿Podría destruir la Tierra, o incluso peor, desintegrar por completo el tejido del espacio? Bueno por suerte hay consuelo. Junto con otra gente señalo que la Naturaleza ya ha hecho los mismos experimentos millones y millones de veces vía colisiones de rayos cósmicos. Pero los científicos deberían tener precauciones con experimentos que generen condiciones sin precedentes en el mundo natural. Los biólogos deben evitar la liberación potencialmente devastadora de patógenos genéticamente modificados.
And by the way, our special aversion to the risk of truly existential disasters depends on a philosophical and ethical question, and it's this: Consider two scenarios. Scenario A wipes out 90 percent of humanity. Scenario B wipes out 100 percent. How much worse is B than A? Some would say 10 percent worse. The body count is 10 percent higher. But I claim that B is incomparably worse. As an astronomer, I can't believe that humans are the end of the story. It is five billion years before the sun flares up, and the universe may go on forever, so post-human evolution, here on Earth and far beyond, could be as prolonged as the Darwinian process that's led to us, and even more wonderful. And indeed, future evolution will happen much faster, on a technological timescale, not a natural selection timescale.
Y, por cierto, nuestra aversión especial al riesgo de desastres verdaderamente existenciales depende de una cuestión filosófica y ética, y es esta: Consideren 2 escenarios. El Escenario A arrasa al 90 % de la humanidad. El Escenario B arrasa al 100 %. ¿Cuánto peor es B que A? Algunos dirían 10 % peor. El conteo de cuerpos es 10 % más alto. Pero yo sostengo que B es incomparablemente peor. Como astrónomo no puedo creer que los humanos seamos el fin de la historia. Faltan 5000 millones de años para que estalle el Sol, y el universo puede seguir para siempre, por eso la evolución post-humana aquí en la Tierra y mucho más allá, podría prolongarse como el proceso darwiniano que condujo a nosotros, y ser aún más maravilloso. Y, en efecto, la evolución futura ocurrirá mucho más rápido, a escala de tiempo tecnológico, no a escala de tiempo de selección natural.
So we surely, in view of those immense stakes, shouldn't accept even a one in a billion risk that human extinction would foreclose this immense potential. Some scenarios that have been envisaged may indeed be science fiction, but others may be disquietingly real. It's an important maxim that the unfamiliar is not the same as the improbable, and in fact, that's why we at Cambridge University are setting up a center to study how to mitigate these existential risks. It seems it's worthwhile just for a few people to think about these potential disasters. And we need all the help we can get from others, because we are stewards of a precious pale blue dot in a vast cosmos, a planet with 50 million centuries ahead of it. And so let's not jeopardize that future.
Así que sin duda, en vista de lo mucho que está en juego, no deberíamos aceptar un riesgo ni de 1 en 1000 millones de que la extinción humana nos quite este inmenso potencial. Algunos de los escenarios previstos pueden ser incluso de ciencia ficción, pero otros pueden ser inquietantemente reales. Es una máxima importante que lo no familiar no es lo mismo que lo improbable, y, de hecho, por eso en la Universidad de Cambridge creamos un centro para estudiar cómo mitigar estos riesgos existenciales. Parece que vale la pena que unas pocas personas piensen en estos desastres potenciales. Necesitamos toda la ayuda que podamos conseguir de otros, porque somos guardianes de un valioso punto azul pálido en un vasto cosmos, un planeta con 50 millones de siglos por delante. Así que no pongamos en peligro ese futuro.
And I'd like to finish with a quote from a great scientist called Peter Medawar. I quote, "The bells that toll for mankind are like the bells of Alpine cattle. They are attached to our own necks, and it must be our fault if they do not make a tuneful and melodious sound."
Y quiero terminar con la cita de un gran científico llamado Peter Medawar. Cito: "Las campanas que doblan por la humanidad son como los cencerros del ganado alpino. Están unidas a nuestros propios cuellos, y debe ser culpa nuestra si no producen un sonido armonioso y melódico".
Thank you very much.
Muchas gracias.
(Applause)
(Aplausos)