What's the most important century in human history? Some might argue it’s a period of extensive military campaigning, like Alexander the Great’s in the 300s BCE, which reshaped political and cultural borders. Others might cite the emergence of a major religion, such as Islam in the 7th century, which codified and spread values across such borders. Or perhaps it’s the Industrial Revolution of the 1700s that transformed global commerce and redefined humanity's relationship with labor. Whatever the answer, it seems like any century vying for that top spot is at a moment of great change— when the actions of our ancestors shifted humanity’s trajectory for centuries to come. So if this is our metric, is it possible that right now— this century— is the most important one yet?
¿Cuál es el siglo más importante de la historia de la humanidad? Para algunos, sería un período con una campaña militar extensiva, como la de Alejandro Magno en el siglo IV a.C., que redefinió las fronteras políticas y culturales. Otros mencionarían el nacimiento de una religión trascendental, como el islam en el siglo VII, que codificó y difundió valores a través de esas fronteras. O quizás sea la Revolución Industrial del siglo XVIII, que transformó el comercio global y reformó la relación de la humanidad con el trabajo. Sea cual fuere, parece que los siglos que compiten por el primer lugar presenciaron tiempos de grandes cambios... acciones de nuestros ancestros que cambiaron el rumbo de la humanidad por siglos venideros. Si tomamos esto como medida, ¿es posible que, ahora mismo, este siglo sea el más importante de todos?
The 21st century has already proven to be a period of rapid technological growth. Phones and computers have accelerated the pace of life. And we’re likely on the cusp of developing new transformative technologies, like advanced artificial intelligence, that could entirely change the way people live. Meanwhile, many technologies we already have contribute to humanity’s unprecedented levels of existential risk— that’s the risk of our species going extinct or experiencing some kind of disaster that permanently limits humanity’s ability to grow and thrive. The invention of the atomic bomb marked a major rise in existential risk, and since then we’ve only increased the odds against us. It’s profoundly difficult to estimate the odds of an existential collapse occurring this century. Very rough guesses put the risk of existential catastrophe due to nuclear winter and climate change at around 0.1%, with the odds of a pandemic causing the same kind of collapse at a frightening 3%.
El siglo XXI ya demostró ser un período de veloz desarrollo tecnológico. Los teléfonos y las computadoras aceleraron el ritmo de la vida. Y es probable que estemos cerca de desarrollar nuevas tecnologías transformadoras, como inteligencia artificial avanzada, que podrían cambiar el vivir de las personas por completo. Así mismo, muchas tecnologías que ya tenemos contribuyen a niveles inauditos de riesgos existenciales para la humanidad. Es decir, que nuestra especie se extinga o experimente algún tipo de calamidad que limite permanentemente nuestra capacidad de crecer y prosperar. La invención de la bomba atómica produjo un gran aumento de riesgos existenciales, y, desde entonces, las probabilidades en nuestra contra no pararon de subir. Es extremadamente difícil calcular las probabilidades de que un colapso existencial ocurra en este siglo. Conjeturas muy aproximadas indican que el riesgo de que las causas sean invierno nuclear y cambio climático es de alrededor de 0,1 %, mientras que las probabilidades de que al colapso lo cause una pandemia son de un alarmante 3 %.
Given that any of these disasters could mean the end of life as we know it, these aren’t exactly small figures, And it’s possible this century could see the rise of new technologies that introduce more existential risks. AI experts have a wide range of estimates regarding when artificial general intelligence will emerge, but according to some surveys, many believe it could happen this century. Currently, we have relatively narrow forms of artificial intelligence, which are designed to do specific tasks like play chess or recognize faces. Even narrow AIs that do creative work are limited to their singular specialty. But artificial general intelligences, or AGIs, would be able to adapt to and perform any number of tasks, quickly outpacing their human counterparts. There are a huge variety of guesses about what AGI could look like, and what it would mean for humanity to share the Earth with another sentient entity. AGIs might help us achieve our goals, they might regard us as inconsequential, or, they might see us as an obstacle to swiftly remove. So in terms of existential risk, it's imperative the values of this new technology align with our own. This is an incredibly difficult philosophical and engineering challenge that will require a lot of delicate, thoughtful work. Yet, even if we succeed, AGI could still lead to another complicated outcome.
Ya que cualquiera de estos desastres podría acabar con la vida que conocemos, estos números no son tan bajos como parecen. Y es posible que este siglo vea un aumento de nuevas tecnologías que introduzcan más riesgos existenciales. Hay una gran variedad de estimaciones respecto a cuándo surgirá la inteligencia artificial fuerte, pero algunos estudios indican que puede ser en este siglo. Por ahora, tenemos formas relativamente débiles de IA, diseñadas para funciones específicas, como jugar al ajedrez o reconocer rostros. Incluso las que hacen trabajos creativos están limitadas a una única especialidad. Pero las inteligencias artificiales fuertes, o las IAF, serían capaces de adaptarse para cumplir cualquier cantidad de funciones y pronto superarían a sus equivalentes humanos. Existen muchísimas conjeturas sobre el aspecto que tendría la IAF y lo que significaría para la humanidad compartir la Tierra con otra entidad sensible. Las IAF podrían ayudarnos a cumplir nuestras metas, podrían considerarnos intrascendentes o podrían vernos como un obstáculo que quieran remover con rapidez. Así que, en materia de riesgos existenciales, es fundamental que esta nueva tecnología comparta nuestros valores. Es un desafío sumamente difícil para la ingeniería y la filosofía que requerirá mucha reflexión y sensibilidad. Pero, aunque lo lográsemos, la IAF podría traer otro resultado complejo.
Let’s imagine an AGI emerges with deep respect for human life and a desire to solve all humanity’s troubles. But to avoid becoming misaligned, it's been developed to be incredibly rigid about its beliefs. If these machines became the dominant power on Earth, their strict values might become hegemonic, locking humanity into one ideology that would be incredibly resistant to change. History has taught us that no matter how enlightened a civilization thinks they are, they are rarely up to the moral standards of later generations. And this kind of value lock in could permanently distort or constrain humanity’s moral growth.
Imaginemos que surge una IAF con un fuerte respeto por la vida humana y el deseo de resolver todos los problemas de la humanidad. Pero, para evitar que se desaliñe, es diseñada con una increíble rigidez en sus creencias. Si se convirtieran en el poder dominante de la Tierra, los valores de estas máquinas se volverían hegemónicos y forzarían a la humanidad a seguir una ideología casi inescapable. La historia nos enseña que, aunque una civilización se considere la más progresista, rara vez está a la altura moral de las generaciones que le siguen. Y esta especie de bloqueo ético podría distorsionar o restringir el crecimiento moral de la humanidad.
There's a ton of uncertainty around AGI, and it’s profoundly difficult to predict how any existential risks will play out over the next century. It’s also possible that new, more pressing concerns might render these risks moot. But even if we can't definitively say that ours is the most important century, it still seems like the decisions we make might have a major impact on humanity’s future. So maybe we should all live like the future depends on us— because actually, it just might.
Hay mucha incertidumbre acerca de la IAF, y es extremadamente difícil predecir cómo se manifestarán los riesgos existenciales en el próximo siglo. También es posible que, si surgen inquietudes más apremiantes, estos riesgos se vuelvan cuestionables. Pero, aunque no podamos afirmar que este sea el siglo más importante, parece que las decisiones que tomemos podrían tener una enorme repercusión en el futuro de la humanidad. Tal vez deberíamos vivir como si el futuro dependiera de nosotros, porque lo más probable es que así sea.