In January of 1995, Russia detected a nuclear missile headed its way. The alert went all the way to the president, who was deciding whether to strike back when another system contradicted the initial warning. What they thought was the first missile in a massive attack was actually a research rocket studying the Northern Lights. This incident happened after the end of the Cold War, but was nevertheless one of the closest calls we’ve had to igniting a global nuclear war.
În ianuarie 1995, Rusia a detectat o rachetă nucleară ce se îndrepta spre ei. Alerta a ajuns până la președinte, care se gândea dacă să riposteze, când un alt sistem a contrazis avertismentul inițial. Ceea ce au crezut că este prima rachetă dintr-un atac masiv s-a dovedit a fi de fapt o rachetă de cercetare care studia aurora boreală. Incidentul a avut loc după ce Războiul Rece s-a încheiat, dar a fost una dintre situațiile în care ne-am aflat cel mai aproape de izbucnirea unui război nuclear mondial.
With the invention of the atomic bomb, humanity gained the power to destroy itself for the first time in our history. Since then, our existential risk— risk of either extinction or the unrecoverable collapse of human civilization— has steadily increased. It’s well within our power to reduce this risk, but in order to do so, we have to understand which of our activities pose existential threats now, and which might in the future.
Odată cu inventarea bombei atomice, omenirea a dobândit puterea de a se autodistruge pentru prima dată în istorie. De atunci, riscul nostru existențial — riscul dispariției noastre sau al colapsului irecuperabil al civilizației umane — a crescut continuu. Stă în puterea noastră să reducem acest risc, dar pentru a face acest lucru, trebuie să înțelegem care dintre activitățile noastre reprezintă riscuri existențiale acum, și care ar putea reprezenta în viitor.
So far, our species has survived 2,000 centuries, each with some extinction risk from natural causes— asteroid impacts, supervolcanoes, and the like. Assessing existential risk is an inherently uncertain business because usually when we try to figure out how likely something is, we check how often it's happened before. But the complete destruction of humanity has never happened before. While there’s no perfect method to determine our risk from natural threats, experts estimate it’s about 1 in 10,000 per century.
Până acum, specia noastră a supraviețuit 2000 de secole, toate având un grad de risc de dispariție din cauze naturale — impacturi de asteroizi, super vulcani și alte asemenea. Evaluarea riscului existențial e inerent ceva nesigur deoarece, de obicei, când încercăm să ne dăm seama cât de probabil e ceva, verificăm cât de des s-a întâmplat înainte. Dar distrugerea completă a omenirii nu s-a mai întâmplat înainte. Deși nu există o metodă perfectă de a determina riscul din cauze naturale, experții estimează că e în jur de 1 din 10,000 per secol.
Nuclear weapons were our first addition to that baseline. While there are many risks associated with nuclear weapons, the existential risk comes from the possibility of a global nuclear war that leads to a nuclear winter, where soot from burning cities blocks out the sun for years, causing the crops that humanity depends on to fail. We haven't had a nuclear war yet, but our track record is too short to tell if they’re inherently unlikely or we’ve simply been lucky. We also can’t say for sure whether a global nuclear war would cause a nuclear winter so severe it would pose an existential threat to humanity.
Armele nucleare au fost primele contribuții la acea bază de referință. Deși există multe riscuri asociate armelor nucleare, riscul nostru existențial vine din posibilitatea unui război nuclear mondial care va duce la o iarnă nucleară, în care cenușa din orașele în flăcări va bloca soarele ani de zile, nimicind recoltele de care omenirea depinde. Nu am avut un război nuclear încă, dar istoria noastră e prea scurtă pentru a prezice dacă acestea sunt inerent improbabile sau dacă am fost doar norocoși. De asemenea, nu putem ști sigur dacă un război nuclear mondial va cauza o iarnă nucleară atât de severă încât va fi o amenințare existențială pentru omenire.
The next major addition to our existential risk was climate change.
Următoarea contribuție majoră la riscul nostru existențial
Like nuclear war, climate change could result in a lot of terrible scenarios that we should be working hard to avoid, but that would stop short of causing extinction or unrecoverable collapse. We expect a few degrees Celsius of warming, but can’t yet completely rule out 6 or even 10 degrees, which would cause a calamity of possibly unprecedented proportions. Even in this worst-case scenario, it’s not clear whether warming would pose a direct existential risk, but the disruption it would cause would likely make us more vulnerable to other existential risks.
a fost schimbarea climatică. La fel ca războiul nuclear, aceasta ar putea avea ca rezultat multe scenarii groaznice pe care ar trebui să muncim din greu să le evităm pentru a se opri chiar înainte de a cauza dispariție sau colaps irecuperabil. Ne așteptăm la o încălzire de câteva grade Celsius, dar nu putem încă exclude complet 6 sau chiar 10 grade, ceea ce ar cauza o calamitate de proporții nemaiîntâlnite. Chiar și în cel mai rău caz, nu e clar dacă încălzirea ar reprezenta un risc existențial direct, dar perturbarea pe care ar cauza-o probabil că ne-ar face mai vulnerabili la alte riscuri existențiale.
The greatest risks may come from technologies that are still emerging. Take engineered pandemics. The biggest catastrophes in human history have been from pandemics. And biotechnology is enabling us to modify and create germs that could be much more deadly than naturally occurring ones. Such germs could cause pandemics through biowarfare and research accidents. Decreased costs of genome sequencing and modification, along with increased availability of potentially dangerous information like the published genomes of deadly viruses, also increase the number of people and groups who could potentially create such pathogens.
Cel mai mare risc ar putea veni de la tehnologiile care încă apar. Să luăm ca exemplu pandemiile create artificial. Cele mai mari catastrofe din istoria omenirii au fost cauzate de pandemii. Iar biotehnologia ne permite să modificăm și să creăm germeni care pot fi mult mai periculoși decât cei naturali. Astfel de germeni pot cauza pandemii prin războaie biologice și accidente de laborator. Costuri reduse de secvențiere și modificare ale genomului și disponibilitatea crescută a informaților potențial periculoase, ca genomurile virușilor mortali din domeniul public, duc și la creșterea numărului de persoane și de grupuri care ar putea crea acești patogeni.
Another concern is unaligned AI. Most AI researchers think this will be the century where we develop artificial intelligence that surpasses human abilities across the board. If we cede this advantage, we place our future in the hands of the systems we create. Even if created solely with humanity’s best interests in mind, superintelligent AI could pose an existential risk if it isn’t perfectly aligned with human values— a task scientists are finding extremely difficult.
Altă problemă e IA nealiniată. Majoritatea celor care studiază IA cred că acesta va fi secolul în care vom dezvolta inteligență artificială care va depăși abilități umane la toate nivelurile. Dacă cedăm acest avantaj, ne punem viitorul în mâinile sistemelor pe care le creăm. Chiar dacă sunt create doar în interesul umanității, IA super inteligentă poate reprezenta un risc existențial dacă nu se aliniază perfect cu valorile umane — o sarcină pe care cercetătorii o consideră extrem de dificilă.
Based on what we know at this point, some experts estimate the anthropogenic existential risk is more than 100 times higher than the background rate of natural risk. But these odds depend heavily on human choices. Because most of the risk is from human action, and it’s within human control. If we treat safeguarding humanity's future as the defining issue of our time, we can reduce this risk. Whether humanity fulfils its potential— or not— is in our hands.
Din ce știm până acum, unii experți estimează că riscul existențial antropogenic e de mai mult de 100 de ori mai mare decât rata de dispariție de fond din cauze naturale. Dar acest coeficient depinde foarte mult de alegerile oamenilor. Pentru că mare parte din risc vine din acțiunea umană, e sub controlul nostru. Dacă tratăm protecția viitorului nostru ca problema esențială a timpurilor noastre, putem reduce acest risc. Dacă omenirea își va atinge potențialul sau nu depinde de noi.