What's the most important century in human history? Some might argue it’s a period of extensive military campaigning, like Alexander the Great’s in the 300s BCE, which reshaped political and cultural borders. Others might cite the emergence of a major religion, such as Islam in the 7th century, which codified and spread values across such borders. Or perhaps it’s the Industrial Revolution of the 1700s that transformed global commerce and redefined humanity's relationship with labor. Whatever the answer, it seems like any century vying for that top spot is at a moment of great change— when the actions of our ancestors shifted humanity’s trajectory for centuries to come. So if this is our metric, is it possible that right now— this century— is the most important one yet?
Które stulecie w dziejach ludzkości jest najważniejsze? Jedni powiedzą, że to czasy wielkich kampanii wojennych, na przykład Aleksandra Wielkiego, czyli w IV wieku p.n.e., przez które granice polityczne i kulturowe uległy zmianom. Inni mogliby się odwołać do narodzin którejś z głównych religii, na przykład islamu w VII wieku p.n.e., który skodyfikował i upowszechnił pewne wartości w obrębie tych granic. Jeszcze inni powiedzą, że to rewolucja przemysłowa w XVIII wieku, która zmieniła oblicze światowego handlu i przedefiniowała relację człowiek-praca. Wspólnym mianownikiem wszystkich stuleci kandydujących do tytułu najważniejszego są wielkie zmiany, gdy przez działania naszych przodków trajektoria ludzkości ulegała zmianom, których skutek odczuwały następne pokolenia. Jeśli przyjąć powyższe kryterium, to czy jest możliwe, że teraźniejszość, czyli XXI wiek, jest tym najważniejszym?
The 21st century has already proven to be a period of rapid technological growth. Phones and computers have accelerated the pace of life. And we’re likely on the cusp of developing new transformative technologies, like advanced artificial intelligence, that could entirely change the way people live. Meanwhile, many technologies we already have contribute to humanity’s unprecedented levels of existential risk— that’s the risk of our species going extinct or experiencing some kind of disaster that permanently limits humanity’s ability to grow and thrive. The invention of the atomic bomb marked a major rise in existential risk, and since then we’ve only increased the odds against us. It’s profoundly difficult to estimate the odds of an existential collapse occurring this century. Very rough guesses put the risk of existential catastrophe due to nuclear winter and climate change at around 0.1%, with the odds of a pandemic causing the same kind of collapse at a frightening 3%.
XXI wiek okazał się okresem gwałtownego wzrostu technologicznego. Telefony komórkowe i komputery nadały pęd naszemu życiu. Ludzkość jest prawdopodobnie o krok od nowych, rewolucyjnych wynalazków, takich jak zaawansowana sztuczna inteligencja, która byłaby w stanie zupełnie odmienić nasze życie. Tymczasem wiele z dostępnych obecnie technologii przyczyniło się do niespotykanego dotąd wzrostu ryzyka egzystencjalnego, czyli ryzyka związanego z wyginięciem naszego gatunku, lub jakąś katastrofą, która trwale ograniczyłaby zdolność ludzkości do rozwoju. Wynalezienie bomby atomowej było momentem znacznego wzrostu ryzyka egzystencjalnego i od tamtego momentu sprawa się jedynie pogarsza. Bardzo trudno oszacować szanse wystąpienia egzystencjalnego załamania w tym stuleciu. Według wstępnych prognoz ryzyko wystąpienia katastrofy egzystencjonalnej spowodowanej zimą nuklearną lub zmianą klimatu wynosi 0,1%, przy czym szanse wybuchu pandemii mającego ten sam skutek wynoszą aż 3%.
Given that any of these disasters could mean the end of life as we know it, these aren’t exactly small figures, And it’s possible this century could see the rise of new technologies that introduce more existential risks. AI experts have a wide range of estimates regarding when artificial general intelligence will emerge, but according to some surveys, many believe it could happen this century. Currently, we have relatively narrow forms of artificial intelligence, which are designed to do specific tasks like play chess or recognize faces. Even narrow AIs that do creative work are limited to their singular specialty. But artificial general intelligences, or AGIs, would be able to adapt to and perform any number of tasks, quickly outpacing their human counterparts. There are a huge variety of guesses about what AGI could look like, and what it would mean for humanity to share the Earth with another sentient entity. AGIs might help us achieve our goals, they might regard us as inconsequential, or, they might see us as an obstacle to swiftly remove. So in terms of existential risk, it's imperative the values of this new technology align with our own. This is an incredibly difficult philosophical and engineering challenge that will require a lot of delicate, thoughtful work. Yet, even if we succeed, AGI could still lead to another complicated outcome.
Jeśli przyjmiemy, że te katastrofy oznaczają koniec znanego nam życia, liczby te nie są wcale takie małe. Możliwe, że XXI wiek jest czasem rozwoju wielu nowych technologii, które stworzyły kolejne ryzyka egzystencjonalne. Eksperci od sztucznej inteligencji przeprowadzili wiele prognoz szacujących, kiedy pojawi się sztuczna inteligencja, ale według pewnych badań wielu uważa, że może to się stać w tym wieku. Obecnie dysponujemy okrojonymi formami sztucznej inteligencji, wykonującej takie zadnia jak gra w szachy czy rozpoznawanie twarzy. Nawet wąska SI wykonująca pracę kreatywną nie wychodzi poza swoją specjalizację. Ale silna sztuczna inteligencja SSI mogłaby wykonywać i adaptować się do niezliczonej liczby zadań, szybko wyprzedzając ludzki odpowiednik. Jest wiele różnych prognoz co do tego, jak SSI mogłaby wyglądać i co oznaczałoby dla ludzkości dzielenie życia na ziemi z innym świadomym bytem. SSI mogłaby pomóc nam osiągać nasze cele, postrzegać nas jako coś nieistotnego albo uznać nas za przeszkodę, którą trzeba szybko usunąć. Więc jeśli chodzi o ryzyko egzystencjalne, konieczne jest, żeby wartości nowej technologii pokrywały się z naszymi. Jest to ogromne wyzwanie, zarówno filozoficznie jak i inżynieryjnie, które będzie wymagało wiele ostrożnej, przemyślanej pracy. Ale nawet jeśli nam uda, SSI mogłaby prowadzić do kolejnych komplikacji.
Let’s imagine an AGI emerges with deep respect for human life and a desire to solve all humanity’s troubles. But to avoid becoming misaligned, it's been developed to be incredibly rigid about its beliefs. If these machines became the dominant power on Earth, their strict values might become hegemonic, locking humanity into one ideology that would be incredibly resistant to change. History has taught us that no matter how enlightened a civilization thinks they are, they are rarely up to the moral standards of later generations. And this kind of value lock in could permanently distort or constrain humanity’s moral growth.
Załóżmy, że nowopowstałe SSI cechuje głębokie poszanowanie ludzkiego życia i chęć rozwiązania wszelkich problemów ludzkości. Ale żeby uniknąć niespójności, została tak zaprogramowana, żeby ściśle trzymała się swoich przekonań. Jeśli takie maszyny staną się dominującą siłą na Ziemi, ich ścisłe wartości mogą stać się hegemoniczne, co wiązałoby ludzkość z jedną ideologią wyjątkowo odporną na zmiany. Historia uczy nas, że nieważne, jak dana cywilizacja postrzega się w kwestii rozwoju, rzadko spełnia standardy moralne późniejszych pokoleń. Taki rodzaj ograniczenia wartości mogłby zniekształcić lub zatrzymać wzrost moralny ludzkości.
There's a ton of uncertainty around AGI, and it’s profoundly difficult to predict how any existential risks will play out over the next century. It’s also possible that new, more pressing concerns might render these risks moot. But even if we can't definitively say that ours is the most important century, it still seems like the decisions we make might have a major impact on humanity’s future. So maybe we should all live like the future depends on us— because actually, it just might.
Jest wiele niepewności związanych z SSI i wyjątkowo trudno przewidzieć, jak ryzyka egzystencjalne rozwiną się w następnym wieku. Możliwe, że nowe, bardziej naglące problemy mogą zniwelować te ryzyka. Mimo że nie można z pewnością stwierdzić, że nasz wiek jest najważniejszy, wygląda na to, że nasze decyzje mogą mieć znaczny wpływ na przyszłość ludzkości. Więc może powinniśmy żyć tak, jakby przyszłość zależała od nas? Bo być może tak właśnie jest.