In January of 1995, Russia detected a nuclear missile headed its way. The alert went all the way to the president, who was deciding whether to strike back when another system contradicted the initial warning. What they thought was the first missile in a massive attack was actually a research rocket studying the Northern Lights. This incident happened after the end of the Cold War, but was nevertheless one of the closest calls we’ve had to igniting a global nuclear war.
ในปี 1995 รัสเซียตรวจจับได้ว่า มีจรวดนิวเคลียร์อยู่ในพิสัย สัญญาณเตือนได้ถูกส่งไปถึงประธานาธิบดี ผู้ที่กำลังตัดสินใจว่าจะโต้กลับหรือไม่ กระทั่งระบบอีกระบบหนึ่ง เกิดขัดแย้งกับการเตือนในตอนแรก พวกเขาจึงได้รู้ว่า จรวดที่ถูกส่งออกมาโจมตีนั้น ที่จริงแล้วเป็นแค่จรวด ที่ใช้ในการศึกษาแสงเหนือเท่านั้น เหตุการณ์นี้เกิดขึ้น ภายหลังจากสงครามเย็นจบลง แต่ถึงอย่างนั้นก็ตาม นี่คือหนึ่งในเหตุการณ์ที่ใกล้ที่สุด ที่จะเกิดสงครามนิวเคลียร์ระดับโลก
With the invention of the atomic bomb, humanity gained the power to destroy itself for the first time in our history. Since then, our existential risk— risk of either extinction or the unrecoverable collapse of human civilization— has steadily increased. It’s well within our power to reduce this risk, but in order to do so, we have to understand which of our activities pose existential threats now, and which might in the future.
ด้วยระเบิดปรมาณูที่ถูกคิดค้นขึ้นมา มนุษยชาติจึงมีพลังที่จะทำลายตัวเองได้ เป็นครั้งแรกในประวัติศาสตร์ ตั้งแต่เป็นต้นนั้นมา ความเสี่ยงต่อการคงอยู่ของเรา ไม่ว่าจะเป็นความเสี่ยงต่อการสูญพันธุ์ หรือการล่มสลายของอารยธรรมมนุษย์ ก็ได้เพิ่มขึ้นอย่างต่อเนื่อง เราสามารถลดความเสี่ยงนั้นได้ ด้วยกำลังของพวกเราเอง แต่การจะทำเช่นนั้นได้ เราต้องทำความเข้าใจก่อนว่า การกิจกรรมไหนของเราบ้าง ที่เป็นภัยต่อการคงอยู่ของเราอยู่ตอนนี้ และสิ่งไหนอาจเป็นภัยในอนาคต
So far, our species has survived 2,000 centuries, each with some extinction risk from natural causes— asteroid impacts, supervolcanoes, and the like. Assessing existential risk is an inherently uncertain business because usually when we try to figure out how likely something is, we check how often it's happened before. But the complete destruction of humanity has never happened before. While there’s no perfect method to determine our risk from natural threats, experts estimate it’s about 1 in 10,000 per century.
เผ่าพันธุ์ของเราคงอยู่มา กว่า 200,000 ปีแล้ว ผ่านความเสี่ยงต่อการสูญพันธุ์ จากหลากหลายมหันตภัยทางธรรมชาติ ไม่ว่าจะเป็นอุกกาบาตตก ภูเขาไฟระเบิด หรืออะไรทำนองนั้น แต่เราไม่สามารถประเมินภัยความเสี่ยง ต่อการคงอยู่ของเราได้เลย เพราะเมื่อเราหาความเป็นไปได้ ของสิ่งต่าง ๆ ที่จะเกิดขึ้น เราจะย้อนไปดูว่ามันเคยเกิดขึ้นบ่อยแค่ไหน แต่การสูญสิ้นของมนุษยชาตินั้น ไม่เคยเกิดขึ้นมาก่อน เรายังไม่มีวิธีที่จะประเมินความเสี่ยง ของภัยทางธรรมชาติได้อย่างสมบูรณ์ แต่ผู้เชี่ยวชาญประเมินเอาไว้ว่า มีโอกาส 1 ใน 10,000 ต่อหนึ่งร้อยปี
Nuclear weapons were our first addition to that baseline. While there are many risks associated with nuclear weapons, the existential risk comes from the possibility of a global nuclear war that leads to a nuclear winter, where soot from burning cities blocks out the sun for years, causing the crops that humanity depends on to fail. We haven't had a nuclear war yet, but our track record is too short to tell if they’re inherently unlikely or we’ve simply been lucky. We also can’t say for sure whether a global nuclear war would cause a nuclear winter so severe it would pose an existential threat to humanity.
อาวุธนิวเคลียร์คือความเสี่ยงแรก ที่ถูกเพิ่มเข้ามา มีความเสี่ยงมากมาย ที่เกี่ยวข้องกับอาวุธนิวเคลียร์ แต่ความเสี่ยงต่อการคงอยู่ของเรานั้น ขึ้นอยู่กับความเป็นไปได้ ของการเกิดสงครามนิวเคลียร์ระดับโลก ที่จะนำไปสู่ฤดูหนาวนิวเคลียร์ ที่เขม่าจากบ้านเมืองที่ถูกเผา จะบดบังแสงอาทิตย์นานนับปี ทำให้พืชพันธุ์ที่มนุษยชาติพึ่งพาอยู่ ล้มตายหายไป สงครามนิวเคลียร์นั้นยังไม่เคยเกิดขึ้น แต่รายงานที่เรามียังบอกไม่ได้ว่า มันจะไม่เกิดขึ้นอย่างแน่นอน หรือเราแค่อาจจะโชคดีเท่านั้นเอง เราไม่สามารถรับปากได้เลยว่า สงครามนิวเคลียร์จะทำให้เกิด ฤดูหนาวนิวเคลียร์ที่ร้ายแรงได้หรือไม่ และมันจะเป็นภัยคุกคามต่อการคงอยู่ ของมนุษยชาติหรือเปล่า
The next major addition to our existential risk was climate change. Like nuclear war, climate change could result in a lot of terrible scenarios that we should be working hard to avoid, but that would stop short of causing extinction or unrecoverable collapse. We expect a few degrees Celsius of warming, but can’t yet completely rule out 6 or even 10 degrees, which would cause a calamity of possibly unprecedented proportions. Even in this worst-case scenario, it’s not clear whether warming would pose a direct existential risk, but the disruption it would cause would likely make us more vulnerable to other existential risks.
ภัยความเสี่ยงต่อการคงอยู่ของเรา เรื่องถัดมาก็คือการเปลี่ยนแปลงภูมิอากาศ เช่นเดียวกับสงครามนิวเคลียร์ สิ่งนี้อาจจะเป็นต้นเหตุ ของสถานการณ์เลวร้ายมากมาย ที่เราควรทำงานอย่างหนักเพื่อหลีกเลี่ยง แต่ก็ทำได้แค่หยุดต้นเหตุบางอย่าง ของการสูญพันธุ์หรือการล่มสลายเพียงเท่านั้น เรายอมรับได้หากโลกร้อนขึ้น เพียงแค่ไม่กี่องศา แต่เรายังไม่สามารถรับมือได้ หากโลกร้อนขึ้น 6 หรือ 10 องศา ซึ่งนั่นจะทำให้เกิดหายนะ แบบที่ไม่เคยเกิดขึ้นมาก่อนในหลาย ๆ ส่วน แม้กระทั่งในสถาณการณ์ที่เลวร้ายที่สุด ก็ยังไม่แน่ชัดว่าภาวะโลกร้อนนั้น จะเป็นภัยคุกคามโดยตรงต่อเราหรือเปล่า แต่สิ่งที่จะเกิดขึ้นนั้นจะไปเพิ่ม ความเสี่ยงในการสูญพันธ์ของเรา จากมหันตภัยอื่น ๆ มากขึ้น
The greatest risks may come from technologies that are still emerging. Take engineered pandemics. The biggest catastrophes in human history have been from pandemics. And biotechnology is enabling us to modify and create germs that could be much more deadly than naturally occurring ones. Such germs could cause pandemics through biowarfare and research accidents. Decreased costs of genome sequencing and modification, along with increased availability of potentially dangerous information like the published genomes of deadly viruses, also increase the number of people and groups who could potentially create such pathogens.
ความเสี่ยงร้ายแรงอาจจะมาจาก เทคโนโลยีที่ยังคงเพิ่มขึ้นเหล่านี้ เทคโนโลยีการสร้างโรคระบาด หายนะครั้งยิ่งใหญ่ที่สุดในประวัติศาสตร์ ของมนุษยชาติเกิดจากโรคระบาด เทคโนโลยีชีวภาพทำให้เราสามารถ ปรับแต่งและสร้างเชื้อโรคขึ้นมาเองได้ และมันอาจจะอันตรายกว่า โรคที่เกิดขึ้นตามธรรมชาติอย่างมาก อาวุธชีวภาพหรืออุบัติเหตุจากการวิจัย ของเชื้อโรคอาจจะทำให้เกิดโรคระบาดได้ ด้วยต้นทุนที่ลดลง ของการปรับแต่งพันธุกรรม ร่วมกับการเข้าถึงที่ง่ายขึ้น ของข้อมูลที่อาจเป็นอันตรายได้ อย่างการเผยแพร่ข้อมูลรหัสพันธุกรรม ของเชื้อไวรัสมฤตยู และการเพิ่มขึ้นเหล่าผู้คน ที่อาจจะสร้างเชื้อโรคนี้ขึ้นมาได้
Another concern is unaligned AI. Most AI researchers think this will be the century where we develop artificial intelligence that surpasses human abilities across the board. If we cede this advantage, we place our future in the hands of the systems we create. Even if created solely with humanity’s best interests in mind, superintelligent AI could pose an existential risk if it isn’t perfectly aligned with human values— a task scientists are finding extremely difficult.
อีกหนึ่งสิ่งที่น่ากังวลก็คือ เหล่าปัญญาประดิษฐ์ที่แตกแถว นักวิจัยปัญญาประดิษฐ์ส่วนใหญ่ คิดว่านี่จะเป็นศตวรรษที่ เราจะพัฒนาปัญญาประดิษฐ์ให้ก้าวข้าม ความสามารถของมนุยย์ไปได้ ในทุก ๆ ด้าน หากเรายอมรับผลประโยชน์นี้ ก็เท่ากับว่าเราได้ฝากอนาคตไว้กับ ของระบบที่เราสร้างขึ้นมาเอง ถึงแม้มันจะถูกสร้างด้วยปัญญา ที่เฉียบแหลมของมนุษย์เพียงอย่างเดียว ปัญญาประดิษฐ์ที่ทรงภูมิปัญญา อาจจะเป็นภัยต่อการคงอยู่ของเราได้ หากมันไม่ได้เห็นพ้องกับ คุณค่าของมนุษย์ได้อย่างสมบูรณ์ ซึ่งเป็นงานที่ทำได้ยากมาก ของนักวิทยาศาสตร์
Based on what we know at this point, some experts estimate the anthropogenic existential risk is more than 100 times higher than the background rate of natural risk. But these odds depend heavily on human choices. Because most of the risk is from human action, and it’s within human control. If we treat safeguarding humanity's future as the defining issue of our time, we can reduce this risk. Whether humanity fulfils its potential— or not— is in our hands.
อ้างอิงจากสิ่งที่เรารู้อยู่ในตอนนี้ ผู้เชี่ยวชาญประเมินไว้ว่าความเสี่ยง ต่อการสูญพันธุ์จากน้ำมือของเราเองนั้น มีมากกว่า 100 เท่า เมื่อเทียบกับความเสี่ยงจากภัยธรรมชาติ แต่ตัวเลขนี้ขึ้นอยู่กับ การเลือกของมนุษย์ เพราะความเสี่ยงส่วนใหญ่เกิดจากมนุษย์ และมนุษย์สามารถควบคุมมันได้ หากเราทำให้การปกป้องอนาคตของเรา เป็นเรื่องสำคัญในตอนนี้ เราจะลดความเสี่ยงนี้ได้ มนุษยชาติจะทำได้ หรือไม่ ขึ้นอยู่กับตัวเราเอง