After 13.8 billion years of cosmic history, our universe has woken up and become aware of itself. From a small blue planet, tiny, conscious parts of our universe have begun gazing out into the cosmos with telescopes, discovering something humbling. We've discovered that our universe is vastly grander than our ancestors imagined and that life seems to be an almost imperceptibly small perturbation on an otherwise dead universe. But we've also discovered something inspiring, which is that the technology we're developing has the potential to help life flourish like never before, not just for centuries but for billions of years, and not just on earth but throughout much of this amazing cosmos.
หลังจาก 13.8 พันล้านปี ของประวัติศาสตร์อวกาศ จักรวาลของเราก็ตื่นจากหลับ และรับรู้ถึงการคงอยู่ของตนเอง จากดาวเคราะห์สีฟ้าเล็ก ๆ ส่วนน้อยนิดที่มีความนึกคิดนี้ มองออกไปยังอวกาศ ด้วยกล้องโทรทรรศน์ ค้นพบบางสิ่งที่ทำให้เรารู้สึกถ่อมตน เราได้ค้นพบว่าจักรวาลของเรา ใหญ่กว่าที่บรรพบุรุษเราคาดเอาไว้ และชีวิตก็ดูเหมือนจะมีค่าเพียงน้อยนิด เมื่อเทียบกับจักรวาลไร้ชีวิตแสนเวิ้งว้าง แต่เรายังได้ค้นพบบางอย่าง ที่สร้างแรงบันดาลใจ นั่นก็คือเทคโนโลยีที่เราพัฒนา มีศักยภาพในการช่วยให้ชีวิตเรา เฟื่องฟูกันในแบบที่ไม่เคยเป็นมาก่อน ไม่ใช่แค่ในช่วงหลายศตวรรษ แต่เป็นเวลาหลายพันล้านปีแล้ว และไม่ใช่แค่บนโลก แต่ทั่วทั้งจักรวาลเลยทีเดียว
I think of the earliest life as "Life 1.0" because it was really dumb, like bacteria, unable to learn anything during its lifetime. I think of us humans as "Life 2.0" because we can learn, which we in nerdy, geek speak, might think of as installing new software into our brains, like languages and job skills. "Life 3.0," which can design not only its software but also its hardware of course doesn't exist yet. But perhaps our technology has already made us "Life 2.1," with our artificial knees, pacemakers and cochlear implants.
ผมคิดว่าปฐมชีวิตเป็น "ชีวิน 1.0" ที่โง่ ๆ บื้อ ๆ เช่น แบคทีเรีย ที่ทั้งชีวิต มันไม่สามารถเรียนรู้อะไรได้เลย ผมคิดว่ามนุษย์เราเป็น "ชีวิน 2.0" เพราะว่าเรามีการเรียนรู้ ซึ่งถ้าพูดให้ดูคงแก่เรียนสักหน่อย ก็คงมองได้ว่ามันเป็นการลงซอร์ฟแวร์ใหม่ เข้าสู่สมองของเรา เช่น ภาษา หรือทักษะในการประกอบอาชีพ "ชีวิน 3.0" ซึ่งสามารถออกแบบได้ ทั้งซอร์ฟแวร์และฮาร์ดแวร์ของมันเอง ยังไม่ปรากฏอยู่จริง แต่บางที เทคโนโลยีของเรา อาจทำให้เรากลายเป็น "ชีวิน 2.1" ไปแล้ว มันทำให้เรามีเข่าเทียม เครื่องคุมจังหวะหัวใจ และหูเทียม
So let's take a closer look at our relationship with technology, OK? As an example, the Apollo 11 moon mission was both successful and inspiring, showing that when we humans use technology wisely, we can accomplish things that our ancestors could only dream of. But there's an even more inspiring journey propelled by something more powerful than rocket engines, where the passengers aren't just three astronauts but all of humanity. Let's talk about our collective journey into the future with artificial intelligence.
ลองมาพิจารณาความสัมพันธ์ระหว่างเรา กับเทคโลยีดูนะครับ ยกตัวอย่างเช่น ปฏิบัติการอะพอลโล่ 11 ประสบความสำเร็จและสร้างแรงบันดาลใจ มันแสดงให้เราเห็นว่า มนุษย์ใช้เทคโนโลยีได้อย่างชาญฉลาด เราสามารถพิชิต สิ่งที่บรรพบุรุษของเราได้แค่ฝัน มันยังมีการเดินทางที่น่าทึ่งยิ่งกว่านั้น การเดินทางที่ถูกขับเคลื่อน โดยสิ่งที่ทรงพลังกว่าจรวด การเดินทางที่ผู้โดยสาร ไม่ได้เป็นแค่นักบินอวกาศสามคน แต่เป็นมวลมนุษยชาติ ลองมาพูดถึงการเดินทางไปสู่อนาคต ด้วยปัญญาประดิษฐ์กันนะครับ
My friend Jaan Tallinn likes to point out that just as with rocketry, it's not enough to make our technology powerful. We also have to figure out, if we're going to be really ambitious, how to steer it and where we want to go with it. So let's talk about all three for artificial intelligence: the power, the steering and the destination.
เพื่อนของผม ยาน ทัลลิน มักจะบอกว่า การทำจรวดเพียงอย่างเดียว ไม่อาจทำให้เทคโนโลยีของเราทรงพลังได้ ถ้าเราตั้งความหวังที่ทะเยอทะยานเอาไว้ เราต้องค้นหาให้ได้ว่า เราจะกำกับทิศทางมันได้อย่างไร และเราอยากจะไปที่ไหน ลองพูดถึงสามประเด็นนี้ เกี่ยวกับปัญญาประดิษฐ์กันดู อิทธิพล การกำหนดทิศทาง และเป้าหมาย
Let's start with the power. I define intelligence very inclusively -- simply as our ability to accomplish complex goals, because I want to include both biological and artificial intelligence. And I want to avoid the silly carbon-chauvinism idea that you can only be smart if you're made of meat. It's really amazing how the power of AI has grown recently. Just think about it. Not long ago, robots couldn't walk. Now, they can do backflips. Not long ago, we didn't have self-driving cars. Now, we have self-flying rockets. Not long ago, AI couldn't do face recognition. Now, AI can generate fake faces and simulate your face saying stuff that you never said. Not long ago, AI couldn't beat us at the game of Go. Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games and Go wisdom, ignored it all and became the world's best player by just playing against itself. And the most impressive feat here wasn't that it crushed human gamers, but that it crushed human AI researchers who had spent decades handcrafting game-playing software. And AlphaZero crushed human AI researchers not just in Go but even at chess, which we have been working on since 1950.
เรามาเริ่มกันที่อิทธิพลของมันก่อน ผมจะใช้คำว่าปัญญาในความหมายเชิงกว้าง เพื่อสื่อถึงความสามารถของเรา ในการพิชิตเป้าหมายอันซับซ้อน เพราะว่าผมอยากที่จะพูดให้ครอบคลุม ทั้งปัญญาในทางชีวภาพและปัญญาประดิษฐ์ ผมอยากที่จะหลีกเลี่ยง แนวคิดสุดอติที่อวยความมีเนื้อหนังมังสา ว่ามีปัญญาเหนือยิ่งกว่าสิ่งอื่น การเติบโตของอิทธิพลของ AI เมื่อไม่นานมานี้ มันน่าทึ่งจริง ๆ ครับ ลองคิดดูสิครับว่า ไม่นานมานี้เอง หุ่นยนต์ไม่สามารถพูดได้ ตอนนี้ มันตีลังกาหลังได้แล้ว ไม่นานมานี้เอง เราไม่มีรถที่ขับเคลื่อนอัตโนมัติ ตอนนี้ เรามีจรวดขับเคลื่อนอัตโนมัติ ไม่นานมานี้เอง AI ไม่สามารถจดจำใบหน้าได้ ตอนนี้ AI สามารถสร้างหน้าปลอมได้ และสร้างภาพหน้าของคุณ ที่พูดในสิ่งที่คุณไม่ได้พูด ไม่นานมานี้เอง AI ไม่สามารถเอาชนะเราในเกมโกะได้ แล้ว AI อัลฟาซีโร่ ของกูเกิล ดีพมายด์ ก็ดับยุคทองอายุ 3,000 ปี ของเกมโกะและของมนุษย์ผู้เล่นโกะ โดยการเอาชนะผู้เล่นที่เก่งกาจที่สุด โดยการเล่นแข่งกับตัวมันเอง และความสามารถของมันที่น่าประทับใจที่สุด ไม่ใช่การที่มันเอาชนะมนุษย์ได้ แต่เป็นการเอาชนะนักวิจัย AI ที่เป็นมนุษย์ ที่ใช้เวลาหลายทศวรรษ ประดิษฐ์ซอร์ฟแวร์ที่เล่นเกมนี้ และอัลฟาซีโร่ก็เอาชนะนักวิจัย AI ไม่ใช่แค่ในเกมโกะหรือหมากรุก ซึ่งพวกเราทำการศึกษา มาตั้งแต่ช่วงยุคปี 1950
So all this amazing recent progress in AI really begs the question: How far will it go? I like to think about this question in terms of this abstract landscape of tasks, where the elevation represents how hard it is for AI to do each task at human level, and the sea level represents what AI can do today. The sea level is rising as AI improves, so there's a kind of global warming going on here in the task landscape. And the obvious takeaway is to avoid careers at the waterfront --
การพัฒนาอันน่าทึ่งเหล่านี้ของ AI ก่อให้เกิดคำถามคาใจว่า มันจะไปได้ไกลแค่ไหน ผมมักพิจารณาคำถามนี้ ในลักษณะของพื้นที่สมมติของการทำงาน บริเวณที่ยกตัวสูงขึ้นมา แทนความยากของงานสำหรับ AI เมื่อ AI ต้องทำให้ได้ดีเท่ามนุษย์ และระดับน้ำทะเลแสดงว่า ณ ปัจจุบันนี้ AI ทำได้ดีแค่ไหน ระดับน้ำทะเลจะสูงขึ้นเรื่อย ๆ เมื่อ AI ได้รับการปรับปรุง เรากำลังเผชิญกับปัญหาโลกร้อน ในพื้นที่ของการทำงานสมมตินี้ และประเด็นสำคัญเลยก็คือ พยายามหลีกเลี่ยงงานที่อยู่ติดริมน้ำ
(Laughter)
(เสียงหัวเราะ)
which will soon be automated and disrupted. But there's a much bigger question as well. How high will the water end up rising? Will it eventually rise to flood everything, matching human intelligence at all tasks. This is the definition of artificial general intelligence -- AGI, which has been the holy grail of AI research since its inception. By this definition, people who say, "Ah, there will always be jobs that humans can do better than machines," are simply saying that we'll never get AGI. Sure, we might still choose to have some human jobs or to give humans income and purpose with our jobs, but AGI will in any case transform life as we know it with humans no longer being the most intelligent. Now, if the water level does reach AGI, then further AI progress will be driven mainly not by humans but by AI, which means that there's a possibility that further AI progress could be way faster than the typical human research and development timescale of years, raising the controversial possibility of an intelligence explosion where recursively self-improving AI rapidly leaves human intelligence far behind, creating what's known as superintelligence.
ซึ่งไม่นานก็จะถูกเปลี่ยนแปลงแทนที่ ด้วยระบบอัตโนมัติ แต่เราก็มีคำถามที่ใหญ่กว่านั้น น้ำทะเลจะขึ้นสูงไปถึงไหน มันจะสูงขึ้นไปเรื่อย ๆ จนท่วมทุกที่เลยหรือเปล่า ปัญญาประดิษฐ์จะเก่งทัดเทียมมนุษย์ ในทุกเรื่องเลยใช่ไหม นี่คือนิยามของปัญญาประดิษฐ์ทั่วไป หรือ AGI ซึ่งเป็นเหมือนจอกศักดิ์สิทธิ์ สำหรับการวิจัย AI ตั้งแต่อ้อนแต่ออก โดยนิยามแล้ว คนที่บอกว่า "โอ้ย เดี๋ยวก็มีงาน ที่คนจะทำได้ดีกว่าจักรกลอยู่ดีแหละ" ก็คือคนที่บอกว่า เราไม่มีวันได้ AGI แน่ล่ะว่า เราอาจจะยังเลือก ให้มีงานสำหรับมนุษย์ หรือให้เงินเดือนกับคน และให้คุณค่ากับงานของเรา แต่ไม่ว่าจะอย่างไร AGI ก็จะเปลี่ยนชีวิตที่เราเคยรู้จัก มนุษย์จะไม่ใช่สิ่งที่มีปัญญามากที่สุดอีกต่อไป ทีนี้ ถ้าระดับน้ำไปไม่ถึง AGI แล้ว การพัฒนา AI ต่อไปจะไม่ได้ถูกขับเคลื่อน โดยมนุษย์เป็นหลัก แต่จะเป็น AI ซึ่งนั่นหมายความว่า มันเป็นไปได้ที่การพัฒนา AI ต่อไป อาจรวดเร็วกว่า งานวิจัยโดยมนุษย์ และระยะเวลาการพัฒนาในหน่วยปี ซึ่งอาจเป็นไปได้ว่า จะเกิดการปะทุของปัญญา เมื่อ AI ที่พัฒนาตัวเองแบบซ้ำ ๆ จะมีปัญญาเฉลียวฉลาด ชนิดทิ้งมนุษย์อย่างไม่เห็นฝุ่น และสร้างสิ่งที่เรารู้จักกันว่า ปัญญาประดิษฐ์ขั้นสูงสุด
Alright, reality check: Are we going to get AGI any time soon? Some famous AI researchers, like Rodney Brooks, think it won't happen for hundreds of years. But others, like Google DeepMind founder Demis Hassabis, are more optimistic and are working to try to make it happen much sooner. And recent surveys have shown that most AI researchers actually share Demis's optimism, expecting that we will get AGI within decades, so within the lifetime of many of us, which begs the question -- and then what? What do we want the role of humans to be if machines can do everything better and cheaper than us?
เอาล่ะ กลับมาสู่โลกแห่งความจริงก่อน เราจะมี AGI เร็ว ๆ นี้ไหม นักวิจัย AI ผู้โด่งดังบางท่าน เช่น ร็อดนีย์ บรูคส์ คิดว่ามันจะไม่เกิดขึ้น ในอีกหลายร้อยปีนี้ แต่คนอื่น ๆ เช่น ดีมิส ฮัซซาบิส ผู้ก่อตั้ง กูเกิล ดีพมายด์ มองโลกในแง่ดีกว่ามาก และพยายามที่จะทำให้มันเกิดขึ้นเร็วขึ้น และการสำรวจเมื่อไม่นานมานี้ แสดงว่า นักวิจัย AI ส่วนใหญ่ มีแนวคิดไปในทางเดียวกับ ดีมิส พวกเขาหวังว่าเราจะมี AGI กันภายในไม่กี่ทศวรรษนี้ ในช่วงชีวิตของเราหลาย ๆ คน ซึ่งมันทำให้เกิดปัญหาคาใจที่ว่า แล้วจากนั้นล่ะ เราอยากจะให้มนุษย์มีบทบาทอย่างไร ถ้าจักรกลสามารถทำทุกอย่าง ได้ดีกว่าและถูกกว่าเรา
The way I see it, we face a choice. One option is to be complacent. We can say, "Oh, let's just build machines that can do everything we can do and not worry about the consequences. Come on, if we build technology that makes all humans obsolete, what could possibly go wrong?"
ผมมองว่าเรากำลังเผชิญกับตัวเลือก ตัวเลือกหนึ่งก็คือ เราควรจะยินดี เราจะพูดได้ว่า "ก็สร้างจักรกล ที่ทำทุกอย่างที่เราทำได้สิ และไม่ต้องไปกังวลถึงผลที่ตามมาหรอก ไม่เอาหน่า ถ้าเราสร้างเทคโนโลยี ที่ทำให้มนุษย์ตกยุคไปเลยเนี่ย มันจะแย่แค่ไหนกันเชียว"
(Laughter)
(เสียงหัวเราะ)
But I think that would be embarrassingly lame. I think we should be more ambitious -- in the spirit of TED. Let's envision a truly inspiring high-tech future and try to steer towards it. This brings us to the second part of our rocket metaphor: the steering. We're making AI more powerful, but how can we steer towards a future where AI helps humanity flourish rather than flounder? To help with this, I cofounded the Future of Life Institute. It's a small nonprofit promoting beneficial technology use, and our goal is simply for the future of life to exist and to be as inspiring as possible. You know, I love technology. Technology is why today is better than the Stone Age. And I'm optimistic that we can create a really inspiring high-tech future ... if -- and this is a big if -- if we win the wisdom race -- the race between the growing power of our technology and the growing wisdom with which we manage it. But this is going to require a change of strategy because our old strategy has been learning from mistakes. We invented fire, screwed up a bunch of times -- invented the fire extinguisher.
ผมคิดว่ามันฟังดูง่อยเปลี้ยเสียแขนทีเดียว เราควรที่จะมีความทะเยอทะยานกันกว่านี้ ด้วยความมุ่งมั่นแบบ TED เรามาลองมองอนาคตล้ำสมัย ที่ให้แรงบันดาลใจกันดีกว่า แล้วลองพามันไปให้ถึงเป้าหมายนั้น ซึ่งมันก็นำเราไปสู่ส่วนที่สอง ของการเปรียบเปรยกับจรวด เรากำลังทำให้ AI มีอิทธิพลมากขึ้น แต่เราจะควบคุมทิศทาง ไปสู่อนาคตได้อย่างไร โดยที่ AI จะช่วยให้มนุษยชาติเบ่งบาน แต่ไม่เบียดเบียนพวกเรา เพื่อสนับสนุนแนวคิดนี้ ผมร่วมก่อตั้งสถาบันฟิวเจอร์ออฟไลฟ์ องค์กรไม่แสวงหาผลกำไรเล็ก ๆ ที่ส่งเสริมการใช้เทคโนโลยีอย่างมีคุณค่า และเป้าหมายของเราก็คือ เพื่อให้ชีวิตในอนาคตยังคงอยู่ และได้รับแรงบันดาลใจ มากที่สุดเท่าที่จะเป็นไปได้ ผมรักเทคโนโลยีนะครับ เทคโนโลยีทำให้ทุกวันนี้ดีกว่าในยุคหิน และผมก็เชื่อว่า เราสามารถที่จะสร้าง อนาคตที่ทันสมัยและเปี่ยมแรงบันดาลใจได้ ถ้าหากว่า เราชนะการแข่งขันทางแนวคิด ระหว่างอิทธิพลที่กำลังแผ่ขยาย ของเทคโนโลยี กับแนวคิดที่เราใช้ควบคุมมัน ที่กำลังแผ่ขยายเช่นกัน แต่สิ่งนี้ต้องการการปรับเปลี่ยนแผนการ เพราะว่าแผนการเก่าของเรา คือการเรียนรู้จากข้อผิดพลาด เราประดิษฐ์ไฟ ทำผิดพลาดนับครั้งไม่ถ้วน แล้วเราก็ประดิษฐ์อุปกรณ์ดับเพลิงขึ้นมา
(Laughter)
(เสียงหัวเราะ)
We invented the car, screwed up a bunch of times -- invented the traffic light, the seat belt and the airbag, but with more powerful technology like nuclear weapons and AGI, learning from mistakes is a lousy strategy, don't you think?
เราประดิษฐ์รถยนต์ ทำผิดพลาดหลายครั้งหลายหน แล้วเราก็ประดิษฐ์ไฟจราจร เข็มขัดนิรภัย และถุงลมนิรภัยขึ้นมา แต่ด้วยเทคโนโลยีที่ทรงพลังกว่านั้น อย่างเช่นอาวุธนิวเคลียร์ และ AGI การเรียนรู้จากข้อผิดพลาด เป็นแผนการไม่เข้าท่าเลย ว่าไหมครับ
(Laughter)
(เสียงหัวเราะ)
It's much better to be proactive rather than reactive; plan ahead and get things right the first time because that might be the only time we'll get. But it is funny because sometimes people tell me, "Max, shhh, don't talk like that. That's Luddite scaremongering." But it's not scaremongering. It's what we at MIT call safety engineering. Think about it: before NASA launched the Apollo 11 mission, they systematically thought through everything that could go wrong when you put people on top of explosive fuel tanks and launch them somewhere where no one could help them. And there was a lot that could go wrong. Was that scaremongering? No. That's was precisely the safety engineering that ensured the success of the mission, and that is precisely the strategy I think we should take with AGI. Think through what can go wrong to make sure it goes right.
การป้องกันดีกว่าการแก้ไขมาก วางแผนล่วงหน้า และทำให้มันเหมาะสมตั้งแต่แรก เพราะว่าเราอาจมีโอกาสเพียงแค่ครั้งเดียว ตลกดีครับ ที่บางทีคนก็บอกผมว่า "เฮ้ย แม็กซ์ อย่าไปพูดแบบนั้นสิ จะพูดปลุกระดมให้คนแตกตื่นทำไม" แต่มันไม่ใช่แบบนั้นเลย พวกเราที่ MIT เรียกว่า วิศวกรรมความปลอดภัย ลองคิดดูนะครับว่า ก่อนที่นาซ่าจะเปิดตัว ปฏิบัติการณ์อะพอลโล่ 11 พวกเขารวบรวมความคิดอย่างเป็นระบบ เกี่ยวกับเรื่องร้ายทุกอย่างที่อาจเกิดขึ้น เมื่อคุณเอาคนขึ้นไปนั่ง อยู่บนถังเชื้อเพลิงระเบิดได้ ยิงพวกเขาขึ้นไปยังที่ที่ไม่มีใครช่วยได้ และอาจมีเรื่องผิดพลาดเกิดขึ้นได้มากมาย นั่นเป็นการสร้างความแตกตื่นหรือ ไม่เลย นั่นแหละ คือวิศวกรรมความปลอดภัย ที่จะทำให้เรามั่นใจได้ว่า ปฏิบัติการจะประสบความสำเร็จ และนี่แหละคือแนวทาง ที่ผมคิดว่าเราควรที่จะใช้กับ AGI ลองคิดดูว่าอะไรที่จะผิดพลาดได้บ้าง เพื่อที่จะยื่นยันว่าเรามาถูกทางแล้ว
So in this spirit, we've organized conferences, bringing together leading AI researchers and other thinkers to discuss how to grow this wisdom we need to keep AI beneficial. Our last conference was in Asilomar, California last year and produced this list of 23 principles which have since been signed by over 1,000 AI researchers and key industry leaders, and I want to tell you about three of these principles.
ด้วยความมุ่งมั่นดังกล่าว เราจัดให้มีการสัมมนา นำผู้นำด้านการวิจัย AI และผู้นำทางความคิดต่าง ๆ มาพบกัน เพื่ออภิปรายว่าเราจะทำให้แนวคิดที่เรา ต้องการนี้เป็นประโยชน์ต่อ AI ได้อย่างไร ปีที่แล้ว สัมมนาครั้งก่อนของเรา จัดที่อะซิโลมาร์ แคลิฟอร์เนีย และเราได้ตั้งหลักการ 23 ข้อ ซึ่งได้รับการลงนามโดยนักวิจัย AI และผู้นำทางอุตสาหกรรม กว่า 1,000 คน และผมอยากจะเล่า หลักการสามข้อจากรายการดังกล่าว
One is that we should avoid an arms race and lethal autonomous weapons. The idea here is that any science can be used for new ways of helping people or new ways of harming people. For example, biology and chemistry are much more likely to be used for new medicines or new cures than for new ways of killing people, because biologists and chemists pushed hard -- and successfully -- for bans on biological and chemical weapons. And in the same spirit, most AI researchers want to stigmatize and ban lethal autonomous weapons. Another Asilomar AI principle is that we should mitigate AI-fueled income inequality. I think that if we can grow the economic pie dramatically with AI and we still can't figure out how to divide this pie so that everyone is better off, then shame on us.
หลักการแรกคือเราควรที่จะหยุดแข่งขั้นกัน เรื่องอาวุธยุทธภัณฑ์อันตราย ประเด็นก็คือ วิทยาศาสตร์ไม่ว่าสาขาใด ๆ สามารถถูกใช้เพื่อช่วยเหลือคนได้ และทำร้ายคนได้ ยกตัวอย่างเช่น ชีววิทยาและเคมี มักจะถูกใช้ เพื่อผลิตยาใหม่และเพื่อการรักษาแบบใหม่ มากกว่าที่จะใช้ฆ่าคน เพราะว่านักชีววิทยา และนักเคมีพยายามอย่างมาก และสำเร็จเสียด้วย ในการคว่ำบาตรอาวุธชีวภาพและเคมี และด้วยความมุมานะนี้ นักวิจัย AI ส่วนใหญ่อยากที่จะ ประณามและคว่ำบาตรอาวุธอัตโนมัติ หลักการ AI อะซิโลมาร์ อีกอย่างก็คือ เราควรที่จะทำให้ลดความเหลื่อมล้ำ ของรายได้ที่ได้จาก AI ผมคิดว่า ถ้าเราสามารถสร้าง แผนผังทางเศรษฐศาสตร์ด้วย AI แต่ยังไม่รู้ว่าจะจัดสรรได้อย่างไร ให้ทุกคนอยู่ดีกินดีกว่าเดิม มันก็คงขายหน้าพิลึก
(Applause)
(เสียงปรบมือ)
Alright, now raise your hand if your computer has ever crashed.
เอาล่ะครับ ไหนลองยกมือขึ้นหน่อย ถ้าคอมพิวเตอร์ของคุณไม่เคยค้างเลย
(Laughter)
(เสียงหัวเราะ)
Wow, that's a lot of hands. Well, then you'll appreciate this principle that we should invest much more in AI safety research, because as we put AI in charge of even more decisions and infrastructure, we need to figure out how to transform today's buggy and hackable computers into robust AI systems that we can really trust, because otherwise, all this awesome new technology can malfunction and harm us, or get hacked and be turned against us. And this AI safety work has to include work on AI value alignment, because the real threat from AGI isn't malice, like in silly Hollywood movies, but competence -- AGI accomplishing goals that just aren't aligned with ours. For example, when we humans drove the West African black rhino extinct, we didn't do it because we were a bunch of evil rhinoceros haters, did we? We did it because we were smarter than them and our goals weren't aligned with theirs. But AGI is by definition smarter than us, so to make sure that we don't put ourselves in the position of those rhinos if we create AGI, we need to figure out how to make machines understand our goals, adopt our goals and retain our goals.
โห คนยกมือเยอะเลย คุณคงชอบหลักการนี้ ที่ว่าเราควรลงทุน กับการวิจัยความปลอดภัย AI มากกว่านี้ เพราะเมื่อเราให้ AI ทำหน้าที่ที่เกี่ยวกับ การตัดสินใจและโครงสร้างพื้นฐานมากขึ้น เราต้องรู้ให้ได้ว่าจะเปลี่ยนคอมพิวเตอร์ ที่มีทั้งปัญหาและถูกลักข้อมูลได้ ไปเป็นระบบ AI ที่สมบูรณ์ ที่เราจะไว้ใจได้จริง ๆ ได้อย่างไร มิฉะนั้น เทคโนโลยีใหม่สุดเจ๋งนี้ อาจทำงานผิดพลาดและทำร้ายเรา หรือถูกลักข้อมูลและนำมันมาทำร้ายเราได้ และงานด้านความปลอดภัย AI นี้ จะต้องรวมถึงงานที่เกี่ยวกับวางคุณค่าให้ AI เพราะอันที่จริงภัยจาก AGI ไม่ใช่การมุ่งร้ายอย่างจงใจ อย่างหนังไร้สาระในฮอลลีวูด แต่คือความเป็นไปได้ ที่ AGI จะบรรลุเป้าหมาย ที่ไม่ได้อยู่ในแนวทางเดียวกับเรา ยกตัวอย่างเช่น เมื่อมนุษย์เรา ทำให้แรดดำจากแอฟริกาตะวันตกสูญพันธุ์ เราไม่ได้จงใจทำอย่างนั้นเพราะว่า เราเป็นพวกปิศาจเกลียดแรดใช่ไหมครับ เราทำเช่นนั้น เพราะว่าเราฉลาดกว่าพวกมัน และเป้าหมายของเรา ไม่ได้อยู่ในแนวทางเดียวกับพวกมัน แต่โดยนิยามแล้ว AGI ฉลาดกว่าเรา ฉะนั้น เพื่อที่จะให้มั่นใจว่าเรา จะไม่ตกอยู่ในสถานการณ์เดียวกับแรด ถ้าเราสร้าง AGI ขึ้นมา เราต้องรู้ว่าจะทำให้จักรกล เข้าใจเป้าหมายเราได้อย่างไร ยอมรับเป้าหมายของเรา และรักษาเป้าหมายของเราไว้
And whose goals should these be, anyway? Which goals should they be?
และเป้าหมายที่ว่านี้คือเป้าหมายของใคร เป้าหมายควรจะเป็นอะไร
This brings us to the third part of our rocket metaphor: the destination. We're making AI more powerful, trying to figure out how to steer it, but where do we want to go with it? This is the elephant in the room that almost nobody talks about -- not even here at TED -- because we're so fixated on short-term AI challenges. Look, our species is trying to build AGI, motivated by curiosity and economics, but what sort of future society are we hoping for if we succeed? We did an opinion poll on this recently, and I was struck to see that most people actually want us to build superintelligence: AI that's vastly smarter than us in all ways. What there was the greatest agreement on was that we should be ambitious and help life spread into the cosmos, but there was much less agreement about who or what should be in charge. And I was actually quite amused to see that there's some some people who want it to be just machines.
ซึ่งมันก็นำเราไปสู่ส่วนที่สาม ของการเปรียบเปรยกับจรวด เป้าหมาย เราสร้าง AI ให้มีอิทธิพลมากกว่าเดิม พยายามที่จะหาทางว่า จะกำหนดทิศทางมันอย่างไร แต่เราอยากไปไหนด้วยกันกับมันล่ะ นี่คือช้างในห้อง ที่แทบจะไม่มีใครพูดถึง แม้แต่ที่ TED เพราะว่าเรามัวแต่หลงระเริง อยู่กับปัญหาในระยะสั้น ๆ เกี่ยวกับ AI ฟังนะครับ พวกเรากำลังพยายามสร้าง AGI โดยได้รับแรงกระตุ้นจากความสงสัยใคร่รู้ และเศรษฐกิจ แต่สังคมแห่งอนาคตแบบไหนกัน ที่เราคาดหวังจะเห็นถ้าเราทำสำเร็จ เราทำแบบสอบถามเมื่อไม่นานมานี้ และผมก็ตกใจที่ได้เห็นว่า คนส่วนใหญ่ต้องการให้เรา สร้างปัญญาประดิษฐ์ขั้นสูงสุด AI ที่ฉลาดกว่าเรามาก ๆ ในทุก ๆ เรื่อง สิ่งที่เราคิดเหมือนกันก็คือ เราควรที่จะทะเยอทะยานมุ่งมั่น และให้เผ่าพันธุ์ต่าง ๆ กระจายสู่อวกาศ แต่เรามีความคิดไม่ค่อยลงรอยกัน ว่าใครหรืออะไรที่ควรทำหน้าที่ควบคุม ผมขำหน่อย ๆ ที่เห็นว่าบางคน อยากให้พวกมันเป็นแค่เครื่องจักร
(Laughter)
(เสียงหัวเราะ)
And there was total disagreement about what the role of humans should be, even at the most basic level, so let's take a closer look at possible futures that we might choose to steer toward, alright?
และเราก็มีความเห็นแตกแยกกัน ในเรื่องบทบาทของมนุษย์ แม้แต่ในระดับพื้นฐาน เอาล่ะครับ ลองมาพิจารณา อนาคตที่อาจเป็นไปได้ ที่อาจเป็นเป้าหมายที่เรากำลังจะมุ่งไป
So don't get me wrong here. I'm not talking about space travel, merely about humanity's metaphorical journey into the future. So one option that some of my AI colleagues like is to build superintelligence and keep it under human control, like an enslaved god, disconnected from the internet and used to create unimaginable technology and wealth for whoever controls it. But Lord Acton warned us that power corrupts, and absolute power corrupts absolutely, so you might worry that maybe we humans just aren't smart enough, or wise enough rather, to handle this much power. Also, aside from any moral qualms you might have about enslaving superior minds, you might worry that maybe the superintelligence could outsmart us, break out and take over. But I also have colleagues who are fine with AI taking over and even causing human extinction, as long as we feel the the AIs are our worthy descendants, like our children. But how would we know that the AIs have adopted our best values and aren't just unconscious zombies tricking us into anthropomorphizing them? Also, shouldn't those people who don't want human extinction have a say in the matter, too? Now, if you didn't like either of those two high-tech options, it's important to remember that low-tech is suicide from a cosmic perspective, because if we don't go far beyond today's technology, the question isn't whether humanity is going to go extinct, merely whether we're going to get taken out by the next killer asteroid, supervolcano or some other problem that better technology could have solved.
อย่าเพิ่งเข้าใจผิดนะครับ ผมไม่ได้พูดถึงการเดินทางท่องอวกาศ แต่เป็นการเปรียบเปรยถึง การเดินทางสู่อนาคตของมนุษยชาติ ทางเลือกหนึ่งที่เพื่อน ๆ ชาว AI ของผมชอบก็คือ การสร้างปัญญาประดิษฐ์ขั้นสูงสุด และให้มันอยู่ใต้การควบคุมของมนุษย์ เหมือนกับพระเจ้าผู้เป็นทาส ไม่เชื่อมต่อมันกับอินเทอร์เน็ต และใช้มันเพื่อสร้างเทคโนโลยี และความมั่งคั่งเหนือจินตนาการ เพื่อใครก็ตามที่เป็นผู้ควบคุม แต่ลอร์ดแอคตันเตือนเราว่า ความบ้าอำนาจและอำนาจแบบเบ็ดเสร็จ จะนำไปสู่ความเสื่อมถอย คุณอาจกังวลว่า บางทีมนุษย์อาจไม่ฉลาดพอ หรือมีสติปัญญาเพียงพอ ที่จะจัดการควบคุม อิทธิพลที่มากมายขนาดนี้ นอกจากความหวั่นวิตกทางศีลธรรม ต่อความคิดของผู้ที่มีอำนาจ ที่เป็นผู้ควบคุมแล้ว คุณอาจกังวลว่าปัญญาประดิษฐ์ขั้นสูงสุด อาจฉลาดล้ำกว่าเรา ก่อกบฎ และยึดอำนาจ แต่เพื่อนของผมบางคนก็ไม่รู้สึกวิตกอะไร ถ้า AI จะเข้ามาครอบครอง หรือแม้กระทั่งทำให้มนุษย์สูญพันธุ์ ตราบใดที่เรารู้สึกว่า AI เป็นผู้สืบทอดที่คู่ควรแล้ว เหมือนกับลูกหลานของเรา แต่เราจะรู้ได้อย่างไรว่า AI จะได้รับคุณค่าที่ดีที่สุดจากเราไป และไม่ได้เป็นแค่ผีดิบไร้สติสำนึก ที่จะทำให้เราลุ่มหลงไปบูชาพวกมัน แล้วคนที่ไม่ต้องการให้มนุษย์สูญพันธุ์ มีสิทธิเสนออะไรเกี่ยวกับประเด็นนี้บ้างไหม ถ้าคุณไม่ชอบแนวคิดล้ำยุคทั้งสองอย่างที่ว่า คุณควรที่จะรู้ไว้ว่าการใช้เทคโนโลยีเก่า ๆ ก็เป็นการฆ่าตัวตาย ในมุมมองเชิงกว้าง เพราะว่า ถ้าเราไม่พัฒนาให้ไกล ไปกว่าเทคโนโลยีในปัจจุบัน คำถามไม่ใช่ว่ามนุษยชาติจะสูญพันธุ์หรือไม่ แต่จะกลายเป็นว่าเรากำลังจะถูกกำจัด โดยดาวตกพิฆาต ภูเขาไฟยักษ์ หรือปัญหาอื่น ๆ ที่เทคโนโลยีที่ดีกว่า จะสามารถจัดการกับมันได้
So, how about having our cake and eating it ... with AGI that's not enslaved but treats us well because its values are aligned with ours? This is the gist of what Eliezer Yudkowsky has called "friendly AI," and if we can do this, it could be awesome. It could not only eliminate negative experiences like disease, poverty, crime and other suffering, but it could also give us the freedom to choose from a fantastic new diversity of positive experiences -- basically making us the masters of our own destiny.
แล้ว จะเป็นอย่างไร ถ้าเรามีเค้กแล้วก็ได้กินมัน ด้วย AGI ที่ไม่ได้ถูกคุมเป็นทาส แต่ปฏิบัติกับเราดี เพราะว่าเป้าหมายของมัน สอดคล้องกับของเรา นี่คือแก่นสำคัญของ "AI ที่เป็นมิตร" ตามแนวคิดของ อีลิเซอร์ ยอดคอฟสกี และถ้าเราสามารถทำได้ มันก็คงจะเจ๋งมาก ไม่เพียงแต่มันจะกำจัดเรื่องแย่ ๆ อย่างเช่น โรคภัย ความอดอยาก อาชญากรรม และเรื่องร้ายอื่น ๆ แต่ยังจะทำให้เราได้รับอิสระภาพในการเลือก ประสบการณ์ดี ๆ ใหม่ ๆ ที่น่าทึ่ง ที่จะทำให้เรา เป็นนายของชะตากรรมของตัวเอง
So in summary, our situation with technology is complicated, but the big picture is rather simple. Most AI researchers expect AGI within decades, and if we just bumble into this unprepared, it will probably be the biggest mistake in human history -- let's face it. It could enable brutal, global dictatorship with unprecedented inequality, surveillance and suffering, and maybe even human extinction. But if we steer carefully, we could end up in a fantastic future where everybody's better off: the poor are richer, the rich are richer, everybody is healthy and free to live out their dreams.
โดยสรุปแล้ว สถานการณ์ของเรา ที่มีต่อเทคโนโลยีนั้นซับซ้อน แต่ภาพรวมนั้นค่อนข้างเรียบง่าย นักวิจัย AI ส่วนใหญ่ คาดเราจะมีว่า AGI ภายในทศวรรษนี้ และถ้าเราซี้ซั้วไม่ยอมเตรียมตัวกัน มันอาจเป็นความผิดพลาด ที่ยิ่งใหญ่ที่สุดในมนุษยชาติ เผชิญหน้ากับมันเถอะครับ มันอาจนำมาซึ่งเผด็จการโหดระดับโลก และความเหลื่อมล้ำ การระแวดระวัง และความทุกข์เข็ญแบบที่ไม่เคยมีมาก่อน หรือแม้แต่ทำให้เราสูญพันธุ์ แต่ถ้าเราควบคุมกำกับมันอย่างระมัดระวัง เราอาจลงเอยที่อนาคตที่น่าทึ่ง ที่ที่ทุกคนมีโอกาสที่ดีกว่า ยาจกก็มีเงินมีทอง คนรวยก็มั่งคั่งกว่าเดิม ทุก ๆ คนมีสุขภาพที่ดี และมีอิสระในการใช้ชีวิตที่วาดฝันไว้
Now, hang on. Do you folks want the future that's politically right or left? Do you want the pious society with strict moral rules, or do you an hedonistic free-for-all, more like Burning Man 24/7? Do you want beautiful beaches, forests and lakes, or would you prefer to rearrange some of those atoms with the computers, enabling virtual experiences? With friendly AI, we could simply build all of these societies and give people the freedom to choose which one they want to live in because we would no longer be limited by our intelligence, merely by the laws of physics. So the resources and space for this would be astronomical -- literally.
แต่เดี๋ยวก่อน พวกคุณต้องการอนาคต ที่เข้ากับการเมืองฝ่ายขวาหรือซ้าย คุณต้องการสังคมที่เคร่งศาสนา ที่ให้เข้มงวดกับกฎศีลธรรม หรือจะเอาแบบสำราญสบาย ๆ อะไรก็ได้หมด แบบงานเบอร์นนิงแมน ตลอดยี่สิบสี่ชั่วโมง คุณอยากได้หาด ป่าเขา ลำธารแสนงาม หรืออยากที่จะปรับเปลี่ยนบางอะตอม ด้วยคอมพิวเตอร์ เพื่อให้เกิดประสบการณ์แบบเสมือนจริง ด้วย AI ที่เป็นมิตร เราอาจสร้างสังคมเหล่านั้น มอบอิสระภาพให้กับผู้คน ที่จะเลือกว่าพวกเขาต้องการใช้ชีวิตแบบไหน เพราะว่าเราจะไม่ได้ถูกจำกัด ด้วยความเฉลียวฉลาดอีกต่อไป แต่ด้วยกฎทางฟิสิกส์ ฉะนั้น ทรัพยากรและพื้นที่สำหรับสิ่งนี้ ก็น่าจะอยู่ในระดับจักรวาล อย่างแท้จริง
So here's our choice. We can either be complacent about our future, taking as an article of blind faith that any new technology is guaranteed to be beneficial, and just repeat that to ourselves as a mantra over and over and over again as we drift like a rudderless ship towards our own obsolescence. Or we can be ambitious -- thinking hard about how to steer our technology and where we want to go with it to create the age of amazement. We're all here to celebrate the age of amazement, and I feel that its essence should lie in becoming not overpowered but empowered by our technology.
ตัวเลือกของเราก็คือ เราจะยินดีกับอนาคตของเรา ยอมรับว่ามันเป็นชะตากรรมที่กำหนดไม่ได้ ในการยืนยันว่าเทคโนโลยีใหม่ จะเป็นประโยชน์ แล้วบอกกับตัวเราเองซ้ำ ๆ เหมือนสวด ในขณะที่เราล่องลอยไปราวกับเรือไร้เรดาร์ สู่ความล้าสมัยของตัวเราเอง หรือเราจะมุมานะ คิดให้หนักว่าเราจะควบคุมกำกับ เทคโนโลยีของเราอย่างไร และเราอยากจะไปที่ไหน เพื่อที่จะสร้างยุคแห่งความน่าทึ่ง พวกเราทุกคนมาที่นี่เพื่อเฉลิมฉลอง ยุคแห่งความน่าทึ่ง และรับรู้ว่าแก่นสารของมัน ไม่ควรที่จะมีอำนาจมากเกินไป แต่ถูกส่งเสริมด้วยเทคโนโลยีของเรา
Thank you.
ขอบคุณครับ
(Applause)
(เสียงปรบมือ)