After 13.8 billion years of cosmic history, our universe has woken up and become aware of itself. From a small blue planet, tiny, conscious parts of our universe have begun gazing out into the cosmos with telescopes, discovering something humbling. We've discovered that our universe is vastly grander than our ancestors imagined and that life seems to be an almost imperceptibly small perturbation on an otherwise dead universe. But we've also discovered something inspiring, which is that the technology we're developing has the potential to help life flourish like never before, not just for centuries but for billions of years, and not just on earth but throughout much of this amazing cosmos.
Sau 13.8 tỉ năm lịch sử vũ trụ, vũ trụ của chúng ta đã tỉnh dậy, và bắt đầu tự nhận thức. Từ một hành tinh xanh nhỏ bé, nơi có nhận thức của thế giới bao la đã bắt đầu nhìn ra bên ngoài hành tinh của họ bằng kính viễn vọng, để khám phá những điều nhỏ bé. Ta phát hiện ra rằng vũ trụ này rộng lớn hơn rất nhiều so với tổ tiên tưởng tượng và cuộc sống dường như là một sự xáo trộn mà chúng ta đều không thể nhận thấy được trên một hành tinh chết khác. Nhưng ta cũng khám phá ra một điều vô cùng hấp dẫn, đó là nền công nghệ đang được phát triển mang lại tiềm năng nâng cao cuộc sống hơn bao giờ hết, không chỉ trong một vài thế kỉ mà trong hàng triệu năm lịch sử, không chỉ trên trái đất này mà còn rộng mở cho cả vũ trụ vĩ đại này.
I think of the earliest life as "Life 1.0" because it was really dumb, like bacteria, unable to learn anything during its lifetime. I think of us humans as "Life 2.0" because we can learn, which we in nerdy, geek speak, might think of as installing new software into our brains, like languages and job skills. "Life 3.0," which can design not only its software but also its hardware of course doesn't exist yet. But perhaps our technology has already made us "Life 2.1," with our artificial knees, pacemakers and cochlear implants.
Tôi nghĩ cuộc sống sơ khai nhất là "Cuộc sống phiên bản 1.0" bởi vì nó không có trí tuệ, như vi khuẩn, không có khả năng tiếp thu được cái gì trong suốt quãng đời của nó. Còn loài người là "Cuộc sống bản 2.0" vì chúng ta có thể học, giao tiếp, lại còn nghĩ tới việc cài một phần mềm vào trong não, để biết thêm ngôn ngữ hoặc kỹ năng khác. "Cuộc sống bản 3.0", không những thiết kế được 'phần mềm' mà còn 'phần cứng' của nó chắc chắn là chưa xuất hiện. Nhưng có lẽ, với nền công nghệ hiện tại, ta đã nâng cấp lên phiên bản 2.1, đầu gối nhân tạo, máy điều hòa nhịp tim và cả những con ốc điện tử.
So let's take a closer look at our relationship with technology, OK? As an example, the Apollo 11 moon mission was both successful and inspiring, showing that when we humans use technology wisely, we can accomplish things that our ancestors could only dream of. But there's an even more inspiring journey propelled by something more powerful than rocket engines, where the passengers aren't just three astronauts but all of humanity. Let's talk about our collective journey into the future with artificial intelligence.
Vì vậy, hãy nhìn kỹ hơn sự liên kết của chúng ta với nền công nghệ, Ví dụ, tàu vũ trụ Apollo 11 đã khám phá mặt trăng rất thành công và truyền cảm hứng, chứng tỏ rằng khi ta biết cách sử dụng công nghệ khéo léo, chúng ta có thể đạt tới những điều mà tổ tiên chỉ biết mơ tới. Nhưng còn một chuyến hành trình vĩ đại hơn được phóng lên bởi cái gì đó mạnh hơn cả hệ thống tên lửa, nơi mà hành khách không chỉ có duy nhất 3 phi hành gia mà là cả một nhân loại. Hãy nói về chuyến hành trình của chúng ta trong tương lai với trí tuệ nhân tạo.
My friend Jaan Tallinn likes to point out that just as with rocketry, it's not enough to make our technology powerful. We also have to figure out, if we're going to be really ambitious, how to steer it and where we want to go with it. So let's talk about all three for artificial intelligence: the power, the steering and the destination.
Bạn của tôi, Jaan Tallinn chỉ ra rằng nếu chỉ với mỗi nền công nghệ tên lửa, thì có lẽ khó để biến công nghệ trở nên mạnh mẽ hơn. Chúng ta cũng sẽ phải tìm ra, nếu chúng ta thực sự khát vọng, cách để điều khiển nó và ta muốn đi tới đâu cùng nó. Hãy nói về 3 điều của trí tuệ nhân tạo: sức mạnh, sự chỉ đạo và đích đến.
Let's start with the power. I define intelligence very inclusively -- simply as our ability to accomplish complex goals, because I want to include both biological and artificial intelligence. And I want to avoid the silly carbon-chauvinism idea that you can only be smart if you're made of meat. It's really amazing how the power of AI has grown recently. Just think about it. Not long ago, robots couldn't walk. Now, they can do backflips. Not long ago, we didn't have self-driving cars. Now, we have self-flying rockets. Not long ago, AI couldn't do face recognition. Now, AI can generate fake faces and simulate your face saying stuff that you never said. Not long ago, AI couldn't beat us at the game of Go. Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games and Go wisdom, ignored it all and became the world's best player by just playing against itself. And the most impressive feat here wasn't that it crushed human gamers, but that it crushed human AI researchers who had spent decades handcrafting game-playing software. And AlphaZero crushed human AI researchers not just in Go but even at chess, which we have been working on since 1950.
Cùng bắt đầu với sức mạnh. Tôi định nghĩ trí tuệ rất là bao hàm-- đơn giản như khả năng hoàn thành các mục tiêu phức tạp của chúng ta, vì tôi muốn bao gồm cả trí tuệ sinh học và trí tuệ nhân tạo. Tôi muốn tránh cái ý tưởng ngớ ngẩn về sự tôn vinh carbon do đó bạn chỉ có thể thông minh khi bạn được tạo nên từ thịt. Thật tuyệt vời khi nói về AI đã phát triển như thế nào trong thời gian gần đây. Cùng suy nghĩ về nó. Cách đây không lâu, robots không thể đi được. Còn bây giờ, nó có thể nhào lộn. Cách đây không lâu, chúng ta chưa hề có xe ô tô tự động. và bây giờ, ta đã có tên lửa tự động. Cách đây không lâu, AI không thể nhận diện được mặt con người. Bây giờ, AI có thể tạo ra khuôn mặt giả và mô phỏng khuôn mặt của bạn nói những điều mà bạn chưa bao giờ nói. Cách đây không lâu, AI không thể thắng ta trong trò cờ vây. Và rồi, AI của Google DeepMind's AlphaZero lấy trọn 3000 năm luyện tập của con người và cả những chiến thuật, bỏ qua những điều đó, nó trở thành đối thủ nặng ký nhất kể cả khi chơi với chính nó. Điều ấn tượng nhất không phải là nó đã đánh bại người chơi như thế nào, mà là nó đã hạ gục cả những người nghiên cứu ra nó người đã dành hàng chục năm để tạo ra những phần mềm chơi trò chơi. Và AlphaZero hạ gục các nhà nghiên cứu không chỉ mỗi cờ vây mà còn cả cờ vua, bộ môn mà ta đã thành thạo từ năm 1950.
So all this amazing recent progress in AI really begs the question: How far will it go? I like to think about this question in terms of this abstract landscape of tasks, where the elevation represents how hard it is for AI to do each task at human level, and the sea level represents what AI can do today. The sea level is rising as AI improves, so there's a kind of global warming going on here in the task landscape. And the obvious takeaway is to avoid careers at the waterfront --
Chính những thành tựu tuyệt vời gần đây của AI, đã dấy lên một câu hỏi: Nó sẽ có thể tiến bộ tới đâu? Tôi thích nghĩ tới câu hỏi này bằng các khái niệm trừu tượng của nhiệm vụ, nơi mà các cấp bậc thể hiện sự khó khăn để AI hoàn thành một nhiệm vụ ở cấp độ con người, và mực nước biển thể hiện những gì mà AI có thể làm ngày nay. Mực nước biển tăng lên chỉ sự cải thiện của AI, vì vậy hiện tượng nóng lên toàn cầu xảy ra trong cảnh quan nhiệm vụ. Và điều hiển nhiên là tránh những công việc tại bờ sông --
(Laughter)
(Cười)
which will soon be automated and disrupted. But there's a much bigger question as well. How high will the water end up rising? Will it eventually rise to flood everything, matching human intelligence at all tasks. This is the definition of artificial general intelligence -- AGI, which has been the holy grail of AI research since its inception. By this definition, people who say, "Ah, there will always be jobs that humans can do better than machines," are simply saying that we'll never get AGI. Sure, we might still choose to have some human jobs or to give humans income and purpose with our jobs, but AGI will in any case transform life as we know it with humans no longer being the most intelligent. Now, if the water level does reach AGI, then further AI progress will be driven mainly not by humans but by AI, which means that there's a possibility that further AI progress could be way faster than the typical human research and development timescale of years, raising the controversial possibility of an intelligence explosion where recursively self-improving AI rapidly leaves human intelligence far behind, creating what's known as superintelligence.
nơi mà nó sẽ bị phá huỷ sớm. Nhưng còn có một câu hỏi lớn hơn thế nữa Mực nước sẽ dâng cao tới đâu? Liệu nó sẽ nhấn chìm mọi thứ, đấu trí với con người ở mọi lĩnh vực. Đây là định nghĩa của trí tuệ nhân tạo -- AGI, giao thức mạng thần thánh của AI từ điểm khởi đầu. Với định nghĩa này, những người nói "À, chắc chắn sẽ có việc mà con người làm tốt hơn máy móc", đơn giản nói rằng chúng ta sẽ không bao giờ có được AGI. Chắc chắn, chúng ta vẫn có thể chọn những công việc của con người hoặc là đưa thu nhập và mục tiêu với công việc của chúng ta, nhưng AGI trong mọi trường hợp sẽ chuyển đổi cuộc sống như ta đã biết cái lúc mà con người đã không còn thông minh nhất nữa. Bây giờ, nếu mực nước chạm tới AGI, thì sau này, AI sẽ được vận hành bởi chính nó thay vì con người, nghĩa là có khả năng rằng các AI trong tương lai sẽ còn phát triển nhanh hơn cả những nghiên cứu điển hình mà loài người đã phát triển bao lâu nay, dấy lên tranh cãi về sự bùng nổ của trí thông minh nơi mà quá trình tự hoàn thiện của AI đã nhanh chóng bỏ xa trí thông minh của con người ở phía sau, được biết đến như siêu thông minh.
Alright, reality check: Are we going to get AGI any time soon? Some famous AI researchers, like Rodney Brooks, think it won't happen for hundreds of years. But others, like Google DeepMind founder Demis Hassabis, are more optimistic and are working to try to make it happen much sooner. And recent surveys have shown that most AI researchers actually share Demis's optimism, expecting that we will get AGI within decades, so within the lifetime of many of us, which begs the question -- and then what? What do we want the role of humans to be if machines can do everything better and cheaper than us?
Được rồi, cùng kiểm chứng trong thực tế: Liệu chúng ta sẽ đạt được AGI sớm? Một số nhà nghiên cứu về AI nổi tiếng, như Rodney Brooks, nghĩ điều đó sẽ không xảy ra trong hàng trăm năm nữa. Thế nhưng, nhà sáng lập Google DeedMind Demis Hassabis, lại lạc quan hơn và đang làm việc để rút ngắn khoảng thời gian này. Các khảo sát gần đây cho thấy rằng đa số các nhà nghiên cứu AI thực sự đồng ý với ý tưởng lạc quan của Demis, hy vọng rằng chúng ta có thể đạt đến AGI chỉ trong vòng vài chục năm tới, vì vậy trong cuộc đời của chúng ta, sẽ hỏi rằng-- sau đó sẽ như thế nào? Ta muốn vai trò của loài người sẽ là gì nếu máy móc lại có thể làm mọi thứ tốt và rẻ hơn chúng ta?
The way I see it, we face a choice. One option is to be complacent. We can say, "Oh, let's just build machines that can do everything we can do and not worry about the consequences. Come on, if we build technology that makes all humans obsolete, what could possibly go wrong?"
Với cách nhìn nhận này, chúng ta đối mặt với một lựa chọn. Một lựa chọn là tự mãn. Ta có thể nói rằng, "Ok, hãy xây những máy móc có thể làm mọi thứ chúng ta làm và không cần lo về hậu quả của nó. Nào, nếu ta xây dựng nền công nghệ khiến loài người trở nên lỗi thời, thì hình như có điều gì đó hơi sai ở đây?"
(Laughter)
(Cười)
But I think that would be embarrassingly lame. I think we should be more ambitious -- in the spirit of TED. Let's envision a truly inspiring high-tech future and try to steer towards it. This brings us to the second part of our rocket metaphor: the steering. We're making AI more powerful, but how can we steer towards a future where AI helps humanity flourish rather than flounder? To help with this, I cofounded the Future of Life Institute. It's a small nonprofit promoting beneficial technology use, and our goal is simply for the future of life to exist and to be as inspiring as possible. You know, I love technology. Technology is why today is better than the Stone Age. And I'm optimistic that we can create a really inspiring high-tech future ... if -- and this is a big if -- if we win the wisdom race -- the race between the growing power of our technology and the growing wisdom with which we manage it. But this is going to require a change of strategy because our old strategy has been learning from mistakes. We invented fire, screwed up a bunch of times -- invented the fire extinguisher.
Tôi nghĩ điều đó sẽ rất xấu hổ. Tôi nghĩ chúng ta nên tham vọng hơn nữa -- theo tinh thần của TED. Hãy thử hình dung một cảm hứng thực sự trong ngành công nghệ cao tương lai và cố gắng định hướng nó. Điều này đưa chúng ta tới phép ẩn dụ về tên lửa thứ hai: sự định hướng. Ta làm cho AI ngày càng hùng mạnh hơn, nhưng làm sao chúng ta có thể định hướng được tương lai khi mà AI giúp loài người hưng thịnh thay vì chật vật khổ sở? Để giải quyết vấn đề này, tôi đã đồng sáng lập Viện Cuộc sống Tương lai. Đó là một tổ chức phi lợi nhuận nhỏ áp dụng công nghệ có ích, mục tiêu của chúng tôi chỉ đơn giản là để hiện thực hóa cuộc sống tương lai và trở thành nguồn cảm hứng. Các bạn biết đấy, tôi yêu thích công nghệ. Công nghệ là lý do cuộc sống ngày nay vượt xa Thời Đồ đá. Và tôi lạc quan rằng chúng ta có thể tạo ra cảm hứng cho công nghệ cao tương lai... nếu -- và đây là một cái nếu quan trọng -- nếu ta chiến thắng trong cuộc đua về sự hiểu biết -- cuộc đua giữa sự phát triển công nghệ của chúng ta và sự hiểu biết nằm trong sự kiểm soát của chúng ta. Nhưng điều này đòi hỏi sự thay đổi trong phương pháp bởi các phương pháp cũ được học hỏi từ những sai lầm. Chúng ta đã phát minh ra lửa, lửa đã tàn phá nhiều lần -- từ đó phát minh ra bình cứu hỏa.
(Laughter)
(Cười)
We invented the car, screwed up a bunch of times -- invented the traffic light, the seat belt and the airbag, but with more powerful technology like nuclear weapons and AGI, learning from mistakes is a lousy strategy, don't you think?
Chúng ta đã phát minh ra xe hơi, gây ra sự tàn phá nhiều lần -- từ đó phát minh ra đèn giao thông, dây an toàn và túi khí nhưng với công nghệ càng mạnh mẽ hơn như vũ khí hạt nhân và AGI, học hỏi từ những sai lầm đó là một phương pháp tồi, bạn có nghĩ thế không?
(Laughter)
(Cười)
It's much better to be proactive rather than reactive; plan ahead and get things right the first time because that might be the only time we'll get. But it is funny because sometimes people tell me, "Max, shhh, don't talk like that. That's Luddite scaremongering." But it's not scaremongering. It's what we at MIT call safety engineering. Think about it: before NASA launched the Apollo 11 mission, they systematically thought through everything that could go wrong when you put people on top of explosive fuel tanks and launch them somewhere where no one could help them. And there was a lot that could go wrong. Was that scaremongering? No. That's was precisely the safety engineering that ensured the success of the mission, and that is precisely the strategy I think we should take with AGI. Think through what can go wrong to make sure it goes right.
Sự chủ động luôn tốt hơn nhiều so với sự bị động; lên kế hoạch trước và làm đúng ngay từ đầu bởi vì đó có thể là cơ hội duy nhất chúng ta có. Điều đó cũng khá vui vì đôi khi mọi người bảo tôi rằng, "Max, suỵt, đừng nói như vậy. Như kiểu Luddite đang phao tin vậy." Nhưng đó không phải là tin đồn nhảm nhí. Đây là thứ chúng tôi gọi là an toàn kỹ thuật tại MIT. Hãy nghĩ về điều này: trước khi NASA phóng tàu Apollo 11, họ đã suy nghĩ một cách có hệ thống rằng mọi thứ có thể sai khi bạn đặt con người trên thùng chứa nhiên liệu nổ và đưa họ tới đâu đó, nơi không ai có thể giúp họ. Và có hàng tá điều có thể sai lầm. Đó có phải là tin đồn nhảm không? Không. Đó chính xác là kỹ thuật an toàn nhằm đảm bảo nhiệm vụ thành công, và đó chính xác là mục đích mà tôi nghĩ ta nên sử dụng AGI. Nghĩ thấu "điều gì có thể sai lệch" để chắc chắn nó đi đúng hướng.
So in this spirit, we've organized conferences, bringing together leading AI researchers and other thinkers to discuss how to grow this wisdom we need to keep AI beneficial. Our last conference was in Asilomar, California last year and produced this list of 23 principles which have since been signed by over 1,000 AI researchers and key industry leaders, and I want to tell you about three of these principles.
Nên với tinh thần này, chúng tôi tổ chức các hội thảo, kết nối các nhà nghiên cứu AI và học giả hàng đầu để thảo luận cách phát triển sự thông minh này ta cần giữ cho AI có ích. Hội thảo gần đây nhất của chúng tôi ở Asilomar, California năm ngoái đã đưa ra danh sách này với 23 quy ước được kí tên bởi hơn 1000 nhà nghiên cứu AI và các nhà lãnh đạo kinh tế chủ chốt, Tôi muốn nói với bạn về 3 trong số các nguyên tắc này.
One is that we should avoid an arms race and lethal autonomous weapons. The idea here is that any science can be used for new ways of helping people or new ways of harming people. For example, biology and chemistry are much more likely to be used for new medicines or new cures than for new ways of killing people, because biologists and chemists pushed hard -- and successfully -- for bans on biological and chemical weapons. And in the same spirit, most AI researchers want to stigmatize and ban lethal autonomous weapons. Another Asilomar AI principle is that we should mitigate AI-fueled income inequality. I think that if we can grow the economic pie dramatically with AI and we still can't figure out how to divide this pie so that everyone is better off, then shame on us.
Một là chúng ta nên tránh chạy đua vũ trang và vũ khí tự hủy diệt. Ý tưởng là sản phẩm khoa học nào cũng được sử dụng như cách mới để giúp đỡ con người hoặc là làm hại con người. Ví dụ, sinh học và hóa học đang được sử dụng nhiều cho nghiên cứu thuốc mới, cách chữa bệnh mới hơn là giết người. vì các nhà sinh hóa học đã làm việc tích cực và thành công khi cấm các loại vũ khí sinh học và hóa học. Và trên tinh thần này, đa số các nhà nghiên cứu AI muốn lên án và cấm các vũ khí tự hủy diệt. Một nguyên tắc khác tại Asilomar AI là chúng ta nên giảm tối thiểu chi phí nhiên liệu phát sinh cho AI. Tôi nghĩ nếu ta có thể tăng trưởng chiếc bánh kinh tế mạnh mẽ bằng AI và ta vẫn không hình dung ra cách chia cái bánh này thì mọi người tốt hơn là dừng lại, đáng tiếc cho chúng ta.
(Applause)
(Vỗ tay)
Alright, now raise your hand if your computer has ever crashed.
Bây giờ, bạn hãy giơ tay lên nếu máy tính bạn đã từng bị phá tan tành.
(Laughter)
(Cười)
Wow, that's a lot of hands. Well, then you'll appreciate this principle that we should invest much more in AI safety research, because as we put AI in charge of even more decisions and infrastructure, we need to figure out how to transform today's buggy and hackable computers into robust AI systems that we can really trust, because otherwise, all this awesome new technology can malfunction and harm us, or get hacked and be turned against us. And this AI safety work has to include work on AI value alignment, because the real threat from AGI isn't malice, like in silly Hollywood movies, but competence -- AGI accomplishing goals that just aren't aligned with ours. For example, when we humans drove the West African black rhino extinct, we didn't do it because we were a bunch of evil rhinoceros haters, did we? We did it because we were smarter than them and our goals weren't aligned with theirs. But AGI is by definition smarter than us, so to make sure that we don't put ourselves in the position of those rhinos if we create AGI, we need to figure out how to make machines understand our goals, adopt our goals and retain our goals.
Chà, có nhiều cánh tay quá. Và, sau đó, bạn sẽ đánh giá cao nguyên tắc này rằng ta nên đầu tư nhiều hơn nữa vào việc nghiên cứu an toàn AI, Vì khi ta giao cho AI phụ trách làm ra nhiều quyết định và cơ sở hạ tầng hơn, ta cần phải tìm ra cách chuyển các máy tính bị lỗi và có khả năng bị hack thành các hệ thống Robot AI mà ta có thể thực sự tin tưởng, Nếu không thì, mọi công nghệ mới tuyệt vời có thể trục trặc và gây hại cho ta, hoặc bị hack và chống lại chúng ta. Và việc an toàn hoá AI này phải bao gồm việc liên kết giá trị AI, vì đe dọa thực sự từ AI không hề ác ý, như trong những bộ phim ngớ ngẩn của Hollywood, Tuy nhiên, năng lực -- Hoàn thành mục tiêu AGI không phải là con đường thẳng với mục tiêu của chúng ta. Ví dụ, khi con người tới, tê giác đen Tây Phi bị tuyệt chủng, chúng ta không làm điều đó vì không phải tất cả đều căm thù tê giác, phải không ạ? Chúng ta làm vì chúng ta thông minh hơn chúng và mục tiêu của chúng ta không như của chúng. Song AGI, theo định nghĩa là nó thông minh hơn chúng ta, nên để đảm bảo chúng ta không đẩy mình vào vị trí của những con tê giác. Nếu ta tạo ra AGI, ta cần phải biết cách làm cho máy móc hiểu được mục tiêu của chúng ta, thích nghi và duy trì mục tiêu của chúng ta.
And whose goals should these be, anyway? Which goals should they be?
Và toàn bộ mục tiêu nên như thế này, bằng mọi giá phải không ạ? Chúng nên có những mục tiêu nào?
This brings us to the third part of our rocket metaphor: the destination. We're making AI more powerful, trying to figure out how to steer it, but where do we want to go with it? This is the elephant in the room that almost nobody talks about -- not even here at TED -- because we're so fixated on short-term AI challenges. Look, our species is trying to build AGI, motivated by curiosity and economics, but what sort of future society are we hoping for if we succeed? We did an opinion poll on this recently, and I was struck to see that most people actually want us to build superintelligence: AI that's vastly smarter than us in all ways. What there was the greatest agreement on was that we should be ambitious and help life spread into the cosmos, but there was much less agreement about who or what should be in charge. And I was actually quite amused to see that there's some some people who want it to be just machines.
Điều này đưa ta tới phần thứ 3 của phép ẩn ý tên lửa: đích đến. Chúng ta đang làm cho AI mạnh mẽ hơn, nỗ lực tìm ra cách điều khiển nó, nhưng chúng ta muốn đi cùng nó tới đâu? Điều này giống như con voi trong căn phòng chẳng có người để ý tới nó, thậm chí là ngay đây, tại TED vì chúng ta quá để tâm vào các thử thách AI ngắn hạn. Nhìn xem, loài người đang nỗ lực xây dựng AGI, bởi sự tò mò và nền kinh tế thúc đẩy. Nhưng xã hội mà ta mong đợi trong tương lai sẽ ra sao nếu ta thành công? Chúng tôi đã làm một cuộc thăm dò ý kiến về điều này gần đây, tôi rất ngạc nhiên khi phần lớn mọi người thực sự muốn chúng tôi tạo ra siêu AI: Cực kỳ thông minh hơn con người về mọi thứ. Thỏa thuận lớn nhất đó là chúng ta nên tham vọng hơn và giúp cho sự sống rộng mở hơn trong vũ trụ, nhưng vẫn có sự không nhất quán về việc ai hoặc cái gì sẽ thực hiện trách nhiệm này. Tôi đã thực sự rất vui thích khi thấy một số người muốn được như những cỗ máy.
(Laughter)
(Cười)
And there was total disagreement about what the role of humans should be, even at the most basic level, so let's take a closer look at possible futures that we might choose to steer toward, alright?
Và toàn bộ không nhất trí về vấn đề đâu là vai trò con người nên có thậm chí ở mức cơ bản nhất. Hãy nhìn gần hơn về một tương lai mà chúng ta có thể chọn để hướng tới, được không?
So don't get me wrong here. I'm not talking about space travel, merely about humanity's metaphorical journey into the future. So one option that some of my AI colleagues like is to build superintelligence and keep it under human control, like an enslaved god, disconnected from the internet and used to create unimaginable technology and wealth for whoever controls it. But Lord Acton warned us that power corrupts, and absolute power corrupts absolutely, so you might worry that maybe we humans just aren't smart enough, or wise enough rather, to handle this much power. Also, aside from any moral qualms you might have about enslaving superior minds, you might worry that maybe the superintelligence could outsmart us, break out and take over. But I also have colleagues who are fine with AI taking over and even causing human extinction, as long as we feel the the AIs are our worthy descendants, like our children. But how would we know that the AIs have adopted our best values and aren't just unconscious zombies tricking us into anthropomorphizing them? Also, shouldn't those people who don't want human extinction have a say in the matter, too? Now, if you didn't like either of those two high-tech options, it's important to remember that low-tech is suicide from a cosmic perspective, because if we don't go far beyond today's technology, the question isn't whether humanity is going to go extinct, merely whether we're going to get taken out by the next killer asteroid, supervolcano or some other problem that better technology could have solved.
Bạn đừng hiểu sai ý tôi. Tôi không nói về du hành xuyên không gian, chỉ đơn thuần là về hành trình ẩn ý của loài người tới tương lai. Một lựa chọn mà một số đồng nghiệp AI của tôi ưa thích là xây dựng siêu AI, và giữ nó trong sự kiểm soát của con người, như là nô lệ của Chúa, ngắt kết nối với internet và được sử dụng để tạo ra công nghệ phi thường và của cải cho bất cứ người nào kiểm soát nó. Song Lord Acton đã cảnh báo chúng ta rằng quyền lực, và quyền lực tuyệt đối dẫn đến hỗn loạn tuyệt đối, nên bạn có thể lo lắng rằng liệu con người không đủ thông minh hoặc không đủ khôn ngoan hơn, để nắm giữ quyền lực này. Ngoài những nỗi e sợ về đạo đức bạn có thể có, về sự nô dịch cho siêu trí tuệ, Bạn có thể bất an về việc AI có thể thông minh hơn chúng ta, thoát khỏi và chiếm quyền kiểm soát. Nhưng tôi cũng có những đồng nghiệp lạc quan về việc AI sẽ chiếm giữ và thậm chí là nguyên nhân tuyệt chủng con người, khi chúng ta cảm thấy AI là những hậu duệ xứng đáng, như con cháu chúng ta. Nhưng làm sao ta biết được AI tiếp nhận những giá trị tốt nhất của con người, và không phải là hình nộm lừa chúng ta qua nhân cách hóa? Liệu những ai không muốn con người tuyệt chủng, lên tiếng rằng đó cũng là nguyên nhân? Giờ đây, nếu bạn đều không thích cả hai lựa chọn công nghệ này, thì điều quan trọng cần nhớ là công nghệ thấp là tự sát từ góc nhìn tương lai, vì nếu chúng ta không vượt xa công nghệ hiện có, câu hỏi sẽ không phải là liệu nhân loại sắp bị tuyệt chủng, mà sẽ là chúng ta sẽ bị kiểm soát bởi hành tinh hủy diệt tiếp theo, siêu núi lửa hoặc vài vấn đề khác mà đáng ra công nghệ tốt hơn có thể giải quyết.
So, how about having our cake and eating it ... with AGI that's not enslaved but treats us well because its values are aligned with ours? This is the gist of what Eliezer Yudkowsky has called "friendly AI," and if we can do this, it could be awesome. It could not only eliminate negative experiences like disease, poverty, crime and other suffering, but it could also give us the freedom to choose from a fantastic new diversity of positive experiences -- basically making us the masters of our own destiny.
Cho nên, việc có cái bánh và ăn nó... cùng với AGI không phải là sự nô dịch nhưng lại đối xử tốt với chúng ta vì giá trị của chúng song hành cùng chúng ta? Đây là nguyên nhân chính mà Cliezer Yudkowsky đã gọi là "AI thân thiện" Nếu ta có thể làm được điều này, đó sẽ rất tuyệt. AI không thể loại bỏ những trải nghiệm tiêu cực như bệnh tật, đói nghèo, tội phạm và những khổ đau khác. Nhưng nó có thể cho chúng ta sự tự do lựa chọn từ sự đa dạng, mới mẻ tuyệt vời của những trải nghiệm tích cực -- dựa trên việc để chúng ta làm chủ số phận của chính mình.
So in summary, our situation with technology is complicated, but the big picture is rather simple. Most AI researchers expect AGI within decades, and if we just bumble into this unprepared, it will probably be the biggest mistake in human history -- let's face it. It could enable brutal, global dictatorship with unprecedented inequality, surveillance and suffering, and maybe even human extinction. But if we steer carefully, we could end up in a fantastic future where everybody's better off: the poor are richer, the rich are richer, everybody is healthy and free to live out their dreams.
Tóm lại, vị thế của chúng ta với công nghệ là phức tạp, nhưng nhìn chung thì khá đơn giản. Đa số các nhà nghiên cứu AI chờ đợi AGI qua hàng thập kỷ, và nếu chúng ta chỉ tự mãn mà không chuẩn bị, đó sẽ có thể là sai lầm lớn nhất trong lịch sử loài người. Hãy đối mặt với nó. Nó có thể sẽ tàn bạo, độc quyền toàn cầu, bằng sự bất bình đẳng không thể dự đoán, bị quản đốc và tổn thương, và thậm chí có thể là sự tuyệt chủng loài người. Nhưng nếu chúng ta điều hướng cẩn thận, ta có thể đúc kết trong một tương lai sáng lạng khi mọi người đều tốt lên: người nghèo sẽ giàu có lên, người giàu thì giàu hơn, mọi người đều khỏe mạnh và tự do sống với ước mơ của mình.
Now, hang on. Do you folks want the future that's politically right or left? Do you want the pious society with strict moral rules, or do you an hedonistic free-for-all, more like Burning Man 24/7? Do you want beautiful beaches, forests and lakes, or would you prefer to rearrange some of those atoms with the computers, enabling virtual experiences? With friendly AI, we could simply build all of these societies and give people the freedom to choose which one they want to live in because we would no longer be limited by our intelligence, merely by the laws of physics. So the resources and space for this would be astronomical -- literally.
Bây giờ, còn nữa. Các bạn muốn tương lai là đúng hay sai? Bạn có muốn một xã hội yên bình với lề lối đạo đức nghiêm trị, hay là một chủ nghĩa khoái lạc - tự do cho tất cả, như Burning Man 24/7? Bạn mong có những bờ biển cát trắng, rừng xanh và hồ trong veo, hay bạn sẽ thích sắp xếp lại các nguyên tử bằng máy tính, có khả năng trải nghiệm thực tế ảo? Với AI thân thiện, chúng ta đơn giản có thể xây dựng một xã hội như thế và cho mọi người sự tự do lựa chọn cuộc sống vì chúng ta sẽ không còn bị giới hạn bởi trí thông minh, chỉ vì luật pháp hay vật lý học. Và nguồn nguyên liệu và không gian có thể vô cùng to lớn.
So here's our choice. We can either be complacent about our future, taking as an article of blind faith that any new technology is guaranteed to be beneficial, and just repeat that to ourselves as a mantra over and over and over again as we drift like a rudderless ship towards our own obsolescence. Or we can be ambitious -- thinking hard about how to steer our technology and where we want to go with it to create the age of amazement. We're all here to celebrate the age of amazement, and I feel that its essence should lie in becoming not overpowered but empowered by our technology.
Và đó là lựa chọn của chúng ta. Chúng ta có thể bằng lòng về tương lai, và kiểm soát như một bài báo với đức tin mù quáng nói rằng công nghệ mới nào cũng bảo đảm mang lại lợi ích, và chỉ là sự lặp lại của chính chúng ta. khi ta buông trôi như con tàu mất lái về sự lỗi thời của chính mình. Hoặc ta có thể tham vọng về suy nghĩ làm cách nào để kiểm soát và điều hướng công nghệ và cùng công nghệ tiến xa tới đâu để tạo ra thời kỳ đáng kinh ngạc. Tất cả chúng ta ở đây để ăn mừng nó, và tôi cảm thấy bản chất của nó nên nằm ở việc không bị áp đảo mà là sự trao quyền bằng công nghệ.
Thank you.
Cảm ơn các bạn!
(Applause)
(Vỗ tay)