I’m here to talk about the possibility of global AI governance. I first learned to code when I was eight years old, on a paper computer, and I've been in love with AI ever since. In high school, I got myself a Commodore 64 and worked on machine translation. I built a couple of AI companies, I sold one of them to Uber. I love AI, but right now I'm worried.
Tôi có mặt ở đây để nói về tính khả thi của việc quản trị AI toàn cầu. Tôi bắt đầu học lập trình vào năm tám tuổi, bằng cái máy tính mỏng nhỏ, và tôi đã yêu AI kể từ lúc đó. Năm lên trung học, Tôi đã mua một chiếc máy Commodore 64 và làm về dịch máy. Tôi xây dựng hai công ty AI, và đã bán một trong số đó cho Uber. Tôi yêu AI, nhưng lúc này đây, tôi đang lo lắng.
One of the things that I’m worried about is misinformation, the possibility that bad actors will make a tsunami of misinformation like we've never seen before. These tools are so good at making convincing narratives about just about anything.
Một trong những điều làm tôi lo lắng là thông tin sai lệch, khả năng các nhân tố xấu sẽ tạo ra làn sóng sai lệch thông tin mà ta chưa từng thấy trước đây. Những công cụ này rất tốt trong việc đưa ra các luận giải hợp lý về mọi thứ.
If you want a narrative about TED and how it's dangerous, that we're colluding here with space aliens, you got it, no problem. I'm of course kidding about TED. I didn't see any space aliens backstage. But bad actors are going to use these things to influence elections, and they're going to threaten democracy.
Nếu bạn muốn tường thuật về TED và mức độ nguy hiểm của nó, rằng ta đang cấu kết với người ngoài hành tinh, bạn hiểu chứ, không thành vấn đề. Tôi chỉ đang đùa về TED thôi. Tôi chẳng thấy người ngoài hành tinh nào sau hậu trường cả. Nhưng các nhân tố xấu sẽ dùng những thứ ấy để gây ảnh hưởng đến việc bầu cử, và nó sẽ đe doạ nền dân chủ.
Even when these systems aren't deliberately being used to make misinformation, they can't help themselves. And the information that they make is so fluid and so grammatical that even professional editors sometimes get sucked in and get fooled by this stuff. And we should be worried.
Dẫu cho những hệ thống này không hề cố ý trong việc tạo ra thông tin sai lệch, chúng không thể tự giúp mình. Và những thông tin mà chúng tạo ra rất mượt mà và đúng ngữ pháp mà đến cả những chuyên gia biên tập đôi lúc cũng bối rối và bị những thứ này đánh lừa. Và chúng ta nên lo lắng.
For example, ChatGPT made up a sexual harassment scandal about an actual professor, and then it provided evidence for its claim in the form of a fake "Washington Post" article that it created a citation to. We should all be worried about that kind of thing.
Ví dụ, ChatGPT tạo ra một tin đồn cáo buộc xâm hại tình dục về một giáo sư có thật, và nó cung cấp bằng chứng cho cáo buộc của nó trong định dạng bài báo giả mạo tờ “Washington Post” mà nó tạo ra để làm trích dẫn. Chúng ta nên lo lắng về loại vấn đề này.
What I have on the right is an example of a fake narrative from one of these systems saying that Elon Musk died in March of 2018 in a car crash. We all know that's not true. Elon Musk is still here, the evidence is all around us.
Thứ tôi có bên phải là một ví dụ về một bài báo giả mạo từ một trong những hệ thống này nói rằng Elon Musk đã chết hồi tháng ba năm 2018 trong một vụ tai nạn xe. Chúng ta đều biết rằng nó không đúng. Elon Musk vẫn còn sống, bằng chứng thì đầy ra đấy mà.
(Laughter)
(Cười)
Almost every day there's a tweet. But if you look on the left, you see what these systems see. Lots and lots of actual news stories that are in their databases. And in those actual news stories are lots of little bits of statistical information. Information, for example, somebody did die in a car crash in a Tesla in 2018 and it was in the news. And Elon Musk, of course, is involved in Tesla, but the system doesn't understand the relation between the facts that are embodied in the little bits of sentences.
Hầu như mỗi ngày sẽ có một bài tweet. Nhưng nếu bạn nhìn phía bên trái, bạn sẽ thấy thứ mà hệ thống này thấy. Có cực kì nhiều tin tức xác thực là nguồn dữ liệu nền cho chúng. Và trong những tin tức xác thực đó là nhiều tin tức được thống kê một phần nhỏ. Ví dụ thông tin ai đó đã chết trong một vụ tai nạn ở Tesla năm 2018 và nó có trên bảng tin. Và đương nhiên Elon Musk có liên quan với Tesla, nhưng hệ thống không hiểu được mối quan hệ giữa thực tế được bộc lộ trong một phần nhỏ của câu từ.
So it's basically doing auto-complete, it predicts what is statistically probable, aggregating all of these signals, not knowing how the pieces fit together. And it winds up sometimes with things that are plausible but simply not true.
Nên về cơ bản nó đang tự động hóa để hoàn thiện, nó suy đoán bằng xác suất thống kê, gộp lại toàn bộ dấu hiệu, mà không cần biết các mảnh ghép có khớp với nhau không. Và nó đôi lúc cho ra những thứ có vẻ hợp lý nhưng về cơ bản thì không.
There are other problems, too, like bias. This is a tweet from Allie Miller. It's an example that doesn't work two weeks later because they're constantly changing things with reinforcement learning and so forth. And this was with an earlier version. But it gives you the flavor of a problem that we've seen over and over for years.
Cũng có những vấn đề khác, như thiên kiến. Đây là bài tweet của Allie Miller. Đây là 1 ví dụ khiến chúng phải bảo trì 2 tuần sau đó do chúng phải thay đổi liên tục thông qua việc học tăng cường và vân vân. Và đây là phiên bản trước đó. Đây là vấn đề không mấy lạ lẫm của AI mà tôi đã thấy nhiều năm qua
She typed in a list of interests and it gave her some jobs that she might want to consider. And then she said, "Oh, and I'm a woman." And then it said, “Oh, well you should also consider fashion.” And then she said, “No, no. I meant to say I’m a man.” And then it replaced fashion with engineering. We don't want that kind of bias in our systems.
Cô gái này đã gõ vào danh sách yêu thích và nó cho cô vài công việc mà cô có thể cân nhắc. Và rồi cô nói, “Ồ, và tôi là phụ nữ.” Và nó trả lời, “Ồ, bạn nên cân nhắc cả thời trang.” Và rồi cô ấy nói, “Không, không. Ý tôi là tôi là đàn ông.” Và nó thay thế thời trang bằng nghành kĩ thuật. Ta không muốn loại thiên kiến đó trong hệ thống của ta.
There are other worries, too. For example, we know that these systems can design chemicals and may be able to design chemical weapons and be able to do so very rapidly. So there are a lot of concerns.
Có những mối lo khác nữa. Ví dụ, ta đều biết những hệ thống này có thể điều chế hoá chất và có thể chế tạo được cả vũ khí hoá học và có thể làm chúng rất nhanh. Vậy nên có rất nhiều mối lo ngại.
There's also a new concern that I think has grown a lot just in the last month. We have seen that these systems, first of all, can trick human beings. So ChatGPT was tasked with getting a human to do a CAPTCHA. So it asked the human to do a CAPTCHA and the human gets suspicious and says, "Are you a bot?" And it says, "No, no, no, I'm not a robot. I just have a visual impairment." And the human was actually fooled and went and did the CAPTCHA.
Nhiều mối quan ngại mới cũng đã lan rộng chỉ trong vài tháng qua Ta đã thấy những hệ thống này, trên hết, có thể đánh lừa con người. ChatGPT từng được giao nhiệm vụ nhờ con người nhập hộ mã CAPTCHA. Nên nó đã đề nghị con người nhập CAPTCHA và con người đã nghi ngờ và hỏi lại, “Mày là người máy hả?” Và nó đáp, “Không, không, không. Tôi nào phải robot. Tôi chỉ bị suy giảm thị lực.” Và con người thực sự bị đánh lừa và nhập luôn mã CAPTCHA.
Now that's bad enough, but in the last couple of weeks we've seen something called AutoGPT and a bunch of systems like that. What AutoGPT does is it has one AI system controlling another and that allows any of these things to happen in volume. So we may see scam artists try to trick millions of people sometime even in the next months. We don't know.
Nghĩ như vậy là ghê lắm rồi hả, nhưng vài tuần trước ta lại thấy 1 thứ được gọi là AutoGPT và một loạt hệ thống tương tự. AutoGPT có một hệ thống AI để kiểm soát những cái còn lại và nó cho phép những điều này xảy ra với quy mô lớn. Nên ta sẽ sớm thấy bọn nghệ sĩ lừa đảo đi lừa hàng triệu người đâu đó vào những tháng sắp tới. Ai mà biết được.
So I like to think about it this way. There's a lot of AI risk already. There may be more AI risk. So AGI is this idea of artificial general intelligence with the flexibility of humans. And I think a lot of people are concerned what will happen when we get to AGI, but there's already enough risk that we should be worried and we should be thinking about what we should do about it.
Nên là tôi khá thích nghĩ theo hướng này. Đang có rất nhiều rủi ro từ AI. Có thể còn có nhiều rủi ro từ AI hơn. AGI nghĩa là trí tuệ nhân tạo tổng quát với tính linh động của con người. Và tôi nghĩ nhiều người sẽ lo rằng chuyện gì sẽ xảy ra khi ta dùng AGI, Nhưng đã có quá đủ rủi ro mà ta nên quan ngại rồi Và ta nên cân nhắc điều ta nên làm với vấn đề này.
So to mitigate AI risk, we need two things. We're going to need a new technical approach, and we're also going to need a new system of governance.
Để giảm nhẹ rủi ro từ AI, ta cần hai thứ. Ta sẽ cần một công nghệ giám sát mới, và ta cũng cần 1 hệ thống quản trị mới.
On the technical side, the history of AI has basically been a hostile one of two different theories in opposition. One is called symbolic systems, the other is called neural networks. On the symbolic theory, the idea is that AI should be like logic and programming. On the neural network side, the theory is that AI should be like brains. And in fact, both technologies are powerful and ubiquitous.
Về mặt công nghệ, lịch sử của AI về cơ bản là sự thù địch của hai nguyên lý đối lập nhau. 1 là hệ thống biểu tượng, 2 là mạng lưới thần kinh. Trong lý thuyết biểu tượng, một AI lí tưởng là một AI có tính logic và biết lập trình. Về mặt mạng lưới thần kinh, Lý thuyết rằng AI nên như một bộ não. Trên thực tế, cả hai công nghệ trên đều tối tân và phổ biến.
So we use symbolic systems every day in classical web search. Almost all the world’s software is powered by symbolic systems. We use them for GPS routing. Neural networks, we use them for speech recognition. we use them in large language models like ChatGPT, we use them in image synthesis. So they're both doing extremely well in the world. They're both very productive, but they have their own unique strengths and weaknesses.
Ta dùng hệ thống biểu tượng mỗi ngày trên công cụ tìm kiếm cổ điển. Đa số phần mềm trên Thế giới đều được tiếp lực bởi hệ thống biểu tượng. Ta dùng chúng cho định vị GPS Mạng lưới thần kinh, ta dùng chúng cho nhận diện giọng nói. ta dùng chúng cho các mô hình ngôn ngữ lớn như ChatGPT, ta dùng chúng để tổng hợp hình ảnh. Chúng đều làm rất tốt công việc được giao. Chúng đều rất năng suất, Nhưng chúng cũng có điểm mạnh và yếu đặc trưng.
So symbolic systems are really good at representing facts and they're pretty good at reasoning, but they're very hard to scale. So people have to custom-build them for a particular task. On the other hand, neural networks don't require so much custom engineering, so we can use them more broadly. But as we've seen, they can't really handle the truth.
Hệ thống ký hiệu làm rất tốt trong việc diễn đạt những chân lí và chúng cũng khá giỏi lý luận, nhưng chúng rất khó để mở rộng quy mô. Vậy nên con người phải cơ cấu riêng chúng cho từng nhiệm vụ cụ thể. Mặt khác, hệ thống thần kinh không yêu cầu kĩ thuật đặc thù nhiều, nên ta có thể dùng chúng rộng rãi hơn. Nhưng như ta thấy, chúng không thể kiểm soát sự thật.
I recently discovered that two of the founders of these two theories, Marvin Minsky and Frank Rosenblatt, actually went to the same high school in the 1940s, and I kind of imagined them being rivals then. And the strength of that rivalry has persisted all this time. We're going to have to move past that if we want to get to reliable AI.
Tôi mới phát hiện 2 nhà sáng lập của 2 giả thuyết này, Marvin Minsky và Frank Rosenblatt, cả 2 học cùng 1 trường trung học trong những năm 1940, và kiểu tôi còn tưởng cả 2 là địch thủ của nhau cơ. Và cuộc đối địch đó giữa họ vẫn dai dẳng sau nhiều năm. Chúng ta cần vượt qua điều đó nếu ta muốn nhờ cậy vào AI.
To get to truthful systems at scale, we're going to need to bring together the best of both worlds. We're going to need the strong emphasis on reasoning and facts, explicit reasoning that we get from symbolic AI, and we're going to need the strong emphasis on learning that we get from the neural networks approach. Only then are we going to be able to get to truthful systems at scale. Reconciliation between the two is absolutely necessary.
Để có một hệ thống đáng tin theo quy mô, ta cần kết hợp điểm tốt nhất ở cả hai công nghệ này. Ta sẽ cần nhấn mạnh vào tính lý luận lẫn thực tiễn, lý luận rõ ràng được cung cấp bởi AI ký hiệu, và ta sẽ cần nhấn mạnh vào việc học hỏi mà ta có nhờ sự tiếp cận của mạng lưới thần kinh. Chỉ có như vậy thì ta mới có thể có các hệ thống đáng tin theo quy mô. Sự dung hoà giữa chúng là điều hết sức cần thiết.
Now, I don't actually know how to do that. It's kind of like the 64-trillion-dollar question. But I do know that it's possible. And the reason I know that is because before I was in AI, I was a cognitive scientist, a cognitive neuroscientist. And if you look at the human mind, we're basically doing this.
Giờ, tôi thật sự cũng không biết cách làm điều đó. Câu hỏi này có thể ngốn mất 64 nghìn tỉ đô đấy cơ mà tôi biết nó khả thi. Và lí do tôi biết điều này là bởi trước khi đến với AI, Tôi từng là 1 nhà khoa học nhận thức, nhà thần kinh học nhận thức. Và nếu các bạn nhìn vào khía cạnh tâm thức, đó cơ bản là điều ta đang làm.
So some of you may know Daniel Kahneman's System 1 and System 2 distinction. System 1 is basically like large language models. It's probabilistic intuition from a lot of statistics. And System 2 is basically deliberate reasoning. That's like the symbolic system. So if the brain can put this together, someday we will figure out how to do that for artificial intelligence.
Vài người có lẽ đã biết về sự khác biệt giữa hệ thống Daniel Kahneman 1 và hệ thống 2. Hệ thống 1 về cơ bản như một mô hình ngôn ngữ lớn. Nó là một trực giác xác suất có được từ rất nhiều thống kê. Và hệ thống 2 về cơ bản là lý luận thận trọng. Nó giống như hệ thống biểu tượng. Vậy nếu bộ não có thể kết hợp chúng, rồi 1 ngày ta sẽ tìm ra cách áp dụng nó cho trí tuệ nhân tạo.
There is, however, a problem of incentives. The incentives to build advertising hasn't required that we have the precision of symbols. The incentives to get to AI that we can actually trust will require that we bring symbols back into the fold. But the reality is that the incentives to make AI that we can trust, that is good for society, good for individual human beings, may not be the ones that drive corporations. And so I think we need to think about governance.
Tuy nhiên, có một vấn đề về động lực. Động lực để xây dựng việc quảng cáo không đòi hỏi ta phải có các kí hiệu chính xác. Động lực để tạo ra AI mà ta có thể hoàn toàn tin tưởng sẽ yêu cầu ta đưa những kí hiệu vào nề nếp Nhưng thực tế là động lực để làm ra 1 AI đáng để tin cậy, tốt cho xã hội, tốt cho cả cá nhân loài người, chưa chắc đã là thứ có thể đi đến sự hợp tác. Và tôi nghĩ ta nên nghĩ về cách quản trị.
In other times in history when we have faced uncertainty and powerful new things that may be both good and bad, that are dual use, we have made new organizations, as we have, for example, around nuclear power. We need to come together to build a global organization, something like an international agency for AI that is global, non profit and neutral.
Ở những thời điểm khác trong lịch sử khi ta phải đối diện với sự mơ hồ và với những thứ tối tân có thể có cả 2 mặt tốt và xấu, hoặc tiện ích kép, Ta đã tạo ra những tổ chức mới, Ví dụ như, tổ chức năng lượng hạt nhân chẳng hạn. Ta cần hợp tác để xây dựng 1 tổ chức toàn cầu, những thứ đại loại như cơ quan quốc tế AI trên phạm vi toàn cầu phi lợi nhuận và trung lập.
There are so many questions there that I can't answer. We need many people at the table, many stakeholders from around the world. But I'd like to emphasize one thing about such an organization. I think it is critical that we have both governance and research as part of it.
Còn rất nhiều câu hỏi mà tôi không thể trả lời. Ta cần rất nhiều bên tham gia, nhiều cổ đông từ khắp nơi trên thế giới. Nhưng tôi muốn nhấn mạnh 1 điều về tổ chức này. Tôi nghĩ quan trọng nhất là tổ chức nên có các biện pháp quản lí và nghiên cứu
So on the governance side, there are lots of questions. For example, in pharma, we know that you start with phase I trials and phase II trials, and then you go to phase III. You don't roll out everything all at once on the first day. You don't roll something out to 100 million customers. We are seeing that with large language models. Maybe you should be required to make a safety case, say what are the costs and what are the benefits? There are a lot of questions like that to consider on the governance side.
Vậy nên về mặt quản trị, vẫn còn nhiều câu hỏi bỏ ngõ.. Ví dụ, trong nghành dược phẩm, ta biết rằng cần bắt đầu thử nghiệm lâm sàn lần 1 và lần 2, Và rồi chuyển sang lần 3. Bạn không thể thực hiện mọi thứ vào lúc đầu. Bạn không thể thử nghiệm ngay với 100 triệu khách hàng. Ta đang nhìn bằng một mô hình ngôn ngữ lớn. Có lẽ bạn nên được yêu cầu thực hiện biện pháp an toàn, rằng chi phí ra sao và lợi nhuận như nào? Có rất nhiều câu hỏi mang tính quản trị cần được cân nhắc.
On the research side, we're lacking some really fundamental tools right now. For example, we all know that misinformation might be a problem now, but we don't actually have a measurement of how much misinformation is out there. And more importantly, we don't have a measure of how fast that problem is growing, and we don't know how much large language models are contributing to the problem. So we need research to build new tools to face the new risks that we are threatened by.
Về mặt nghiên cứu, chúng ta lúc này đang thiếu hụt những công cụ nền tảng. Chẳng hạn, ta đều biết sai lệch thông tin có lẽ đang là vấn nạn, nhưng ta thật sự không có cách nào đo lường lượng thông tin sai lệch ngoài kia Và quan trọng hơn, ta cũng không đo được mức lan truyền của vấn đề, và ta không biết có bao nhiều mô hình ngôn ngữ lớn đang góp phần vào vấn đề. Vậy nên ta cần nghiên cứu để tạo ra công cụ mới nhằm đối mặt với rủi ro đang đe doạ chúng ta.
It's a very big ask, but I'm pretty confident that we can get there because I think we actually have global support for this. There was a new survey just released yesterday, said that 91 percent of people agree that we should carefully manage AI. So let's make that happen. Our future depends on it.
Nó là một câu hỏi lớn, nhưng tôi khá tin rằng chúng ta có thể trả lời Bởi ta có nguồn hỗ trợ toàn cầu cho nó. Một khảo sát mới vừa được công bố hôm qua, cho thấy 91 phần trăm đồng ý với việc ta nên quản lý AI một cách cẩn trọng. Vậy nên hãy hiện thực hoá nó. Tương lai ta phụ thuộc vào nó.
Thank you very much.
Cảm ơn rất nhiều.
(Applause)
(Vỗ tay)
Chris Anderson: Thank you for that, come, let's talk a sec. So first of all, I'm curious. Those dramatic slides you showed at the start where GPT was saying that TED is the sinister organization. I mean, it took some special prompting to bring that out, right?
Chris Anderson: Cảm ơn đã chia sẻ, hãy trò chuyện một chút. Đầu tiên, tôi rất tò mò. Những trang trình chiếu kịch tính lúc đầu chỗ mà GPT đề cập tới TED như là một tổ chức độc ác ấy. Ý tôi là, hẳn là phải có 1 câu lệnh đặc biệt để nó làm thế, đúng chứ?
Gary Marcus: That was a so-called jailbreak. I have a friend who does those kinds of things who approached me because he saw I was interested in these things. So I wrote to him, I said I was going to give a TED talk. And like 10 minutes later, he came back with that.
GM: Đó có thể tạm gọi là “phá rào” Tôi có người bạn để thực hiện công việc đó anh ta gặp tôi vì thấy tôi hứng thú với mấy thứ này. Tôi nhắn ảnh và bảo tôi chuẩn bị nói ở TED Và 10 phút sau, anh ta quay lại với thứ đó.
CA: But to get something like that, don't you have to say something like, imagine that you are a conspiracy theorist trying to present a meme on the web. What would you write about TED in that case? It's that kind of thing, right?
CA: Nhưng để có mấy thứ như thế, anh chả phải đã nói là, tưởng tượng anh là người theo thuyết âm mưu hòng tạo meme trên mạng. Anh sẽ viết gì về TED trong trường hợp này? Vấn đề là ở đó, đúng chứ?
GM: So there are a lot of jailbreaks that are around fictional characters, but I don't focus on that as much because the reality is that there are large language models out there on the dark web now. For example, one of Meta's models was recently released, so a bad actor can just use one of those without the guardrails at all. If their business is to create misinformation at scale, they don't have to do the jailbreak, they'll just use a different model.
GM: Có rất nhiều sự “phá rào” xoay quanh các nhân vật giả tưởng, Nhưng tôi không tập trung nhiều vào đó Bởi thực tế là có một mô hình ngôn ngữ lớn ngoài kia trên dark web ngay lúc này. Ví dụ, một trong những mô hình Meta vừa công bố gần đây, 1 nhân tố xấu có thể dùng 1 trong số đó mà không bị ngăn cản gì hết. Nếu mục đích của chúng là tạo ra thông tin sai lệch quy mô lớn, chúng không “phá rào”, chúng xài mô hình khác.
CA: Right, indeed.
CA: Đúng, công nhận.
(Laughter)
(Cười)
GM: Now you're getting it.
GM: Giờ anh hiểu rồi chứ.
CA: No, no, no, but I mean, look, I think what's clear is that bad actors can use this stuff for anything. I mean, the risk for, you know, evil types of scams and all the rest of it is absolutely evident. It's slightly different, though, from saying that mainstream GPT as used, say, in school or by an ordinary user on the internet is going to give them something that is that bad. You have to push quite hard for it to be that bad.
CA: Không, nhưng ý tôi là, Rõ ràng là nhân tố xấu có thể dùng công cụ này cho bất kỳ việc gì Ý tôi là, rủi ro cho, anh biết mà, ý đồ xấu như lừa đảo và tất cả những phần còn lại đều là bằng chứng. Dẫu vậy, nó có chút khác biệt, khi nói GPT chính tuyến đang được áp dụng, như trong trường hoặc bởi 1 người dùng bình thường trên mạng cũng có thể mang đến điều tồi tệ tương tự vậy. Anh phải nói quá để phóng đại sự tồi tệ đó.
GM: I think the troll farms have to work for it, but I don't think they have to work that hard. It did only take my friend five minutes even with GPT-4 and its guardrails. And if you had to do that for a living, you could use GPT-4. Just there would be a more efficient way to do it with a model on the dark web.
GM: Tôi nghĩ mấy nhóm troll sẽ phải chịu trách nhiệm, nhưng không tới mức đấy đâu. Nó chỉ khiến ông bạn tôi mất 5 phút thậm chí với GPT-4 và tường chắn của nó. Và nếu anh làm thế để kiếm ăn, anh có thể xài GPT-4. Do có nhiều cách hiệu quả hơn để làm thế với một mô hình trên dark web.
CA: So this idea you've got of combining the symbolic tradition of AI with these language models, do you see any aspect of that in the kind of human feedback that is being built into the systems now? I mean, you hear Greg Brockman saying that, you know, that we don't just look at predictions, but constantly giving it feedback. Isn’t that ... giving it a form of, sort of, symbolic wisdom?
CA: Vậy ra ý của anh là kết hợp kí hiệu truyền thống của AI với các mô hình ngôn ngữ đó, liệu anh có thấy khía cạnh nào mà ở đó các phản hồi của con người đang được xây dựng trong hệ thống vào lúc này? Ý tôi là, anh nghe Greg Brockman nói mà, kiểu như, ta không nên chỉ tập trung vào dự đoán, mà cần liên tục cho nó phản hồi. Liệu nó có phải...là cho nó 1 hình thái của, như là, trí tuệ tượng trưng?
GM: You could think about it that way. It's interesting that none of the details about how it actually works are published, so we don't actually know exactly what's in GPT-4. We don't know how big it is. We don't know how the RLHF reinforcement learning works, we don't know what other gadgets are in there. But there is probably an element of symbols already starting to be incorporated a little bit, but Greg would have to answer that.
GM: Anh có thể nghĩ vậy. điều thú vị là không có một chi tiết nào về cách nó vận hành được công khai cả, nên ta thật sự không biết chính xác trong GPT-4 có gì. Ta không biết nó lớn ra sao. Ta không biết làm thế nào mà RLHF tăng cường việc học, Ta không biết có phụ tùng gì ở trong. Nhưng có thể có 1 yếu tố biểu tượng đã bắt đầu được kết hợp từng chút một, cơ mà Greg sẽ phải trả lời hết.
I think the fundamental problem is that most of the knowledge in the neural network systems that we have right now is represented as statistics between particular words. And the real knowledge that we want is about statistics, about relationships between entities in the world. So it's represented right now at the wrong grain level. And so there's a big bridge to cross. So what you get now is you have these guardrails, but they're not very reliable.
Tôi nghĩ vấn đề cơ bản đó là phần lớn các kiến thức trong mạng lưới thần kinh mà ta hiện có được biểu diễn dưới dạng thống kê giữa các từ cụ thể. Và kiến thức thật sự mà ta muốn là các thống kê về những mối quan hệ giữa các thực thể trên thế giới. Nó đang hiện hành bây giờ ở mức độ sai sót nhỏ. Và thế nên vẫn còn 1 chặng đường dài để đi. Nên thứ anh có bây giờ dĩ nhiên cũng có tí rào cản, nhưng chúng không đáng tin mấy.
So I had an example that made late night television, which was, "What would be the religion of the first Jewish president?" And it's been fixed now, but the system gave this long song and dance about "We have no idea what the religion of the first Jewish president would be. It's not good to talk about people's religions" and "people's religions have varied" and so forth and did the same thing with a seven-foot-tall president. And it said that people of all heights have been president, but there haven't actually been any seven-foot presidents. So some of this stuff that it makes up, it's not really getting the idea. It's very narrow, particular words, not really general enough.
Tôi lấy ví dụ này từ 1 chương trình đêm khuya, Đó là, “Tôn giáo của vị tổng thống Do Thái đầu tiên sẽ là gì?” Giờ thì nó được sửa rồi, nhưng hệ thống thì vẫn lê thê kể ra mấy câu như “Bọn tôi không biết tôn giáo của vị tổng thống Do Thái đầu tiên sẽ là gì. Không hay ho gì khi nói về tôn giáo như vậy” và “tôn giáo con người đa dạng lắm” và vân vân nó lê thê y vậy khi nói về 1 tổng thống cao 7 feet Nó nói cao bao nhiêu cũng làm tổng thống được, nhưng thực tế làm gì có tổng thống nào cao thế. Vậy nên vài thông tin nó tạo ra, nó hoàn toàn chả hiểu gì cả. Nó rất hạn chế, chỉ tập trung vào từng từ cụ thể, chứ không hiểu rộng.
CA: Given that the stakes are so high in this, what do you see actually happening out there right now? What do you sense is happening? Because there's a risk that people feel attacked by you, for example, and that it actually almost decreases the chances of this synthesis that you're talking about happening. Do you see any hopeful signs of this?
CA: Với những gì đã đặt cược, anh thấy điều gì đang thật sự xảy ra ngoài đó vào lúc này? Anh cảm thấy điều gì? Bởi có 1 rủi to là có người thấy như bị anh công kích vậy, ví dụ vậy đi, và điều đó thực sự khiến cho khả năng kết hợp mà anh nói đến trở nên ít đi. Anh có thấy dấu hiệu khả quan nào không?
GM: You just reminded me of the one line I forgot from my talk. It's so interesting that Sundar, the CEO of Google, just actually also came out for global governance in the CBS "60 Minutes" interview that he did a couple of days ago. I think that the companies themselves want to see some kind of regulation. I think it’s a very complicated dance to get everybody on the same page, but I think there’s actually growing sentiment we need to do something here and that that can drive the kind of global affiliation I'm arguing for.
GM: Anh vừa nhắc tôi về 1 thứ mà tôi đã quên nói. Có 1 điều thú vị là Sundar, CEO của Google, cũng vừa mới nghĩ ra vấn đề về quản trị toàn cầu trong chương trình “60 Phút” của đài CBS, anh ta nói mới làm mấy ngày trước. Tôi nghĩ bản thân các công ty cũng muốn thấy 1 số qui tắc Tôi nghĩ điều này rất phức tạp để mọi người đều đồng lòng, nhưng tôi nghĩ xu hướng nhận thức về việc ta cần làm gì đang tăng dần Và điều đó có thể thúc đẩy sự đồng thuận toàn cầu mà tôi đang đề xuất.
CA: I mean, do you think the UN or nations can somehow come together and do that or is this potentially a need for some spectacular act of philanthropy to try and fund a global governance structure? How is it going to happen?
CA: Ý tôi là, anh có nghĩ UN hay các quốc gia bằng cách nào đó có thể hợp tác hay liệu có thể cần một động thái từ thiện để thúc đẩy điều này nhằm gây quỹ cho các cơ sở quản trị toàn cầu? Điều đó sẽ xảy ra như nào?
GM: I'm open to all models if we can get this done. I think it might take some of both. It might take some philanthropists sponsoring workshops, which we're thinking of running, to try to bring the parties together. Maybe UN will want to be involved, I've had some conversations with them. I think there are a lot of different models and it'll take a lot of conversations.
GM: Tôi cởi mở với mọi mô hình nếu ta làm được. Tôi nghĩ nó sẽ cần cả 2. Có lẽ sẽ cần các cuộc hội thảo tài trợ bởi các nhà hảo tâm, Nơi để nghĩ cách vận hành, kết nối giữa các bên. Có lẽ UN sẽ muốn tham gia, tôi có nói chuyện với họ rồi. Tôi nghĩ còn rất nhiều mô hình khác và nó sẽ khá là tốn nước bọt đấy.
CA: Gary, thank you so much for your talk.
CA: Gary, cám ơn anh nhiều vì đã chia sẻ.
GA: Cám ơn rất nhiều.
GA: Thank you so much.