I’m here to talk about the possibility of global AI governance. I first learned to code when I was eight years old, on a paper computer, and I've been in love with AI ever since. In high school, I got myself a Commodore 64 and worked on machine translation. I built a couple of AI companies, I sold one of them to Uber. I love AI, but right now I'm worried.
Venho aqui falar sobre a possibilidade de um controlo mundial da IA. Aprendi a codificar quando tinha oito anos, num computador de papel, e apaixonei-me pela IA desde então. Na escola secundária, arranjei um Commodore 64 e trabalhei em tradução automática. Criei duas empresas de IA, vendi uma delas à Uber. Eu adoro a IA, mas neste momento estou preocupado.
One of the things that I’m worried about is misinformation, the possibility that bad actors will make a tsunami of misinformation like we've never seen before. These tools are so good at making convincing narratives about just about anything.
Uma das coisas que me preocupa é a desinformação, a possibilidade de que pessoas de mau caráter façam um tsunami de desinformação como nunca vimos. Estas ferramentas são excelentes em fazer narrativas convincentes sobre seja o que for.
If you want a narrative about TED and how it's dangerous, that we're colluding here with space aliens, you got it, no problem. I'm of course kidding about TED. I didn't see any space aliens backstage. But bad actors are going to use these things to influence elections, and they're going to threaten democracy.
Se quiserem uma narrativa sobre a TED e como ela é perigosa porque somos coniventes aqui com extraterrestres, aqui a têm, não há problema. Claro que estou a brincar com a TED. Não vi nenhum extraterrestre nos bastidores. Mas há maus caracteres que vão usar estas coisas para influenciar eleições, e vão ameaçar a democracia.
Even when these systems aren't deliberately being used to make misinformation, they can't help themselves. And the information that they make is so fluid and so grammatical that even professional editors sometimes get sucked in and get fooled by this stuff. And we should be worried.
Mesmo quando esses sistemas não estão a ser usados deliberadamente para lançar desinformação, não podem impedir-se. As informações que eles fazem são tão fluidas e tão gramaticais que até os editores profissionais por vezes são apanhados e são enganados por isso. Devemos estar preocupados.
For example, ChatGPT made up a sexual harassment scandal about an actual professor, and then it provided evidence for its claim in the form of a fake "Washington Post" article that it created a citation to. We should all be worried about that kind of thing.
Por exemplo, o ChatGPT criou um escândalo de assédio sexual sobre um professor real e depois apresentou prova das suas afirmações sob a forma de um falso artigo do “Washington Post” para o qual criou uma citação. Devemos estar preocupados sobre este tipo de coisas.
What I have on the right is an example of a fake narrative from one of these systems saying that Elon Musk died in March of 2018 in a car crash. We all know that's not true. Elon Musk is still here, the evidence is all around us.
O que eu tenho aqui à direita é um exemplo duma narrativa falsa de um destes sistemas, dizendo que Elon Musk morreu em março de 2018, num acidente de viação. Todos sabemos que não é verdade. Elon Musk continua vivo, a prova está à nossa volta.
(Laughter)
(Risos)
Almost every day there's a tweet. But if you look on the left, you see what these systems see. Lots and lots of actual news stories that are in their databases. And in those actual news stories are lots of little bits of statistical information. Information, for example, somebody did die in a car crash in a Tesla in 2018 and it was in the news. And Elon Musk, of course, is involved in Tesla, but the system doesn't understand the relation between the facts that are embodied in the little bits of sentences.
Quase todos os dias há um <i>tweet</i>. Mas se olharem para a esquerda, veem o que estes sistemas veem. Montes e montes de novas notícias que se encontram nos seus bancos de dados. Nessas notícias há milhentos <i>bits</i> de informações estatísticas. Informações, por exemplo, de alguém que morre num acidente de viação num Tesla em 2018 que apareceu nos jornais. E Elon Musk, claro, está relacionado com a Tesla, mas o sistema não compreende a relação entre os factos que estão contidos nos <i>bits </i>das frases.
So it's basically doing auto-complete, it predicts what is statistically probable, aggregating all of these signals, not knowing how the pieces fit together. And it winds up sometimes with things that are plausible but simply not true.
Portanto, basicamente, autocompleta-se, prevê o que estatisticamente é provável. agregando todos esses sinais, sem saber como as peças se encaixam bem. E, por vezes, acabam com coisas que são plausíveis mas não são verdade.
There are other problems, too, like bias. This is a tweet from Allie Miller. It's an example that doesn't work two weeks later because they're constantly changing things with reinforcement learning and so forth. And this was with an earlier version. But it gives you the flavor of a problem that we've seen over and over for years.
Também há outros problemas, como os preconceitos. Este é um <i>tweet </i>de Allie Miller. É um exemplo que não funciona duas semanas depois porque estão sempre a mudar as coisas com o reforço da aprendizagem, etc. Esta é uma versão mais antiga. Mas dá-nos uma ideia de um problema que já detetámos há muitos anos.
She typed in a list of interests and it gave her some jobs that she might want to consider. And then she said, "Oh, and I'm a woman." And then it said, “Oh, well you should also consider fashion.” And then she said, “No, no. I meant to say I’m a man.” And then it replaced fashion with engineering. We don't want that kind of bias in our systems.
Ela escreveu uma lista de interesses e a IA deu-lhe alguns empregos que ela podia querer considerar. Depois, ela disse: “É verdade, eu sou uma mulher.” E a IA disse: “OK, também deves considerar a moda.” E ela disse: “Não, não, enganei-me, eu sou um homem.” Então, a IA substituiu a moda por engenharia. Não queremos este tipo de preconceitos nos nossos sistemas.
There are other worries, too. For example, we know that these systems can design chemicals and may be able to design chemical weapons and be able to do so very rapidly. So there are a lot of concerns.
Também há outras preocupações. Por exemplo, sabemos que estes sistemas podem conceber produtos químicos e talvez conceber armas químicas e fazerem isso muito depressa. Portanto, há muitas preocupações.
There's also a new concern that I think has grown a lot just in the last month. We have seen that these systems, first of all, can trick human beings. So ChatGPT was tasked with getting a human to do a CAPTCHA. So it asked the human to do a CAPTCHA and the human gets suspicious and says, "Are you a bot?" And it says, "No, no, no, I'm not a robot. I just have a visual impairment." And the human was actually fooled and went and did the CAPTCHA.
Também há uma outra preocupação que suponho apareceu no mês passado. Já vimos que estes sistemas, conseguem enganar os seres humanos. Então, o ChatGP foi encarregado de levar um ser humano a fazer o teste <i>CAPTCHA</i>. Assim, ele pediu ao ser humano que fizesse um <i>CAPTCHA</i> e o ser humano, desconfiado, diz: “És um robô?” E ele disse: “Não, não sou um robô. “Só tenho uma deficiência visual” O ser humano foi enganado e fez o teste <i>CAPTCHA</i>.
Now that's bad enough, but in the last couple of weeks we've seen something called AutoGPT and a bunch of systems like that. What AutoGPT does is it has one AI system controlling another and that allows any of these things to happen in volume. So we may see scam artists try to trick millions of people sometime even in the next months. We don't know.
Isto já é suficientemente mau, mas nas últimas semanas temos visto uma coisa chamada AutoGPT e uma série de sistemas destes. O AutoGPT tem um sistema de IA a controlar outro e isso permite que estas coisas aconteçam em grande quantidade. Podemos vir a ver burlões tentarem vigarizar milhões de pessoas talvez já nos próximos meses. Não sabemos.
So I like to think about it this way. There's a lot of AI risk already. There may be more AI risk. So AGI is this idea of artificial general intelligence with the flexibility of humans. And I think a lot of people are concerned what will happen when we get to AGI, but there's already enough risk that we should be worried and we should be thinking about what we should do about it.
Prefiro pensar deste modo. Já há muitos riscos na IA. Pode vir a haver ainda mais riscos. A IAG é a ideia da Inteligência Artificial Geral com a flexibilidade dos seres humanos. Penso que muita gente anda preocupada com o que acontecerá quando tivermos IAG, mas já há riscos suficientes que nos deviam preocupar e devíamos estar a pensar no que devemos fazer quanto a isso.
So to mitigate AI risk, we need two things. We're going to need a new technical approach, and we're also going to need a new system of governance.
Para minimizar os riscos da IA, precisamos de duas coisas. Vamos precisar de uma nova abordagem técnica, e também vamos precisar de um novo sistema de controlo.
On the technical side, the history of AI has basically been a hostile one of two different theories in opposition. One is called symbolic systems, the other is called neural networks. On the symbolic theory, the idea is that AI should be like logic and programming. On the neural network side, the theory is that AI should be like brains. And in fact, both technologies are powerful and ubiquitous.
Pelo lado técnico, a história da IA tem sido hostil, basicamente, de duas teorias diferentes e opostas. Uma chama-se sistemas simbólicos, a outra chama-se redes neurais. Na teoria simbólica, a ideia é que a IA deve ser como a lógica e a programação. Na rede neural, a teoria é de que a IA deve ser como o cérebro. Com efeito, ambas as tecnologias são poderosas e omnipresentes.
So we use symbolic systems every day in classical web search. Almost all the world’s software is powered by symbolic systems. We use them for GPS routing. Neural networks, we use them for speech recognition. we use them in large language models like ChatGPT, we use them in image synthesis. So they're both doing extremely well in the world. They're both very productive, but they have their own unique strengths and weaknesses.
Usamos sistemas simbólicos todos os dias na clássica pesquisa na Internet. Quase todos os <i>softwares </i>do mundo são alimentados por sistemas simbólicos. Usamo-los para a orientação por GPS. Usamos as redes neurais para reconhecimento da voz. Usamo-las em modelos de linguagem como o ChatGPT, usamo-las na síntese de imagens. Ambas estão a fazer um bom trabalho mundialmente. Ambas são muito produtivas, mas têm as suas forças e as suas fraquezas.
So symbolic systems are really good at representing facts and they're pretty good at reasoning, but they're very hard to scale. So people have to custom-build them for a particular task. On the other hand, neural networks don't require so much custom engineering, so we can use them more broadly. But as we've seen, they can't really handle the truth.
Os sistemas simbólico são muito bons em representar factos e são muito bons em raciocinar, mas são muito difíceis de ordenar. Por isso as pessoas têm de os construir à medida para uma determinada tarefa. Por outro lado, as redes neurais não exigem tanta engenharia personalizada por isso podemos usá-las de forma mais alargada. Mas, como vimos, não conseguem lidar com a verdade.
I recently discovered that two of the founders of these two theories, Marvin Minsky and Frank Rosenblatt, actually went to the same high school in the 1940s, and I kind of imagined them being rivals then. And the strength of that rivalry has persisted all this time. We're going to have to move past that if we want to get to reliable AI.
Há pouco tempo descobri que dois dos fundadores destas duas teorias, Marvin Minsky e Frank Rosenblatt, andaram na mesma escola secundária nos anos 40, e eu imagino que eles seriam rivais, nessa época. A força dessa rivalidade persistiu durante todo este tempo. Vamos ter de ultrapassar isso depressa se queremos ter uma IA fiável.
To get to truthful systems at scale, we're going to need to bring together the best of both worlds. We're going to need the strong emphasis on reasoning and facts, explicit reasoning that we get from symbolic AI, and we're going to need the strong emphasis on learning that we get from the neural networks approach. Only then are we going to be able to get to truthful systems at scale. Reconciliation between the two is absolutely necessary.
Para conseguir sistemas fiáveis em grande escala, vamos precisar de reunir o melhor dos dois mundos. Vamos precisar do fator forte do raciocínio e dos factos, o raciocínio explícito que obtemos da IA simbólica, e vamos precisar do fator forte da aprendizagem que obtemos da abordagem das redes neurais. Só assim conseguiremos ter sistemas fiáveis em grande escala. A reconciliação entre os dois é fundamental.
Now, I don't actually know how to do that. It's kind of like the 64-trillion-dollar question. But I do know that it's possible. And the reason I know that is because before I was in AI, I was a cognitive scientist, a cognitive neuroscientist. And if you look at the human mind, we're basically doing this.
Eu não sei como fazer isso. É como a pergunta dos 64 biliões de dólares. Mas sei que é possível. A razão por que sei isso é porque já estive na IA, era um cientista cognitivo, um neurocientista cognitivo. Se olharmos para o cérebro humano, é o que fazemos basicamente.
So some of you may know Daniel Kahneman's System 1 and System 2 distinction. System 1 is basically like large language models. It's probabilistic intuition from a lot of statistics. And System 2 is basically deliberate reasoning. That's like the symbolic system. So if the brain can put this together, someday we will figure out how to do that for artificial intelligence.
Alguns aqui podem conhecer a distinção entre o Sistema 1 e o Sistema 2 de Daniel Kahneman. O Sistema 1 é basicamente como os modelos de linguagem. É a intuição probabilística a partir de muitas estatísticas. O Sistema 2 é basicamente o raciocínio deliberado. É como o sistema simbólico. Se o cérebro pode juntar as duas coisas, um dia perceberemos como fazer isso para a inteligência artificial.
There is, however, a problem of incentives. The incentives to build advertising hasn't required that we have the precision of symbols. The incentives to get to AI that we can actually trust will require that we bring symbols back into the fold. But the reality is that the incentives to make AI that we can trust, that is good for society, good for individual human beings, may not be the ones that drive corporations. And so I think we need to think about governance.
Contudo, há um problema de incentivos. O incentivo para criar publicidade não precisou que tivéssemos a precisão dos símbolos. O incentivo para obter uma IA em que possamos confiar exigirá que voltemos a trazer os símbolos para cima da mesa. A realidade é que os incentivos para fazer uma IA em que possamos confiar que seja boa para a sociedade, boa para os seres humanos individualmente, podem não ser aqueles que motivam as empresas. Penso que precisamos de pensar no controlo.
In other times in history when we have faced uncertainty and powerful new things that may be both good and bad, that are dual use, we have made new organizations, as we have, for example, around nuclear power. We need to come together to build a global organization, something like an international agency for AI that is global, non profit and neutral.
Noutras épocas da História, quando enfrentámos a incerteza, e coisas novas e poderosas que podiam ser boas e más, que tinham um uso duplo, fizemos novas organizações, como, por exemplo, em volta do poder nuclear. Precisamos de nos reunir para criar uma organização mundial uma coisa como uma agência internacional para a IA que seja mundial, sem fins lucrativos e neutra.
There are so many questions there that I can't answer. We need many people at the table, many stakeholders from around the world. But I'd like to emphasize one thing about such an organization. I think it is critical that we have both governance and research as part of it.
Há muitas questões que eu não sei responder. Precisamos de muita gente à mesma mesa, muitas partes interessadas do mundo inteiro. Mas queria sublinhar uma coisa sobre essa tal organização. Penso que é fundamental que ela tenha controlo e investigação.
So on the governance side, there are lots of questions. For example, in pharma, we know that you start with phase I trials and phase II trials, and then you go to phase III. You don't roll out everything all at once on the first day. You don't roll something out to 100 million customers. We are seeing that with large language models. Maybe you should be required to make a safety case, say what are the costs and what are the benefits? There are a lot of questions like that to consider on the governance side.
Do lado do controlo, há imensas questões. Por exemplo, na área farmacêutica, sabemos que começamos com os testes da fase I e da fase II e depois passamos para os testes da fase III. Não se lança tudo duma só vez no primeiro dia. Não se lança tudo para 100 milhões de clientes. Vemos isso nos modelos de linguagem grande. Talvez seja necessário apresentar um caso de segurança, dizer quais são os custos e quais são os benefícios. Há muitas questões deste género a considerar do lado do governo.
On the research side, we're lacking some really fundamental tools right now. For example, we all know that misinformation might be a problem now, but we don't actually have a measurement of how much misinformation is out there. And more importantly, we don't have a measure of how fast that problem is growing, and we don't know how much large language models are contributing to the problem. So we need research to build new tools to face the new risks that we are threatened by.
Do lado da investigação, neste momento temos falta de instrumentos fundamentais. Por exemplo, todos sabemos que a desinformação pode ser hoje um problema, mas não temos como medir hoje quanta desinformação há por aí. Mais importante ainda, não temos como medir a que velocidade esse problema avança, e não sabemos como os modelos de linguagem estão a contribuir para esse problema. Precisamos de criar novos instrumentos pare fazer face aos novos riscos que nos ameaçam.
It's a very big ask, but I'm pretty confident that we can get there because I think we actually have global support for this. There was a new survey just released yesterday, said that 91 percent of people agree that we should carefully manage AI. So let's make that happen. Our future depends on it.
É uma tarefa enorme mas tenho confiança de que podemos lá chegar porque penso que temos apoio global para isso. Ainda ontem foi publicado um novo inquérito em que 91% das pessoas concorda que devemos gerir cuidadosamente a IA. Façamos com que isso aconteça. O nosso futuro depende disso
Thank you very much.
Muito obrigado.
(Applause)
(Aplausos)
Chris Anderson: Thank you for that, come, let's talk a sec. So first of all, I'm curious. Those dramatic slides you showed at the start where GPT was saying that TED is the sinister organization. I mean, it took some special prompting to bring that out, right?
Chris Anderson: Obrigado. Vem cá, só um segundo. Primeiro, sinto-me curioso. Aqueles <i>slides </i>dramáticos que mostraste no início em que o GPT estava a dizer que a TED é uma organização sinistra. Foi preciso algum estímulo especial para acontecer aquilo, não foi?
Gary Marcus: That was a so-called jailbreak. I have a friend who does those kinds of things who approached me because he saw I was interested in these things. So I wrote to him, I said I was going to give a TED talk. And like 10 minutes later, he came back with that.
Gary Marcus: Foi a chamada “fuga à prisão”. Tenho um amigo que faz este tipo de coisas que veio ter comigo porque viu que eu estava interessado nestas coisas. Escrevi-lhe e disse que ia fazer uma palestra TED. E 10 minutos depois, ele apareceu com aquilo.
CA: But to get something like that, don't you have to say something like, imagine that you are a conspiracy theorist trying to present a meme on the web. What would you write about TED in that case? It's that kind of thing, right?
CA: Mas, para obter uma coisa daquelas, é preciso dizer qualquer coisa como: “imagina que és um teórico da conspiração a tentar apresentar um meme na Internet”? O que é que escreverias sobre a TED nesse caso? É o que acontece, não é?
GM: So there are a lot of jailbreaks that are around fictional characters, but I don't focus on that as much because the reality is that there are large language models out there on the dark web now. For example, one of Meta's models was recently released, so a bad actor can just use one of those without the guardrails at all. If their business is to create misinformation at scale, they don't have to do the jailbreak, they'll just use a different model.
GM: Há muitas “fugas à prisão” em volta de figuras de ficção, mas eu não me concentraria muito nisso porque a realidade é que há modelos de linguagem grande na <i>dark web</i>, neste momento. Por exemplo, foi lançado recentemente um dos modelos da Meta, e um mau carácter pode usar um deles sem qualquer tipo de constrangimento. Se o objetivo dele for criar desinformação em grande escala, não precisam de fazer “fuga à prisão”, basta usar um modelo diferente.
CA: Right, indeed.
CA: Lá isso é verdade.
(Laughter)
(Risos)
GM: Now you're getting it.
GM: Já estás a perceber.
CA: No, no, no, but I mean, look, I think what's clear is that bad actors can use this stuff for anything. I mean, the risk for, you know, evil types of scams and all the rest of it is absolutely evident. It's slightly different, though, from saying that mainstream GPT as used, say, in school or by an ordinary user on the internet is going to give them something that is that bad. You have to push quite hard for it to be that bad.
CA: Não, não, espera, eu penso que é claro que os maus caracteres podem usar isto para o que quiserem. Ou seja, o risco de todos os tipos de fraudes maléficas e tudo o resto, é absolutamente evidente. Mas é um pouco diferente de dizer que o GPT em geral. como o que se usa na escola, ou por um utilizador normal, na Internet, vai dar-lhes uma coisa má. Var ser preciso muita força para que isso seja tão mau.
GM: I think the troll farms have to work for it, but I don't think they have to work that hard. It did only take my friend five minutes even with GPT-4 and its guardrails. And if you had to do that for a living, you could use GPT-4. Just there would be a more efficient way to do it with a model on the dark web.
GM: Penso que os <i>trolls</i> têm de trabalhar para isso, mas acho que não têm de trabalhar muito. O meu amigo só precisou de 5 minutos mesmo com o GPT-4 e as suas seguranças. E se tiverem que fazer isso para ganhar dinheiro podem usar o GPT-4. Só que haverá uma forma mais eficaz de o fazer com um modelo na <i>dark web</i>.
CA: So this idea you've got of combining the symbolic tradition of AI with these language models, do you see any aspect of that in the kind of human feedback that is being built into the systems now? I mean, you hear Greg Brockman saying that, you know, that we don't just look at predictions, but constantly giving it feedback. Isn’t that ... giving it a form of, sort of, symbolic wisdom?
CA: Quanto a essa tua ideia de combinar a tradição simbólica da IA com esses modelos de linguagem, vês qualquer aspeto nela sob a forma de <i>feedback </i>humano que está a ser introduzido hoje nos sistemas? Ouvimos Greg Brockman dizer que não estamos só a olhar para previsões, estamos sempre a alimentá-las, isso não será dar-lhe uma espécie de sabedoria simbólica?
GM: You could think about it that way. It's interesting that none of the details about how it actually works are published, so we don't actually know exactly what's in GPT-4. We don't know how big it is. We don't know how the RLHF reinforcement learning works, we don't know what other gadgets are in there. But there is probably an element of symbols already starting to be incorporated a little bit, but Greg would have to answer that.
GM: Podemos pensar dessa forma. É interessante que não há publicação dos pormenores sobre como isso funciona, assim, não sabemos bem o que é que há no GPT-4. Não sabemos qual a sua dimensão. Não sabemos como funciona o reforço de aprendizagem RLHF, não sabemos que outros aparelhos há lá dentro. Mas há provavelmente um elemento de símbolos a começar a ser incorporado, pouco a pouco, mas é Greg que terá de responder a isso.
I think the fundamental problem is that most of the knowledge in the neural network systems that we have right now is represented as statistics between particular words. And the real knowledge that we want is about statistics, about relationships between entities in the world. So it's represented right now at the wrong grain level. And so there's a big bridge to cross. So what you get now is you have these guardrails, but they're not very reliable.
O problema fundamental é que a maior parte do conhecimento dos sistemas de rede neural que temos atualmente é representada como estatísticas entre determinadas palavras. E o conhecimento real que queremos é sobre estatísticas, sobre relações entre entidades do mundo. Isso é representado neste momento a um nível errado. Há pois uma enorme ponte a atravessar. O que temos agora é seguranças, que não são muito fiáveis.
So I had an example that made late night television, which was, "What would be the religion of the first Jewish president?" And it's been fixed now, but the system gave this long song and dance about "We have no idea what the religion of the first Jewish president would be. It's not good to talk about people's religions" and "people's religions have varied" and so forth and did the same thing with a seven-foot-tall president. And it said that people of all heights have been president, but there haven't actually been any seven-foot presidents. So some of this stuff that it makes up, it's not really getting the idea. It's very narrow, particular words, not really general enough.
Eu tenho um exemplo que a televisão deu à noite, que foi: “Qual seria a religião do primeiro presidente judeu?” Agora, está a ser corrigido, mas o sistema deu um grande baile e disse: “Não fazemos ideia de qual seria a religião “do primeiro presidente judeu. “Não se deve falar das religiões das pessoas” e “as religiões das pessoas têm variado” e fez o mesmo para um presidente de 2 metros de altura. Disse que tem havido presidentes de todas as alturas mas nunca houve nenhum presidente com 2 metros de altura. Portanto, há coisas que inventa porque não faz a mínima ideia. São palavras muito restritas e particulares, não são gerais.
CA: Given that the stakes are so high in this, what do you see actually happening out there right now? What do you sense is happening? Because there's a risk that people feel attacked by you, for example, and that it actually almost decreases the chances of this synthesis that you're talking about happening. Do you see any hopeful signs of this?
CA: Dado que há muito em jogo, o que é que achas que vai acontecer agora? O que é que pressentes que vai acontecer? Porque há o risco de as pessoas se sentirem atacadas por ti, por exemplo, o que quase diminui as hipóteses de que ocorra essa síntese de que estás a falar. Vês alguns sinais de esperança para isso?
GM: You just reminded me of the one line I forgot from my talk. It's so interesting that Sundar, the CEO of Google, just actually also came out for global governance in the CBS "60 Minutes" interview that he did a couple of days ago. I think that the companies themselves want to see some kind of regulation. I think it’s a very complicated dance to get everybody on the same page, but I think there’s actually growing sentiment we need to do something here and that that can drive the kind of global affiliation I'm arguing for.
GM: Há uma coisa que me esqueci de dizer na palestra. É muito interessante que o Sunder, o CEO da Google, acabou de se pronunciar também a favor do controlo global na entrevista “60 Minutes” da CBS que deu há uns dias. Penso que as empresas querem ver um certo tipo de regulamentação. Penso que é uma dança muito complicada para pôr toda a gente na mesma página, mas penso que está a crescer o sentimento de que precisamos de fazer qualquer coisa e que isso pode impulsionar o tipo de afiliação global que defendo.
CA: I mean, do you think the UN or nations can somehow come together and do that or is this potentially a need for some spectacular act of philanthropy to try and fund a global governance structure? How is it going to happen?
CA: Achas que a ONU ou as nações podem juntar-se e fazer isso ou isto é possivelmente uma necessidade para um ato espetacular de filantropia para tentar e financiar uma estrutura de controlo global? Como é que vai acontecer?
GM: I'm open to all models if we can get this done. I think it might take some of both. It might take some philanthropists sponsoring workshops, which we're thinking of running, to try to bring the parties together. Maybe UN will want to be involved, I've had some conversations with them. I think there are a lot of different models and it'll take a lot of conversations.
GM: Aceito qualquer modelo se conseguirmos isso. Penso que pode ter um pouco dos dois. Pode haver uns filantropos a patrocinar <i>workshops</i>, a que estamos a pensar em candidatar-nos, para tentar juntar as partes. Talvez a ONU queira envolver-se, já tive algumas conversas com eles. Há muitos modelos diferentes e serão necessárias muitas conversações.
CA: Gary, thank you so much for your talk.
CA: Gary, muito obrigado.
GA: Obrigado.
GA: Thank you so much.
(Aplausos)