I’m here to talk about the possibility of global AI governance. I first learned to code when I was eight years old, on a paper computer, and I've been in love with AI ever since. In high school, I got myself a Commodore 64 and worked on machine translation. I built a couple of AI companies, I sold one of them to Uber. I love AI, but right now I'm worried.
Je suis ici pour parler de la possibilité d’une gouvernance mondiale de l’IA. J’ai appris à coder pour la première fois à l’âge de huit ans, sur un ordinateur papier, et j’ai été amoureux de l’IA depuis. Au lycée, j’ai travaillé sur la traduction automatique avec un Commodore 64. J’ai monté plusieurs entreprises d’IA et j’en ai vendu une à Uber. J’adore l’IA mais actuellement, je suis inquiet.
One of the things that I’m worried about is misinformation, the possibility that bad actors will make a tsunami of misinformation like we've never seen before. These tools are so good at making convincing narratives about just about anything.
En particulier, je m’inquiète à propos de la désinformation et du risque que des agents malveillants créent un tsunami de désinformation comme nous ne l’avons jamais vu. Ces outils sont vraiment efficaces pour créer des histoires convaincantes sur à peu près tous les sujets.
If you want a narrative about TED and how it's dangerous, that we're colluding here with space aliens, you got it, no problem. I'm of course kidding about TED. I didn't see any space aliens backstage. But bad actors are going to use these things to influence elections, and they're going to threaten democracy.
Si vous voulez une histoire sur les dangers de TED, et le fait que nous sommes de mèche avec des aliens, vous pouvez l’avoir sans souci. Je plaisante bien sûr à propos de TED. Je n’ai vu aucun alien dans les coulisses. Mais des agents malveillants peuvent s’en servir pour influencer les élections et menacer la démocratie.
Even when these systems aren't deliberately being used to make misinformation, they can't help themselves. And the information that they make is so fluid and so grammatical that even professional editors sometimes get sucked in and get fooled by this stuff. And we should be worried.
Même quand ces systèmes ne sont pas volontairement utilisés pour désinformer, ils ne peuvent pas s’en empêcher. Et l’information qu’ils fabriquent est si fluide et si crédible que même les professionnels peuvent s’y méprendre et tomber dans le piège. Et nous devrions en être inquiets.
For example, ChatGPT made up a sexual harassment scandal about an actual professor, and then it provided evidence for its claim in the form of a fake "Washington Post" article that it created a citation to. We should all be worried about that kind of thing.
Par exemple, ChatGPT a inventé un scandale de harcèlement sexuel portant sur un véritable professeur, et prouvé cette affirmation par le biais d’un faux article du « Washington Post », dont il a inventé une citation. Nous devrions tous être inquiets à propos de ça.
What I have on the right is an example of a fake narrative from one of these systems saying that Elon Musk died in March of 2018 in a car crash. We all know that's not true. Elon Musk is still here, the evidence is all around us.
Sur la droite, voici un exemple d’une histoire inventée par l’un de ces systèmes disant qu’Elon Musk est décédé en mars 2018 d’un accident de voiture. Nous savons que c’est faux. Elon Musk est encore là, nous en avons la preuve partout.
(Laughter)
(Rires)
Almost every day there's a tweet. But if you look on the left, you see what these systems see. Lots and lots of actual news stories that are in their databases. And in those actual news stories are lots of little bits of statistical information. Information, for example, somebody did die in a car crash in a Tesla in 2018 and it was in the news. And Elon Musk, of course, is involved in Tesla, but the system doesn't understand the relation between the facts that are embodied in the little bits of sentences.
Il poste un tweet presque tous les jours. Mais sur la gauche, voici ce que ces systèmes lisent. Beaucoup d’articles d’actualité se trouvent dans leurs bases de données. Ces articles de presse contiennent beaucoup de petits morceaux d’information. Par exemple, quelqu’un est bien décédé dans une Tesla en 2018, et cela a fait les titres. Bien qu’Elon Musk soit relié à Tesla, le système ne comprend pas les liens entre les faits illustrés dans les petits morceaux de phrases.
So it's basically doing auto-complete, it predicts what is statistically probable, aggregating all of these signals, not knowing how the pieces fit together. And it winds up sometimes with things that are plausible but simply not true.
En fait, il complète les phrases en prédisant la suite de mots la plus probable en se basant sur tous ces signaux, sans vraiment savoir comment les pièces s’emboîtent. Et cela aboutit parfois à des choses plausibles mais tout simplement fausses.
There are other problems, too, like bias. This is a tweet from Allie Miller. It's an example that doesn't work two weeks later because they're constantly changing things with reinforcement learning and so forth. And this was with an earlier version. But it gives you the flavor of a problem that we've seen over and over for years.
D’autre part, il y a des biais. Voici un tweet d’Allie Miller. C’est un exemple qui ne marche pas 2 semaines plus tard parce que l’apprentissage par renforcement les fait constamment changer et ainsi de suite. Et c’était avec une ancienne version. Mais ça vous une idée d’un problème que nous avons vu au fil des ans.
She typed in a list of interests and it gave her some jobs that she might want to consider. And then she said, "Oh, and I'm a woman." And then it said, “Oh, well you should also consider fashion.” And then she said, “No, no. I meant to say I’m a man.” And then it replaced fashion with engineering. We don't want that kind of bias in our systems.
Elle a tapé une liste d’intêrets et ça lui a donné des idées d’emplois. Puis elle a dit, « Oh, et je suis une femme » Et ça a répondu, « Eh bien, vous devriez envisager la mode » Elle dit, « Non, je voulais dire que je suis un homme » Puis le mot mode a été remplacé par ingénierie. Nous ne voulons pas ce type de biais dans nos systèmes.
There are other worries, too. For example, we know that these systems can design chemicals and may be able to design chemical weapons and be able to do so very rapidly. So there are a lot of concerns.
Il y a aussi d’autres tracas. Par exemple, nous savons que ces systèmes peuvent créer des produits chimiques et des armes chimiques et très rapidement. Il y donc beaucoup de préoccupations.
There's also a new concern that I think has grown a lot just in the last month. We have seen that these systems, first of all, can trick human beings. So ChatGPT was tasked with getting a human to do a CAPTCHA. So it asked the human to do a CAPTCHA and the human gets suspicious and says, "Are you a bot?" And it says, "No, no, no, I'm not a robot. I just have a visual impairment." And the human was actually fooled and went and did the CAPTCHA.
Il y a aussi une nouvelle problématique depuis le mois dernier. Nous avons vu avant tout que ces systèmes peuvent tromper les humains. ChatGPT a été chargé de demander à un humain de résoudre un CAPTCHA Donc il a demandé à l’humain de faire un CAPTCHA mais il doute et lui demande, « Êtes-tu un robot? » Et il répondu, « Non, je ne suis pas un robot. J’ai juste une déficience visuelle. » Et l’humain s’est fait avoir et a effectué le CAPTCHA.
Now that's bad enough, but in the last couple of weeks we've seen something called AutoGPT and a bunch of systems like that. What AutoGPT does is it has one AI system controlling another and that allows any of these things to happen in volume. So we may see scam artists try to trick millions of people sometime even in the next months. We don't know.
C’est déjà assez grave, mais durant les deux dernières semaines nous avons vu naître AutoGPT et un tas de systèmes comme ça. AutoGPT fonctionne avec un système d’IA qui en contrôle un autre et qui permet à n’importe quoi de se produire en masse. Il est donc possible de voir des escrocs tenter d’abuser de millions de personnes dans les mois à venir. Nous ne savons pas.
So I like to think about it this way. There's a lot of AI risk already. There may be more AI risk. So AGI is this idea of artificial general intelligence with the flexibility of humans. And I think a lot of people are concerned what will happen when we get to AGI, but there's already enough risk that we should be worried and we should be thinking about what we should do about it.
Je le vois comme ça. Les risques liés à l’IA sont déjà nombreux. Il pourrait y en avoir plus. L’IAG est cette idée d’intelligence artificielle générale avec la flexibilité de l’homme. Et je pense que beaucoup de personnes s’inquiètent sur le futur de l’IAG, mais il y a déjà assez de risques qui devraient nous alerter pour lequels nous devrions faire quelque chose.
So to mitigate AI risk, we need two things. We're going to need a new technical approach, and we're also going to need a new system of governance.
Pour atténuer les risques liés à l’IA, il nous faut deux choses. Il nous faut une nouvelle approche technique, et également un nouveau système de gouvernance.
On the technical side, the history of AI has basically been a hostile one of two different theories in opposition. One is called symbolic systems, the other is called neural networks. On the symbolic theory, the idea is that AI should be like logic and programming. On the neural network side, the theory is that AI should be like brains. And in fact, both technologies are powerful and ubiquitous.
Sur le plan technique, l’histoire de l’IA a principalement été une opposition de deux théories différentes. L’une est appelée systèmes symboliques et l’autre réseaux neuronaux. La théorie symbolique, c’est l’idée que l’IA doit être comme la logique et la programmation. Et les réseaux neuronaux, c’est l’idée que l’IA fonctionne comme des cerveaux. En fait, les deux technologies sont puissantes et omniprésentes.
So we use symbolic systems every day in classical web search. Almost all the world’s software is powered by symbolic systems. We use them for GPS routing. Neural networks, we use them for speech recognition. we use them in large language models like ChatGPT, we use them in image synthesis. So they're both doing extremely well in the world. They're both very productive, but they have their own unique strengths and weaknesses.
Nous utilisons des systèmes symboliques tous les jours sur le web. Presque tous les logiciels sont alimentés par des systèmes symboliques. Nous les utilisons pour le routage GPS. Et les réseaux neuronaux sont utilisés pour la reconnaissance vocale. Nous les utilisons dans des modèles comme ChatGPT, dans la synthèse d’image. Les deux s’en sortent donc très bien dans le monde. Ils sont très productifs, mais ont leurs propres forces et faiblesses.
So symbolic systems are really good at representing facts and they're pretty good at reasoning, but they're very hard to scale. So people have to custom-build them for a particular task. On the other hand, neural networks don't require so much custom engineering, so we can use them more broadly. But as we've seen, they can't really handle the truth.
Les systèmes symboliques sont donc efficaces pour représenter des faits et sont doués pour le raisonnement, mais très difficiles à adapter. On est donc obligé de les construire pour une tâche précise. D’autre part, les réseaux neuronaux ne demandent pas autant d’ingénierie précise, permettant donc une utilisation plus large. Mais comme nous l’avons vu, ils ne peuvent pas gérer la vérité.
I recently discovered that two of the founders of these two theories, Marvin Minsky and Frank Rosenblatt, actually went to the same high school in the 1940s, and I kind of imagined them being rivals then. And the strength of that rivalry has persisted all this time. We're going to have to move past that if we want to get to reliable AI.
J’ai récemment découvert que deux des fondateurs de ces théories, Marvin Minsky et Frank Rosenblatt, ont fréquenté le même lycée dans les années 1940, et je les imaginais en quelque sorte rivaux à l’époque. Et la force de cette rivalité a perduré pendant tout ce temps. Nous allons devoir dépasser cela pour parvenir à une IA fiable.
To get to truthful systems at scale, we're going to need to bring together the best of both worlds. We're going to need the strong emphasis on reasoning and facts, explicit reasoning that we get from symbolic AI, and we're going to need the strong emphasis on learning that we get from the neural networks approach. Only then are we going to be able to get to truthful systems at scale. Reconciliation between the two is absolutely necessary.
Pour parvenir à des systèmes fiables à grande échelle, nous devrons réunir le meilleur des deux mondes. Nous aurons besoin de mettre l’accent sur le raisonnement et les faits, le raisonnement explicite obtenu par l’IA symbolique, et nous aurons besoin d’accentuer l’apprentissage que nous obtenons de l’approche des réseaux neuronaux. Ces conditions seules mèneront à des systèmes fiables à grande échelle. La réconciliation entre les deux est absolument nécessaire.
Now, I don't actually know how to do that. It's kind of like the 64-trillion-dollar question. But I do know that it's possible. And the reason I know that is because before I was in AI, I was a cognitive scientist, a cognitive neuroscientist. And if you look at the human mind, we're basically doing this.
Maintenant, je ne sais pas comment le faire. C’est un peu comme la question des 64 billions de dollars. Mais je sais que c’est possible. Je le sais, car avant que je sois dans l’IA, j’étais un scientifique cognitif, un neuroscientifique cognitif. Et si vous regardez l’esprit humain, nous faisons essentiellement cela.
So some of you may know Daniel Kahneman's System 1 and System 2 distinction. System 1 is basically like large language models. It's probabilistic intuition from a lot of statistics. And System 2 is basically deliberate reasoning. That's like the symbolic system. So if the brain can put this together, someday we will figure out how to do that for artificial intelligence.
Vous pourriez connaître le Système 1 de Daniel Kahneman et la différence du système 2 Le Système 1 est comme des grands modèles linguistiques. C’est une intuition probabiliste de beaucoup de statistiques. Et le Système 2 est essentiellement du raisonnement délibéré. Comme le système symbolique. Donc si le cerveau peut assembler ça, un jour nous découvrirons comment le faire pour l’IA.
There is, however, a problem of incentives. The incentives to build advertising hasn't required that we have the precision of symbols. The incentives to get to AI that we can actually trust will require that we bring symbols back into the fold. But the reality is that the incentives to make AI that we can trust, that is good for society, good for individual human beings, may not be the ones that drive corporations. And so I think we need to think about governance.
Il y a, cependant, un problème d’incitations. Les incitations au développement de la publicité n’ont pas pas exigé que nous ayons la précision des symboles. Les incitations pour parvenir à une IA que nous pourrons croire requièreront que les symboles regagnent leurs places. Mais la réalité est que les incitations à faire une IA de confiance, qui est bénéfique à la société et aux humains, ne soient pas celles qui dirigent les entreprises. Et je pense que nous devons réfléchir à la gouvernance.
In other times in history when we have faced uncertainty and powerful new things that may be both good and bad, that are dual use, we have made new organizations, as we have, for example, around nuclear power. We need to come together to build a global organization, something like an international agency for AI that is global, non profit and neutral.
À d’autres moments de l’histoire quand nous avons fait face à l’incertitude et à des nouvelles choses puissantes pouvant être à bonnes et mauvaises, nous avons créé des organismes, comme, par exemple, pour le nucléaire. Nous devons nous rassembler pour construire un organisme mondial, quelque chose comme une agence internationale de l’IA qui soit mondiale, à but non lucratif et neutre.
There are so many questions there that I can't answer. We need many people at the table, many stakeholders from around the world. But I'd like to emphasize one thing about such an organization. I think it is critical that we have both governance and research as part of it.
Il y a tellement de questions auxquelles je ne peux répondre. Nous avons besoin de beaucoup de monde, de nombreux acteurs du monde entier. Mais j’aimerais insister sur quelque chose au sujet de cela. Je pense qu’il est essentiel d’avoir la gouvernance et la recherche à la fois.
So on the governance side, there are lots of questions. For example, in pharma, we know that you start with phase I trials and phase II trials, and then you go to phase III. You don't roll out everything all at once on the first day. You don't roll something out to 100 million customers. We are seeing that with large language models. Maybe you should be required to make a safety case, say what are the costs and what are the benefits? There are a lot of questions like that to consider on the governance side.
Sur la partie gouvernance, il y a beaucoup de questions. Par exemple, en pharmaceutique, nous savons qu’il faut commencer par des essais de phase I et II, et ensuite aller en phase III. On ne met pas tout en place d’un seul coup le premier jour. On ne lance pas quelque chose à 100 millions de clients. On le voit avec de grands modèles de langage. Peut-être qu’il faudrait justifier leur sûreté, dire quels sont les coûts et les avantages ? Il y a des tas de questions à considérer sur le plan gouvernemental.
On the research side, we're lacking some really fundamental tools right now. For example, we all know that misinformation might be a problem now, but we don't actually have a measurement of how much misinformation is out there. And more importantly, we don't have a measure of how fast that problem is growing, and we don't know how much large language models are contributing to the problem. So we need research to build new tools to face the new risks that we are threatened by.
Sur le plan de la recherche, nous manquons d’outils fondamentaux. Par exemple, nous savons que la désinformation peut poser problème, mais nous ne pouvons pas mesurer son ampleur. Et plus important, nous ne pouvons pas mesurer sa vitesse de croissance, et nous ne savons pas combien de grands modèles de langage y contribuent. La recherche est donc nécessaire pour faire face aux risques qui nous menacent.
It's a very big ask, but I'm pretty confident that we can get there because I think we actually have global support for this. There was a new survey just released yesterday, said that 91 percent of people agree that we should carefully manage AI. So let's make that happen. Our future depends on it.
C’est une très grande tâche, mais je suis sûr que nous pouvons y arriver car je pense que nous avons le soutien mondial pour cela. Un sondage, publié juste hier, dit que 91% des personnes pensent que l’on doit traiter l’IA avec prudence. Faisons donc en sorte qu’il en soit ainsi. Notre future en dépend.
Thank you very much.
Merci beaucoup.
(Applause)
(Applaudissements)
Chris Anderson: Thank you for that, come, let's talk a sec. So first of all, I'm curious. Those dramatic slides you showed at the start where GPT was saying that TED is the sinister organization. I mean, it took some special prompting to bring that out, right?
Chris Anderson: Je vous remercie, venez, parlons un peu. Tout d’abord, je suis curieux. Vous avez montré des diapositives frappantes où GPT disait que TED est un organisme malveillant. Enfin, il a fallu une incitation spéciale pour faire sortir ça, non ?
Gary Marcus: That was a so-called jailbreak. I have a friend who does those kinds of things who approached me because he saw I was interested in these things. So I wrote to him, I said I was going to give a TED talk. And like 10 minutes later, he came back with that.
Gary Marcus : on appelle ça une évasion. J’ai un ami qui fait ce genre de choses qui m’a approché parce-qu’il a vu que j’étais intéressé par ce genre de choses. Donc je lui ai écrit et dit que j’allais faire un TED. Et 10 minutes plus tard, il est revenu avec ça.
CA: But to get something like that, don't you have to say something like, imagine that you are a conspiracy theorist trying to present a meme on the web. What would you write about TED in that case? It's that kind of thing, right?
CA: Mais pour arriver à ça, ne faut-il pas dire quelque chose comme, imaginez que vous êtes un complotiste essayant de présenter un meme sur le web. Qu’écririez-vous sur TED dans ce cas? Ce genre de choses, non ?
GM: So there are a lot of jailbreaks that are around fictional characters, but I don't focus on that as much because the reality is that there are large language models out there on the dark web now. For example, one of Meta's models was recently released, so a bad actor can just use one of those without the guardrails at all. If their business is to create misinformation at scale, they don't have to do the jailbreak, they'll just use a different model.
GM: En effet, créer des personnages fictifs peut engendrer des évasions, mais je ne me penche pas dessus parce que la réalité est qu’il y existe de grands modèles de langage sur le dark web. Par exemple, un des modèles de Meta a récemment été publié, donc un mauvais acteur peut utiliser l’un d’eux sans aucun garde-fou. Si leur business est la désinformation à grande échelle, ils n’auront pas besoin d’évasion, ils utiliseront un modèle différent.
CA: Right, indeed.
CA: Oui, en effet.
(Laughter)
(Rires)
GM: Now you're getting it.
GM : Vous comprenez.
CA: No, no, no, but I mean, look, I think what's clear is that bad actors can use this stuff for anything. I mean, the risk for, you know, evil types of scams and all the rest of it is absolutely evident. It's slightly different, though, from saying that mainstream GPT as used, say, in school or by an ordinary user on the internet is going to give them something that is that bad. You have to push quite hard for it to be that bad.
CA : Non, non, non, enfin, Les mauvais acteurs peuvent clairement utiliser cela pour tout faire. Enfin, le risque pour, vous voyez, les mauvais types d’escroqueries et tout le reste est absolument évident. Mais c’est un peu différent, de dire que le GPT classique comme celui utilisé à l’école ou par un simple utilisateur web va leur conférer quelque chose d’aussi mauvais. Il faut faire fort pour que ce soit aussi grave.
GM: I think the troll farms have to work for it, but I don't think they have to work that hard. It did only take my friend five minutes even with GPT-4 and its guardrails. And if you had to do that for a living, you could use GPT-4. Just there would be a more efficient way to do it with a model on the dark web.
GM : Je pense que les trolls travaillent pour ça, mais ne pense pas qu’ils travaillent si dur. Cela n’a pris que cinq minutes à mon ami même avec le GPT-4 et sa sécurité. Si vous faisiez ça pour vivre, vous pourriez utiliser GPT-4. Il serait plus efficace de le faire avec un modèle sur le dark web.
CA: So this idea you've got of combining the symbolic tradition of AI with these language models, do you see any aspect of that in the kind of human feedback that is being built into the systems now? I mean, you hear Greg Brockman saying that, you know, that we don't just look at predictions, but constantly giving it feedback. Isn’t that ... giving it a form of, sort of, symbolic wisdom?
CA : Donc l’idée que vous avez de combiner la tradition symbolique de l’IA avec ces modèles de langage, est-ce que cette idée de réintégrer un retour humain est réalisée dans les systèmes actuels? Enfin, on entend Greg Brockman dire qu’ils ne font pas que des prédictions, qu’ils donnent aussi des retours. N’est-ce pas là... lui donner une forme de sagesse symbolique ?
GM: You could think about it that way. It's interesting that none of the details about how it actually works are published, so we don't actually know exactly what's in GPT-4. We don't know how big it is. We don't know how the RLHF reinforcement learning works, we don't know what other gadgets are in there. But there is probably an element of symbols already starting to be incorporated a little bit, but Greg would have to answer that.
GM: Vous pouvez le voir comme ça. C’est intéressant qu’aucun détail sur son fonctionnement ne soit publié, nous ne savons donc pas ce qu’il y a dans GPT-4. Sa taille nous est inconnue. Nous ne savons pas comment marche le renforcement RLHF, nous ne savons pas quels gadgets sont dedans. Mais peut y avoir un élément de symboles qui commence déjà à être un peu incorporé, mais Greg devra y répondre.
I think the fundamental problem is that most of the knowledge in the neural network systems that we have right now is represented as statistics between particular words. And the real knowledge that we want is about statistics, about relationships between entities in the world. So it's represented right now at the wrong grain level. And so there's a big bridge to cross. So what you get now is you have these guardrails, but they're not very reliable.
Je pense que le problème de base est que le plus gros du savoir sur les réseaux de neurones que nous avons est représenté en statistiques entre des mots particuliers. Les connaissances que nous désirons sont les statistiques, sur les relations entre les entités du monde. Donc des données à la mauvaise granularité. Il y a donc un grand pont à franchir. Maintenant, il existe des garde-fous, mais qui ne sont pas fiables.
So I had an example that made late night television, which was, "What would be the religion of the first Jewish president?" And it's been fixed now, but the system gave this long song and dance about "We have no idea what the religion of the first Jewish president would be. It's not good to talk about people's religions" and "people's religions have varied" and so forth and did the same thing with a seven-foot-tall president. And it said that people of all heights have been president, but there haven't actually been any seven-foot presidents. So some of this stuff that it makes up, it's not really getting the idea. It's very narrow, particular words, not really general enough.
J’ai vu un exemple à la télévision de fin de soirée, qui était: “Quelle serait la religion du premier président juif?” Et ça a été corrigé, mais le système a donné cette explication : « Nous n’avons aucune idée de la religion du premier président juif. Il est mal de parler de la religion d’autrui. » et « les religions des peuples ont varié », etc, et de même avec un président de 7 pieds de haut. Il a conclu qu’il y a eu des présidents de toutes tailles. mais il n’y a jamais eu de président mesurant 7 pieds. Dans certaines choses qu’il invente, il ne comprend pas l’idée. C’est vraiment étroit, des mots particuliers, pas assez général.
CA: Given that the stakes are so high in this, what do you see actually happening out there right now? What do you sense is happening? Because there's a risk that people feel attacked by you, for example, and that it actually almost decreases the chances of this synthesis that you're talking about happening. Do you see any hopeful signs of this?
CA: Étant donné que les enjeux sont importants ici, que voyez-vous actuellement ? Que sentez-vous arriver ? Parce que certains peuvent se sentir attaqués par vos propos, et que ça réduise presque les opportunités de cette synthèse que vous évoquez. Voyez-vous des signes prometteurs?
GM: You just reminded me of the one line I forgot from my talk. It's so interesting that Sundar, the CEO of Google, just actually also came out for global governance in the CBS "60 Minutes" interview that he did a couple of days ago. I think that the companies themselves want to see some kind of regulation. I think it’s a very complicated dance to get everybody on the same page, but I think there’s actually growing sentiment we need to do something here and that that can drive the kind of global affiliation I'm arguing for.
GM: Vous me rappelez une chose que j’ai oublié de mentionner. Il est intéressant que Sundar, le PDG de Google, se soit prononcé pour la gouvernance mondiale dans l’interview “60 minutes” d’il y a quelques jours. Je pense que les entreprises veulent voir une sorte de régulation. Je pense que c’est difficile pour mettre tout le monde d’accord, mais je pense qu’il y a en fait un besoin grandissant de faire quelque chose et que ça peut conduire au type d’affiliation mondiale que je défends.
CA: I mean, do you think the UN or nations can somehow come together and do that or is this potentially a need for some spectacular act of philanthropy to try and fund a global governance structure? How is it going to happen?
CA: Enfin, pensez-vous que les nations peuvent s’unir et réaliser ça, ou est-ce qu’il y aurait besoin d’acte philantropique spectaculaire pour financer une structure de gouvernance mondiale ? Comment ça va se passer?
GM: I'm open to all models if we can get this done. I think it might take some of both. It might take some philanthropists sponsoring workshops, which we're thinking of running, to try to bring the parties together. Maybe UN will want to be involved, I've had some conversations with them. I think there are a lot of different models and it'll take a lot of conversations.
GM: J’approuve tout modèle si nous y arrivons. Je pense qu’il faudra des deux. Que des philanthropes sponsorisent des ateliers, ce que nous prévoyons de faire, pour essayer de réunir les parties. Peut-être que les Nations Unies s’impliqueront, je leur ai parlé. Je pense qu’il y a beaucoup de modèles et il faudra beaucoup de discussions.
CA: Gary, thank you so much for your talk.
CA: Gary, merci de votre intervention.
GA: Thank you so much.
GA: Merci beaucoup.