Belle Gibson was a happy young Australian. She lived in Perth, and she loved skateboarding. But in 2009, Belle learned that she had brain cancer and four months to live. Two months of chemo and radiotherapy had no effect. But Belle was determined. She'd been a fighter her whole life. From age six, she had to cook for her brother, who had autism, and her mother, who had multiple sclerosis. Her father was out of the picture. So Belle fought, with exercise, with meditation and by ditching meat for fruit and vegetables. And she made a complete recovery.
Belle Gibson était une jeune et heureuse Australienne. Elle vivait à Perth et adorait faire du skateboard. Mais en 2009, Belle a appris qu'elle avait un cancer du cerveau et quatre mois à vivre. Deux mois de chimio et de radiothérapie n'ont eu aucun effet. Mais Belle était déterminée. Elle avait toujours été une battante. Dès six ans, elle avait dû cuisiner pour son frère atteint d'autisme et sa mère atteinte de sclérose en plaques. Son père ne faisait pas partie du tableau. Alors Belle s'est battue avec du sport, de la méditation et en abandonnant la viande au profit des fruits et légumes. Elle s'est complètement rétablie.
Belle's story went viral. It was tweeted, blogged about, shared and reached millions of people. It showed the benefits of shunning traditional medicine for diet and exercise. In August 2013, Belle launched a healthy eating app, The Whole Pantry, downloaded 200,000 times in the first month.
Son histoire est devenue virale. Elle a été tweetée, bloguée, partagée et a été vue par des millions de gens. Elle témoignait des avantages de fuir la médecine traditionnelle pour un régime alimentaire et du sport. En août 2013, Belle a lancé une appli pour manger sain, The Whole Pantry, téléchargée 200 000 fois au cours du premier mois.
But Belle's story was a lie. Belle never had cancer. People shared her story without ever checking if it was true. This is a classic example of confirmation bias. We accept a story uncritically if it confirms what we'd like to be true. And we reject any story that contradicts it. How often do we see this in the stories that we share and we ignore? In politics, in business, in health advice.
Mais l'histoire de Belle était un mensonge. Belle n'a jamais eu de cancer. Les gens ont partagé son histoire sans en vérifier la véracité. C'est un exemple classique de biais de confirmation. Nous acceptons une histoire sans la contester si elle confirme une chose que nous aimerions être vraie. Et nous rejetons toute histoire qui la contredit. Combien de fois voyons-nous cela dans les histoires que nous partageons et que nous ignorons ? En politique, en affaires, en conseils de santé.
The Oxford Dictionary's word of 2016 was "post-truth." And the recognition that we now live in a post-truth world has led to a much needed emphasis on checking the facts. But the punch line of my talk is that just checking the facts is not enough. Even if Belle's story were true, it would be just as irrelevant. Why?
Le mot de l'Oxford Dictionary pour 2016 était « post-vérité ». La reconnaissance du fait que nous vivons dans un monde post-vérité a mené à une insistance nécessaire sur la vérification des faits. Mais ma phrase clé est que vérifier les faits ne suffit pas. Même si l'histoire de Belle était vraie, elle ne serait toujours pas pertinente. Pourquoi ?
Well, let's look at one of the most fundamental techniques in statistics. It's called Bayesian inference. And the very simple version is this: We care about "does the data support the theory?" Does the data increase our belief that the theory is true? But instead, we end up asking, "Is the data consistent with the theory?" But being consistent with the theory does not mean that the data supports the theory. Why? Because of a crucial but forgotten third term -- the data could also be consistent with rival theories. But due to confirmation bias, we never consider the rival theories, because we're so protective of our own pet theory.
Considérons l'une des techniques statistiques les plus fondamentales : l'inférence bayésienne. Une version très simple est : ce qui nous importe c'est : « Les données appuient-elles la théorie ? » Les données renforcent-elles notre croyance que la théorie est vraie ? Au lieu de cela, nous demandons : « Les données sont-elles cohérentes avec la théorie ? » Mais qu'elles soient cohérentes avec la théorie ne signifie pas que les données appuient la théorie. Pourquoi ? A cause d'un troisième terme crucial mais oublié -- les données pourraient être cohérentes avec des théories rivales. Mais du fait du biais de confirmation, nous ne considérons jamais les théories rivales car nous sommes si protecteurs envers notre théorie préférée.
Now, let's look at this for Belle's story. Well, we care about: Does Belle's story support the theory that diet cures cancer? But instead, we end up asking, "Is Belle's story consistent with diet curing cancer?" And the answer is yes. If diet did cure cancer, we'd see stories like Belle's. But even if diet did not cure cancer, we'd still see stories like Belle's. A single story in which a patient apparently self-cured just due to being misdiagnosed in the first place. Just like, even if smoking was bad for your health, you'd still see one smoker who lived until 100.
Considérons cela pour l'histoire de Belle. Ce qui nous importe : l'histoire de Belle appuie-t-elle la théorie selon laquelle l'alimentation soigne le cancer ? Au lieu de cela, nous demandons : « L'histoire de Belle est-elle cohérente avec le fait que l'alimentation soigne le cancer ? » La réponse est oui. Si l'alimentation soignait le cancer, nous verrions des histoires comme celle de Belle. Mais même si l'alimentation ne soignait pas le cancer, nous verrions quand même des histoires comme celle de Belle. Une seule histoire durant laquelle un patient se soigne apparemment seul du fait d'un mauvais diagnostic. Tel que, même si fumer était mauvais pour votre santé, vous verriez quand même un fumeur vivre jusqu'à ses 100 ans.
(Laughter)
(Rires)
Just like, even if education was good for your income, you'd still see one multimillionaire who didn't go to university.
ou que même si les études étaient bénéfiques pour vos revenus, vous verriez un multimillionnaire qui n'est pas allé à l'université.
(Laughter)
(Rires)
So the biggest problem with Belle's story is not that it was false. It's that it's only one story. There might be thousands of other stories where diet alone failed, but we never hear about them.
Le plus gros problème avec l'histoire de Belle n'est pas qu'elle était fausse. Mais que ce n'est qu'une seule histoire. Il y a peut-être des milliers d'histoires où un régime seul a échoué mais nous ne les entendons jamais.
We share the outlier cases because they are new, and therefore they are news. We never share the ordinary cases. They're too ordinary, they're what normally happens. And that's the true 99 percent that we ignore. Just like in society, you can't just listen to the one percent, the outliers, and ignore the 99 percent, the ordinary.
Nous partageons les cas particuliers car ils sont nouveaux et font donc la une. Nous ne partageons jamais les cas ordinaires. Ils sont trop ordinaires, c'est ce qui arrive normalement. Ce sont les 99% vrais que nous ignorons. Tout comme dans la société, vous ne pouvez pas écouter seulement 1% les cas particuliers, et ignorer les 99%, les ordinaires.
Because that's the second example of confirmation bias. We accept a fact as data. The biggest problem is not that we live in a post-truth world; it's that we live in a post-data world. We prefer a single story to tons of data. Now, stories are powerful, they're vivid, they bring it to life. They tell you to start every talk with a story. I did. But a single story is meaningless and misleading unless it's backed up by large-scale data. But even if we had large-scale data, that might still not be enough. Because it could still be consistent with rival theories. Let me explain.
Car c'est le deuxième exemple de biais de confirmation. Nous acceptons un fait en tant que données. Le plus gros problème n'est pas que nous vivons dans un monde post-vérité mais que nous vivons dans un monde post-données. Nous préférons une seule histoire à des tonnes de données. Les histoires sont percutantes, frappantes, elles leur donnent vie. On commence chaque intervention avec une histoire. Je l'ai fait. Mais une seule histoire est dénuée de sens et trompeuse si elle n'est pas appuyée par des données à grande échelle. Même si nous avions des données à grande échelle, cela pourrait ne pas suffire. Car cela serait encore cohérent avec des théories rivales. Laissez-moi expliquer.
A classic study by psychologist Peter Wason gives you a set of three numbers and asks you to think of the rule that generated them. So if you're given two, four, six, what's the rule? Well, most people would think, it's successive even numbers. How would you test it? Well, you'd propose other sets of successive even numbers: 4, 6, 8 or 12, 14, 16. And Peter would say these sets also work. But knowing that these sets also work, knowing that perhaps hundreds of sets of successive even numbers also work, tells you nothing. Because this is still consistent with rival theories. Perhaps the rule is any three even numbers. Or any three increasing numbers.
Une étude classique du psychologue Peter Wason vous donne une série de trois nombres et vous demande de réfléchir à la règle qui les a générés. Si l'on vous donne 2, 4, 6, quelle est la règle ? La plupart des gens penseraient que ce sont des nombres pairs successifs. Comment testeriez-vous cela ? Vous proposeriez d'autres séries de nombres pairs successifs : 4, 6, 8 ou 12, 14, 16. Peter dirait que ces séries fonctionnent également. Mais savoir que ces séries fonctionnent, savoir que des centaines de séries de nombres pairs successifs fonctionnent ne vous dit rien. Peut-être que cela est cohérent avec des théories rivales. La règle peut être trois nombres pairs. Ou trois nombres croissants.
And that's the third example of confirmation bias: accepting data as evidence, even if it's consistent with rival theories. Data is just a collection of facts. Evidence is data that supports one theory and rules out others. So the best way to support your theory is actually to try to disprove it, to play devil's advocate. So test something, like 4, 12, 26. If you got a yes to that, that would disprove your theory of successive even numbers. Yet this test is powerful, because if you got a no, it would rule out "any three even numbers" and "any three increasing numbers." It would rule out the rival theories, but not rule out yours. But most people are too afraid of testing the 4, 12, 26, because they don't want to get a yes and prove their pet theory to be wrong. Confirmation bias is not only about failing to search for new data, but it's also about misinterpreting data once you receive it.
C'est le troisième exemple de biais de confirmation : accepter les données en tant que preuve, même si elles sont cohérentes avec des théories rivales. Les données ne sont qu'une collection de faits. Une preuve, ce sont des données appuyant une théorie et écartant les autres. La meilleure façon d'appuyer votre théorie est d'essayer de la réfuter, de se faire l'avocat du diable. Testez quelque chose comme 4, 12, 26. Si vous obtenez un oui, cela réfuterait votre théorie de trois nombres pairs successifs. Pourtant, ce test est efficace car si vous obtenez un non, cela réfute « trois nombres pairs » et « trois nombres croissants ». Cela réfuterait les théories rivales, mais pas votre théorie. Mais la plupart des gens ont trop peur de tester 4, 12, 26 car ils ne veulent pas obtenir de oui et prouver que leur théorie préférée est fausse. Le biais de confirmation, ce n'est pas que ne pas chercher de nouvelles données mais aussi mal interpréter les données quand vous les recevez.
And this applies outside the lab to important, real-world problems. Indeed, Thomas Edison famously said, "I have not failed, I have found 10,000 ways that won't work." Finding out that you're wrong is the only way to find out what's right.
Cela s'applique en dehors du labo à des problèmes importants et réels. En effet, Thomas Edison l'a dit : « Je n'ai pas échoué, j'ai trouvé 10 000 solutions qui ne fonctionnent pas. » Découvrir que vous avez tort est la seule façon de découvrir ce qui est correct.
Say you're a university admissions director and your theory is that only students with good grades from rich families do well. So you only let in such students. And they do well. But that's also consistent with the rival theory. Perhaps all students with good grades do well, rich or poor. But you never test that theory because you never let in poor students because you don't want to be proven wrong.
Disons vous êtes directeur des admissions d'une université et votre théorie est que seuls les bons étudiants issus de familles riches réussissent. Vous n'admettez que de tels étudiants. Et ils réussissent. Mais cela est aussi cohérent avec la théorie rivale. Peut-être que tous les bons étudiants réussissent, riches ou pauvres. Mais vous ne testez jamais cette théorie car vous n'admettez aucun étudiant pauvre car vous ne voulez pas que votre théorie soit démentie.
So, what have we learned? A story is not fact, because it may not be true. A fact is not data, it may not be representative if it's only one data point. And data is not evidence -- it may not be supportive if it's consistent with rival theories. So, what do you do? When you're at the inflection points of life, deciding on a strategy for your business, a parenting technique for your child or a regimen for your health, how do you ensure that you don't have a story but you have evidence?
Qu'avons-nous appris ? Une histoire n'est pas un fait car elle pourrait ne pas être vraie. Un fait ne sont pas des données, cela pourrait ne pas être représentatif si ce n'est qu'une seule donnée. Et les données ne sont pas une preuve -- cela pourrait ne pas appuyer votre théorie si c'est cohérent avec des théories rivales. Que faire ? A un point d'inflexion dans votre vie : décider d'une stratégie pour votre entreprise, d'une technique parentale pour votre enfant ou d'un régime pour votre santé, comment vous assurer que vous n'avez pas une histoire, mais une preuve ?
Let me give you three tips. The first is to actively seek other viewpoints. Read and listen to people you flagrantly disagree with. Ninety percent of what they say may be wrong, in your view. But what if 10 percent is right? As Aristotle said, "The mark of an educated man is the ability to entertain a thought without necessarily accepting it." Surround yourself with people who challenge you, and create a culture that actively encourages dissent. Some banks suffered from groupthink, where staff were too afraid to challenge management's lending decisions, contributing to the financial crisis. In a meeting, appoint someone to be devil's advocate against your pet idea. And don't just hear another viewpoint -- listen to it, as well.
Laissez-moi vous donner trois conseils. Le premier est de chercher activement d'autres points de vue. Lisez et écoutez des gens avec lesquels vous êtes ouvertement en désaccord. 90% de ce qu'ils disent pourrait être faux, d'après vous. Mais et si 10% était vrai ? Comme l'a dit Aristote : « C'est la marque d'un esprit cultivé qu'être capable de nourrir une pensée sans la cautionner pour autant. » Entourez-vous de personnes contestant votre opinion et créez une culture qui encourage activement le désaccord. Certaines banques souffrent de la pensée de groupe, les employés ont trop peur de questionner les décisions de prêt des dirigeants, contribuant à la crise financière. Dans une réunion, nommez quelqu'un avocat du diable allant à l'encontre de votre idée. Ne faites pas qu'entendre un autre point de vue, écoutez-le également.
As psychologist Stephen Covey said, "Listen with the intent to understand, not the intent to reply." A dissenting viewpoint is something to learn from not to argue against. Which takes us to the other forgotten terms in Bayesian inference. Because data allows you to learn, but learning is only relative to a starting point. If you started with complete certainty that your pet theory must be true, then your view won't change -- regardless of what data you see.
Comme l'a dit le psychologue Stephen Covey : « Écoutez avec l'intention de comprendre, pas l'intention de répondre. » Il faut apprendre d'un point de vue divergent, pas offrir des arguments contre. Ce qui nous mène aux autres termes oubliés de l'inférence bayésienne. Car les données vous permettent d'apprendre, mais l'apprentissage est relatif au point de départ. Si vous démarriez avec la certitude que votre théorie devait être vraie, votre point de vue ne changera pas -- quelles que soient les données que vous voyez.
Only if you are truly open to the possibility of being wrong can you ever learn. As Leo Tolstoy wrote, "The most difficult subjects can be explained to the most slow-witted man if he has not formed any idea of them already. But the simplest thing cannot be made clear to the most intelligent man if he is firmly persuaded that he knows already." Tip number two is "listen to experts." Now, that's perhaps the most unpopular advice that I could give you.
Seulement si vous êtes vraiment ouvert à la possibilité d'avoir tort pouvez-vous jamais apprendre. Comme Léon Tolstoï l'a écrit : « Les sujets les plus difficiles peuvent être expliqués à l'esprit le plus lent s'il n'en a pas déjà formé une idée ; mais la chose la plus simple ne peut être expliquée à l'homme le plus intelligent s'il est fermement persuadé qu'il sait déjà. » Deuxième conseil : écoutez les experts. C'est peut-être le conseil le plus impopulaire
(Laughter)
que je puisse vous donner.
(Rires)
British politician Michael Gove famously said that people in this country have had enough of experts. A recent poll showed that more people would trust their hairdresser --
L'homme politique britannique Michael Gove a dit que les gens dans ce pays en avaient marre des experts. Un sondage récent a montré
(Laughter)
que plus de gens feraient confiance à leur coiffeur --
(Rires)
or the man on the street than they would leaders of businesses, the health service and even charities. So we respect a teeth-whitening formula discovered by a mom, or we listen to an actress's view on vaccination. We like people who tell it like it is, who go with their gut, and we call them authentic. But gut feel can only get you so far. Gut feel would tell you never to give water to a baby with diarrhea, because it would just flow out the other end. Expertise tells you otherwise. You'd never trust your surgery to the man on the street. You'd want an expert who spent years doing surgery and knows the best techniques. But that should apply to every major decision. Politics, business, health advice require expertise, just like surgery.
ou à un homme dans la rue qu'aux dirigeants de leurs entreprises, services de santé et organismes de bienfaisance. Nous respectons une formule de blanchiment des dents découverte par une mère ou nous écoutons l'opinion d'une actrice sur la vaccination. Nous aimons les gens qui disent ce qui est, qui suivent leur instinct et les disons authentiques. Mais l'instinct a ses limites. L'instinct ne vous dirait jamais de donner de l'eau à un bébé atteint de diarrhée car cela sortirait de l'autre côté. Mais l'expertise vous dit le contraire. Vous ne laisseriez pas un homme dans la rue vous opérer. Vous voudriez d'un expert ayant passé des années à opérer et connaissant les meilleures techniques. Cela devrait s'appliquer à toute décision majeure. La politique, les affaires, les conseils de santé nécessitent de l'expertise, comme la chirurgie.
So then, why are experts so mistrusted? Well, one reason is they're seen as out of touch. A millionaire CEO couldn't possibly speak for the man on the street. But true expertise is found on evidence. And evidence stands up for the man on the street and against the elites. Because evidence forces you to prove it. Evidence prevents the elites from imposing their own view without proof.
Pourquoi se méfie-t-on tant des experts ? Une des raisons est qu'ils semblent coupés de la réalité. Un PDG millionnaire ne peut pas parler au nom d'un homme ordinaire. Mais la vraie expertise se trouve dans les preuves. Les preuves soutiennent l'homme ordinaire contre les élites. Les preuves vous forcent à prouver les choses. Les preuves empêchent les élites d'imposer leur point de vue sans preuves.
A second reason why experts are not trusted is that different experts say different things. For every expert who claimed that leaving the EU would be bad for Britain, another expert claimed it would be good. Half of these so-called experts will be wrong. And I have to admit that most papers written by experts are wrong. Or at best, make claims that the evidence doesn't actually support. So we can't just take an expert's word for it.
Autre raison de la méfiance envers les experts : différents experts disent des choses différentes. Pour chaque expert affirmant que quitter l'UE serait mauvais pour la Grande-Bretagne, un autre expert affirme que cela serait positif. La moitié de ces soi-disant experts aura tort. Il faut admettre que la plupart des publications écrites par des experts sont incorrectes. Ou au mieux, affirment des choses que les preuves n'appuient pas. Nous ne pouvons pas croire un expert.
In November 2016, a study on executive pay hit national headlines. Even though none of the newspapers who covered the study had even seen the study. It wasn't even out yet. They just took the author's word for it, just like with Belle. Nor does it mean that we can just handpick any study that happens to support our viewpoint -- that would, again, be confirmation bias. Nor does it mean that if seven studies show A and three show B, that A must be true. What matters is the quality, and not the quantity of expertise.
En novembre 2016, une étude sur la rémunération des cadres a fait la une à l'échelle nationale. Même si aucun des journaux ayant couvert l'étude n'avait jamais vu l'étude. Elle n'était pas encore publiée. Ils ont cru en son auteur, comme avec Belle. Nous ne pouvons pas nous plus choisir les études qui appuient notre point de vue -- cela relèverait du biais de confirmation. Cela ne signifie pas que si sept études montrent A et trois études montrent B, alors A doit être vrai. Ce qui compte, c'est la qualité et non la quantité d'expertise.
So we should do two things. First, we should critically examine the credentials of the authors. Just like you'd critically examine the credentials of a potential surgeon. Are they truly experts in the matter, or do they have a vested interest? Second, we should pay particular attention to papers published in the top academic journals. Now, academics are often accused of being detached from the real world. But this detachment gives you years to spend on a study. To really nail down a result, to rule out those rival theories, and to distinguish correlation from causation. And academic journals involve peer review, where a paper is rigorously scrutinized
Nous devrions faire deux choses. Un : nous devrions examiner de façon critique les qualifications des auteurs. Comme vous examineriez de façon critique les qualifications d'un chirurgien potentiel. Est-il vraiment un expert sur la question ou a-t-il un intérêt personnel ? Deux : nous devrions prêter une attention particulière aux publications publiées dans les grands journaux académiques. On accuse souvent les chercheurs d'être coupés du monde réel. Mais ce détachement vous donne des années à passer sur une étude. Pour obtenir des résultats, pour écarter ces théories rivales et pour distinguer la corrélation et la causalité. Les journaux académiques nécessitent un examen des pairs où une publication est rigoureusement examinée
(Laughter)
(Rires)
by the world's leading minds. The better the journal, the higher the standard. The most elite journals reject 95 percent of papers.
par les plus grands esprits au monde. Meilleur est le journal, plus les standards sont élevés. Les journaux les plus élitistes rejettent 95% des publications.
Now, academic evidence is not everything. Real-world experience is critical, also. And peer review is not perfect, mistakes are made. But it's better to go with something checked than something unchecked. If we latch onto a study because we like the findings, without considering who it's by or whether it's even been vetted, there is a massive chance that that study is misleading. And those of us who claim to be experts should recognize the limitations of our analysis. Very rarely is it possible to prove or predict something with certainty, yet it's so tempting to make a sweeping, unqualified statement. It's easier to turn into a headline or to be tweeted in 140 characters. But even evidence may not be proof. It may not be universal, it may not apply in every setting. So don't say, "Red wine causes longer life," when the evidence is only that red wine is correlated with longer life. And only then in people who exercise as well.
Une preuve académique n'est pas tout. Une expérience dans le monde réel est également cruciale. Un examen par les pairs n'est pas parfait, des erreurs sont commises. Mais quelque chose de vérifié est mieux que quelque chose qui ne l'est pas. Si l'on se fixe sur une étude parce que l'on aime ses conclusions, sans considérer de qui elle est ou si elle a été vérifiée, il y a un énorme risque que cette étude soit trompeuse. Ceux d'entre nous qui affirment être des experts devraient reconnaître les limites de notre analyse. Il est très rarement possible de prouver ou de prévoir une chose avec certitude, pourtant il est si tentant de faire une déclaration radicale, sans réserve. C'est plus facile d'en faire un gros titre ou de la tweeter en 140 caractères. Mais même des preuves peuvent ne rien prouver. Elles peuvent ne pas être universelles, ne pas s'appliquer dans tous les contextes. Ne dites pas : « Le vin rouge fait vivre plus longtemps » quand le vin rouge est seulement corrélé à une vie plus longue. Et seulement chez des gens qui font également du sport.
Tip number three is "pause before sharing anything." The Hippocratic oath says, "First, do no harm." What we share is potentially contagious, so be very careful about what we spread. Our goal should not be to get likes or retweets. Otherwise, we only share the consensus; we don't challenge anyone's thinking. Otherwise, we only share what sounds good, regardless of whether it's evidence.
Troisième conseil : marquez une pause avant de partager quoi que ce soit. Le serment d'Hippocrate dit : « En premier lieu, ne pas nuire ». Ce que nous partageons est potentiellement contagieux, soyons très prudents quant à ce que nous partageons. Notre objectif ne devrait pas être les j'aime ou les retweets. Autrement, nous ne partageons que le consensus, nous ne remettons en question la pensée de personne. Autrement, nous ne partageons que ce qui sonne bien, peu importe qu'il y ait des preuves ou non.
Instead, we should ask the following: If it's a story, is it true? If it's true, is it backed up by large-scale evidence? If it is, who is it by, what are their credentials? Is it published, how rigorous is the journal? And ask yourself the million-dollar question: If the same study was written by the same authors with the same credentials but found the opposite results, would you still be willing to believe it and to share it?
Nous devrions plutôt nous demander ceci : si c'est une histoire, est-elle vraie ? Si oui, est-elle appuyée par des preuves à grande échelle ? Si oui, de qui est-elle, quelles sont ses qualifications ? Est-elle publiée, le journal est-il rigoureux ? Posez-vous la question à un million de dollars : si la même étude était écrite par les mêmes auteurs, avec les mêmes qualifications, mais parvenait à des résultats contraires, seriez-vous encore prêt à la croire et à la partager ?
Treating any problem -- a nation's economic problem or an individual's health problem, is difficult. So we must ensure that we have the very best evidence to guide us. Only if it's true can it be fact. Only if it's representative can it be data. Only if it's supportive can it be evidence. And only with evidence can we move from a post-truth world to a pro-truth world.
Traiter tout problème - le problème économique d'une nation ou un problème de santé personnel - est difficile. Nous devons nous assurer que nous avons les meilleures preuves pour nous guider. Ce ne peut être un fait que si cela est vrai. Ce ne peut être une donnée que si cela est représentatif. Ce ne peut être une preuve que si cela appuie quelque chose. Et il n'y a qu'avec des preuves que nous pouvons passer d'un monde post-vérité à un monde pro-vérité.
Thank you very much.
Merci beaucoup.
(Applause)
(Applaudissements)