Belle Gibson was a happy young Australian. She lived in Perth, and she loved skateboarding. But in 2009, Belle learned that she had brain cancer and four months to live. Two months of chemo and radiotherapy had no effect. But Belle was determined. She'd been a fighter her whole life. From age six, she had to cook for her brother, who had autism, and her mother, who had multiple sclerosis. Her father was out of the picture. So Belle fought, with exercise, with meditation and by ditching meat for fruit and vegetables. And she made a complete recovery.
Белл Гібсон була щасливою юною австралійкою. Вона мешкала в Перті, і захоплювалась скейтбордингом. Але у 2009 виявилось, що в неї рак мозку, і жити їй залишалось 4 місяці. Два місяці хіміотерапії і рентгенотерапії не дали ефекту. Одначе Белл не здавалась. У неї змалку була бійцівська натура. З шестирічного віку їй доводилось готувати їжу для брата з аутизмом і матері, в якої був розсіяний склероз. Її батько покинув сім'ю. Отож Белл боролась за допомогою вправ, медитації, а також за допомогою вегетаріанської дієти. І зрештою вона цілком одужала.
Belle's story went viral. It was tweeted, blogged about, shared and reached millions of people. It showed the benefits of shunning traditional medicine for diet and exercise. In August 2013, Belle launched a healthy eating app, The Whole Pantry, downloaded 200,000 times in the first month.
Історія Белл стала сенсацією. Її поширювали у твітах і блогах, з нею ознайомились мільйони людей. Ця історія свідчила на користь відмови від традиційного лікування і заміни його дієтами та вправами. У серпні 2013-го Белл запустила додаток на тему здорової їжі, під назвою "Whole Pantry", і впродовж першого місяця цей додаток завантажили 200 тисяч разів.
But Belle's story was a lie. Belle never had cancer. People shared her story without ever checking if it was true. This is a classic example of confirmation bias. We accept a story uncritically if it confirms what we'd like to be true. And we reject any story that contradicts it. How often do we see this in the stories that we share and we ignore? In politics, in business, in health advice.
Але історія Белл виявилась брехнею. У Белл ніколи не було раку. Люди поширювали історію Белл, не перевіряючи, чи вона правдива. Це класичний приклад підтверджувального упередження. Ми некритично приймаємо історії, які підтверджують те, в що ми віримо, і відкидаємо ті, що суперечать нашим переконанням. Наскільки часто це трапляється з історіями, які ми поширюємо чи ігноруємо в політиці, в бізнесі, в порадах щодо здоров'я?
The Oxford Dictionary's word of 2016 was "post-truth." And the recognition that we now live in a post-truth world has led to a much needed emphasis on checking the facts. But the punch line of my talk is that just checking the facts is not enough. Even if Belle's story were true, it would be just as irrelevant. Why?
За версією Оксфордського словника, словом 2016 року стало "постправда". І усвідомлення, що ми зараз живемо у світі постправди, означає дедалі нагальнішу необхідність перевіряти факти. Але я хотів би підкреслити, що самої перевірки фактів ще недостатньо. Навіть, якби історія Белл була правдивою, вона могла б просто бути нерелевантною. Чому?
Well, let's look at one of the most fundamental techniques in statistics. It's called Bayesian inference. And the very simple version is this: We care about "does the data support the theory?" Does the data increase our belief that the theory is true? But instead, we end up asking, "Is the data consistent with the theory?" But being consistent with the theory does not mean that the data supports the theory. Why? Because of a crucial but forgotten third term -- the data could also be consistent with rival theories. But due to confirmation bias, we never consider the rival theories, because we're so protective of our own pet theory.
Розгляньмо один з найфундаментальніших методів статистики. Він називається байєсівський вивід. Стисло і просто його суть можна пояснити так: Якщо нас цікавить, чи підтримують дані певну теорію, то слід зважити, чи збільшують вони підстави для висновку, що теорія істинна. Та натомість ми часто запитуємо: чи сумісні дані з теорією? Однак, якщо дані сумісні з теорією, це ще не означає, що вони її підтримують. Чому? Тому що є ще одна вирішальна обставина, про яку часто забувають – а саме, дані можуть також бути сумісними з іншими, конкуруючими теоріями. Але через підтверджувальне упередження ми не розглядаємо конкуруючі теорії, бо ми прихильно ставимось до нашої улюбленої теорії.
Now, let's look at this for Belle's story. Well, we care about: Does Belle's story support the theory that diet cures cancer? But instead, we end up asking, "Is Belle's story consistent with diet curing cancer?" And the answer is yes. If diet did cure cancer, we'd see stories like Belle's. But even if diet did not cure cancer, we'd still see stories like Belle's. A single story in which a patient apparently self-cured just due to being misdiagnosed in the first place. Just like, even if smoking was bad for your health, you'd still see one smoker who lived until 100.
Розгляньмо це на прикладі історії з Белл. Нам слід запитати: чи підтримує випадок із Белл теорію про те, що рак лікується дієтою? Але натомість ми запитуємо: чи сумісний випадок Белл із тим, що рак лікується дієтою? Звісно, відповідь – так. Якби дієта лікувала від раку, то існували б історії, схожі на випадок Белл. Але навіть, якби дієта не лікувала від раку, все одно існували б історії, схожі на випадок із Белл. За окремими історіями успішного самолікування може стояти просто хибний початковий діагноз. Так само, хоча паління шкідливе для здоров'я, але ви зможете навести приклади курців, які дожили до 100 років.
(Laughter)
(Сміх)
Just like, even if education was good for your income, you'd still see one multimillionaire who didn't go to university.
Або ще, хоча вища освіта сприяє збільшенню доходу, ви можете згадати мультимільйонерів, які не вчилися в університеті.
(Laughter)
(Сміх)
So the biggest problem with Belle's story is not that it was false. It's that it's only one story. There might be thousands of other stories where diet alone failed, but we never hear about them.
Отож, найбільша проблема в історії Белл не те, що ця історія неправдива, а те, що це лише один випадок. Можуть бути тисячі інших випадків, у яких дієта не допомогла, але ми про ці випадки просто не чули.
We share the outlier cases because they are new, and therefore they are news. We never share the ordinary cases. They're too ordinary, they're what normally happens. And that's the true 99 percent that we ignore. Just like in society, you can't just listen to the one percent, the outliers, and ignore the 99 percent, the ordinary.
Ми поширюємо аномальні приклади, бо вони незвичні, і вони потрапляють в новини. Але ми не поширюємо типові приклади, адже в них немає нічого незвичного, неординарного. І зрештою, ми ігноруємо 99% випадків. При соціальній взаємодії ми ж не можемо прислухатись лише до думки 1% незвичайних та ігнорувати 99% звичайних людей.
Because that's the second example of confirmation bias. We accept a fact as data. The biggest problem is not that we live in a post-truth world; it's that we live in a post-data world. We prefer a single story to tons of data. Now, stories are powerful, they're vivid, they bring it to life. They tell you to start every talk with a story. I did. But a single story is meaningless and misleading unless it's backed up by large-scale data. But even if we had large-scale data, that might still not be enough. Because it could still be consistent with rival theories. Let me explain.
Бо це було б ще одним прикладом підтверджувального упередження. Ми приймаємо факт як дані. Найбільша проблема не те, що ми живемо у світі постправди, а те, що ми живемо у світі постданих. Один випадок виявляється переконливішим за масиви даних. Звісно, окремі історії зачіпають своєю яскравістю і життєвістю. Нам радять починати виступ із якоїсь історії. Я так і зробив. Та окремий випадок не має значення, він навіть може вводити в оману, якщо не підкріплений великомасштабними даними. Але навіть, якщо у нас є великий масив даних, цього все ще може бути недостатньо, якщо ці дані сумісні також із конкуруючими теоріями. Поясню детальніше.
A classic study by psychologist Peter Wason gives you a set of three numbers and asks you to think of the rule that generated them. So if you're given two, four, six, what's the rule? Well, most people would think, it's successive even numbers. How would you test it? Well, you'd propose other sets of successive even numbers: 4, 6, 8 or 12, 14, 16. And Peter would say these sets also work. But knowing that these sets also work, knowing that perhaps hundreds of sets of successive even numbers also work, tells you nothing. Because this is still consistent with rival theories. Perhaps the rule is any three even numbers. Or any three increasing numbers.
У класичному дослідженні, здійсненому психологом Пітером Восоном, учасникам наводять три числа, і пропонують визначити, за яким правилом утворена послідовність. Отож, вам дано три числа: 2,4,6 Розгадайте правило. Більшість людей припустили б, що це послідовність парних чисел. А як перевірити цей здогад? Можна запропонувати інші набори послідовних парних чисел: 4, 6, 8 чи 12, 14, 16. І Пітер сказав би, що ці приклади теж підходять. Але якщо ці приклади підходять, якщо навіть сотні інших наборів послідовних парних чисел теж підходять, це ще нічого не значить, адже всі ці набори можуть бути сумісними і з конкуруючими версіями. Підходить і правило про послідовність будь-яких трьох парних чисел, і про будь-які три числа в порядку зростання.
And that's the third example of confirmation bias: accepting data as evidence, even if it's consistent with rival theories. Data is just a collection of facts. Evidence is data that supports one theory and rules out others. So the best way to support your theory is actually to try to disprove it, to play devil's advocate. So test something, like 4, 12, 26. If you got a yes to that, that would disprove your theory of successive even numbers. Yet this test is powerful, because if you got a no, it would rule out "any three even numbers" and "any three increasing numbers." It would rule out the rival theories, but not rule out yours. But most people are too afraid of testing the 4, 12, 26, because they don't want to get a yes and prove their pet theory to be wrong. Confirmation bias is not only about failing to search for new data, but it's also about misinterpreting data once you receive it.
І це третій приклад підтверджувального упередження: дані розглядаються як докази на користь теорії навіть тоді, якщо ці дані сумісні і з конкуруючими теоріями. Дані – це просто набір фактів. А доказ – це дані, які підтримують одну теорію і водночас виключають інші. Тож найкращий спосіб перевірити свою теорію – це спробувати її спростувати, зіграти роль адвоката диявола. Спробуйте перевірити, наприклад, таку послідовність: 4, 12, 26. Якщо вона підходить, то це спростовує ваше припущення про послідовність парних чисел. Це гарний тест, бо якщо послідовність 4, 12, 26 не підходить, це спростовує обидва припущення: про послідовність будь-яких парних чисел і будь-які три числа у порядку зростання. Тож це спростувало б конкуруючі припущення, але не ваше. Однак більшість людей не наважуються перевірити послідовність 4, 12, 26, бо вони не хотіли б виявити, що їхнє улюблене припущення хибне. Підтверджувальне упередження веде не лише до відмови від пошуку нових даних, а й до хибної інтерпретації наявних даних, і це проявляється
And this applies outside the lab to important, real-world problems. Indeed, Thomas Edison famously said, "I have not failed, I have found 10,000 ways that won't work." Finding out that you're wrong is the only way to find out what's right.
також за межами лабораторії, у підході до важливих життєвих проблем. Згадаймо відомий вислів Томаса Едісона: "Я не зазнав невдачі, я знайшов десять тисяч способів, які не працюють". Виявляти свої помилки – це необхідний крок на шляху до істини.
Say you're a university admissions director and your theory is that only students with good grades from rich families do well. So you only let in such students. And they do well. But that's also consistent with the rival theory. Perhaps all students with good grades do well, rich or poor. But you never test that theory because you never let in poor students because you don't want to be proven wrong.
Наприклад, ви очолюєте університетську приймальну комісію, і вважаєте, що добре вчитись зможуть лише абітурієнти досить заможні і з високими балами. Тож ви приймаєте лише таких абітурієнтів. І вони добре вчаться. Але це також сумісне і з конкуруючими теоріями. Може, всі абітурієнти з високими балами добре вчитимуться, незалежно від доходу. Але ви ніколи не перевіряєте цю версію, бо не приймаєте незаможних, оскільки не хотіли б виявити свою неправоту.
So, what have we learned? A story is not fact, because it may not be true. A fact is not data, it may not be representative if it's only one data point. And data is not evidence -- it may not be supportive if it's consistent with rival theories. So, what do you do? When you're at the inflection points of life, deciding on a strategy for your business, a parenting technique for your child or a regimen for your health, how do you ensure that you don't have a story but you have evidence?
Тож який звідси для нас урок? Чиясь історія – це ще не факт, бо вона може бути вигадкою. А факт – це ще не дані, бо факт може бути нерепрезентативним, це лише один фрагмент із масиву даних. А дані – це ще не доказ, адже дані не обґрунтовують теорію, якщо вони сумісні з конкуруючими теоріями. То що ж нам слід робити? Якщо нам слід прийняти якесь важливе рішення, наприклад, вибрати стратегію для свого бізнесу, методику виховання своїх дітей, чи режим дня, корисний для здоров'я, як впевнитись, що ми спираємось не на якусь окрему історію, а на надійні докази?
Let me give you three tips. The first is to actively seek other viewpoints. Read and listen to people you flagrantly disagree with. Ninety percent of what they say may be wrong, in your view. But what if 10 percent is right? As Aristotle said, "The mark of an educated man is the ability to entertain a thought without necessarily accepting it." Surround yourself with people who challenge you, and create a culture that actively encourages dissent. Some banks suffered from groupthink, where staff were too afraid to challenge management's lending decisions, contributing to the financial crisis. In a meeting, appoint someone to be devil's advocate against your pet idea. And don't just hear another viewpoint -- listen to it, as well.
Я б хотів дати три поради. Перша – активно шукати інші, відмінні точки зору, читати і слухати тих, з ким ви рішуче не згодні. Хоча вам здається, що 90% з того, що вони кажуть, є хибним, але що, якщо інші 10% будуть істиною? Як казав Арістотель, "Ознакою освіченої людини є здатність обмірковувати будь-яку думку, не обов'язково її приймаючи". Оточіть себе людьми, які сперечаються з вами, і створіть культуру, в якій активно заохочується інакомислення. Декотрі банки постраждали від групового мислення, коли персонал боявся ставити під сумнів кредитну політику начальства, і зрештою це обернулось фінансовою кризою. На нарадах відведіть комусь роль адвоката диявола, який критикуватиме вашу улюблену ідею. І не просто вислуховуйте іншу точку зору, а й слухайте її уважно.
As psychologist Stephen Covey said, "Listen with the intent to understand, not the intent to reply." A dissenting viewpoint is something to learn from not to argue against. Which takes us to the other forgotten terms in Bayesian inference. Because data allows you to learn, but learning is only relative to a starting point. If you started with complete certainty that your pet theory must be true, then your view won't change -- regardless of what data you see.
Як сказав психолог Стівен Кові, "Слухайте з наміром зрозуміти, а не з наміром відповісти". Натрапивши на протилежну точку зору, варто намагатись чогось навчитись, а не сперечатись із нею. І це нас веде до інших аспектів байєсівського виводу. Хоча дані відкривають можливість навчитись, але ця можливість залежить від вихідної установки. Якщо ви з самого початку певні, що ваша улюблена теорія цілком істинна, то ви не зміните свою точку зору, на які б дані ви не натрапили.
Only if you are truly open to the possibility of being wrong can you ever learn. As Leo Tolstoy wrote, "The most difficult subjects can be explained to the most slow-witted man if he has not formed any idea of them already. But the simplest thing cannot be made clear to the most intelligent man if he is firmly persuaded that he knows already." Tip number two is "listen to experts." Now, that's perhaps the most unpopular advice that I could give you.
Тільки якщо ви справді приймете, що ви можете помилятись, то зможете навчитись. Як писав Лев Толстой, "Найскладніші предмети можна пояснити найбільшому тугодуму, якщо він ще не сформував про них якоїсь думки. Але найпростіші речі залишаться недосяжними для найрозумнішої людини, якщо вона твердо переконана, що вона вже все про них знає". Друга порада – прислухайтесь до експертів. Мабуть, важко дати пораду, яка б сприймалась менш прихильно.
(Laughter)
(Сміх)
British politician Michael Gove famously said that people in this country have had enough of experts. A recent poll showed that more people would trust their hairdresser --
Британський політик Майкл Гоув сказав відому фразу, що люди в цій країні вже мали задосить експертів. Недавнє опитування показало, що люди більше довіряють своєму перукарю
(Laughter)
(Сміх)
or the man on the street than they would leaders of businesses, the health service and even charities. So we respect a teeth-whitening formula discovered by a mom, or we listen to an actress's view on vaccination. We like people who tell it like it is, who go with their gut, and we call them authentic. But gut feel can only get you so far. Gut feel would tell you never to give water to a baby with diarrhea, because it would just flow out the other end. Expertise tells you otherwise. You'd never trust your surgery to the man on the street. You'd want an expert who spent years doing surgery and knows the best techniques. But that should apply to every major decision. Politics, business, health advice require expertise, just like surgery.
або людині з вулиці, ніж лідерам у бізнесі, охороні здоров'я чи навіть у сфері благодійності. Тож ми довіряємо маминим порадам щодо відбілювання зубів, чи особистій думці акторів щодо вакцинації. Ми любимо тих, хто, керуючись інтуїцією, каже все як є, ми називаємо таких людей автентичними. Але інтуїція може вести хибним шляхом. Інтуїція може нам підказати, що коли в дитини пронос, їй не можна давати воду, бо вода просто витече через задній прохід. А експерти радять якраз протилежне. Ви ж не довірите людині з вулиці зробити вам операцію? Ви бажали б, щоб вас оперував лікар, що має чималий досвід, і знає найкращі методи оперування. Але це стосується і будь-яких інших важливих рішень. Політика, бізнес, консультації щодо здоров'я вимагають компетентності, так само, як і хірургія.
So then, why are experts so mistrusted? Well, one reason is they're seen as out of touch. A millionaire CEO couldn't possibly speak for the man on the street. But true expertise is found on evidence. And evidence stands up for the man on the street and against the elites. Because evidence forces you to prove it. Evidence prevents the elites from imposing their own view without proof.
Тож чому спостерігається така недовіра до експертів? Одна з причин – що експерти часто недосяжні. Успішний бізнесмен-мільйонер навряд чи спілкуватиметься із людиною з вулиці. Але справжні експертні знання спираються на докази. І докази працюють на користь пересічних людей, а не елітарних кіл. Адже докази передбачають обґрунтування. Принцип обґрунтування не дозволяє елітам бездоказово нав'язати суспільству свою точку зору.
A second reason why experts are not trusted is that different experts say different things. For every expert who claimed that leaving the EU would be bad for Britain, another expert claimed it would be good. Half of these so-called experts will be wrong. And I have to admit that most papers written by experts are wrong. Or at best, make claims that the evidence doesn't actually support. So we can't just take an expert's word for it.
Інша причина недовіри до експертів – що різні експерти дотримуються різних точок зору. На кожного експерта, який стверджує, що Брекзит завдасть Британії шкоди, є інший експерт, який каже про вигоду від Брекзиту. А це значить, що половина цих так званих експертів помиляються. І я мушу визнати, що більшість статей, написаних експертами, містять помилки, чи принаймні заяви, які насправді не підтверджені доказами. Тож ми не можемо просто вірити експертам на слово.
In November 2016, a study on executive pay hit national headlines. Even though none of the newspapers who covered the study had even seen the study. It wasn't even out yet. They just took the author's word for it, just like with Belle. Nor does it mean that we can just handpick any study that happens to support our viewpoint -- that would, again, be confirmation bias. Nor does it mean that if seven studies show A and three show B, that A must be true. What matters is the quality, and not the quantity of expertise.
В листопаді 2016-го в найбільших газетах прогриміло дослідження про зарплати топ-менеджерів. Однак жодне з цих видань не звернулось до оригіналу дослідження. Насправді, дослідження не було. Газети просто повірили авторам на слово, як і у випадку з Белл. Це означає, що ми не повинні зразу вірити будь-яким дослідженням, які підтримують нашу точку зору, адже це теж підтверджувальне упередження. Так само, якщо є 7 досліджень на користь А, і 3 - на користь Б, це не означає, що А істинне. Важлива, у першу чергу, якість, а не кількість досліджень.
So we should do two things. First, we should critically examine the credentials of the authors. Just like you'd critically examine the credentials of a potential surgeon. Are they truly experts in the matter, or do they have a vested interest? Second, we should pay particular attention to papers published in the top academic journals. Now, academics are often accused of being detached from the real world. But this detachment gives you years to spend on a study. To really nail down a result, to rule out those rival theories, and to distinguish correlation from causation. And academic journals involve peer review, where a paper is rigorously scrutinized
Отож нам слід зробити дві речі. Перше – слід критично перевірити повноваження авторів, так само, як ви, перш ніж звернутись до хірурга, перевіряєте його ліцензію. Чи є автори справжніми експертами, а також чи немає у них якогось особистого або корисливого інтересу? Друге – потрібно звертати особливу увагу на статті, опубліковані в найкращих наукових журналах. Хоча вченим часто закидають, що вони відірвані від реального світу, але така відірваність дає можливість роками займатись дослідженнями. Отримати надійний результат, спростувати інші конкуруючі теорії, і відрізнити кореляції від причинних залежностей. В наукових журналах здійснюється рецензування, в процесі якого стаття прискіпливо перевіряється
(Laughter)
(Сміх)
by the world's leading minds. The better the journal, the higher the standard. The most elite journals reject 95 percent of papers.
найвидатнішими фахівцями у світі. Чим кращий журнал, тим вищі стандарти. Найпрестижніші журнали відхиляють 95% надісланих статей.
Now, academic evidence is not everything. Real-world experience is critical, also. And peer review is not perfect, mistakes are made. But it's better to go with something checked than something unchecked. If we latch onto a study because we like the findings, without considering who it's by or whether it's even been vetted, there is a massive chance that that study is misleading. And those of us who claim to be experts should recognize the limitations of our analysis. Very rarely is it possible to prove or predict something with certainty, yet it's so tempting to make a sweeping, unqualified statement. It's easier to turn into a headline or to be tweeted in 140 characters. But even evidence may not be proof. It may not be universal, it may not apply in every setting. So don't say, "Red wine causes longer life," when the evidence is only that red wine is correlated with longer life. And only then in people who exercise as well.
Однак наукові докази – це ще не все. Важливо також враховувати реальний досвід. Рецензування не є панацеєю, іноді трапляються помилки. Але краще виходити із перевіреної, ніж із неперевіреної інформації. Якщо ми схопимось за якесь дослідження із бажаними для нас результатами, не замислюючись, хто його перевіряв, і чи взагалі воно перевірялось, то дуже ймовірно, що це дослідження введе нас в оману. А ті, хто заявляє, що є експертами, мають усвідомлювати обмеження свого аналізу. Хоча дуже рідко ми можемо передбачити чи довести щось із цілковитою певністю, існує значна спокуса зробити значно ширшу заяву, адже так легше потрапити у заголовки чи короткі твіти. Навіть докази можуть не бути остаточними. Вони можуть не бути універсальними, не застосовуватись за будь-яких умов. Тож не стверджуйте, що червоне вино подовжує життя, якщо у вас є дані лише про те, що червоне вино корелює із тривалішим життям, причому лише у тих, хто не забуває про фізичну активність.
Tip number three is "pause before sharing anything." The Hippocratic oath says, "First, do no harm." What we share is potentially contagious, so be very careful about what we spread. Our goal should not be to get likes or retweets. Otherwise, we only share the consensus; we don't challenge anyone's thinking. Otherwise, we only share what sounds good, regardless of whether it's evidence.
Третя порада – перед тим, як щось поширювати, зробіть паузу. Клятва Гіппократа вимагає: не зашкодь. Те, що ми поширюємо, може бути потенційною отрутою, тож будьте обережні із репостами. Мета не в тому, щоб отримати багато лайків чи ретвітів. Інакше ми просто поділятимемо консенсус, не змушуючи нікого замислитись, і поширюватимемо лише те, що нам приємно чути, незважаючи на докази.
Instead, we should ask the following: If it's a story, is it true? If it's true, is it backed up by large-scale evidence? If it is, who is it by, what are their credentials? Is it published, how rigorous is the journal? And ask yourself the million-dollar question: If the same study was written by the same authors with the same credentials but found the opposite results, would you still be willing to believe it and to share it?
Натомість нам потрібно поцікавитись: якщо це історія, чи вона правдива? Якщо вона правдива, чи відповідає вона великому масиву даних? Якщо це так, хто це стверджує, чи є вони експертами? Наскільки серйозний журнал, де опубліковано матеріал? І поставте собі питання на мільйон доларів: якщо це саме дослідження було б написано таким же експертом, але дало б протилежний результат, чи були б ви так само схильні йому вірити і його поширювати?
Treating any problem -- a nation's economic problem or an individual's health problem, is difficult. So we must ensure that we have the very best evidence to guide us. Only if it's true can it be fact. Only if it's representative can it be data. Only if it's supportive can it be evidence. And only with evidence can we move from a post-truth world to a pro-truth world.
Вирішення будь-якої проблеми, чи це буде макроекономічна проблема, чи проблема з особистим здоров'ям, є непростою справою. Тож нам слід впевнитись, що ми керуємось найкращими доказами. Тільки якщо якийсь випадок є правдою, це факт. Тільки якщо він репрезентативний, це дані. Тільки якщо він підтримує наше пояснення, це доказ. І тільки завдяки доказам ми зможемо перейти від світу пост-правди до світу, де цінується правда.
Thank you very much.
Дуже дякую!
(Applause)
(Оплески)