As other speakers have said, it's a rather daunting experience -- a particularly daunting experience -- to be speaking in front of this audience. But unlike the other speakers, I'm not going to tell you about the mysteries of the universe, or the wonders of evolution, or the really clever, innovative ways people are attacking the major inequalities in our world. Or even the challenges of nation-states in the modern global economy. My brief, as you've just heard, is to tell you about statistics -- and, to be more precise, to tell you some exciting things about statistics. And that's -- (Laughter) -- that's rather more challenging than all the speakers before me and all the ones coming after me. (Laughter) One of my senior colleagues told me, when I was a youngster in this profession, rather proudly, that statisticians were people who liked figures but didn't have the personality skills to become accountants. (Laughter) And there's another in-joke among statisticians, and that's, "How do you tell the introverted statistician from the extroverted statistician?" To which the answer is, "The extroverted statistician's the one who looks at the other person's shoes." (Laughter) But I want to tell you something useful -- and here it is, so concentrate now. This evening, there's a reception in the University's Museum of Natural History. And it's a wonderful setting, as I hope you'll find, and a great icon to the best of the Victorian tradition. It's very unlikely -- in this special setting, and this collection of people -- but you might just find yourself talking to someone you'd rather wish that you weren't. So here's what you do. When they say to you, "What do you do?" -- you say, "I'm a statistician." (Laughter) Well, except they've been pre-warned now, and they'll know you're making it up. And then one of two things will happen. They'll either discover their long-lost cousin in the other corner of the room and run over and talk to them. Or they'll suddenly become parched and/or hungry -- and often both -- and sprint off for a drink and some food. And you'll be left in peace to talk to the person you really want to talk to.
Как уже говорили другие докладчики, это довольно трудная задача — особенно трудная задача — выступать перед этой аудиторией. Но в отличие от других докладчиков, я не собираюсь рассказывать вам о тайнах вселенной, или о чудесах эволюции, или о очень изобретательных, новых способах борьбы со значительным неравенством в нашем мире. И даже не о трудностях национальных государств в современной глобальной экономике. Моя задача, как вы только что слышали, рассказать вам о статистике — а точнее, рассказать вам что-то захватывающee о статистике. А это (Смех) — а это гораздо более сложная задача и чем у всех докладчиков до меня, и чем у всех после. (Смех) Один из моих старших коллег сказал мне, когда я был еще юнцом в этой профессии, с долей гордости, что статистики это люди которым нравятся числа, но у которых не достаточно общительности, чтобы стать бухгалтерами. (Смех) Еще одна профессиональная шутка среди статистиков: «Как отличить статистика‐интроверта от статистика-экстраверта?» Ответ: «Статистик-экстраверт это тот кто смотрит на ботинки собеседника.» (Смех) Но я хочу рассказать вам кое‐что полезное — и сейчас начну, так что сконцентрируйтесь. Сегодня вечером будет прием в Музее естественной истории при университете. Это замечательное место, я надеюсь вы в этом убедитесь, и замечательный символ лучшего в Викторианской традиции. Маловероятно — в этих особых обстоятельствах, и в этой группе людей — но может оказаться что вы разговариваете с кем‐то, с кем вам бы не хотелось разговаривать. Вот что вам следует сделать. Когда собеседник спросит вас: «Кто вы по профессии?» — скажите «Я статистик.» (Смех) Правда теперь он был предупрежден, так что он будет знать что вы врете. И тогда произойдет одно из двух. Либо он обнаружит давно потерянную двоюродную сестру в углу комнаты и убежит поговорить с ней. Либо он неожиданно почувствует жажду или голод — а часто и то и другое — и помчится за едой и напитками. И оставит вас в покое чтобы вы смогли поговорить с кем хотели.
It's one of the challenges in our profession to try and explain what we do. We're not top on people's lists for dinner party guests and conversations and so on. And it's something I've never really found a good way of doing. But my wife -- who was then my girlfriend -- managed it much better than I've ever been able to. Many years ago, when we first started going out, she was working for the BBC in Britain, and I was, at that stage, working in America. I was coming back to visit her. She told this to one of her colleagues, who said, "Well, what does your boyfriend do?" Sarah thought quite hard about the things I'd explained -- and she concentrated, in those days, on listening. (Laughter) Don't tell her I said that. And she was thinking about the work I did developing mathematical models for understanding evolution and modern genetics. So when her colleague said, "What does he do?" She paused and said, "He models things." (Laughter) Well, her colleague suddenly got much more interested than I had any right to expect and went on and said, "What does he model?" Well, Sarah thought a little bit more about my work and said, "Genes." (Laughter) "He models genes."
Одна из сложностей нашей профессии в том, чтобы объяснить чем мы занимаемся. Мы не возглавляем списки приглашаемых на званые обеды, собеседников и так далее. Я так и не придумал как это делать. Но моя жена — тогда она еще была моей девушкой — преуспела в этом намного лучше чем я когда‐либо мог. Много лет назад, когда мы только начали встречаться, она работала на Би‐би‐си в Великобритании, я в тот момент работал в Америке. Я собирался навестить ее. Она рассказала об этом коллеге, и та спросила, «А чем занимается твой парень?» Сара поразмышляла над тем что я ей объяснял — тогда она в основном слушала. (Смех) Не говорите ей что я это сказал. Она подумала о моих занятиях по разработке математических моделей для изучения эволюции и современной генетики. И когда ее коллега спросила «Чем он занимается?» она, после паузы, сказала «Он работает с моделями.» (Смех) Тогда ее коллега заинтересовалось сильнее чем я мог бы ожидать, и спросила, «С какими моделями?» Сара подимала еще немножко о моей работе и сказала, «Генетическими.» (Смех) «Он занимается генетическими моделями.»
That is my first love, and that's what I'll tell you a little bit about. What I want to do more generally is to get you thinking about the place of uncertainty and randomness and chance in our world, and how we react to that, and how well we do or don't think about it. So you've had a pretty easy time up till now -- a few laughs, and all that kind of thing -- in the talks to date. You've got to think, and I'm going to ask you some questions. So here's the scene for the first question I'm going to ask you. Can you imagine tossing a coin successively? And for some reason -- which shall remain rather vague -- we're interested in a particular pattern. Here's one -- a head, followed by a tail, followed by a tail.
Это моя первая любовь, и я вам немножко об этом расскажу. В целом, я хочу заставить вас задуматься о месте неопределенности, случайности и шанса в нашем мире, как этому относиться, и о том насколько правильно или неправильно мы об этом думаем. Так что до сих пор все было довольно просто — несколько шуток, в таком духе — в предыдущих докладах. Вам прийдется думать, и я буду задавать вам вопросы. Вот ситуация про которую будет первый вопрос. Представьте себе многократное подбрасывание монетки. И по какой‐то причине — которая останется невыясненой — нас интересует определенная последовательность. Например такая - решка, затем орел, затем снова орел.
So suppose we toss a coin repeatedly. Then the pattern, head-tail-tail, that we've suddenly become fixated with happens here. And you can count: one, two, three, four, five, six, seven, eight, nine, 10 -- it happens after the 10th toss. So you might think there are more interesting things to do, but humor me for the moment. Imagine this half of the audience each get out coins, and they toss them until they first see the pattern head-tail-tail. The first time they do it, maybe it happens after the 10th toss, as here. The second time, maybe it's after the fourth toss. The next time, after the 15th toss. So you do that lots and lots of times, and you average those numbers. That's what I want this side to think about.
Итак представьте что мы подбрасываем монетку многократно. Тогда последовательность решка‐орел‐орел, на которой мы внезапно сконцентрировались, встречается здесь. И вы можете посчитать: раз, два, три, четыре, пять, шесть, семь, восемь, девять, десять — она появляется после десятого броска. Вам может показаться, что есть занятия и поинтересней, но уважьте меня на время. Представьте, что эта половина аудитории достала монетки и начала их бросать до тех пор как они впервые не увидят последовательность решка‐орел‐орел. Когда они сделают это в первый раз, может быть это случится после десятого броска, как здесь. Во второй раз, может быть после четвертого броска. В следующий раз, после пятнадцатого. Они сделают это много раз, и посчитают среднее этих чисел. Эта половина пусть думает об этом.
The other half of the audience doesn't like head-tail-tail -- they think, for deep cultural reasons, that's boring -- and they're much more interested in a different pattern -- head-tail-head. So, on this side, you get out your coins, and you toss and toss and toss. And you count the number of times until the pattern head-tail-head appears and you average them. OK? So on this side, you've got a number -- you've done it lots of times, so you get it accurately -- which is the average number of tosses until head-tail-tail. On this side, you've got a number -- the average number of tosses until head-tail-head.
Другой половине аудитории не нравится решка‐орел‐орел — они считают, по глубоким культурным причинам, что это скучно — и их гораздо больше интересует другая последовательность — решка‐орел‐решка. Так что, на этой стороне, вы достаете свои монетки, и начинаете подбрасывать. И считаете количество бросков до появления последовательности решка‐орел‐решка и усредняете. ОК? Итак, эта сторона получила число — и вы сделали это много раз, так что подсчет довольно точный — среднее число подбрасываний до решка‐орел‐орел. На этой стороне, вы получили число среднее число подбрасываний до решка‐орел‐решка.
So here's a deep mathematical fact -- if you've got two numbers, one of three things must be true. Either they're the same, or this one's bigger than this one, or this one's bigger than that one. So what's going on here? So you've all got to think about this, and you've all got to vote -- and we're not moving on. And I don't want to end up in the two-minute silence to give you more time to think about it, until everyone's expressed a view. OK. So what you want to do is compare the average number of tosses until we first see head-tail-head with the average number of tosses until we first see head-tail-tail.
Есть глубокий математический факт — если у вас есть два числа, то верно одно из трех. Либо они одинаковы, либо это больше, чем это, либо это больше, чем то. А что получится здесь? Подумайте об этом, и проголосуйте — мы дальше не пойдем. Я не хочу получить две минуты молчания чтобы вы могли подумать об этом, пока каждый не выразил свое мнение. ОК. Вам нужно сравнить среднее количество бросков до первого появления решка‐орел‐решка со средним количеством бросков до первого появления решка‐орел‐орел.
Who thinks that A is true -- that, on average, it'll take longer to see head-tail-head than head-tail-tail? Who thinks that B is true -- that on average, they're the same? Who thinks that C is true -- that, on average, it'll take less time to see head-tail-head than head-tail-tail? OK, who hasn't voted yet? Because that's really naughty -- I said you had to. (Laughter) OK. So most people think B is true. And you might be relieved to know even rather distinguished mathematicians think that. It's not. A is true here. It takes longer, on average. In fact, the average number of tosses till head-tail-head is 10 and the average number of tosses until head-tail-tail is eight. How could that be? Anything different about the two patterns? There is. Head-tail-head overlaps itself. If you went head-tail-head-tail-head, you can cunningly get two occurrences of the pattern in only five tosses. You can't do that with head-tail-tail. That turns out to be important.
Кто считает что верен ответ А — что, в среднем, до решка‐орел‐решка ждать дольше чем до решка‐орел‐орел? Кто считает что правильный ответ B — что, в среднем, они одинаковы? Кто считает что ответ C — что, в среднем, меньше ждать до решка‐орел‐решка чем до решка‐орел‐орел? ОК, кто еще не проголосовал? Какие непослушные — я сказал что все должны. (Смех) ОК. Большинство считает, что верен вариант B. И вас может быть утешит что даже достаточно выдающиеся математики так считают. Но это не верно. Правильный ответ A. Это занимает дольше, в среднем. На самом деле, среднее количество бросков до решка‐орел‐орел 10, а среднее количество бросков до решка‐орел‐решка 8. Как так может быть? Есть какая-то разница между двумя последовательностями? Есть. Решка‐орел‐решка пересекается сама с собой. Если у вас появится решка‐орел‐решка‐орел‐решка, вы хитрым образом получили два появления последовательности за пять бросков. С решка‐орел‐орел так не сделаешь. Оказывается, что это важно.
There are two ways of thinking about this. I'll give you one of them. So imagine -- let's suppose we're doing it. On this side -- remember, you're excited about head-tail-tail; you're excited about head-tail-head. We start tossing a coin, and we get a head -- and you start sitting on the edge of your seat because something great and wonderful, or awesome, might be about to happen. The next toss is a tail -- you get really excited. The champagne's on ice just next to you; you've got the glasses chilled to celebrate. You're waiting with bated breath for the final toss. And if it comes down a head, that's great. You're done, and you celebrate. If it's a tail -- well, rather disappointedly, you put the glasses away and put the champagne back. And you keep tossing, to wait for the next head, to get excited.
Есть два способа это понять. Я расскажу вам один из них. Итак представим что мы занимаемся этим. На этой стороне — помните, нас интересует решка‐орел‐орел, вас интересует решка‐орел‐решка. Мы начинаем бросать монетку, и получаем решку — и вот вы уже сидите на краю сиденья потому что что-то замечательное и великолепное, потрясающее, может вот-вот случиться. При следующем броске выпадает орел — и вы очень взволнованы. Шампанское поставлено на лед, стаканы охлаждены, все готово к празднованию. Вы затаив дыхание ждете последнего броска . И если выпадет решка, отлично. Процесс окончен, пора праздновать. Если орел — вы разочаровано убираете бокалы и возвращаете на место шампанское. И продолжаете бросать, ожидая следующей решки чтобы снова обрадоваться.
On this side, there's a different experience. It's the same for the first two parts of the sequence. You're a little bit excited with the first head -- you get rather more excited with the next tail. Then you toss the coin. If it's a tail, you crack open the champagne. If it's a head you're disappointed, but you're still a third of the way to your pattern again. And that's an informal way of presenting it -- that's why there's a difference. Another way of thinking about it -- if we tossed a coin eight million times, then we'd expect a million head-tail-heads and a million head-tail-tails -- but the head-tail-heads could occur in clumps. So if you want to put a million things down amongst eight million positions and you can have some of them overlapping, the clumps will be further apart. It's another way of getting the intuition.
У этой стороны дело происходит по-другому. Все то же самое в первые два подбрасывания. Вы немножко взволнованы после первой решки — и значительно более взволнованы после последующего орла. Затем вы подбрасываете монетку. Если орел, вы открываете шампанское. Если решка, вы немного разочарованы, но вас уже опять есть треть вашей последовательности. Неформально говоря, именно в этом разница. По-другому об этом можно подумать так — если мы подбросим монетку восемь миллионов раз, можно ожидать миллион последовательностей решка‐орел‐решка и миллион последовательностей решка‐орел‐орел — но решка‐орел‐решки могут выпадать кучками. Если вы разбросаете миллион объектов среди восьми миллионов позиций и некоторые из них могут пересекаться, то кучки будут дальше друг от друга. Вот так еще можно интуитивно это представить.
What's the point I want to make? It's a very, very simple example, an easily stated question in probability, which every -- you're in good company -- everybody gets wrong. This is my little diversion into my real passion, which is genetics. There's a connection between head-tail-heads and head-tail-tails in genetics, and it's the following. When you toss a coin, you get a sequence of heads and tails. When you look at DNA, there's a sequence of not two things -- heads and tails -- but four letters -- As, Gs, Cs and Ts. And there are little chemical scissors, called restriction enzymes which cut DNA whenever they see particular patterns. And they're an enormously useful tool in modern molecular biology. And instead of asking the question, "How long until I see a head-tail-head?" -- you can ask, "How big will the chunks be when I use a restriction enzyme which cuts whenever it sees G-A-A-G, for example? How long will those chunks be?"
Что я хочу этим показать? Это очень очень простой пример, вопрос по теории вероятностей, который легко сформулировать, и отвечая на который все — вы в хорошей компании — все ошибаются. Это мое небольшое отступление в предмет моей страсти, в генетику. Есть связь между решка‐орел‐решка и решка‐орел‐орел и генетикой, и она в следующем. Когда вы бросаете монетку, вы получаете последовательность орлов и решек. Когда вы смотрите на ДНК, видите последовательности не двух вещей — орлов и решек — а четырех букв — A, G, C и Т. И есть такие химические ножницы, они называются эндонуклеазы рестрикции, которые разрезают ДНК когда видят определенные последовательности. Это невероятно полезный инструмент в современной молекулярной биологии. И вместо того чтобы спросить "Сколько пройдет пока я увижу решка-орел-решка?" можно спросить "Насколько большие кусочки получатся когда я использую эндонуклеазу рестрикции которая разрезает когда видит последовательность G-A-A-G, например? Какой длинны будут эти кусочки?"
That's a rather trivial connection between probability and genetics. There's a much deeper connection, which I don't have time to go into and that is that modern genetics is a really exciting area of science. And we'll hear some talks later in the conference specifically about that. But it turns out that unlocking the secrets in the information generated by modern experimental technologies, a key part of that has to do with fairly sophisticated -- you'll be relieved to know that I do something useful in my day job, rather more sophisticated than the head-tail-head story -- but quite sophisticated computer modelings and mathematical modelings and modern statistical techniques. And I will give you two little snippets -- two examples -- of projects we're involved in in my group in Oxford, both of which I think are rather exciting. You know about the Human Genome Project. That was a project which aimed to read one copy of the human genome. The natural thing to do after you've done that -- and that's what this project, the International HapMap Project, which is a collaboration between labs in five or six different countries. Think of the Human Genome Project as learning what we've got in common, and the HapMap Project is trying to understand where there are differences between different people.
Это довольно тривиальная связь между теорией вероятности и генетикой. Есть более глубокая связь, говорить о которой у меня нет времени, и которая состоит в том что современная генетика это захватывающая научная область, и мы услышим несколько докладов как раз об этом позже на этой конференции, но оказывается, что чтобы раскрыть секреты информации получаемой современными экспериментальными технологиями, ключевой частью этого процесса являются достаточно сложные — будьте покойны, я на работе занимаюсь таки чем-то полезным — значительно более сложные чем история про решка-орел-решку — сложные компьютерные модели и математические модели и современные статистические приемы. Я расскажу два маленьких отрывка — два примера — проектов в которые вовлечена моя группа в Оксфорде, которые оба, по-моему, довольно интересны. Вы слышали о проекте «Геном человека». Это проект целью которого было прочесть одну копию генома человека. После того как вы это сделали, естественно перейти к — и в этом идея этого проекта, проекта «HapMap», совместной работы лабораторий в пяти или шести различных странах. Считайте что суть проекта «Геном человека» узнать, что нас объединяет, а проект «HapMap» попытка понять в чем различия между разными людьми.
Why do we care about that? Well, there are lots of reasons. The most pressing one is that we want to understand how some differences make some people susceptible to one disease -- type-2 diabetes, for example -- and other differences make people more susceptible to heart disease, or stroke, or autism and so on. That's one big project. There's a second big project, recently funded by the Wellcome Trust in this country, involving very large studies -- thousands of individuals, with each of eight different diseases, common diseases like type-1 and type-2 diabetes, and coronary heart disease, bipolar disease and so on -- to try and understand the genetics. To try and understand what it is about genetic differences that causes the diseases. Why do we want to do that? Because we understand very little about most human diseases. We don't know what causes them. And if we can get in at the bottom and understand the genetics, we'll have a window on the way the disease works, and a whole new way about thinking about disease therapies and preventative treatment and so on. So that's, as I said, the little diversion on my main love.
Почему нас это интересует? Ну, на это много причин. Самая насущная из которых в том чтобы понять как некоторые различия делают одних людей более подверженными одному заболеванию — диабету 2-го типа, например — а другие различия увеличивают риск сердечных заболеваний, или инсульта, или аутизма и так далее. Это один большой проект. Есть еще один большой проект, недавно профинансированный в Великобритании трастом Вэлкома, связанный с очень большими исследованиями — тысячи человек, с каждым из восьми различных заболеваний, распространенных заболеваний вроде диабета 1-го и 2-го типа, коронарной болезни сердца, биполярного расстройства и так далее — чтобы попытаться понять генетику. Попытаться понять что в генетических различиях становится причиной этих болезней. Почему мы хотим это сделать? Потому что мы очень мало понимаем о большинстве заболеваний человека. Мы не знаем их причин. И если мы можем начать с оснований и понять генетику, у нас будет окно в механизм заболевания. И совершенно новый взгляд на лечение, превентивные процедуры и тому подобное. Это было, как я и говорил, небольшое отступление о моем основном увлечении.
Back to some of the more mundane issues of thinking about uncertainty. Here's another quiz for you -- now suppose we've got a test for a disease which isn't infallible, but it's pretty good. It gets it right 99 percent of the time. And I take one of you, or I take someone off the street, and I test them for the disease in question. Let's suppose there's a test for HIV -- the virus that causes AIDS -- and the test says the person has the disease. What's the chance that they do? The test gets it right 99 percent of the time. So a natural answer is 99 percent. Who likes that answer? Come on -- everyone's got to get involved. Don't think you don't trust me anymore. (Laughter) Well, you're right to be a bit skeptical, because that's not the answer. That's what you might think. It's not the answer, and it's not because it's only part of the story. It actually depends on how common or how rare the disease is. So let me try and illustrate that. Here's a little caricature of a million individuals. So let's think about a disease that affects -- it's pretty rare, it affects one person in 10,000. Amongst these million individuals, most of them are healthy and some of them will have the disease. And in fact, if this is the prevalence of the disease, about 100 will have the disease and the rest won't. So now suppose we test them all. What happens? Well, amongst the 100 who do have the disease, the test will get it right 99 percent of the time, and 99 will test positive. Amongst all these other people who don't have the disease, the test will get it right 99 percent of the time. It'll only get it wrong one percent of the time. But there are so many of them that there'll be an enormous number of false positives. Put that another way -- of all of them who test positive -- so here they are, the individuals involved -- less than one in 100 actually have the disease. So even though we think the test is accurate, the important part of the story is there's another bit of information we need.
Вернемся к более прозаическим вопросам рассуждения о вероятностях. Вот вам еще один проверочный вопрос — допустим у вас есть тест на заболевание, не идеальный, но довольно неплохой. Он дает верный результат в 99и процентах случаев. И я выбираю одного из вас, или кого-то с улицы, и тестирую его на это заболевание. Допустим есть тест на ВИЧ — вирус вызывающий СПИД — и этот тест говорит что у этот человек болен. Какова вероятность что он на самом деле болен? Тест дает верный результат в 99и процентах случаев. Так что естественно ответить 99 процентов. Кому нравится этот ответ? Давайте-давайте — все должны поучаствовать Не думайте что вы мне больше не доверяете. (Смех) Что ж, вы не зря скептически настроены, этот ответ не верен. Так можно подумать. Этот ответ не верен, и не верен он потому что это только часть истории. На самом деле ответ зависит от отго насколько распространено или редко это заболевание. Давйте я попробую это проиллюстрировать. Вот небольшое карикатурное изображение миллиона людей. Давайте подумаем о заболевании которое затрагивает — довольно редком, оно затрагивает одного человека из 10000. Среди этих миллиона человек, большинство из них здоровы, но некоторые больны. И, при такой распространенности заболевания, примерно 100 будут больны, а остальные нет. Допустим мы всех их протестировали. Что случится? Среди 100 больных тест даст верный результат в 99и процентах случаев, и 99 получат положительный результат. Среди остальных, тех кто не болен, тест даст верный результат в 99и процентах случаев. Он ошибется только в одном проценте случаев. Но их так много, что будет огромное количество ложноположительныx результатов. Иначе говоря — среди всех у тех у кого тест дал положительный результат — вот они, эти люди — меньше чем один из ста на самом деле болен. Так что даже если мы считаем что тест надежен, важность этой истории в том, что нам нужна дополнительная информация.
Here's the key intuition. What we have to do, once we know the test is positive, is to weigh up the plausibility, or the likelihood, of two competing explanations. Each of those explanations has a likely bit and an unlikely bit. One explanation is that the person doesn't have the disease -- that's overwhelmingly likely, if you pick someone at random -- but the test gets it wrong, which is unlikely. The other explanation is that the person does have the disease -- that's unlikely -- but the test gets it right, which is likely. And the number we end up with -- that number which is a little bit less than one in 100 -- is to do with how likely one of those explanations is relative to the other. Each of them taken together is unlikely.
Вот ключевая интуиция. Узнав, что результат теста положительный, мы должны взвесить правдоподобие, или вероятность, двух соревнующихся объяснений. В каждом из этих объяснений есть вероятная часть и есть маловероятная часть. Одно объяснение в том что человек не болен — это подавляюще вероятно, если выбрать кого-то случайным образом — но тест ошибся, что маловероятно. Другое объяснение в том что человек болен — это маловероятно — и тест прав, что вероятно. И число которое мы получаем — чуть меньше чем 1 на 100 — связано с тем какое из этих объяснений более вероятно по сравнению с другим. Они оба маловероятны.
Here's a more topical example of exactly the same thing. Those of you in Britain will know about what's become rather a celebrated case of a woman called Sally Clark, who had two babies who died suddenly. And initially, it was thought that they died of what's known informally as "cot death," and more formally as "Sudden Infant Death Syndrome." For various reasons, she was later charged with murder. And at the trial, her trial, a very distinguished pediatrician gave evidence that the chance of two cot deaths, innocent deaths, in a family like hers -- which was professional and non-smoking -- was one in 73 million. To cut a long story short, she was convicted at the time. Later, and fairly recently, acquitted on appeal -- in fact, on the second appeal. And just to set it in context, you can imagine how awful it is for someone to have lost one child, and then two, if they're innocent, to be convicted of murdering them. To be put through the stress of the trial, convicted of murdering them -- and to spend time in a women's prison, where all the other prisoners think you killed your children -- is a really awful thing to happen to someone. And it happened in large part here because the expert got the statistics horribly wrong, in two different ways.
Вот более животрепещущий пример ровно того же самого. Те из вас кто живет в Британии знают о прославившемся деле женщины по имени Салли Кларк, у которой было двое детей, которые неожиданно умерли. И сначала думали что они умерли от того что неформально называется «смерть в колыбели,» а более формально Синдром внезапной детской смерти. По разным причинам, позже ее обвинили в убийстве. И во время суда, суда над ней, очень выдающийся педиатр свидетельствовал, что вероятность двух смертей в колыбели, в семье как у нее — образованных и некурящих — была один на 73 миллиона. Короче говоря, в тогда ее признали виновной. Позже, и довольно недавно, освободили после апелляции — после второй апелляции. Просто чтобы добавить контекста, представьте себе насколько ужасно потерять ребенка, затем двоих, и, невиновным, быть осужденным за их убийство. Пройти через стресс суда, быть осужденным за их убийство — и провести время в женской тюрьме, где все остальные заключенные думают что ты убила своих детей — ужасное злоключение для кого бы то ни было. И все это случилось в большой мере потому, что эксперт совершил ужасающие ошибки в статистике, причем двумя способами.
So where did he get the one in 73 million number? He looked at some research, which said the chance of one cot death in a family like Sally Clark's is about one in 8,500. So he said, "I'll assume that if you have one cot death in a family, the chance of a second child dying from cot death aren't changed." So that's what statisticians would call an assumption of independence. It's like saying, "If you toss a coin and get a head the first time, that won't affect the chance of getting a head the second time." So if you toss a coin twice, the chance of getting a head twice are a half -- that's the chance the first time -- times a half -- the chance a second time. So he said, "Here, I'll assume that these events are independent. When you multiply 8,500 together twice, you get about 73 million." And none of this was stated to the court as an assumption or presented to the jury that way. Unfortunately here -- and, really, regrettably -- first of all, in a situation like this you'd have to verify it empirically. And secondly, it's palpably false. There are lots and lots of things that we don't know about sudden infant deaths. It might well be that there are environmental factors that we're not aware of, and it's pretty likely to be the case that there are genetic factors we're not aware of. So if a family suffers from one cot death, you'd put them in a high-risk group. They've probably got these environmental risk factors and/or genetic risk factors we don't know about. And to argue, then, that the chance of a second death is as if you didn't know that information is really silly. It's worse than silly -- it's really bad science. Nonetheless, that's how it was presented, and at trial nobody even argued it. That's the first problem. The second problem is, what does the number of one in 73 million mean? So after Sally Clark was convicted -- you can imagine, it made rather a splash in the press -- one of the journalists from one of Britain's more reputable newspapers wrote that what the expert had said was, "The chance that she was innocent was one in 73 million." Now, that's a logical error. It's exactly the same logical error as the logical error of thinking that after the disease test, which is 99 percent accurate, the chance of having the disease is 99 percent. In the disease example, we had to bear in mind two things, one of which was the possibility that the test got it right or not. And the other one was the chance, a priori, that the person had the disease or not. It's exactly the same in this context. There are two things involved -- two parts to the explanation. We want to know how likely, or relatively how likely, two different explanations are. One of them is that Sally Clark was innocent -- which is, a priori, overwhelmingly likely -- most mothers don't kill their children. And the second part of the explanation is that she suffered an incredibly unlikely event. Not as unlikely as one in 73 million, but nonetheless rather unlikely. The other explanation is that she was guilty. Now, we probably think a priori that's unlikely. And we certainly should think in the context of a criminal trial that that's unlikely, because of the presumption of innocence. And then if she were trying to kill the children, she succeeded. So the chance that she's innocent isn't one in 73 million. We don't know what it is. It has to do with weighing up the strength of the other evidence against her and the statistical evidence. We know the children died. What matters is how likely or unlikely, relative to each other, the two explanations are. And they're both implausible. There's a situation where errors in statistics had really profound and really unfortunate consequences. In fact, there are two other women who were convicted on the basis of the evidence of this pediatrician, who have subsequently been released on appeal. Many cases were reviewed. And it's particularly topical because he's currently facing a disrepute charge at Britain's General Medical Council.
Откуда он взял цифру в 1 на 73 миллиона? Он посмотрел на исследования, которые утверждали что вероятность смерти в колыбели в семье как у Салли Кларк равна примерно одному на восемь с половиной тысяч. И сказал "Я предположу, что если в вашей семье случилась одна смерть в колыбели, это не меняет шансы на то что второй ребенок умрет по той же причине." Это то, что статистики называют «предположением о независимости». Это как утверждение «Если подбросив монетку ты получишь решку, это не повлияет на вероятность получить решку во второй раз». Так что подбросив монетку два раза, вероятности получить решку дважды равна половине — это вероятность в первый раз — помноженной на половину — вероятность во второй раз. Так что он сказал «Давайте предположим, — я предположу, что эти события независимы. Если возвести восемь с половиной тысяч в квадрат, получится примерно 73 миллиона." Все это не было высказано суду как предположение или представлено присяжным в таком виде. К сожалению тут — и вправду, к несчастью— во-первых, в такой ситуации надо проверять это опытным путем. А во-вторых, это явно не верно. Мы очень и очень многого не знаем о внезапных детских смертях. Вполне может быть что есть внешние факторы, о которых мы не подозреваем, и скорее всего есть генетические факторы о которых мы не подозреваем. Так что если в семье случается такая смерть, их надо отнести к группе повышенного риска. У них наверное есть эти внешние факторы риска и/или генетические факторы риска о которых мы ничего не знаем. И значит рассудить что вероятность второй смерти такая же как если бы у нас не было этой информации — просто глупость. Это хоже чем глупость — это плохая наука. Тем не менее, вот так это было представлено, и во время суда никто с этим даже не спорил. Это первая проблема. Вторая проблема в том, что значит это число — один на 73 миллиона? После того как Салли Кларк была осуждена — можете себе представить, это вызвало значительный всплеск в печати — журналист одной из более уважаемых Британских газет написал что эксперт сказал, «Вероятность того, что она не виновна была один на 73 миллиона.» Это ошибка в логике. Точно такая же ошибка, как ошибка считать после теста на болезнь, верного в 99и процентах случаев, что вероятность болезни 99 процентов. В примере с болезнью, нам нужно было иметь в виду две вещи, одной из которых была вероятность того дал ли тест верный результат или нет. А другая была вероятность, априори, болен был человек или нет. Точно то же самое происходит и здесь. Тут участвуют две вещи — объяснение состоит из двух частей. Мы хотим знать насколько вероятны, или насколько относительно вероятны, два разных объяснения. Одно из них в том что Салли была не виновна — что, априори, чрезвычайно вероятно — большинство матерей не убивают своих детей. И вторая часть этого объяснения, в том что с ней случилось чрезвычайно редкое происшествие. Не настолько редкое как 1 на 73 миллиона, но достаточно редкое. Другое объяснение в том что она виновна. Мы наверняка считаем что это априори маловероятно. И нам конечно должно так считать в контексте уголовного суда, что это маловероятно, в виду презумпции невиновности. А что если она пыталась убить детей, ей это удалось. Так что вероятность того что она не виновна не один на 73 миллиона. Мы не знаем чему она равна. Она зависит от веса остальных улик против нее по отношению к весу статистических рассуждений. Мы знаем что дети погибли. Важно то, насколько вероятны или маловероятны по отношению друг к другу эти два объяснения. И они оба маловероятны. Это ситуация где ошибки в статистике имели очень глубокие и очень печальные последствия. Оказалось, что еще двое женщин были осуждены на основе показаний этого педиатра, и были позже освобождены по апелляциям. Много дел пришлось пересмотреть. И это особенно актуально, поскольку он сейчас предстал перед обвинением в недостойном поведении в Британском Общемедицинском Совете.
So just to conclude -- what are the take-home messages from this? Well, we know that randomness and uncertainty and chance are very much a part of our everyday life. It's also true -- and, although, you, as a collective, are very special in many ways, you're completely typical in not getting the examples I gave right. It's very well documented that people get things wrong. They make errors of logic in reasoning with uncertainty. We can cope with the subtleties of language brilliantly -- and there are interesting evolutionary questions about how we got here. We are not good at reasoning with uncertainty. That's an issue in our everyday lives. As you've heard from many of the talks, statistics underpins an enormous amount of research in science -- in social science, in medicine and indeed, quite a lot of industry. All of quality control, which has had a major impact on industrial processing, is underpinned by statistics. It's something we're bad at doing. At the very least, we should recognize that, and we tend not to. To go back to the legal context, at the Sally Clark trial all of the lawyers just accepted what the expert said. So if a pediatrician had come out and said to a jury, "I know how to build bridges. I've built one down the road. Please drive your car home over it," they would have said, "Well, pediatricians don't know how to build bridges. That's what engineers do." On the other hand, he came out and effectively said, or implied, "I know how to reason with uncertainty. I know how to do statistics." And everyone said, "Well, that's fine. He's an expert." So we need to understand where our competence is and isn't. Exactly the same kinds of issues arose in the early days of DNA profiling, when scientists, and lawyers and in some cases judges, routinely misrepresented evidence. Usually -- one hopes -- innocently, but misrepresented evidence. Forensic scientists said, "The chance that this guy's innocent is one in three million." Even if you believe the number, just like the 73 million to one, that's not what it meant. And there have been celebrated appeal cases in Britain and elsewhere because of that.
Итак, чтобы подвести итог —в чем урок этого всего? Мы знаем что вероятность, и неопределенность, и случайность часть нашей повседневной жизни. И так же верно — и, несмотря на то что вы, как группа, очень особенны по многим параметрам, вы совершенно типичны в том что вы ошиблись в примерах которые я приводил. Хорошо проверено что люди ошибаются. Они совершают логические ошибки рассуждая о вероятностях. Мы легко справляемся с нюансами языка — это интересный вопрос о эволюции, как так получилось. Но мы плохо умеем рассуждать о вероятностях. Это проблема в повседневной жизни. Как вы слышали из многих докладов, статистика лежит в основе огромного количества научных исследований — в естественных науках, медицине и многого на производстве. Весь контроль качества, который очень сильно влияет на промышленные процессы, основан на статистике. На том что мы плохо умеем делать. По крайней мере, нам следует понимать это, а мы обычно не понимаем. Возвращаясь к судебному контексту, во время процесса Салли Кларк, все адвокаты просто согласились с тем что сказал эксперт. Если бы педиатр сказал присяжным: «Я умею строить мосты. Я построил там один, по дороге. Поезжайте домой через него,» они бы сказали «Педиатры не умеют строить мосты. Этим занимаются инженеры.» С другой стороны, он как будто бы сказал, или подразумевал, «Я умею рассуждать о вероятностях. Я умею заниматься статистикой.» И все сказали, «Хорошо. Он эксперт.» Так что стоит понимать в чем мы компетентны а в чем нет. Точно такие же проблемы возникли на заре ДНК-дактилоскопии, когда ученые, и адвокаты, и в некоторых случаях судьи, регулярно неправильно интерпретировали улики. Обычно — хочется надеяться — без злого умысла, но неправильно интерпретировали улики. Судебные эксперты говорили «Вероятность того что этот парень невиновен один на три миллиона.» Даже если верить этому числу, как и числу в один на 73 миллиона, оно обозначает совсем не то. И были известные случаи апелляций в Британии и в других странах, по этой причине.
And just to finish in the context of the legal system. It's all very well to say, "Let's do our best to present the evidence." But more and more, in cases of DNA profiling -- this is another one -- we expect juries, who are ordinary people -- and it's documented they're very bad at this -- we expect juries to be able to cope with the sorts of reasoning that goes on. In other spheres of life, if people argued -- well, except possibly for politics -- but in other spheres of life, if people argued illogically, we'd say that's not a good thing. We sort of expect it of politicians and don't hope for much more. In the case of uncertainty, we get it wrong all the time -- and at the very least, we should be aware of that, and ideally, we might try and do something about it. Thanks very much.
И чтобы закончить в контексте судебной системы. Очень просто сказать «Давайте постараемся лучше представлять улики». Но все чаще и чаще, в случаях ДНК-дактилоскопирования — это еще один — мы ожидаем что присяжные, обычные люди — и у нас много подтверждений что они плохо это делают — мы ожидаем что присяжные смогут справится с этими рассуждениями. Во всех остальных сферах, если бы люди рассуждали — ну, может быть кроме политики. Но во всех остальных сферах, если бы люди рассуждали нелогично, мы бы считали, что это плохо. От политиков мы как-то уже этого ожидаем и не надеемся на большее. В случае неопределенности, мы все время ошибаемся — и, по крайней мере, нам стоит об этом знать. И, в идеале, мы можем попробовать что-то с этим сделать. Большое спасибо.