As other speakers have said, it's a rather daunting experience -- a particularly daunting experience -- to be speaking in front of this audience. But unlike the other speakers, I'm not going to tell you about the mysteries of the universe, or the wonders of evolution, or the really clever, innovative ways people are attacking the major inequalities in our world. Or even the challenges of nation-states in the modern global economy. My brief, as you've just heard, is to tell you about statistics -- and, to be more precise, to tell you some exciting things about statistics. And that's -- (Laughter) -- that's rather more challenging than all the speakers before me and all the ones coming after me. (Laughter) One of my senior colleagues told me, when I was a youngster in this profession, rather proudly, that statisticians were people who liked figures but didn't have the personality skills to become accountants. (Laughter) And there's another in-joke among statisticians, and that's, "How do you tell the introverted statistician from the extroverted statistician?" To which the answer is, "The extroverted statistician's the one who looks at the other person's shoes." (Laughter) But I want to tell you something useful -- and here it is, so concentrate now. This evening, there's a reception in the University's Museum of Natural History. And it's a wonderful setting, as I hope you'll find, and a great icon to the best of the Victorian tradition. It's very unlikely -- in this special setting, and this collection of people -- but you might just find yourself talking to someone you'd rather wish that you weren't. So here's what you do. When they say to you, "What do you do?" -- you say, "I'm a statistician." (Laughter) Well, except they've been pre-warned now, and they'll know you're making it up. And then one of two things will happen. They'll either discover their long-lost cousin in the other corner of the room and run over and talk to them. Or they'll suddenly become parched and/or hungry -- and often both -- and sprint off for a drink and some food. And you'll be left in peace to talk to the person you really want to talk to.
Assim como outros já disseram, esta é uma experiência assustadora - uma experiência particularmente assustadora - falar para este público. Mas diferente dos outros apresentadores, eu não vou falar para vocês sobre os mistérios do universo, ou as maravilhas da evolução, ou as maneiras realmente inteligentes ou inovadoras que as pessoas estão atacando as maiores desigualdades em nosso mundo. Ou ainda os desafios dos estados-nações na economia moderna global. Meu assunto, como vocês acabaram de ouvir, é falar para vocês sobre estatísticas e, para ser mais preciso, para contar a vocês algumas coisas excitantes sobre estatísticas. E isto (Risos) isto ainda é muito mais desafiador do que todos os apresentadores antes de mim e todos que virão depois de mim. (Risos) Um dos meus colegas mais velhos me disse, quando era jovem nesta profissão bem orgulhoso, que os estatísticos eram pessoas que gostavam de números mas não tinham as habilidades de personalidade para se tornarem contadores. (Risos) E ainda tem uma piada interna entre os estatísticos, que é, "Como você diferencia um estatístico introvertido de um extrovertido?" Ao que a resposta é, "O estatístico extrovertido é aquele que olha para os sapatos das outras pessoas." (Risos) Mas eu quero dizer a vocês algo útil - e aqui vai, vamos nos concentrar agora. Esta noite, tem uma recepção no Museu de História Natural da Universidade. É uma decoração maravilhosa, como eu espero que vocês irão achar, e é um grande ícone do melhor da tradição Vitoriana. É bem improvável - ainda mais nesta recepção, e com este tipo de gente - pode ser que você se encontre conversando com alguém que você preferiria que não estivesse. Então, você faz assim: Quando disserem a você, "O que você faz?" -- você diz, "Eu sou estatístico." (Risos) Bom, a menos que já estejam pré-avisados, e eles vão saber que está inventando. Uma das duas coisas vai acontecer. Ou eles vão descobrir seus primos há muito tempo perdidos no outro canto da sala e vão lá correndo conversar com eles. Ou de repente eles vão ficar com sede ou com fome -- ou ambos -- e vão atrás de bebida e alguma coisa para comer. E então você será deixado em paz para conversar com a pessoa que você quer.
It's one of the challenges in our profession to try and explain what we do. We're not top on people's lists for dinner party guests and conversations and so on. And it's something I've never really found a good way of doing. But my wife -- who was then my girlfriend -- managed it much better than I've ever been able to. Many years ago, when we first started going out, she was working for the BBC in Britain, and I was, at that stage, working in America. I was coming back to visit her. She told this to one of her colleagues, who said, "Well, what does your boyfriend do?" Sarah thought quite hard about the things I'd explained -- and she concentrated, in those days, on listening. (Laughter) Don't tell her I said that. And she was thinking about the work I did developing mathematical models for understanding evolution and modern genetics. So when her colleague said, "What does he do?" She paused and said, "He models things." (Laughter) Well, her colleague suddenly got much more interested than I had any right to expect and went on and said, "What does he model?" Well, Sarah thought a little bit more about my work and said, "Genes." (Laughter) "He models genes."
É um dos desafios de nossa profissão tentar e explicar o que nós fazemos. Nós não estamos no topo da listas de convidados das pessoas para uma festa e conversas e etc. E esta é uma coisa que eu nunca consegui achar um jeito bom de fazer. Mas minha mulher - que então era minha namorada - conseguiu isto muito melhor do que eu. Muitos anos atrás, quando a gente começou a sair, ela trabalhava pela BBC no Reino Unido, e eu estava, na ocasião, trabalhando nos Estados Unidos. Eu estava voltando para visitá-la. E ela falou isto para um dos colegas dela, que disse, "Bom, o que o seu namorado faz?" Sarah pensou bastante sobre as coisas que eu tinha explicado - e ela se concentrava, naqueles dias, em me ouvir. (Risos) Não digam a ela que eu disse isto. E ela estava pensando sobre o trabalho que fiz desenvolvendo modelos matemáticos para entender a evolução e a genética moderna. Então uma dos colegas dela disse, "O que ele faz?" Ela parou, e disse, "Ele modela coisas.' (Risos) Bom, um dos colegas dela de repente ficou muito mais interessado do que eu tinha direito de esperar. então seguiu em frente e disse, "O que ele modela?" Bom, Sarah pensou um pouco mais sobre o meu trabalho e disse, "Genes (Jeans)." (Risos) "Ele modela genes (jeans)."
That is my first love, and that's what I'll tell you a little bit about. What I want to do more generally is to get you thinking about the place of uncertainty and randomness and chance in our world, and how we react to that, and how well we do or don't think about it. So you've had a pretty easy time up till now -- a few laughs, and all that kind of thing -- in the talks to date. You've got to think, and I'm going to ask you some questions. So here's the scene for the first question I'm going to ask you. Can you imagine tossing a coin successively? And for some reason -- which shall remain rather vague -- we're interested in a particular pattern. Here's one -- a head, followed by a tail, followed by a tail.
Este foi meu primeiro amor, e é o que eu tenho para dizer um pouco a vocês O que eu quero fazer mais genericamente é fazer vocês pensarem sobre o lugar da incerteza e do aleatório e das chances no nosso mundo, e como nós reagimos a isto, e quão bem nós pensamos ou não sobre isto. Então vocês tiveram uma folga até agora -- um pouco de risadas, e todas estas coisas -- nas conversas do dia. Vocês tem que pensar, e eu vou fazer algumas perguntas a vocês. Aqui está a cena para a primeira questão que eu vou perguntar a vocês. Vocês conseguem imaginar jogar cara-ou-coroa sucessivamente? E por alguma razão -- que vai ficar bem vaga -- nós estamos interessados em um padrão em específico. Aqui está um -- uma cara, seguida por uma coroa, seguida por uma coroa.
So suppose we toss a coin repeatedly. Then the pattern, head-tail-tail, that we've suddenly become fixated with happens here. And you can count: one, two, three, four, five, six, seven, eight, nine, 10 -- it happens after the 10th toss. So you might think there are more interesting things to do, but humor me for the moment. Imagine this half of the audience each get out coins, and they toss them until they first see the pattern head-tail-tail. The first time they do it, maybe it happens after the 10th toss, as here. The second time, maybe it's after the fourth toss. The next time, after the 15th toss. So you do that lots and lots of times, and you average those numbers. That's what I want this side to think about.
Então suponha que nós joguemos a moeda repetidamente. Então o padrão, cara-coroa-coroa, a que nós repentinamente ficamos presos acontece aqui. Então você pode contar: um, dois, três, quatro, cinco, seis, sete, oito, nove, 10 -- ela acontece após a décima jogada. Então vocês podem estar pensando que há coisas mais interessantes para se fazer, mas me acompanhem por enquanto. Imagine que a metade desta platéia pegue cada um uma moeda, e que eles as joguem. Até que eles vejam o padrão cara-coroa-coroa a primeira vez. Na primeira vez que eles façam isto, pode ser que isto acontece na décima jogada, como aqui. Na segunda vez, pode ser após a quarta jogada. Na próxima, após a décima quinta jogada. Então você faz isto muitas e muitas vezes, e faz a média destes números E sobre isto que eu quero vocês pensem.
The other half of the audience doesn't like head-tail-tail -- they think, for deep cultural reasons, that's boring -- and they're much more interested in a different pattern -- head-tail-head. So, on this side, you get out your coins, and you toss and toss and toss. And you count the number of times until the pattern head-tail-head appears and you average them. OK? So on this side, you've got a number -- you've done it lots of times, so you get it accurately -- which is the average number of tosses until head-tail-tail. On this side, you've got a number -- the average number of tosses until head-tail-head.
A outra metade da platéia não gosta de cara-coroa-coroa -- eles acham, por razão culturais profundas, que é chato -- e estão muito mais interessados um padrão diferente -- cara-coroa-cara. Então, deste lado, vocês pegam suas moedas, e jogam e jogam e jogam. E vocês contam o número de jogadas até que o padrão cara-coroa-cara apareça e vocês fazem as médias destes números, OK? Então deste lado, vocês tem um número -- e vocês fizeram isto muitas vezes, então vocês o tem precisamente -- qual é o número médio de jogadas até cara-coroa-coroa. Deste lado, vocês tem um número -- a média do número de jogadas até cara-coroa-cara.
So here's a deep mathematical fact -- if you've got two numbers, one of three things must be true. Either they're the same, or this one's bigger than this one, or this one's bigger than that one. So what's going on here? So you've all got to think about this, and you've all got to vote -- and we're not moving on. And I don't want to end up in the two-minute silence to give you more time to think about it, until everyone's expressed a view. OK. So what you want to do is compare the average number of tosses until we first see head-tail-head with the average number of tosses until we first see head-tail-tail.
Então aqui está uma fato matemático profundo -- se você tem dois números, uma destas três coisas deve ser verdade Ou eles são iguais, ou este é maior do que aquele, ou aquele é maior do que este. Então o que está acontecendo aqui? Vocês todos tem que pensar sobre isto, e todos vão ter que votar -- e nós não vamos ir adiante. E eu não quero acabar numa espera de dois minutos de silêncio para dar a vocês mais tempo para pensar sobre isto, até que todos tenham expressado um ponto de vista, OK. Então o que eu quero fazer é comparar a média do número de jogadas até que a gente veja cara-coroa-cara com a média de jogadas até que a gente veja cara-coroa-coroa.
Who thinks that A is true -- that, on average, it'll take longer to see head-tail-head than head-tail-tail? Who thinks that B is true -- that on average, they're the same? Who thinks that C is true -- that, on average, it'll take less time to see head-tail-head than head-tail-tail? OK, who hasn't voted yet? Because that's really naughty -- I said you had to. (Laughter) OK. So most people think B is true. And you might be relieved to know even rather distinguished mathematicians think that. It's not. A is true here. It takes longer, on average. In fact, the average number of tosses till head-tail-head is 10 and the average number of tosses until head-tail-tail is eight. How could that be? Anything different about the two patterns? There is. Head-tail-head overlaps itself. If you went head-tail-head-tail-head, you can cunningly get two occurrences of the pattern in only five tosses. You can't do that with head-tail-tail. That turns out to be important.
Quem acha que A é verdade-- que, na média, vai demorar mais para ver cara-coroa-cara do que cara-coroa-coroa? Quem acha que B é verdade -- que na verdade, ambos serão iguais? Quem acha que C é verdade -- que, na média, vai tomar menos tempo para ver cara-coroa-cara do que cara-coroa-coroa? OK, quem não votou ainda? Porque isto é realmente impróprio -- eu disse que tinham que votar. (Risos) OK. Então a maioria das pessoas pensam que B é verdade. E vocês podem se sentir aliviados que até os matemáticos mais distintos pensam isto. Não é. "A" é verdade aqui. Demora mais, na média. De fato, o número médio de jogadas até cara-coroa-cara é 10. E o número médio de jogadas até cara-coroa-coroa é oito. Como assim? Alguma diferença entre os dois padrões? Existe. Cara-coroa-cara se sobrepõe. Se você obtém cara-coroa-cara-coroa-cara, você pode ter duas ocorrências do padrão em apenas 5 jogadas. Você não pode fazer isto com cara-coroa-coroa. Isto acaba sendo importante.
There are two ways of thinking about this. I'll give you one of them. So imagine -- let's suppose we're doing it. On this side -- remember, you're excited about head-tail-tail; you're excited about head-tail-head. We start tossing a coin, and we get a head -- and you start sitting on the edge of your seat because something great and wonderful, or awesome, might be about to happen. The next toss is a tail -- you get really excited. The champagne's on ice just next to you; you've got the glasses chilled to celebrate. You're waiting with bated breath for the final toss. And if it comes down a head, that's great. You're done, and you celebrate. If it's a tail -- well, rather disappointedly, you put the glasses away and put the champagne back. And you keep tossing, to wait for the next head, to get excited.
Há duas formas de pensar sobre isto. E eu vou mostrar uma delas a vocês. Então pensem -- vamos supor que estamos fazendo isto. Deste lado -- lembrem-se, você ficam felizes com cara-coroa-coroa, e vocês ficam felizes com cara-coroa-cara. Nós vamos começar jogando uma moeda, e obtemos uma cara -- e vocês sentam na ponta da cadeira porque algo realmente bom e legal, ou maravilhoso, pode acontecer. A próxima jogada é uma coroa -- vocês realmente ficam excitados. A champagne no gelo está do seu lado, você tem taças geladas para celebrar. E você está esperando quase sem ar pela última jogada. Se vier uma cara, isto é ótimo. Vocês acabam e vocês celebram. Se for uma coroa -- bom, bem desapontado, você põe as taças de lado e a champagne de volta. E ficam jogando, esperando a próxima cara, para ficarem excitados.
On this side, there's a different experience. It's the same for the first two parts of the sequence. You're a little bit excited with the first head -- you get rather more excited with the next tail. Then you toss the coin. If it's a tail, you crack open the champagne. If it's a head you're disappointed, but you're still a third of the way to your pattern again. And that's an informal way of presenting it -- that's why there's a difference. Another way of thinking about it -- if we tossed a coin eight million times, then we'd expect a million head-tail-heads and a million head-tail-tails -- but the head-tail-heads could occur in clumps. So if you want to put a million things down amongst eight million positions and you can have some of them overlapping, the clumps will be further apart. It's another way of getting the intuition.
Neste outro lado, há uma experiência diferente. É o mesmo para as duas primeiras partes da sequência. Vocês ficam excitados com a primeira cara -- ficam muito mais excitados com a próxima coroa. E então vocês jogam uma moeda. Se for uma coroa, vocês estouram a champagne. Se for uma cara, vocês ficam desapontados, mas já estão a um terço do caminho ao seu padrão de novo. E esta é uma maneira informal de apresentar isto -- do porquê há uma diferença Outra maneira de pensar sobre isto =-- Se nós jogássemos uma moeda oito milhões de vezes, então nós esperaríamos um milhão de caras-coroas-caras e uma milhão de caraa-coroas-coroas -- mas os caras-coroas-caras aconteceriam amontoados. Então se você põe um milhão de coisas no meio de oito milhões de posições e você pode ter algumas delas se sobrepondo, os amontoados vão estar ainda mais separados. Esta é a outra forma de entender a intuição.
What's the point I want to make? It's a very, very simple example, an easily stated question in probability, which every -- you're in good company -- everybody gets wrong. This is my little diversion into my real passion, which is genetics. There's a connection between head-tail-heads and head-tail-tails in genetics, and it's the following. When you toss a coin, you get a sequence of heads and tails. When you look at DNA, there's a sequence of not two things -- heads and tails -- but four letters -- As, Gs, Cs and Ts. And there are little chemical scissors, called restriction enzymes which cut DNA whenever they see particular patterns. And they're an enormously useful tool in modern molecular biology. And instead of asking the question, "How long until I see a head-tail-head?" -- you can ask, "How big will the chunks be when I use a restriction enzyme which cuts whenever it sees G-A-A-G, for example? How long will those chunks be?"
Qual é a minha ideia? É um exemplo muito, muito simples, com uma pergunta facilmente colocada em probabilidade, que todos -- e vocês estão em boa compania -- todos erram. É uma pequena fuga da minha real paixão, que é a genética. Há uma conexão entre caras-coroas-caras e cara-coroas-coroas e genética, e é a seguinte. Quando você joga uma moeda, você tem uma sequência de caras e coroas. Quando você olha no DNA, há uma sequência não de duas coisas -- caras e coroas -- mas de quatro letras -- As, Gs, Cs e Ts. E há tesouras químicas, chamadas enzimas de restrição que cortam o DNA sempre que encontram um padrão específico. E eles são uma ferramenta enormemente útil na biologia molecular moderna. E ao invés de fazer a pergunta, "Quantas jogadas até eu ver cara-coroa-cara?" -- você pode perguntar, "Quais serão os tamanhos dos grupos quando eu usar uma enzima de restrição que corta sempre que vê G-A-A-G, por exemplo? Quais são os tamanhos destes grupos?"
That's a rather trivial connection between probability and genetics. There's a much deeper connection, which I don't have time to go into and that is that modern genetics is a really exciting area of science. And we'll hear some talks later in the conference specifically about that. But it turns out that unlocking the secrets in the information generated by modern experimental technologies, a key part of that has to do with fairly sophisticated -- you'll be relieved to know that I do something useful in my day job, rather more sophisticated than the head-tail-head story -- but quite sophisticated computer modelings and mathematical modelings and modern statistical techniques. And I will give you two little snippets -- two examples -- of projects we're involved in in my group in Oxford, both of which I think are rather exciting. You know about the Human Genome Project. That was a project which aimed to read one copy of the human genome. The natural thing to do after you've done that -- and that's what this project, the International HapMap Project, which is a collaboration between labs in five or six different countries. Think of the Human Genome Project as learning what we've got in common, and the HapMap Project is trying to understand where there are differences between different people.
Esta é uma conexão muito trivial entre probabilidade e genética. E há uma conexão mais profunda, que eu não tenho tempo de falar e que é que a genética moderna é uma área realmente excitante da ciência. E nós vamos escutar algumas apresentações mais tarde na conferência especifícamente sobre isto. Mas então que revelar os segredos na informação gerada pelas tecnologias modernas de experimentação, uma parte chave tem a ver com um sofisticado vocês ficarão aliviados em saber que eu faço algo útil no meu trabalho diurno, muito mais sofisticado que a história cara-coroa-cara -- mas modelos de computação e de matemática bem sofisticados e técnicas estatísticas modernas. Eu vou mostrar dois pequenos pedaços -- dois exemplos -- de projetos que estamos envolvidos em meu grupo em Oxford, ambos que eu acho muito excitantes. Vocês conhecem sobre o Projeto Genoma Humano. Este foi um projeto que tinha por meta ler uma cópia do genoma humano. E a coisa natural a se fazer depois que você fez isto -- e isto que é este projeto, Projeto Internacional HapMap, que é a colaboração entre laboratórios em cinco ou seis países diferentes. Pense no Projeto Genoma Humano como um aprendizado do que nós temos em comum, e o Projeto HapMap está tentando entender onde estão as diferenças entre as pessoas diferentes.
Why do we care about that? Well, there are lots of reasons. The most pressing one is that we want to understand how some differences make some people susceptible to one disease -- type-2 diabetes, for example -- and other differences make people more susceptible to heart disease, or stroke, or autism and so on. That's one big project. There's a second big project, recently funded by the Wellcome Trust in this country, involving very large studies -- thousands of individuals, with each of eight different diseases, common diseases like type-1 and type-2 diabetes, and coronary heart disease, bipolar disease and so on -- to try and understand the genetics. To try and understand what it is about genetic differences that causes the diseases. Why do we want to do that? Because we understand very little about most human diseases. We don't know what causes them. And if we can get in at the bottom and understand the genetics, we'll have a window on the way the disease works, and a whole new way about thinking about disease therapies and preventative treatment and so on. So that's, as I said, the little diversion on my main love.
Por que a gente se importa com isto? Bom, há muitas razões. A mais forte é que nós queremos entender como algumas diferenças podem fazer algumas pessoas mais suscetíveis a um tipo de doença -- diabete tipo-2, por exemplo -- e outras diferenças fazem as pessoas mais suscetíveis a doenças do coração, ou derrame, ou autismo e assim por diante. Este é um projeto grande. E há um segundo projeto grande, recentemente financiado pelo Wellcome Trust neste país, envolvendo grande estudos -- milhares de indivíduos, cada um com uma destas oito doenças diferentes, doenças comuns como diabete tipo 1 e 2, doenças coronárias, transtorno bipolar e assim por diante -- para testar e entender a genética. Para testar e entender o que há sobre as diferenças genéticas que causam as doenças. Por que nós queremos fazer isto? Porque nós entendemos muito pouco sobre a maioria das doenças humanas. Nós não sabemos o que as causam. E se nós conseguirmos chegar ao fundo e entender a genética, nós teremos uma idéia sobre como as doenças funcionam. Uma forma totalmente diferente de pensar sobre as terapias das doenças e sobre os tratamentos preventivos e assim por diante. E isto, como eu disse, é um pequeno desvio no meu grande amor,
Back to some of the more mundane issues of thinking about uncertainty. Here's another quiz for you -- now suppose we've got a test for a disease which isn't infallible, but it's pretty good. It gets it right 99 percent of the time. And I take one of you, or I take someone off the street, and I test them for the disease in question. Let's suppose there's a test for HIV -- the virus that causes AIDS -- and the test says the person has the disease. What's the chance that they do? The test gets it right 99 percent of the time. So a natural answer is 99 percent. Who likes that answer? Come on -- everyone's got to get involved. Don't think you don't trust me anymore. (Laughter) Well, you're right to be a bit skeptical, because that's not the answer. That's what you might think. It's not the answer, and it's not because it's only part of the story. It actually depends on how common or how rare the disease is. So let me try and illustrate that. Here's a little caricature of a million individuals. So let's think about a disease that affects -- it's pretty rare, it affects one person in 10,000. Amongst these million individuals, most of them are healthy and some of them will have the disease. And in fact, if this is the prevalence of the disease, about 100 will have the disease and the rest won't. So now suppose we test them all. What happens? Well, amongst the 100 who do have the disease, the test will get it right 99 percent of the time, and 99 will test positive. Amongst all these other people who don't have the disease, the test will get it right 99 percent of the time. It'll only get it wrong one percent of the time. But there are so many of them that there'll be an enormous number of false positives. Put that another way -- of all of them who test positive -- so here they are, the individuals involved -- less than one in 100 actually have the disease. So even though we think the test is accurate, the important part of the story is there's another bit of information we need.
De volta à algumas coisas mais mundanas do pensamento sobre a incerteza. Aqui vai uma outra pergunta a vocês -- agora vamos supor que nós temos um teste para uma doença que não é infalível, mas é muito bom. Ele acerta 99% das vezes. E eu pego um de vocês, ou pego alguém na rua, e eu testo para a doença em questão Vamos supor que seja um teste para o HIV - o vírus que causa a AIDS -- e o teste diz se a pessoa tem a doença. Qual é a chance que ela tenha a doença? O teste acerta 99% das vezes. Então a resposta natural é 99%. Quem gosta desta resposta? Vamos -- todo mundo tem que se envolver. Não pensem que vocês não confiam mais em mim. (Risos) Bom, vocês estão certos em serem um poucos céticos, porque esta não é a resposta. Que é o que vocês poderiam pensar. Esta não é a resposta, e ela não é pois é apenas uma parte da história. De fato isto depende de quão comum ou quão rara esta doença é. Então deixem-me tentar e ilustrar isto. Aqui está uma caricatura de um milhão de indivíduos Então vamos pensar sobre uma doença que afeta -- é bem rara, que afeta uma pessoa em 10.000. Entre este milhão de indivíduos, quase todos deles estão saudáveis e alguns deles vão ter a doença. E de fato, se esta é a prevalência da doença, cerca de 100 terão a doença e o resto não terá. Então vamos supor que nós testamos todos eles. O que acontece? Bom, entre os 100 que tem a doença, o teste vai acertar 99% das vezes, e 99 vão produzir um teste positivo. Entre todos os outros que não tem a doença, o teste vai acertar 99 porcento das vezes. E ele só vai errar um porcento da vezes. Mas existe tantos deles que vai ter um número enorme de falso positivos. Colocado de outra forma -- de todos aqueles que dão positivo -- aqui estão eles, os indivíduos envolvidos -- menos de 1 em 100 de fato vão ter a doença. Então mesmo que a gente pense que o teste é preciso, a parte importante da história é que há uma outra informação que nós precisamos.
Here's the key intuition. What we have to do, once we know the test is positive, is to weigh up the plausibility, or the likelihood, of two competing explanations. Each of those explanations has a likely bit and an unlikely bit. One explanation is that the person doesn't have the disease -- that's overwhelmingly likely, if you pick someone at random -- but the test gets it wrong, which is unlikely. The other explanation is that the person does have the disease -- that's unlikely -- but the test gets it right, which is likely. And the number we end up with -- that number which is a little bit less than one in 100 -- is to do with how likely one of those explanations is relative to the other. Each of them taken together is unlikely.
Aqui está a intuição chave. O que nós temos que fazer, uma vez que nós sabemos se o teste é positivo é pesar a plausibilidade, ou a possibilidade, de duas explicações excludentes. Cada uma destas explicações tem uma parte provável e outra improvável. Uma explicação é que a pessoa não tem a doença -- o que é muitíssimo provável, se você pegar alguém ao acaso -- mas o teste erra, o que é improvável. A outra explicação é que a pessoa tem a doença -- o que é improvável -- mas o teste acerta, o que é provável. E o número que nós obtivemos -- que é o número um pouco menor de 1 em 100 -- tem a ver com quão provável uma destas explicações são em relação a outra. Se juntar cada uma delas é improvável.
Here's a more topical example of exactly the same thing. Those of you in Britain will know about what's become rather a celebrated case of a woman called Sally Clark, who had two babies who died suddenly. And initially, it was thought that they died of what's known informally as "cot death," and more formally as "Sudden Infant Death Syndrome." For various reasons, she was later charged with murder. And at the trial, her trial, a very distinguished pediatrician gave evidence that the chance of two cot deaths, innocent deaths, in a family like hers -- which was professional and non-smoking -- was one in 73 million. To cut a long story short, she was convicted at the time. Later, and fairly recently, acquitted on appeal -- in fact, on the second appeal. And just to set it in context, you can imagine how awful it is for someone to have lost one child, and then two, if they're innocent, to be convicted of murdering them. To be put through the stress of the trial, convicted of murdering them -- and to spend time in a women's prison, where all the other prisoners think you killed your children -- is a really awful thing to happen to someone. And it happened in large part here because the expert got the statistics horribly wrong, in two different ways.
Um exemplo mais típico de uma coisa exatamente igual. Aqueles de vocês no Reino Unido vão saber sobre um caso que se tornou muito celebrado. de uma mulher chamada Sally Clark, que teve dois bebês que morreram repentinamente. E inicialmente, se pensou que eles morreram do que informalmente se conhece como morte súbita. e mais formalmente como Síndrome da Morte Repentina Infantil. Por várias razões, ela acabou sendo acusada de assassinato. E no julgamento dela, um pediatra muito distinto deu a evidência que a chance de duas mortes súbitas, mortes inocentes, numa família como a dela -- que era profissional e não fumante -- era de uma em 73 milhões. Para encurtar a história, ela foi condenada na ocasião. Depois, e bem recentemente, saiu na apelação -- na verdade, na segunda apelação. E apenas para pôr no contexto, você pode imaginar como é ruim para alguém perder uma criança, e então duas, se ela é inocente, ser condenado por ter as assassinado. Ser colocado no estresse do julgamento, condenado de assassiná-las -- e passar um tempo na prisão feminina, onde todas as prisioneiras acham que você matou suas crianças -- é realmente uma coisa muito ruim de se acontecer a alguém E isto aconteceu em grande parte aqui porque o especialista entendeu as estatísticas de forma terrivelmente errada, e duas maneiras diferentes.
So where did he get the one in 73 million number? He looked at some research, which said the chance of one cot death in a family like Sally Clark's is about one in 8,500. So he said, "I'll assume that if you have one cot death in a family, the chance of a second child dying from cot death aren't changed." So that's what statisticians would call an assumption of independence. It's like saying, "If you toss a coin and get a head the first time, that won't affect the chance of getting a head the second time." So if you toss a coin twice, the chance of getting a head twice are a half -- that's the chance the first time -- times a half -- the chance a second time. So he said, "Here, I'll assume that these events are independent. When you multiply 8,500 together twice, you get about 73 million." And none of this was stated to the court as an assumption or presented to the jury that way. Unfortunately here -- and, really, regrettably -- first of all, in a situation like this you'd have to verify it empirically. And secondly, it's palpably false. There are lots and lots of things that we don't know about sudden infant deaths. It might well be that there are environmental factors that we're not aware of, and it's pretty likely to be the case that there are genetic factors we're not aware of. So if a family suffers from one cot death, you'd put them in a high-risk group. They've probably got these environmental risk factors and/or genetic risk factors we don't know about. And to argue, then, that the chance of a second death is as if you didn't know that information is really silly. It's worse than silly -- it's really bad science. Nonetheless, that's how it was presented, and at trial nobody even argued it. That's the first problem. The second problem is, what does the number of one in 73 million mean? So after Sally Clark was convicted -- you can imagine, it made rather a splash in the press -- one of the journalists from one of Britain's more reputable newspapers wrote that what the expert had said was, "The chance that she was innocent was one in 73 million." Now, that's a logical error. It's exactly the same logical error as the logical error of thinking that after the disease test, which is 99 percent accurate, the chance of having the disease is 99 percent. In the disease example, we had to bear in mind two things, one of which was the possibility that the test got it right or not. And the other one was the chance, a priori, that the person had the disease or not. It's exactly the same in this context. There are two things involved -- two parts to the explanation. We want to know how likely, or relatively how likely, two different explanations are. One of them is that Sally Clark was innocent -- which is, a priori, overwhelmingly likely -- most mothers don't kill their children. And the second part of the explanation is that she suffered an incredibly unlikely event. Not as unlikely as one in 73 million, but nonetheless rather unlikely. The other explanation is that she was guilty. Now, we probably think a priori that's unlikely. And we certainly should think in the context of a criminal trial that that's unlikely, because of the presumption of innocence. And then if she were trying to kill the children, she succeeded. So the chance that she's innocent isn't one in 73 million. We don't know what it is. It has to do with weighing up the strength of the other evidence against her and the statistical evidence. We know the children died. What matters is how likely or unlikely, relative to each other, the two explanations are. And they're both implausible. There's a situation where errors in statistics had really profound and really unfortunate consequences. In fact, there are two other women who were convicted on the basis of the evidence of this pediatrician, who have subsequently been released on appeal. Many cases were reviewed. And it's particularly topical because he's currently facing a disrepute charge at Britain's General Medical Council.
Então de onde ele tirou o número um em 73 milhões? Ele viu em alguma pesquisa, que disse que a chance de uma morte súbita numa família como a de Sally Clark é de cerca de um em oito mil e quinhentos. Então ele disse: "Eu vou assumir que você ter uma morte súbita numa família, a chance de uma segunda criança morrer de morte súbita não muda." Isto é o que os estatísticos chamariam de suposição de independência. Isto é como dizer, "Se você jogar uma moeda e tiver cara na primeira vez, isto não vai afetar a chance de ter cara na segunda vez." Então se você joga uma moeda duas vezes, a change de ter cara duas vezes é meio -- que é a chance da primeira vez -- vezes meio -- a chance da segunda vez. Então ele disse: "Bom, vamos assumir -- eu vou assumir que estes eventos são independentes. Quando você multiplica oito mil e quinhentos juntos duas vezes, você tem cerca de 73 milhões." E nada disto foi disto para ao tribunal como uma suposição ou apresentado ao juri desta forma. Infelizmente aqui -- e realmente, lamentavelmente -- primeiro de tudo, numa situação como esta você tem que verificar isto de forma empírica. E em segundo, isto é paupavelmente falso. Há muitas e muitas coisas que nós não sabemos sobre mortes infantis súbitas. Pode bem ser que haja fatores ambientais que nós não sabemos, e é bem provável que fosse o caso em que houvesse os fatores genéticos que nós não sabemos também. Então se uma família sofre de uma morte súbita, você os põe num grupo de alto risco. Eles provavelmente tem estes fatores ambientais de risco e/ou fatores genéticos de risco que nós não sabemos. E para questionar, então, a chance de uma segunda morte sem saber esta informação é realmente boba. Pior que bobo -- isto é uma ciência muito ruim. Embora, isto foi apresentado assim, e no julgamento ninguém questionou isto. Este é o primeiro problema. O segundo problema é, o que este número de um em 73 milhões significa? Então depois que Sally Clark foi condenada -- você pode imaginar, isto fez um alvoroço na imprensa -- um dos jornalistas de um dos jornais mais respeitados do Reino Unido escreveu que o que o especialista disse foi que, "A chance de ela ser inocente é de um em 73 milhões." Agora, isto é um erro de lógica. É o mesmo erro de lógica daquele erro de se pensar que depois de um teste de uma doença, que é 99% preciso, a chance de ter a doença é 99%. No exemplo da doença, nós temos que ter em mente duas coisas, uma que é a possibilidade do teste acertar ou não. E a outra era a chance, a priori, de que a pessoa tivesse a doença ou não. É exatamente o mesmo neste contexto. Tem duas coisas envolvidas -- duas partes da explicação. Nós queremos saber quão provável, ou relativamente provável, duas explicações diferentes são. Uma delas é que Sally Clark era inocente -- o que, a priori, é muitíssimo provável -- a maioria das mães não matam seus filhos. E a segunda parte da explicação que é que ela sofreu de um evento incrivelmente improvável. Não tão improvável como um em 73 milhões, mas ainda assim bem improvável. A outra explicação é que ela era culpada. Agora, nós provavelmente achamos a priori que é improvável. E nós certamente pensamos isto no contexto de um julgamento criminal que é improvável, por causa da presunção da inocência. E então se ela estava tentando matar as crianças, ela conseguiu. Então a chance que ela seja inocente não é uma em 73 milhões. Nós não sabemos quanto é. Isto tem a ver com pesar a força de outra evidência contra ela e a evidência estatística. Nós sabemos que as crianças morreram. O que importa é quão provável ou improvável, relativamente uma a outra são as duas explicações. Elas são ambas implausíveis. E há uma situação em que os erros em estatísticas tiveram realmente profundas e realmente desafortunadas consequências. De fato, há outras duas mulheres que foram condenadas com base na evidência deste pediatra, que em seguida foram soltas na fase apelação. Muitos casos foram revistos. E isto é particularmente atual porque ele está enfrentando uma acusação de descrédito no Conselho Britânico Médico Geral.
So just to conclude -- what are the take-home messages from this? Well, we know that randomness and uncertainty and chance are very much a part of our everyday life. It's also true -- and, although, you, as a collective, are very special in many ways, you're completely typical in not getting the examples I gave right. It's very well documented that people get things wrong. They make errors of logic in reasoning with uncertainty. We can cope with the subtleties of language brilliantly -- and there are interesting evolutionary questions about how we got here. We are not good at reasoning with uncertainty. That's an issue in our everyday lives. As you've heard from many of the talks, statistics underpins an enormous amount of research in science -- in social science, in medicine and indeed, quite a lot of industry. All of quality control, which has had a major impact on industrial processing, is underpinned by statistics. It's something we're bad at doing. At the very least, we should recognize that, and we tend not to. To go back to the legal context, at the Sally Clark trial all of the lawyers just accepted what the expert said. So if a pediatrician had come out and said to a jury, "I know how to build bridges. I've built one down the road. Please drive your car home over it," they would have said, "Well, pediatricians don't know how to build bridges. That's what engineers do." On the other hand, he came out and effectively said, or implied, "I know how to reason with uncertainty. I know how to do statistics." And everyone said, "Well, that's fine. He's an expert." So we need to understand where our competence is and isn't. Exactly the same kinds of issues arose in the early days of DNA profiling, when scientists, and lawyers and in some cases judges, routinely misrepresented evidence. Usually -- one hopes -- innocently, but misrepresented evidence. Forensic scientists said, "The chance that this guy's innocent is one in three million." Even if you believe the number, just like the 73 million to one, that's not what it meant. And there have been celebrated appeal cases in Britain and elsewhere because of that.
Então apenas para concluir -- qual é a moral da história disto tudo? Bom, nós sabemos que o acaso, e a incerteza, e as chances fazem parte de verdade na nossa vida cotidiana. Também é verdade -- e, embora, vocês, como um grupo, são especiais em muitas maneiras, é muito típico em não entender corretamente os exemplos que dei. É bem documentado que as pessoas entendem errado. Eles cometem erros de lógica no pensamento sobre a incerteza. Nós podemos lidar com as sutilezas da linguagem brilhantemente -- e há questão interessantes sobre a evolução de como chegamos até aqui. Nós não somos bom em pensar com incertezas. E isto é um problema na nossa vida diária. Assim como vocês ouviram em muitas das apresentações, as estatísticas apoiam uma quantidade enorme de pesquisa na ciência -- nas ciências sociais, na medicina e de fato, muito na indústria também. Todo o controle de qualidade, que tem tido um grande impacto no processamento industrial, é apoiado pelas estatísticas. É algo que a gente não faz bem. E no mínimo, nós deveríamos reconhecer isto, e nós tendemos a não fazer. Voltando ao contexto legal, no julgamento de Sally Clark todos os advogados simplesmente aceitaram o que os especialistas disseram Então se um pediatra vem e fala para o juri, "Eu sei como construir pontes. Eu construí uma ali na estrada. Por favor, dirija o seu carro sobre ela." eles diriam, "Bem, pediatras não sabem como construir pontes. Isto é o que os engenheiros fazem." Por outro lado, ele veio e disse de verdade, ou de maneira implícita, "Eu sei como pensar sobre a incerteza. Eu sei estatísticas." E todos disseram, "Bom, está tudo bem. Ele é um especialista." Então nós precisamos entender onde nossa competência está e não está. Exatamente os mesmos problemas que surgiram nos primeiros dias de identificação por DNA quando cientistas, e advogados e em alguns casos, juízes, rotineiramente apresentaram evidências erradas. Normalmente -- assim se espera -- inocentemente, mas evidências erradas. Cientistas forenses disseram: "A chance que este cara seja inocente é uma em três milhões." Se você acredita neste número, assim como o de 73 milhões para um, isto não é o que ele significa. E há casos celebrados de apelação no Reino Unido e em outros lugares por causa disto.
And just to finish in the context of the legal system. It's all very well to say, "Let's do our best to present the evidence." But more and more, in cases of DNA profiling -- this is another one -- we expect juries, who are ordinary people -- and it's documented they're very bad at this -- we expect juries to be able to cope with the sorts of reasoning that goes on. In other spheres of life, if people argued -- well, except possibly for politics -- but in other spheres of life, if people argued illogically, we'd say that's not a good thing. We sort of expect it of politicians and don't hope for much more. In the case of uncertainty, we get it wrong all the time -- and at the very least, we should be aware of that, and ideally, we might try and do something about it. Thanks very much.
E apenas para fechar no contexto do sistema legal. Está tudo bem dizer, "Vamos fazer o nosso melhor para apresentar a evidência." Mas mais e mais, nos casos de identificação por DNA -- e este é outro caso -- nós esperamos que os júris, que são pessoas normais -- e está documentado que nós somos realmente ruins nisto -- nós esperamos que os júris sejam capazes de lidar com os tipos de pensamento que surgem. Em outras áreas da vida, se as pessoas discutissem -- bom, exceto na políticas possivelmente mas em outras áreas da vida, se as pessoas discutissem ilogicamente, nós diríamos que isto não é uma boa coisa. Nós até esperamos isto dos políticos e não esperamos por muito mais. No caso da incerteza, nós erramos o tempo todo -- e no mínimo de verdade, nós deveríamos estar cientes disto. E idealmente, nós poderíamos tentar e fazer algo sobre isto. Muito obrigado.