So, security is two different things: it's a feeling, and it's a reality. And they're different. You could feel secure even if you're not. And you can be secure even if you don't feel it. Really, we have two separate concepts mapped onto the same word. And what I want to do in this talk is to split them apart -- figuring out when they diverge and how they converge. And language is actually a problem here. There aren't a lot of good words for the concepts we're going to talk about. So if you look at security from economic terms, it's a trade-off.
La seguridad es dos cosas diferentes: es una sensación, y es una realidad. Y son diferentes. Podrían sentirse seguros aun cuando no lo estén. Y pueden estar seguros aun cuando no se sientan seguros. En realidad, tenemos dos conceptos distintos asignados a la misma palabra. Y lo que quiero hacer en esta charla es separar el uno del otro y darnos cuenta de cuándo divergen y de cómo convergen. Y en realidad el lenguaje es un problema para esto. No hay muchas palabras útiles para los conceptos que vamos a describir. Así que si miran la seguridad del punto de vista económico, se trata de intercambiar una cosa por otra.
Every time you get some security, you're always trading off something. Whether this is a personal decision -- whether you're going to install a burglar alarm in your home -- or a national decision, where you're going to invade a foreign country -- you're going to trade off something: money or time, convenience, capabilities, maybe fundamental liberties. And the question to ask when you look at a security anything is not whether this makes us safer, but whether it's worth the trade-off. You've heard in the past several years, the world is safer because Saddam Hussein is not in power. That might be true, but it's not terribly relevant. The question is: Was it worth it? And you can make your own decision, and then you'll decide whether the invasion was worth it. That's how you think about security: in terms of the trade-off.
Cada vez que obtienen un poco de seguridad, siempre están intercambiándola por otra cosa. Sea esta es una decisión personal -si van a instalar una alarma antirrobo en su hogar- o una decisión nacional -si van a invadir otro país- van a sacrificar algo, ya sea dinero o tiempo, comodidad, capacidad, quizás libertades fundamentales. Y lo que deben preguntarse cuando miran algo de seguridad no es si esto nos hace más seguros, sino que si vale la pena el sacrificio. Han escuchado durante los últimos años que el mundo es más seguro porque Saddam Hussein no gobierna Irak. Eso puede ser cierto, pero no es terriblemente relevante. La pregunta es: ¿Valió la pena? Y pueden tomar su propia decisión y con eso decidir si la invasión valió la pena. Así se piensa acerca de la seguridad; en términos de decidirse por algo en desmedro de otra cosa.
Now, there's often no right or wrong here. Some of us have a burglar alarm system at home and some of us don't. And it'll depend on where we live, whether we live alone or have a family, how much cool stuff we have, how much we're willing to accept the risk of theft. In politics also, there are different opinions. A lot of times, these trade-offs are about more than just security, and I think that's really important. Now, people have a natural intuition about these trade-offs. We make them every day. Last night in my hotel room, when I decided to double-lock the door, or you in your car when you drove here; when we go eat lunch and decide the food's not poison and we'll eat it.
A menudo no hay buenas o malas decisiones en esto. Algunos de nosotros tenemos alarmas antirrobo en la casa y otros no lo tenemos. Y dependerá de donde vivimos, si es que vivimos solos o tenemos familia, la cantidad de cosas preciadas que tengamos, cuánto riesgo de robo estemos dispuestos a aceptar. En la política también hay diferentes opiniones. Muchas veces, estos sacrificios son sobre más que sólo seguridad, y creo que eso es muy importante. Ahora, la gente tiene una intuición natural sobre estos sacrificios. Los hacemos todos los días; anoche en mi habitación de hotel, cuando decidí cerrar la puerta con doble llave, o cuando ustedes conducían para acá en su automóvil, cuando vamos a almorzar y decidimos que la comida no tiene veneno y la comemos.
We make these trade-offs again and again, multiple times a day. We often won't even notice them. They're just part of being alive; we all do it. Every species does it. Imagine a rabbit in a field, eating grass. And the rabbit sees a fox. That rabbit will make a security trade-off: "Should I stay, or should I flee?" And if you think about it, the rabbits that are good at making that trade-off will tend to live and reproduce, and the rabbits that are bad at it will get eaten or starve. So you'd think that us, as a successful species on the planet -- you, me, everybody -- would be really good at making these trade-offs. Yet it seems, again and again, that we're hopelessly bad at it.
Tomamos estas decisiones una y otra vez muchas veces al día. A menudo ni siquiera nos damos cuenta. Son parte de estar vivo, todos lo hacemos. Todas las especies lo hacen. Imaginen un conejo en un campo, comiendo pasto, y el conejo repentinamente ve un zorro. Ese conejo tomará una decisión para su seguridad: "¿Debo quedarme o debo huir?" Y si lo piensan, los conejos que toman la decisión apropiada tienden a vivir y reproducirse, y los conejos que no lo hacen bien son comidos o se mueren de hambre. Así que uno pensaría que nosotros, como una especie exitosa en el planeta -ustedes, yo, todos nosotros- seríamos muy buenos para elegir una cosa en vez de otra. Y sin embargo observamos que, una y otra vez, somos irremediablemente malos para esto.
And I think that's a fundamentally interesting question. I'll give you the short answer. The answer is, we respond to the feeling of security and not the reality. Now, most of the time, that works. Most of the time, feeling and reality are the same. Certainly that's true for most of human prehistory. We've developed this ability because it makes evolutionary sense. One way to think of it is that we're highly optimized for risk decisions that are endemic to living in small family groups in the East African Highlands in 100,000 BC. 2010 New York, not so much. Now, there are several biases in risk perception. A lot of good experiments in this. And you can see certain biases that come up again and again. I'll give you four.
Y creo que eso es una pregunta fundamentalmente interesante. Les daré la respuesta corta. La respuesta es que respondemos a la sensación de seguridad y no a la realidad. Ahora, la mayoría de las veces, eso funciona. La mayor parte del tiempo la sensación y la realidad son iguales. Sin duda eso es cierto para casi toda la prehistoria humana. Hemos desarrollado esta habilidad porque obedece la lógica evolutiva. Una manera de pensarlo es que estamos altamente optimizados para tomar decisiones sobre riesgos endémicos a los que viven en pequeños grupos familiares en las tierras altas de África oriental 100 mil años a. C., y no tanto para Nueva York el 2010. Ahora bien, hay varios sesgos en la percepción del riesgo. Hay muchos experimentos buenos sobre esto. Y pueden ver ciertos sesgos que surgen una y otra vez. Y les voy a dar cuatro.
We tend to exaggerate spectacular and rare risks and downplay common risks -- so, flying versus driving. The unknown is perceived to be riskier than the familiar. One example would be: people fear kidnapping by strangers, when the data supports that kidnapping by relatives is much more common. This is for children. Third, personified risks are perceived to be greater than anonymous risks. So, Bin Laden is scarier because he has a name. And the fourth is: people underestimate risks in situations they do control and overestimate them in situations they don't control. So once you take up skydiving or smoking, you downplay the risks. If a risk is thrust upon you -- terrorism is a good example -- you'll overplay it, because you don't feel like it's in your control.
Tendemos a exagerar los riesgos espectaculares e inusuales y minimizar los riesgos comunes; por eso la diferencia entre volar y manejar. Lo desconocido es percibido como más riesgoso que lo familiar. Un ejemplo sería que la gente teme ser secuestrada por desconocidos y los datos muestran que ser secuestrado por familiares es mucho más común. Esto se aplica para niños. En tercer lugar, los riesgos personificados son percibidos como mayores que los riesgos anónimos; por eso Bin Laden da más miedo porque tiene nombre. Y el cuarto es que la gente subestima los riesgos en situaciones donde tienen el control y los sobreestiman en situaciones que no controlan. Así que cuando practicas paracaidismo o fumas minimizas los riesgos de estos. Si te fuerzan a aceptar un riesgo -el terrorismo es un buen ejemplo- lo exagerarás, porque no sientes como si lo controlaras.
There are a bunch of other of these cognitive biases, that affect our risk decisions. There's the availability heuristic, which basically means we estimate the probability of something by how easy it is to bring instances of it to mind. So you can imagine how that works. If you hear a lot about tiger attacks, there must be a lot of tigers around. You don't hear about lion attacks, there aren't a lot of lions around. This works, until you invent newspapers, because what newspapers do is repeat again and again rare risks. I tell people: if it's in the news, don't worry about it, because by definition, news is something that almost never happens.
Hay un montón de sesgos más, de estos sesgos cognitivos, que afectan nuestras decisiones sobre riesgos. Está la heurística de disponibilidad, que significa básicamente que estimamos la probabilidad de cualquier cosa por lo fácil que es pensar en instancias de esto. Y se pueden imaginar cómo funciona eso. Si escuchas mucho sobre ataques de tigre deben haber muchos tigres alrededor. No escuchas hablar de ataques de león así que no hay muchos leones alrededor. Esto funciona hasta que inventas los periódicos. Porque lo que los periódicos hacen es repetir una y otra vez los riesgos inusuales. Le digo a la gente: "si está en las noticias, no te preocupes por eso". Porque, por definición, las noticias son algo que casi nunca sucede.
(Laughter)
(Risas)
When something is so common, it's no longer news. Car crashes, domestic violence -- those are the risks you worry about. We're also a species of storytellers. We respond to stories more than data. And there's some basic innumeracy going on. I mean, the joke "One, two, three, many" is kind of right. We're really good at small numbers. One mango, two mangoes, three mangoes, 10,000 mangoes, 100,000 mangoes -- it's still more mangoes you can eat before they rot. So one half, one quarter, one fifth -- we're good at that. One in a million, one in a billion -- they're both almost never.
Cuando algo es tan común que deja de ser noticia (accidentes automovilísticos, violencia familiar); esos son los riesgos que hay que tener presentes. También somos una especie que contamos historias. Respondemos ante las historias más que a los datos. Y tenemos algo de incapacidad aritmética básica. Es decir, el chiste de "Uno, dos, tres, muchos" no se equivoca mucho. Somos muy buenos para los números pequeños. Un mango, dos mangos, tres mangos; diez mil mangos, cien mil mangos: son más mangos de los que puedas comer antes que se pudran. Así que la mitad, un cuarto, un quinto; somos buenos para eso. Uno en un millón, uno en un billón; los dos son casi nunca.
So we have trouble with the risks that aren't very common. And what these cognitive biases do is they act as filters between us and reality. And the result is that feeling and reality get out of whack, they get different. Now, you either have a feeling -- you feel more secure than you are, there's a false sense of security. Or the other way, and that's a false sense of insecurity.
Así que tenemos problemas con los riesgos que no son muy frecuentes. Y lo que estos sesgos cognitivos hacen es que actúan como filtros entre nosotros y la realidad. Y el resultado es que la sensación y la realidad se desequilibran, se tornan diferentes. Así que puedes tener la sensación; sentirte más seguro de lo que estás. Hay una sensación irreal de seguridad. O al contrario, y esa es una sensación irreal de inseguridad.
I write a lot about "security theater," which are products that make people feel secure, but don't actually do anything. There's no real word for stuff that makes us secure, but doesn't make us feel secure. Maybe it's what the CIA is supposed to do for us. So back to economics. If economics, if the market, drives security, and if people make trade-offs based on the feeling of security, then the smart thing for companies to do for the economic incentives is to make people feel secure. And there are two ways to do this.
Escribo mucho sobre "teatro de seguridad", que son productos que hacen que la gente se sienta segura pero que en realidad no hacen nada. No hay una palabra apropiada para cosas que nos den seguridad, pero que no nos hagan sentir seguros. Quizás esto es lo que se supone que la CIA debería lograr. Y volvamos a la economía. Si la economía, si el mercado, son lo que impulsan a la seguridad y si la gente hace concesiones basadas en su sensación de seguridad, entonces lo más inteligente que las empresas pueden hacer por sus propios incentivos económicos es lograr la gente se sienta segura. Y hay dos maneras de hacer esto.
One, you can make people actually secure and hope they notice. Or two, you can make people just feel secure and hope they don't notice. Right? So what makes people notice? Well, a couple of things: understanding of the security, of the risks, the threats, the countermeasures, how they work. But if you know stuff, you're more likely to have your feelings match reality. Enough real-world examples helps. We all know the crime rate in our neighborhood, because we live there, and we get a feeling about it that basically matches reality. Security theater is exposed when it's obvious that it's not working properly.
Uno, pueden hacer que la gente realmente esté segura y esperar que se den cuenta. O dos, pueden hacer que la gente se sienta segura y esperar que no se den cuenta. Entonces, ¿qué hace que la gente se dé cuenta? Bueno, un par de cosas: entender qué es la seguridad, los riesgos, las amenazas, las medidas previas, cómo funcionan. Pero si sabes esas cosas, es más probable que tus sensaciones calcen con la realidad. Ayuda tener suficientes ejemplos del mundo real. Ahora todos sabemos la tasa de crímenes en nuestro vecindario, porque vivimos allí y tenemos una sensación al respecto que esencialmente calza con la realidad. El teatro de seguridad queda expuesto cuando es obvio que no está funcionando correctamente.
OK. So what makes people not notice? Well, a poor understanding. If you don't understand the risks, you don't understand the costs, you're likely to get the trade-off wrong, and your feeling doesn't match reality. Not enough examples. There's an inherent problem with low-probability events. If, for example, terrorism almost never happens, it's really hard to judge the efficacy of counter-terrorist measures. This is why you keep sacrificing virgins, and why your unicorn defenses are working just great. There aren't enough examples of failures. Also, feelings that cloud the issues -- the cognitive biases I talked about earlier: fears, folk beliefs -- basically, an inadequate model of reality.
Y entonces, ¿qué hace que la gente no se dé cuenta? Bueno, una mala comprensión. Si no entiendes los riesgos, no entiendes los costos, es probable que tomes una mala decisión, y que tu sensación no corresponda con la realidad. Ejemplos insuficientes: Hay un problema intrínseco con eventos de baja probabilidad. Si, por ejemplo, casi nunca hay actos terroristas, es muy difícil medir cuan eficientes son las medidas en la lucha contra el terrorismo. Por eso sigues sacrificando vírgenes, y la razón que tus defensas de unicornio estén funcionando de maravilla. No hay suficientes ejemplos de fracasos. Además, las sensaciones que nublan los temas; los sesgos cognitivos que mencioné antes, los miedos, las creencias populares, son básicamente un modelo inadecuado de la realidad.
So let me complicate things. I have feeling and reality. I want to add a third element. I want to add "model." Feeling and model are in our head, reality is the outside world; it doesn't change, it's real. Feeling is based on our intuition, model is based on reason. That's basically the difference. In a primitive and simple world, there's really no reason for a model, because feeling is close to reality. You don't need a model. But in a modern and complex world, you need models to understand a lot of the risks we face.
Y déjenme complicar las cosas. Está la sensación y la realidad. Quiero añadir un tercer elemento. Quiero añadir el modelo. Sensación y modelo dentro de nuestra cabeza, la realidad es el mundo exterior. No cambia, es real. Y la sensación se basa en la intuición. El modelamiento se basa en la razón. Eso es básicamente la diferencia. En un mundo primitivo y simple, no hay ninguna razón real para un modelo. Porque la sensación es muy similar a la realidad. No necesitas un modelo. Pero en un mundo moderno y complejo, necesitas modelos para comprender muchos de los riesgos que enfrentamos.
There's no feeling about germs. You need a model to understand them. This model is an intelligent representation of reality. It's, of course, limited by science, by technology. We couldn't have a germ theory of disease before we invented the microscope to see them. It's limited by our cognitive biases. But it has the ability to override our feelings. Where do we get these models? We get them from others. We get them from religion, from culture, teachers, elders.
Los gérmenes no nos generan una sensación. Se necesita un modelo para entenderlos. Así que este modelo es una representación inteligente de la realidad. Está, por supuesto, limitado por la ciencia, por la tecnología. No podríamos tener una teoría de los gérmenes en enfermedades antes de que inventáramos el microscopio para verlos. Está limitado por nuestros prejuicios cognitivos. Pero tiene la capacidad de imponerse por sobre nuestras sensaciones. ¿De dónde obtenemos estos modelos? De los demás. Los obtenemos de la religión, de la cultura, de los profesores, de los mayores.
A couple years ago, I was in South Africa on safari. The tracker I was with grew up in Kruger National Park. He had some very complex models of how to survive. And it depended on if you were attacked by a lion, leopard, rhino, or elephant -- and when you had to run away, when you couldn't run away, when you had to climb a tree, when you could never climb a tree. I would have died in a day. But he was born there, and he understood how to survive. I was born in New York City. I could have taken him to New York, and he would have died in a day.
Hace un par de años estaba de safari en Sudáfrica. El guía con que estaba había crecido en el Parque Nacional Kruger. Tenía unos modelos de supervivencia muy complejos. Y dependía de si habías sido atacado por un león o un leopardo o un rinoceronte o un elefante -y cuando tenías que huir, y cuando tenías que subirte a un árbol, cuando no podías en ningún caso subirte a un árbol-. Me habría muerto en un día pero él nació allí y entendía cómo sobrevivir. Yo nací en Nueva York. Lo podría haber llevado a Nueva York y él se habría muerto en un día.
(Laughter)
(Risas)
Because we had different models based on our different experiences. Models can come from the media, from our elected officials ... Think of models of terrorism, child kidnapping, airline safety, car safety. Models can come from industry. The two I'm following are surveillance cameras, ID cards, quite a lot of our computer security models come from there.
Porque teníamos modelos diferentes basados en nuestras experiencias diferentes. Los modelos pueden provenir de los medios, de nuestros políticos electos. Piensen en los modelos de terrorismo, de secuestro infantil, de seguridad aérea, seguridad de los vehículos. Los modelos pueden provenir de la industria. Los dos que estoy siguiendo son las cámaras de vigilancia y las tarjetas de identificación, muchos de nuestros modelos de seguridad informática vienen de esto.
A lot of models come from science. Health models are a great example. Think of cancer, bird flu, swine flu, SARS. All of our feelings of security about those diseases come from models given to us, really, by science filtered through the media. So models can change. Models are not static. As we become more comfortable in our environments, our model can move closer to our feelings.
Muchos de los modelos provienen de la ciencia. Un muy buen ejemplo son los modelos de salud. Piensen en cáncer, en gripe aviar, en gripe porcina, en SARS. Todas nuestras sensaciones de seguridad acerca de esas enfermedades provienen, en realidad, de los modelos entregados a nosotros por la ciencia filtrada a través de los medios. Y los modelos pueden cambiar. Los modelos no son estáticos. A medida que nos sentimos más cómodos en nuestros ambientes, nuestro modelo se va acercando a nuestra sensación.
So an example might be, if you go back 100 years ago, when electricity was first becoming common, there were a lot of fears about it. There were people who were afraid to push doorbells, because there was electricity in there, and that was dangerous. For us, we're very facile around electricity. We change light bulbs without even thinking about it. Our model of security around electricity is something we were born into. It hasn't changed as we were growing up. And we're good at it. Or think of the risks on the Internet across generations -- how your parents approach Internet security, versus how you do, versus how our kids will.
Así que un ejemplo podría ser, si nos remontamos 100 años atrás cuando la electricidad se tornaba cada vez más común, había un montón de temores con respecto a esta. Quiero decir, había personas que tenían miedo de presionar un timbre ya que había electricidad dentro de él y eso era peligroso. Para nosotros no hay problemas cerca de la electricidad. Cambiamos las ampolletas sin siquiera pensar en ello. Nuestro modelo de seguridad con respecto a la electricidad es algo con lo cual nacemos. No ha cambiado mientras hemos ido creciendo. Y somos buenos para manejarlo. O piensen en los riesgos con respecto a Internet entre generaciones; cómo sus padres determinan la seguridad en Internet frente a cómo lo hacen ustedes frente a cómo lo harán nuestros hijos.
Models eventually fade into the background. "Intuitive" is just another word for familiar. So as your model is close to reality and it converges with feelings, you often don't even know it's there. A nice example of this came from last year and swine flu. When swine flu first appeared, the initial news caused a lot of overreaction. Now, it had a name, which made it scarier than the regular flu, even though it was more deadly. And people thought doctors should be able to deal with it. So there was that feeling of lack of control. And those two things made the risk more than it was.
Con el tiempo los modelos se van al inconsciente. Intuitivo es sólo otra palabra para familiar. Así que cuando el modelo se acerca a la realidad y converge con las sensaciones, a menudo no te das cuenta que está ahí. Y un buen ejemplo de esto apareció el año pasado con la gripe porcina. Cuando la gripe porcina apareció por primera vez la noticia inicial causó una reacción muy exagerada. Ahora tenía un nombre, lo que la hacía más atemorizante que la gripe común, a pesar de que era más letal. Y la gente pensó que los médicos debían ser capaces de manejarla. Así que estaba esa sensación de falta de control. Y esas dos cosas
As the novelty wore off and the months went by, there was some amount of tolerance; people got used to it. There was no new data, but there was less fear. By autumn, people thought the doctors should have solved this already. And there's kind of a bifurcation: people had to choose between fear and acceptance -- actually, fear and indifference -- and they kind of chose suspicion. And when the vaccine appeared last winter, there were a lot of people -- a surprising number -- who refused to get it. And it's a nice example of how people's feelings of security change, how their model changes, sort of wildly, with no new information, with no new input. This kind of thing happens a lot.
hacían que el riesgo pareciera más de lo que era. Mientras fue desapareciendo la novedad y pasando los meses, hubo una cantidad de tolerancia, la gente se acostumbró. No hubo datos nuevos, pero había menos temor. Para la llegada del otoño, la gente pensaba que los médicos ya deberían haberlo resuelto. Y hay una especie de bifurcación; la gente tuvo que elegir entre el miedo y la aceptación -en realidad entre el miedo y la indiferencia- y como que en realidad quedaron sospechosos. Y cuando el invierno pasado apareció la vacuna hubo una gran cantidad de personas -un número sorprendente- que se negó a ponérsela; un buen ejemplo de cómo cambian las sensaciones de seguridad, cómo cambian sus modelos, un poco descontrolados sin nueva información, sin nuevos inputs. Este tipo de cosas sucede frecuentemente.
I'm going to give one more complication. We have feeling, model, reality. I have a very relativistic view of security. I think it depends on the observer. And most security decisions have a variety of people involved. And stakeholders with specific trade-offs will try to influence the decision. And I call that their agenda. And you see agenda -- this is marketing, this is politics -- trying to convince you to have one model versus another, trying to convince you to ignore a model and trust your feelings, marginalizing people with models you don't like. This is not uncommon. An example, a great example, is the risk of smoking. In the history of the past 50 years, the smoking risk shows how a model changes, and it also shows how an industry fights against a model it doesn't like.
Les voy a dar una complicación más. Tenemos la sensación, el modelo, la realidad. Tengo una visión muy relativista de la seguridad. Creo que depende del observador. Y la mayoría de las decisiones sobre seguridad involucran a varias personas. Y las partes interesadas, cada una con beneficios y perdidas propias, tratarán de influenciar la decisión. Yo llamo a eso su agenda. Y se pueden ver las agendas -en el marketing, en la política- tratando de convencerlos de elegir un modelo en vez de otro, tratando de convencerlos de ignorar un modelo y de confiar en sus sensaciones, dejando de lado a las personas con modelos que no les gustan. Esto es bastante frecuente. Un ejemplo, un gran ejemplo, es el riesgo de fumar. Durante los últimos 50 años, el riesgo de fumar muestra cómo va cambiando un modelo y también muestra cómo una industria pelea contra un modelo que no le gusta.
Compare that to the secondhand smoke debate -- probably about 20 years behind. Think about seat belts. When I was a kid, no one wore a seat belt. Nowadays, no kid will let you drive if you're not wearing a seat belt. Compare that to the airbag debate, probably about 30 years behind. All examples of models changing. What we learn is that changing models is hard. Models are hard to dislodge. If they equal your feelings, you don't even know you have a model. And there's another cognitive bias I'll call confirmation bias, where we tend to accept data that confirms our beliefs and reject data that contradicts our beliefs. So evidence against our model, we're likely to ignore, even if it's compelling. It has to get very compelling before we'll pay attention.
Comparen esto con el debate del humo de segunda mano; el mismo caso probablemente 20 años antes. Piensen acerca de los cinturones de seguridad. Cuando yo era niño, nadie se ponía el cinturón de seguridad. Hoy en día, ningún niño te permite manejar si no lo llevas puesto. Comparen esto con el debate del airbag; probablemente como 30 años atrasado. Todos son ejemplos de modelos que van cambiando. Lo que aprendemos es que cambiar los modelos es difícil. Los modelos son difíciles de desalojar. Si estos son iguales a sus sensaciones, ni siquiera se darán cuenta que tienen un modelo. Y hay otro sesgo cognitivo que llamaré sesgo de confirmación, donde tendemos a aceptar los datos que confirman nuestras creencias y rechazar los datos que las contradicen. Y es probable que ignoremos la evidencia en contra de nuestro modelo, incluso si es convincente. Debe ser súper convincente antes de que le prestemos atención.
New models that extend long periods of time are hard. Global warming is a great example. We're terrible at models that span 80 years. We can do "to the next harvest." We can often do "until our kids grow up." But "80 years," we're just not good at. So it's a very hard model to accept. We can have both models in our head simultaneously -- that kind of problem where we're holding both beliefs together, the cognitive dissonance. Eventually, the new model will replace the old model.
Aún más complejos son los nuevos modelos que se extenderán por mucho tiempo. El calentamiento global es un gran ejemplo. Somos terribles para modelos que abarcan 80 años. Podemos modelar la próxima cosecha. De repente podemos modelar hasta que nuestros hijos crezcan. Pero simplemente no somos buenos para 80 años. Y entonces es un modelo muy difícil de aceptar. Podemos tener ambos modelos en nuestra cabeza al mismo tiempo, ese tipo de problema donde tenemos ambas creencias al mismo tiempo; la disonancia cognitiva. Con el tiempo,
Strong feelings can create a model.
el nuevo modelo reemplazará al antiguo.
September 11 created a security model in a lot of people's heads. Also, personal experiences with crime can do it, personal health scare, a health scare in the news. You'll see these called "flashbulb events" by psychiatrists. They can create a model instantaneously, because they're very emotive. So in the technological world, we don't have experience to judge models. And we rely on others. We rely on proxies. And this works, as long as it's the correct others.
Las sensaciones fuertes pueden crear un modelo. El 11 de septiembre creó un modelo de seguridad en las mentes de mucha gente. También se pueden crear a través de experiencias personales con crímenes, a través de sustos de salud personales, de problemas de salud en las noticias. Verán estos eventos llamados "flash de luz" por los psiquiatras. Pueden crear un modelo de forma instantánea, porque son muy emotivos. Y en el mundo tecnológico no tenemos experiencia para elegir los modelos. Y dependemos de otros. Dependemos de representantes. Quiero decir, esto funciona mientras sea para corregir a otros.
We rely on government agencies to tell us what pharmaceuticals are safe. I flew here yesterday. I didn't check the airplane. I relied on some other group to determine whether my plane was safe to fly. We're here, none of us fear the roof is going to collapse on us, not because we checked, but because we're pretty sure the building codes here are good. It's a model we just accept pretty much by faith. And that's OK.
Dependemos de los organismos gubernamentales para que nos digan qué medicamentos son seguros. Volé ayer para acá. No revisé el avión. Confié en algún otro grupo para determinar si mi avión era seguro para volar. Estamos aquí, nadie teme que el techo se vaya a caer sobre nosotros, no porque lo comprobamos, sino porque tenemos bastante confianza que los códigos de construcción son buenos. Es un modelo que simplemente aceptamos sólo por fe. Y eso está bien.
Now, what we want is people to get familiar enough with better models, have it reflected in their feelings, to allow them to make security trade-offs. When these go out of whack, you have two options. One, you can fix people's feelings, directly appeal to feelings. It's manipulation, but it can work. The second, more honest way is to actually fix the model. Change happens slowly. The smoking debate took 40 years -- and that was an easy one. Some of this stuff is hard. Really, though, information seems like our best hope.
Ahora, lo que queremos es que la gente se familiarice lo suficiente con modelos buenos -y que se reflejen en lo que sienten- para que puedan tomar buenas decisiones de seguridad. Y entonces cuando estos se desalinean se tienen dos opciones. Una es arreglar las sensaciones de la gente, apelar directamente a las sensaciones y sentimientos. Es manipulativo, pero puede funcionar. La segunda manera, que es más honesta, es realmente solucionar el modelo. El cambio se produce lentamente. El debate del cigarrillo tomó 40 años, y ese era uno simple. Algunos de estos son difíciles. Quiero decir, sin embargo, que la información parece ser nuestra mejor esperanza.
And I lied. Remember I said feeling, model, reality; reality doesn't change? It actually does. We live in a technological world; reality changes all the time. So we might have, for the first time in our species: feeling chases model, model chases reality, reality's moving -- they might never catch up. We don't know. But in the long term, both feeling and reality are important.
Y les mentí. Recuerdan cuando dije lo de la sensación, el modelo, la realidad. Dije que la realidad no cambia. Pero en verdad sí cambia. Vivimos en un mundo tecnológico; la realidad cambia todo el tiempo. Así que podríamos tener -por primera vez para nuestra especie- la sensación persiguiendo al modelo, el modelo persiguiendo la realidad, la realidad va cambiando; y puede que jamás se vayan a alcanzar. No lo sabemos. Pero en el largo plazo, tanto la sensación como la realidad son importantes.
And I want to close with two quick stories to illustrate this. 1982 -- I don't know if people will remember this -- there was a short epidemic of Tylenol poisonings in the United States. It's a horrific story. Someone took a bottle of Tylenol, put poison in it, closed it up, put it back on the shelf, someone else bought it and died. This terrified people. There were a couple of copycat attacks. There wasn't any real risk, but people were scared. And this is how the tamper-proof drug industry was invented. Those tamper-proof caps? That came from this. It's complete security theater. As a homework assignment, think of 10 ways to get around it. I'll give you one: a syringe. But it made people feel better. It made their feeling of security more match the reality.
Y quiero cerrar con dos historias rápidas para ilustrar esto. En 1982 -no sé si la gente recordará esto- hubo una epidemia de corta duración de envenenamientos con Tylenol en los Estados Unidos. Es una historia horrible. Alguien tomó una botella de Tylenol, puso veneno en ella, la cerró y volvió a ponerla en el estante. Otra persona la compró y murió. Esto aterrorizó a todo el mundo. Hubo un par de ataques que imitaron esto. No había riesgo real, pero la gente estaba asustada. Y así es como se inventó la industria farmacéutica a prueba de manipulaciones. Esas tapas difíciles de abrir surgieron de esto. Es totalmente teatro de seguridad. Como tarea para la casa piensen en 10 maneras de vulnerarlas. Les daré una; una jeringa. Sin embargo hizo que la gente se sintiera mejor. Hizo que su sensación de seguridad se pareciera más a la realidad.
Last story: a few years ago, a friend of mine gave birth. I visit her in the hospital. It turns out, when a baby's born now, they put an RFID bracelet on the baby, a corresponding one on the mother, so if anyone other than the mother takes the baby out of the maternity ward, an alarm goes off. I said, "Well, that's kind of neat. I wonder how rampant baby snatching is out of hospitals." I go home, I look it up. It basically never happens.
Última historia; hace unos años una amiga mía dio a luz. La visité en el hospital. Resulta que ahora cuando un bebé nace le ponen al bebé una pulsera RFID, le ponen una pulsera relacionada a la madre y si otra persona retira al bebé de la sala de maternidad suena una alarma. Me dije: "Bueno, eso está bien bueno. Me pregunto cuán comunes son los robos de bebé desde los hospitales." Me voy a casa y lo busco. Básicamente no sucede jamás.
(Laughter)
Pero si lo piensas,
But if you think about it, if you are a hospital, and you need to take a baby away from its mother, out of the room to run some tests, you better have some good security theater, or she's going to rip your arm off.
si eres un hospital y tienes que alejar al bebé de su madre, fuera de la pieza para tomar algunos exámenes, mejor que tengas un buen teatro de seguridad o te va a arrancar el brazo entero.
(Laughter)
(Risas)
So it's important for us, those of us who design security, who look at security policy -- or even look at public policy in ways that affect security. It's not just reality; it's feeling and reality. What's important is that they be about the same. It's important that, if our feelings match reality, we make better security trade-offs.
Así que es importante para nosotros, aquellos de nosotros que diseñamos seguridad, que observamos las políticas de seguridad, o incluso miramos a las políticas públicas y las maneras que estas afectan a la seguridad. No es sólo la realidad, es sensación y la realidad. Lo que es importante es que sean más o menos iguales. Es importante que -si nuestras sensaciones calzan con la realidad- tomemos mejores decisiones de seguridad.
Thank you.
Gracias.
(Applause)
(Aplausos)