So, security is two different things: it's a feeling, and it's a reality. And they're different. You could feel secure even if you're not. And you can be secure even if you don't feel it. Really, we have two separate concepts mapped onto the same word. And what I want to do in this talk is to split them apart -- figuring out when they diverge and how they converge. And language is actually a problem here. There aren't a lot of good words for the concepts we're going to talk about. So if you look at security from economic terms, it's a trade-off.
Securitatea înseamnă două lucruri diferite: este o senzație și este o realitate. Iar ele sunt diferite. Poți să te simți în siguranță chiar dacă nu ești. Și poți fi în siguranță chiar dacă nu simți asta. Chiar avem două concepte separate mapate în același cuvânt. Și ce vreau să fac în acest discurs e să le separ una de alta -- înțelegând când diverg ele și cum converg ele. Iar limba chiar este o problemă aici. Nu există prea multe cuvinte potrivite pentru conceptele despre care vom vorbi. Deci dacă privești securitatea din punct de vedere economic, ea este un troc.
Every time you get some security, you're always trading off something. Whether this is a personal decision -- whether you're going to install a burglar alarm in your home -- or a national decision, where you're going to invade a foreign country -- you're going to trade off something: money or time, convenience, capabilities, maybe fundamental liberties. And the question to ask when you look at a security anything is not whether this makes us safer, but whether it's worth the trade-off. You've heard in the past several years, the world is safer because Saddam Hussein is not in power. That might be true, but it's not terribly relevant. The question is: Was it worth it? And you can make your own decision, and then you'll decide whether the invasion was worth it. That's how you think about security: in terms of the trade-off.
De fiecare dată când obții ceva securitate, întotdeauna dai ceva în schimb. Fie că asta este o decizie personală -- instalezi o alarmă antifurt acasă -- sau o decizie națională -- când vei invada o țară străină -- vei da ceva la schimb, fie bani sau timp, confort, posibilități, poate libertăți fundamentale. Iar întrebarea care trebuie pusă când examinezi ceva de securitate nu este dacă asta ne aduce mai multă siguranță, ci dacă schimbul a meritat sau nu. Ați auzit în ultimii câțiva ani, că lumea este mai sigură fiindcă Saddam Hussein nu mai este la putere. Poate că este adevărat, dar nu este foarte relevant. Întrebarea este: a meritat? Și poți decide singur, iar apoi vei decide dacă invazia a meritat. Așa trebuie să gândești despre securitate -- în termeni de schimb.
Now, there's often no right or wrong here. Some of us have a burglar alarm system at home and some of us don't. And it'll depend on where we live, whether we live alone or have a family, how much cool stuff we have, how much we're willing to accept the risk of theft. In politics also, there are different opinions. A lot of times, these trade-offs are about more than just security, and I think that's really important. Now, people have a natural intuition about these trade-offs. We make them every day. Last night in my hotel room, when I decided to double-lock the door, or you in your car when you drove here; when we go eat lunch and decide the food's not poison and we'll eat it.
De multe ori nu există răspuns corect sau greșit. Unii din noi avem alarme în casele noastre, iar unii din noi nu avem. Și asta depinde de unde trăim, dacă trăim singuri sau avem o familie, cât de multe lucruri grozave avem, cât de mult dorim să acceptăm riscul furtului. În politică de asemenea sunt opinii diferite. De multe ori aceste schimburi sunt despre mai mult decât securitate, și cred că asta este foarte important. Oamenii au o intuiție înnăscută despre aceste schimburi. Le facem zilnic -- noaptea trecută în camera mea de hotel, când am decis să încui ușa de două ori, sau voi în mașinile cu care ați venit aici, când mergem la prânz și decidem că hrana nu este otravă și o vom mânca.
We make these trade-offs again and again, multiple times a day. We often won't even notice them. They're just part of being alive; we all do it. Every species does it. Imagine a rabbit in a field, eating grass. And the rabbit sees a fox. That rabbit will make a security trade-off: "Should I stay, or should I flee?" And if you think about it, the rabbits that are good at making that trade-off will tend to live and reproduce, and the rabbits that are bad at it will get eaten or starve. So you'd think that us, as a successful species on the planet -- you, me, everybody -- would be really good at making these trade-offs. Yet it seems, again and again, that we're hopelessly bad at it.
Facem aceste schimburi iar și iar de mai multe ori pe zi. Adesea nici nu le observăm. Ele sunt parte a vieții, toți o facem. Fiecare specie o face. Imaginați-vă un iepure în câmp, mâncând iarba, și iepurele vede o vulpe. Iepurele va face un schimb de securitate. "Să stau sau să fug?" Și dacă vă gândiți la asta, iepurii care sunt buni la aceste schimburi vor tinde să trăiască și să se reproducă, iar iepurii care nu sunt buni la asta vor fi mâncați sau vor muri de foame. Deci ați gândi că noi, ca o specie de succes a planetei -- voi, eu, toți -- am fi foarte buni în a face aceste schimburi. Cu toate acestea se pare că, iar și iar, suntem foarte nepricepuți în asta.
And I think that's a fundamentally interesting question. I'll give you the short answer. The answer is, we respond to the feeling of security and not the reality. Now, most of the time, that works. Most of the time, feeling and reality are the same. Certainly that's true for most of human prehistory. We've developed this ability because it makes evolutionary sense. One way to think of it is that we're highly optimized for risk decisions that are endemic to living in small family groups in the East African Highlands in 100,000 BC. 2010 New York, not so much. Now, there are several biases in risk perception. A lot of good experiments in this. And you can see certain biases that come up again and again. I'll give you four.
Și eu cred că asta este o întrebare fundamental interesantă. Vă voi da răspunsul scurt. Răspunsul este că răspundem la senzația de securitate și nu la realitate. În majoritatea cazurilor asta merge. În majoritatea cazurilor, senzația și realitatea sunt identice. În mod cert asta este adevărat pentru majoritatea preistoriei umane. Am dezvoltat această abilitate fiindcă are sens din puct de vedere evoluționar. Un mod de a gândi la asta este că suntem extrem de optimizați pentru decizii de risc tipice vieții în mici grupuri familiale în savana africană din anul 100.000 î.H. -- dar nu așa de mult pentru anul 2010, în New York. Există mai multe predispoziţii în perceperea riscului. Există o mulțime de experimente bune pentru asta. Și poți observa anumite predispoziţii care apar din nou și din nou. Vă voi da patru.
We tend to exaggerate spectacular and rare risks and downplay common risks -- so, flying versus driving. The unknown is perceived to be riskier than the familiar. One example would be: people fear kidnapping by strangers, when the data supports that kidnapping by relatives is much more common. This is for children. Third, personified risks are perceived to be greater than anonymous risks. So, Bin Laden is scarier because he has a name. And the fourth is: people underestimate risks in situations they do control and overestimate them in situations they don't control. So once you take up skydiving or smoking, you downplay the risks. If a risk is thrust upon you -- terrorism is a good example -- you'll overplay it, because you don't feel like it's in your control.
Tindem să exagerăm riscurile spectaculoase și rare și să desconsiderăm riscurile comune -- de ex. a zbura comparat cu a conduce. Necunoscutul este perceput a fi mai riscant decât cunoscutul. Un exemplu ar fi, oamenilor le e teamă de străinii care răpesc copii, când datele susțin că răpirea de către rude este mult mai comună. Asta este pentru copii. Trei, riscurile personificate sunt percepute a fi mai mari decât riscurile anonime -- deci Bin Laden este mai înspăimântător fiindcă are un nume. Și a patra este că oamenii subestimează riscurile în situații pe care le controlează și le supraestimează în situații pe care nu le controlează. Deci odată ce te-ai apucat de sărituri cu parașuta sau de fumat, desconsideri riscurile. Dacă ți se impune un risc cu forța -- terorismul a fost un bun exemplu -- îl vei exagera, fiindcă simți că nu este sub controlul tău.
There are a bunch of other of these cognitive biases, that affect our risk decisions. There's the availability heuristic, which basically means we estimate the probability of something by how easy it is to bring instances of it to mind. So you can imagine how that works. If you hear a lot about tiger attacks, there must be a lot of tigers around. You don't hear about lion attacks, there aren't a lot of lions around. This works, until you invent newspapers, because what newspapers do is repeat again and again rare risks. I tell people: if it's in the news, don't worry about it, because by definition, news is something that almost never happens.
Există o mulțime de alte predispoziţii, aceste predispoziţii cognitive, care afectează deciziile noastre de risc. Este heuristica disponibilității, care de fapt înseamnă că estimăm probabilitatea a ceva prin cât de ușor ne imaginăm instanțele ei. Puteți să vă imaginați cum funcționează asta. Dacă auziți mult despre atacuri de tigri, trebuie să fie mulți tigri în jur. Nu auziți despre atacuri de lei, deci nu sunt mulți lei în jur. Asta funcționează până inventezi ziarele. Fiindcă ziarele repetă din nou și din nou riscurile rare. Eu le spun oamenilor: dacă este în știri, nu te îngrijora. Fiindcă prin definiție, știrea este ceva care se întâmplă foarte rar.
(Laughter)
(Râsete)
When something is so common, it's no longer news. Car crashes, domestic violence -- those are the risks you worry about. We're also a species of storytellers. We respond to stories more than data. And there's some basic innumeracy going on. I mean, the joke "One, two, three, many" is kind of right. We're really good at small numbers. One mango, two mangoes, three mangoes, 10,000 mangoes, 100,000 mangoes -- it's still more mangoes you can eat before they rot. So one half, one quarter, one fifth -- we're good at that. One in a million, one in a billion -- they're both almost never.
Când ceva este așa de comun. nu mai apare în știri -- accidente de mașină, violența domestică -- acelea sunt riscurile pentru care să te îngrijorezi. Suntem de asemenea o specie de povestitori. Răspundem mai mult la povești, decât la date. Și există o lipsă de știință în aprecierea numerelor. Adică bancul: "Una, două, trei, multe" pare să fie adevărat. Suntem foarte buni la numere mici. Un mango, două mango, trei mango, însă 10,000 de mango, 100,000 mango -- sunt totuși mai multe mango decât poți mânca înainte de a putrezi. Deci o jumătate, un sfert, o cincime -- suntem buni la asta. Unul dintr-un milion, unul dintr-un miliard -- ambele sunt aproape ca niciodată.
So we have trouble with the risks that aren't very common. And what these cognitive biases do is they act as filters between us and reality. And the result is that feeling and reality get out of whack, they get different. Now, you either have a feeling -- you feel more secure than you are, there's a false sense of security. Or the other way, and that's a false sense of insecurity.
Așa că avem problemă cu riscurile care nu sunt foarte comune. Iar aceste predispoziţii cognitive acționează ca niște filtre între noi și realitate. Și rezultatul este că senzația și realitatea ies din sincron, ajung diferite. Fie ai o senzație -- te simți mai sigur decât ești în realitate. Este o falsă senzație de securitate. Sau invers, și atunci este o falsă senzație de insecuritate.
I write a lot about "security theater," which are products that make people feel secure, but don't actually do anything. There's no real word for stuff that makes us secure, but doesn't make us feel secure. Maybe it's what the CIA is supposed to do for us. So back to economics. If economics, if the market, drives security, and if people make trade-offs based on the feeling of security, then the smart thing for companies to do for the economic incentives is to make people feel secure. And there are two ways to do this.
Scriu mult despre "scena securității", care sunt produsele care îi fac pe oamenii să se simtă în siguranță, dar de fapt nu fac ceva util. Nu există cuvânt pentru lucrurile care ne asigură securitatea, dar nu ne fac să ne simțim mai în siguranță. Poate asta ar trebui să facă CIA pentru noi. Deci înapoi la economie. Dacă economia, dacă piața, dirijează securitatea, și dacă oamenii fac schimburi bazate pe senzația de securitate, atunci companiile trebuie să facă oamenii să se simtă în siguranță pentru a culege recompensele economice. Și sunt două căi de a face asta.
One, you can make people actually secure and hope they notice. Or two, you can make people just feel secure and hope they don't notice. Right? So what makes people notice? Well, a couple of things: understanding of the security, of the risks, the threats, the countermeasures, how they work. But if you know stuff, you're more likely to have your feelings match reality. Enough real-world examples helps. We all know the crime rate in our neighborhood, because we live there, and we get a feeling about it that basically matches reality. Security theater is exposed when it's obvious that it's not working properly.
Prima, poți asigura securitatea omenilor și speri că vor observa. Sau a doua, poți să-i faci pe oameni să se simtă în siguranță și speri că nu vor observa. Deci ce-i face pe oameni să observe? Câteva lucruri: înțelegerea securității, a riscurilor, a amenințărilor, a contramăsurilor, cum funcționează ele. Dar dacă știi lucrurile, este mai probabil ca senzațiile tale să se potrivească cu realitatea. Multe exemple din lumea reală ne pot ajuta. Știm cu toții despre rata crimelor din cartierul nostru, fiindcă trăim acolo și avem o atitudine față de asta, senzație care de fapt se potrivește cu realitatea. Spectacolul de securitate este dezvăluit când este evident că nu funționează corect.
OK. So what makes people not notice? Well, a poor understanding. If you don't understand the risks, you don't understand the costs, you're likely to get the trade-off wrong, and your feeling doesn't match reality. Not enough examples. There's an inherent problem with low-probability events. If, for example, terrorism almost never happens, it's really hard to judge the efficacy of counter-terrorist measures. This is why you keep sacrificing virgins, and why your unicorn defenses are working just great. There aren't enough examples of failures. Also, feelings that cloud the issues -- the cognitive biases I talked about earlier: fears, folk beliefs -- basically, an inadequate model of reality.
În regulă, deci ce-i face pe oameni să nu observe? Ei bine, o slabă înțelegere. Dacă nu înțelegi riscurile, nu înțelegi costurile, vei face probabil schimbul greșit, și senzația ta nu se va potrivi cu realitatea. Nu sunt destule exemple. Este o problemă inerentă cu evenimentele de mică probabilitate. Dacă, de exemplu, terorismul se întâmplă foarte rar, este foarte greu de judecat eficacitatea măsurilor antiteroriste. De asta continui să sacrifici fecioare, și de asta funcționează așa de minunat apărarea ta bazată pe inorogi. Nu sunt destule exemple de eșecuri. De asemenea, sentimentele care obturează problemele -- predispoziţiile cognitive despre care am vorbit înainte, temeri, credințe populare, de fapt un model neadecvat al realității.
So let me complicate things. I have feeling and reality. I want to add a third element. I want to add "model." Feeling and model are in our head, reality is the outside world; it doesn't change, it's real. Feeling is based on our intuition, model is based on reason. That's basically the difference. In a primitive and simple world, there's really no reason for a model, because feeling is close to reality. You don't need a model. But in a modern and complex world, you need models to understand a lot of the risks we face.
Permiteți-mi să complic lucrurile. Am senzație și realitate. Vreau să adaug un al treilea element. Vreau să adaug modelul. Senzația și modelul este în capul nostru, realitatea este lumea din jur. Ea nu se schimbă; este reală. Senzația este bazată pe intuiția noastră. Modelul este bazat pe raționament. Asta este de fapt diferența. Într-o lume primitivă și simplă, chiar nu este nevoie de un model. Fiindcă senzația este aproape de realitate. Nu ai nevoie de un model. Dar într-o lume modernă și complexă, ai nevoie de modele pentru a înțelege mulțimea de riscuri care există.
There's no feeling about germs. You need a model to understand them. This model is an intelligent representation of reality. It's, of course, limited by science, by technology. We couldn't have a germ theory of disease before we invented the microscope to see them. It's limited by our cognitive biases. But it has the ability to override our feelings. Where do we get these models? We get them from others. We get them from religion, from culture, teachers, elders.
Nu există senzație despre microbi. Ai nevoie de un model pentru a-i înțelege. Deci acest model este o reprezentare inteligentă a realității. Este desigur limitat de știință, de tehnologie. Nu am putut avea o teorie a bolilor bazată pe microbi înainte de inventarea microscopului pentru a le vedea. Este limitat de predispoziţiile noastre cognitive. Dar are abilitatea de a suprascrie senzațiile noastre. De unde avem aceste modele? Le avem de la alții. Le avem din religie, cultură, profesori, strămoși.
A couple years ago, I was in South Africa on safari. The tracker I was with grew up in Kruger National Park. He had some very complex models of how to survive. And it depended on if you were attacked by a lion, leopard, rhino, or elephant -- and when you had to run away, when you couldn't run away, when you had to climb a tree, when you could never climb a tree. I would have died in a day. But he was born there, and he understood how to survive. I was born in New York City. I could have taken him to New York, and he would have died in a day.
Cu câțiva ani în urmă, am fost în Africa de sud la un safari. Călăuza cu care am fost a crescut în Parcul Național Kruger. El avea niște modele foarte complexe despre cum să supraviețuiești. Iar asta depindea dacă te ataca un leu sau un leopard sau un rinocer sau un elefant -- și când trebuie să fugi, și când trebuie să te urci într-un copac -- și când nu trebuie să te urci într-un copac. Eu aș fi murit într-o singură zi, dar el s-a născut acolo, și înțelegea cum să supraviețuiești. Eu m-am născut în New York City. Dacă l-aș fi luat cu mine în New York, atunci el ar fi murit într-o singură zi.
(Laughter)
(Râsete)
Because we had different models based on our different experiences. Models can come from the media, from our elected officials ... Think of models of terrorism, child kidnapping, airline safety, car safety. Models can come from industry. The two I'm following are surveillance cameras, ID cards, quite a lot of our computer security models come from there.
Fiindcă aveam modele diferite bazate pe experiențele noastre diferite. Modelele pot veni din massmedia, de la aleșii noștri oficiali. Gândiți-vă la modele de terorism, răpiri de copii, siguranța zborului, siguranța mașinii. Modelele pot veni din industrie. Cele două pe care la urmăresc sunt camerele de supraveghere, cardurile de identitate, destul de multe din modelele de securitatea calculatoarelor vin de acolo.
A lot of models come from science. Health models are a great example. Think of cancer, bird flu, swine flu, SARS. All of our feelings of security about those diseases come from models given to us, really, by science filtered through the media. So models can change. Models are not static. As we become more comfortable in our environments, our model can move closer to our feelings.
O mulțime de modele vin din știință. Modelele de sănătate sunt un exemplu grozav. Gândiți-vă la cancer, gripa aviară, gripa porcină, SARS. Toate senzațiile noastre de securitate despre acele boli vin din modele date nouă, de fapt, de știință filtrată prin massmedia. Așa că modelele se pot schimba. Modelele nu sunt statice. Pe măsură ce devenim mai confortabili în mediile noastre, modelele noastre se pot muta mai aproape de senzațiile noastre.
So an example might be, if you go back 100 years ago, when electricity was first becoming common, there were a lot of fears about it. There were people who were afraid to push doorbells, because there was electricity in there, and that was dangerous. For us, we're very facile around electricity. We change light bulbs without even thinking about it. Our model of security around electricity is something we were born into. It hasn't changed as we were growing up. And we're good at it. Or think of the risks on the Internet across generations -- how your parents approach Internet security, versus how you do, versus how our kids will.
Un exemplu ar fi, dacă mergeți înapoi 100 de ani când electricitatea a început să fie folosită, erau multe temeri legate de ea. Erau oameni cărora le era frică să apese butonul soneriei, fiindcă era electricitate în el, iar asta era periculos. Noi suntem degajați privind electricitatea. Schimbăm becurile electrice fără să ne gândim la ea. Modelul nostru de securitate despre electricitate este ceva în care trăim de la naștere. El nu s-a schimbat pe durata vieții noastre. Și suntem buni la acest model. Sau gândiți-vă la riscurile Internetului perceput de generații -- cum tratează părinții voștri securitatea Internetului, față de cum faceți voi, față de cum vor face copiii noștri.
Models eventually fade into the background. "Intuitive" is just another word for familiar. So as your model is close to reality and it converges with feelings, you often don't even know it's there. A nice example of this came from last year and swine flu. When swine flu first appeared, the initial news caused a lot of overreaction. Now, it had a name, which made it scarier than the regular flu, even though it was more deadly. And people thought doctors should be able to deal with it. So there was that feeling of lack of control. And those two things made the risk more than it was.
În cele din urmă modelele dispar în fundal. Intuitiv este doar un alt cuvânt pentru familiar. Pe măsură ce modelul tău este aproape de realitate, și converge cu senzațiile, adesea nici nu știi că e acolo. Un exemplu drăguț pentru asta a fost gripa porcină de anul trecut. Când gripa porcină a apărut prima dată, știrile inițiale au provocat multe reacții exagerate. Apoi a avut un nume, ceea ce a făcut-o mai de speriat decât gripa normală, chiar dacă a fost mai mortală. Și oamenii au gândit că doctorii vor fi în stare să-i facă față. Deci a fost senzația lipsei de control. Iar aceste două lucruri
As the novelty wore off and the months went by, there was some amount of tolerance; people got used to it. There was no new data, but there was less fear. By autumn, people thought the doctors should have solved this already. And there's kind of a bifurcation: people had to choose between fear and acceptance -- actually, fear and indifference -- and they kind of chose suspicion. And when the vaccine appeared last winter, there were a lot of people -- a surprising number -- who refused to get it. And it's a nice example of how people's feelings of security change, how their model changes, sort of wildly, with no new information, with no new input. This kind of thing happens a lot.
au făcut riscul mai mare decât era. După ce a trecut noutatea, au trecut luni, a existat o doză de toleranță, oamenii s-au obișnuit cu ea. Nu existau date noi, dar era mai puțină frică. Până toamna, oamenii au gândit că doctorii au rezolvat deja asta. Și există un fel de bifurcație -- oamenii au trebuit să aleagă între frică și acceptare -- de fapt frică și indiferență -- și ei au devenit suspicioși. Și când a apărut vaccinul iarna trecută, erau o mulțime de oameni -- un număr surprinzător -- care au refuzat să-l ia -- ca un exemplu drăguț de cum se schimbă senzația de securitate a oamenilor, cum se schimbă modelul lor, într-un mod nebunesc fără informații noi, fără date noi de intrare. Acest lucru se întâmplă des.
I'm going to give one more complication. We have feeling, model, reality. I have a very relativistic view of security. I think it depends on the observer. And most security decisions have a variety of people involved. And stakeholders with specific trade-offs will try to influence the decision. And I call that their agenda. And you see agenda -- this is marketing, this is politics -- trying to convince you to have one model versus another, trying to convince you to ignore a model and trust your feelings, marginalizing people with models you don't like. This is not uncommon. An example, a great example, is the risk of smoking. In the history of the past 50 years, the smoking risk shows how a model changes, and it also shows how an industry fights against a model it doesn't like.
Voi mai face o complicare în plus. Avem senzație, model, realitate. Am o vedere foarte relativistă a securității. Cred că depinde de observator. Și majoritatea deciziilor de securitate implică o diversitate de oameni. Iar părțile interesate cu schimburi specifice vor încerca să influențeze decizia. Și eu numesc asta planul lor. Și vedeți planuri -- în marketing, în politică -- încercând să te convingă să ai un anumit model față de un altul, încercând să te convingă să ignori un model și să te încrezi în senzațiile tale, marginalizând oamenii cu modele care nu-ți plac. Asta nu este ceva neobişnuit. Un exemplu grozav este riscul fumatului. În istoria ultimilor 50 de ani, riscul fumatului arată cum se schimbă un model, și arată de asemenea cum o industrie luptă împotriva unui model care nu-i place.
Compare that to the secondhand smoke debate -- probably about 20 years behind. Think about seat belts. When I was a kid, no one wore a seat belt. Nowadays, no kid will let you drive if you're not wearing a seat belt. Compare that to the airbag debate, probably about 30 years behind. All examples of models changing. What we learn is that changing models is hard. Models are hard to dislodge. If they equal your feelings, you don't even know you have a model. And there's another cognitive bias I'll call confirmation bias, where we tend to accept data that confirms our beliefs and reject data that contradicts our beliefs. So evidence against our model, we're likely to ignore, even if it's compelling. It has to get very compelling before we'll pay attention.
Comparați asta cu dezbaterea despre fumatul pasiv -- probabil cu aproape 20 de ani în urmă. Gândiți-vă la centurile de siguranță. Când eram copil, nimeni nu purta centura de siguranță. Azi, niciun copil nu te va lăsa să conduci dacă nu ai centura de siguranță. Comparați asta cu dezbaterea despre perna de aer -- probabil cu 30 de ani în urmă. Toate sunt exemple de schimbări de modele. Ceea ce învățăm este că schimbarea modelelor este dificilă. Modelele sunt greu de dislocat. Dacă sunt la fel cu senzațiile tale nu știi că ai un model. Și există o altă predispoziţie cognitivă pe care o numesc predispoziţie de confirmare, unde tindem să acceptăm datele care confirmă credințele noastre și să rejectăm datele care contrazic credințele noastre. Deci probabil vom ignora dovada împotriva modelului nostru, chiar dacă este convingătoare. Trebuie să devină foarte convingătoare înainte de a-i acorda atenție.
New models that extend long periods of time are hard. Global warming is a great example. We're terrible at models that span 80 years. We can do "to the next harvest." We can often do "until our kids grow up." But "80 years," we're just not good at. So it's a very hard model to accept. We can have both models in our head simultaneously -- that kind of problem where we're holding both beliefs together, the cognitive dissonance. Eventually, the new model will replace the old model.
Modele noi care se întind perioade lungi de timp sunt dificile. Încălzirea globală este un exemplu grozav. Suntem îngrozitori la modele care acoperă 80 de ani. Putem s-o facem până la următoarea recoltă. Adesea o putem face până cresc copiii noștri. Dar 80 de ani, pur și simplu nu suntem buni la asta. Deci este un model foarte greu de acceptat. Putem avea ambele modele simultan în cap, sau acel tip de problemă când avem ambele credințe simultan, sau disonanța cognitivă. În final modelul nou
Strong feelings can create a model.
va înlocui modelul vechi.
September 11 created a security model in a lot of people's heads. Also, personal experiences with crime can do it, personal health scare, a health scare in the news. You'll see these called "flashbulb events" by psychiatrists. They can create a model instantaneously, because they're very emotive. So in the technological world, we don't have experience to judge models. And we rely on others. We rely on proxies. And this works, as long as it's the correct others.
Senzațiile puternice pot crea un model. 11 septembrie a creat un model de securitate în capul multor oameni. Experiența personală cu criminalitatea o poate face, panica pentru sănătatea personală, o panică de sănătate în știri. Psihiatrii numesc asta evenimente "se aprinde becul". Ele pot crea instantaneu un model, fiindcă sunt foarte emoționale. În lumea tehnologică nu avem experiența de a judeca modele. Și ne bazăm pe alții. Ne bazăm pe împuterniciți. Adică, asta funcționează cât timp este în regulă pentru alții.
We rely on government agencies to tell us what pharmaceuticals are safe. I flew here yesterday. I didn't check the airplane. I relied on some other group to determine whether my plane was safe to fly. We're here, none of us fear the roof is going to collapse on us, not because we checked, but because we're pretty sure the building codes here are good. It's a model we just accept pretty much by faith. And that's OK.
Ne bazăm pe agenții guvernamentale să ne spună care sunt medicamentele sigure. Ieri am zburat aici. Nu am verificat avionul. M-am bazat pe un alt grup să constate dacă avionul meu este sigur pentru zbor. Suntem aici, nimănui nu-i este teamă că acoperișul va cădea peste noi, nu fiindcă am verificat, ci fiindcă suntem destul de siguri că aici normele de construcție sunt bune. Este un model pe care-l acceptăm mai mult prin încredere. Și asta este în regulă.
Now, what we want is people to get familiar enough with better models, have it reflected in their feelings, to allow them to make security trade-offs. When these go out of whack, you have two options. One, you can fix people's feelings, directly appeal to feelings. It's manipulation, but it can work. The second, more honest way is to actually fix the model. Change happens slowly. The smoking debate took 40 years -- and that was an easy one. Some of this stuff is hard. Really, though, information seems like our best hope.
Ceea ce vrem este ca oamenii să devină suficient de obișnuiți cu modele mai bune -- să le reflecte în senzațiile lor -- să le permită să facă schimburi de securitate. Când acestea se strică, ai două opțiuni. Prima, poți repara senzațiile oamenilor, apelând direct la sentimente. Este manipulare, dar poate funcționa. A doua cale, mai cinstită, este să repari modelul. Schimbările se întâmplă încet. Dezbaterea despre fumat a luat 40 de ani, și asta a fost una ușoară. Unele din aceste lucruri sunt dificile. Adică foarte dificile, informația pare cea mai bună speranță pentru noi.
And I lied. Remember I said feeling, model, reality; reality doesn't change? It actually does. We live in a technological world; reality changes all the time. So we might have, for the first time in our species: feeling chases model, model chases reality, reality's moving -- they might never catch up. We don't know. But in the long term, both feeling and reality are important.
Și am mințit. Țineți minte când am spus: senzație, model, realitate. Am spus că realitatea nu se schimbă. De fapt o face. Trăim într-o lume tehnologică; realitatea se schimbă tot timpul. Deci s-ar putea să avem -- pentru prima dată ca specie -- senzația urmărește modelul, modelul urmărește realitatea, iar realitatea se mișcă -- s-ar putea să nu se ajungă niciodată. Nu știm. Dar pe termen lung, sunt importante și senzația și realitatea.
And I want to close with two quick stories to illustrate this. 1982 -- I don't know if people will remember this -- there was a short epidemic of Tylenol poisonings in the United States. It's a horrific story. Someone took a bottle of Tylenol, put poison in it, closed it up, put it back on the shelf, someone else bought it and died. This terrified people. There were a couple of copycat attacks. There wasn't any real risk, but people were scared. And this is how the tamper-proof drug industry was invented. Those tamper-proof caps? That came from this. It's complete security theater. As a homework assignment, think of 10 ways to get around it. I'll give you one: a syringe. But it made people feel better. It made their feeling of security more match the reality.
Și vreau să închei cu două istorioare pentru a ilustra asta. 1982 -- nu știu dacă oamenii își vor aminti asta -- a fost o scurtă epidemie de otrăvire cu Tylenol în SUA. Este o poveste oribilă. Cineva a luat o sticlă de Tylenol, a pus otravă în ea, a închis-o la loc, a pus-o înapoi pe raft. Altcineva a cumpărat-o și a murit. Asta a îngrozit lumea. Au fost câteva cazuri de copiere a atacului. Nu exista un risc real, dar oamenii erau speriați. Și așa a fost inventată industria medicamentelor sigilate. Acele capace sigilate au rezultat din asta. Este un adevărat spectacol de securitate. Ca temă pentr acasă, gândiți-vă la 10 căi de a ocoli asta. Vă dau una: o seringă. Dar a făcut oamenii să se simtă mai bine. A făcut ca senzația lor de securitate să se potrivească mai mult cu realitatea.
Last story: a few years ago, a friend of mine gave birth. I visit her in the hospital. It turns out, when a baby's born now, they put an RFID bracelet on the baby, a corresponding one on the mother, so if anyone other than the mother takes the baby out of the maternity ward, an alarm goes off. I said, "Well, that's kind of neat. I wonder how rampant baby snatching is out of hospitals." I go home, I look it up. It basically never happens.
Ulima poveste, acum câțiva ani, o prietenă a născut. Am vizitat-o în spital. Am aflat că acum când se naște un copil, se pune o brățară cu identificator radio (RFID) bebelușului, se pune una corespunzătoare mamei, deci dacă oricine altcineva decât mama scoate copilul din maternitate, va suna o alarmă. Am zis: "Ei bine, asta este simplu dar elegant. Mă întreb cât de excesiv este furtul de bebeluși din spitale." Am mers acasă, am căutat asta. De fapt nu se întâmplă niciodată.
(Laughter)
Dar dacă te gândești la asta,
But if you think about it, if you are a hospital, and you need to take a baby away from its mother, out of the room to run some tests, you better have some good security theater, or she's going to rip your arm off.
dacă ești un spital, și dacă trebuie să iei un bebeluș de la mama lui, afară din cameră pentru niște teste, ar fi bine să ai un spectacol de securitate bun, sau mama îți va rupe brațul.
(Laughter)
(Râsete)
So it's important for us, those of us who design security, who look at security policy -- or even look at public policy in ways that affect security. It's not just reality; it's feeling and reality. What's important is that they be about the same. It's important that, if our feelings match reality, we make better security trade-offs.
Deci este important pentru noi, cei care proiectăm securitatea, care privim la politica de securitate, sau doar privim la politica publică în moduri care afectează securitatea. Nu este doar realitate, este senzație și realitate. Ce este important este ca ele să fie la fel. Este important, fiindcă dacă senzația se potrivește cu realitatea, facem schimburi mai bune de securitate.
Thank you.
Vă mulțumesc.
(Applause)
(Aplauze)