Let's say you're on a game show. You've already earned $1000 in the first round when you land on the bonus space. Now, you have a choice. You can either take a $500 bonus guaranteed or you can flip a coin. If it's heads, you win $1000 bonus. If it's tails, you get no bonus at all. In the second round, you've earned $2000 when you land on the penalty space. Now you have another choice. You can either take a $500 loss, or try your luck at the coin flip. If it's heads, you lose nothing, but if it's tails, you lose $1000 instead. If you're like most people, you probably chose to take the guaranteed bonus in the first round and flip the coin in the second round. But if you think about it, this makes no sense. The odds and outcomes in both rounds are exactly the same. So why does the second round seem much scarier? The answer lies in a phenomenon known as loss aversion. Under rational economic theory, our decisions should follow a simple mathematical equation that weighs the level of risk against the amount at stake. But studies have found that for many people, the negative psychological impact we feel from losing something is about twice as strong as the positive impact of gaining the same thing. Loss aversion is one cognitive bias that arises from heuristics, problem-solving approaches based on previous experience and intuition rather than careful analysis. And these mental shortcuts can lead to irrational decisions, not like falling in love or bungee jumping off a cliff, but logical fallacies that can easily be proven wrong. Situations involving probability are notoriously bad for applying heuristics. For instance, say you were to roll a die with four green faces and two red faces twenty times. You can choose one of the following sequences of rolls, and if it shows up, you'll win $25. Which would you pick? In one study, 65% of the participants who were all college students chose sequence B even though A is shorter and contained within B, in other words, more likely. This is what's called a conjunction fallacy. Here, we expect to see more green rolls, so our brains can trick us into picking the less likely option. Heuristics are also terrible at dealing with numbers in general. In one example, students were split into two groups. The first group was asked whether Mahatma Gandhi died before or after age 9, while the second was asked whether he died before or after age 140. Both numbers were obviously way off, but when the students were then asked to guess the actual age at which he died, the first group's answers averaged to 50 while the second group's averaged to 67. Even though the clearly wrong information in the initial questions should have been irrelevant, it still affected the students' estimates. This is an example of the anchoring effect, and it's often used in marketing and negotiations to raise the prices that people are willing to pay. So, if heuristics lead to all these wrong decisions, why do we even have them? Well, because they can be quite effective. For most of human history, survival depended on making quick decisions with limited information. When there's no time to logically analyze all the possibilities, heuristics can sometimes save our lives. But today's environment requires far more complex decision-making, and these decisions are more biased by unconscious factors than we think, affecting everything from health and education to finance and criminal justice. We can't just shut off our brain's heuristics, but we can learn to be aware of them. When you come to a situation involving numbers, probability, or multiple details, pause for a second and consider that the intuitive answer might not be the right one after all.
Disons que vous participez à un jeu télévisé. Vous avez déjà gagné 1000 dollars au premier tour lorsque vous tombez sur la case Bonus. Maintenant, vous avez le choix. Vous pouvez soit prendre un bonus de 500 dollars assuré ou vous pouvez tirer à pile ou face.. Si c'est face, vous gagnez un bonus de 1000 dollars. Si c'est pile, vous n'aurez aucun bonus. Au deuxième tour, vous avez gagné 2000 $ lorsque vous tombez sur la case Pénalité. Maintenant, vous avez un autre choix. Vous pouvez soit opter pour une perte de 500 $, ou tentez votre chance à pile ou face. Si c'est face, vous ne perdez rien, mais si c'est pile, vous perdez 1000 dollars. Si vous faites comme la plupart des gens, vous choisissez probablement de prendre le bonus garanti au premier tour et vous lancez la pièce au deuxième tour. Mais si vous y réfléchissez, ça n'a pas de sens. Les probabilités et les résultats au deux tours sont exactement les mêmes. Pourquoi le second tour semble tellement plus effrayant ? La réponse réside dans un phénomène appelé l'aversion aux pertes. Selon la théorie économique rationnelle, nos décisions doivent suivre une équation mathématique simple qui évalue le niveau de risque contre le montant en jeu. Mais des études ont montré que pour beaucoup de gens, l'impact psychologique négatif qu'on ressent quand on perd quelque chose est environ deux fois plus fort que l'impact positif de gagner la même chose. L'aversion aux pertes est un biais cognitif qui découle de l'heuristique, des approches de résolution de problèmes basées sur l'expérience et l'intuition plutôt que sur l'analyse minutieuse. Et ces raccourcis mentaux peuvent conduire à des décisions irrationnelles, non pas comme tomber amoureux ou sauter à l'élastique d'une falaise, mais des raisonnements fallacieux dont on peut facilement démontrer qu'ils sont faux. On sait bien que les situations impliquant des probabilités sont très peu propices à l'utilisation de l'heuristique. Par exemple, disons que vous deviez lancer un dé qui a 4 faces vertes et 2 rouges vingt fois. Vous pouvez choisir l'une des séquences suivantes et si elle sort, vous gagnerez 25 dollars. Laquelle choisiriez-vous ? Dans une étude, 65% des participants, qui étaient tous étudiants, ont choisi la séquence B bien que la A soit plus courte et contenue dans B, en d'autres termes, plus probable. C'est ce qu'on appelle une erreur de conjonction. On s'attend à voir sortir plus souvent une face verte, notre cerveau nous trompe et nous pousse à choisir l'option la moins probable. L'heuristique est aussi très peu adéquate avec les chiffres en général. Dans un exemple, les étudiants ont été répartis en deux groupes. On a demandé au premier groupe si Mahatma Gandhi était mort avant ou après l'âge de 9 ans, tandis qu'on a demandé au second groupe s'il était mort avant ou après ses 140 ans. Les deux chiffres étaient évidemment faux, mais quand on a ensuite demandé aux étudiants de deviner l'âge réel auquel il était mort, la moyenne des réponses du premier groupe était 50 tandis que celle du second groupe était 67. Même si les informations évidemment fausses dans les questions auraient dû être sans importance, elles ont pourtant impacté les estimations des étudiants. C'est un exemple de l'effet d'ancrage, et on s'en sert souvent en marketing et dans les négociations pour augmenter les prix que les gens sont prêts à payer. Donc, si l'heuristique mène à toutes ces mauvaises décisions, alors pourquoi les prenons-nous ? Eh bien, parce qu'elles peuvent être très efficaces. Tout au long de l'histoire de l'humanité, la survie dépendait de la prise rapide de décisions avec des informations limitées. Quand on n'a pas le temps d'analyser logiquement toutes les possibilités, l'heuristique peut parfois nous sauver la vie. Mais le contexte actuel exige la prise de décisions bien plus complexes, et ces décisions sont plus faussées par des facteurs inconscients qu'on le pense qui impactent tout de la santé et l'éducation à la finance et la justice pénale. Nous ne pouvons pas arrêter l'heuristique de notre cerveau, mais nous pouvons apprendre à en être conscient. Quand vous vous retrouvez dans une situation impliquant des nombres, des probabilités, ou de multiples détails, arrêtez-vous une seconde et envisagez que la réponse intuitive pourrait ne pas être la bonne, après tout.