Our emotions influence every aspect of our lives, from our health and how we learn, to how we do business and make decisions, big ones and small. Our emotions also influence how we connect with one another. We've evolved to live in a world like this, but instead, we're living more and more of our lives like this -- this is the text message from my daughter last night -- in a world that's devoid of emotion. So I'm on a mission to change that. I want to bring emotions back into our digital experiences.
As nossas emoções influenciam todos os aspetos da nossa vida, desde a nossa saúde, a forma como aprendemos até como trabalhamos e tomamos decisões, sejam elas pequenas ou grandes. As nossas emoções também influenciam o modo como nos relacionamos uns com os outros. Nós evoluímos para viver num mundo como este. Mas, em vez disso, vivemos cada vez mais desta forma. — esta foi a mensagem da minha filha ontem à noite — num mundo desprovido de emoção. Eu estou numa missão para mudar isto. Quero fazer voltar as emoções às nossas experiências digitais.
I started on this path 15 years ago. I was a computer scientist in Egypt, and I had just gotten accepted to a Ph.D. program at Cambridge University. So I did something quite unusual for a young newlywed Muslim Egyptian wife: With the support of my husband, who had to stay in Egypt, I packed my bags and I moved to England. At Cambridge, thousands of miles away from home, I realized I was spending more hours with my laptop than I did with any other human. Yet despite this intimacy, my laptop had absolutely no idea how I was feeling. It had no idea if I was happy, having a bad day, or stressed, confused, and so that got frustrating. Even worse, as I communicated online with my family back home, I felt that all my emotions disappeared in cyberspace. I was homesick, I was lonely, and on some days I was actually crying, but all I had to communicate these emotions was this. (Laughter) Today's technology has lots of I.Q., but no E.Q.; lots of cognitive intelligence, but no emotional intelligence. So that got me thinking, what if our technology could sense our emotions? What if our devices could sense how we felt and reacted accordingly, just the way an emotionally intelligent friend would? Those questions led me and my team to create technologies that can read and respond to our emotions, and our starting point was the human face.
Comecei neste caminho há 15 anos. Eu era cientista de informática no Egito, e tinha sido aceite num programa de doutoramento na Universidade de Cambridge. Então, fiz uma coisa bastante invulgar para uma jovem esposa egípcia e muçulmana. Com o apoio do meu marido, que teve que ficar no Egito, fiz as malas e fui para Inglaterra. Em Cambridge, a milhares de quilómetros de casa, percebi que estava a passar mais tempo com o meu portátil do que com qualquer ser humano. Mas, apesar da intimidade, o meu portátil não fazia ideia nenhuma de como eu me sentia. Não sabia se eu estava feliz, se estava a ter um dia mau, se estava tensa ou confusa, e isso tornou-se frustrante. Pior ainda, quando eu comunicava com a minha família online, eu sentia que as minhas emoções desapareciam no ciberespaço. Eu estava com saudades de casa, solitária, e, às vezes, até chorava, mas tudo o que eu tinha para comunicar essas emoções era isto. (Risos) A tecnologia atual tem um alto Q.I, mas nenhum Q.E., ou seja, uma alta inteligência cognitiva, mas nenhuma inteligência emocional. Então comecei a pensar: E se a nossa tecnologia pudesse reconhecer as nossas emoções? E se ela pudesse reconhecer os nossos sentimentos e reagir de acordo com eles, do mesmo modo que um amigo emocionalmente inteligente reagiria? Estas perguntas fizeram com que eu e a minha equipa criássemos tecnologias capazes de ler e de reagir às nossas emoções. O nosso ponto de partida foi o rosto humano.
So our human face happens to be one of the most powerful channels that we all use to communicate social and emotional states, everything from enjoyment, surprise, empathy and curiosity. In emotion science, we call each facial muscle movement an action unit. So for example, action unit 12, it's not a Hollywood blockbuster, it is actually a lip corner pull, which is the main component of a smile. Try it everybody. Let's get some smiles going on. Another example is action unit 4. It's the brow furrow. It's when you draw your eyebrows together and you create all these textures and wrinkles. We don't like them, but it's a strong indicator of a negative emotion. So we have about 45 of these action units, and they combine to express hundreds of emotions.
O rosto humano é um dos mais poderosos canais que utilizamos para comunicar os estados sociais e emocionais, como a alegria, a surpresa, a empatia e a curiosidade. Na ciência da emoção, chamamos "unidade de ação" a cada movimento facial muscular , Por exemplo, ''unidade de ação 12'', — não é um grande êxito de Hollywood — é o levantar do canto do lábio, o principal componente de um sorriso. Tentem, todos vocês. Vamos ver alguns sorrisos. Outro exemplo é a "unidade de ação 4". É franzir a testa. É quando aproximamos as sobrancelhas, e criamos várias texturas e rugas. Não gostamos delas, mas é um forte indicador de emoções negativas. Temos cerca de 45 unidades de ação, que se combinam para exprimir centenas de emoções. Ensinar um computador a ler essas emoções faciais é difícil
Teaching a computer to read these facial emotions is hard, because these action units, they can be fast, they're subtle, and they combine in many different ways. So take, for example, the smile and the smirk. They look somewhat similar, but they mean very different things. (Laughter) So the smile is positive, a smirk is often negative. Sometimes a smirk can make you become famous. But seriously, it's important for a computer to be able to tell the difference between the two expressions.
porque essas unidades de ação podem ser rápidas, podem ser subtis, e combinam-se de muita formas diferentes. Por exemplo, o sorriso alegre e o sorriso irónico. São parecidos, mas significam coisas muito diferentes. (Risos) O sorriso alegre é positivo, o sorriso irónico, geralmente, é negativo. Às vezes o sorriso irónico pode tornar alguém famoso. É importante que um computador consiga distinguir essas duas expressões. Então como fazemos isso?
So how do we do that? We give our algorithms tens of thousands of examples of people we know to be smiling, from different ethnicities, ages, genders, and we do the same for smirks. And then, using deep learning, the algorithm looks for all these textures and wrinkles and shape changes on our face, and basically learns that all smiles have common characteristics, all smirks have subtly different characteristics. And the next time it sees a new face, it essentially learns that this face has the same characteristics of a smile, and it says, "Aha, I recognize this. This is a smile expression."
Damos aos nossos algoritmos dezenas de milhares de exemplos de pessoas que sorriem alegremente, pessoas de diferentes etnias, idades, sexos, e fazemos o mesmo com o sorriso irónico. Usando a aprendizagem profunda, o algoritmo procura todas essas texturas e rugas e as mudanças de forma no nosso rosto, e aprende que todos os sorrisos alegres têm características em comum e todos os sorrisos irónicos têm características subtilmente diferentes. E quando voltar a ver um novo rosto, ele aprende que esse rosto tem as mesmas características de um sorriso alegre e diz: ''Aha, eu reconheço isto. Esta é uma expressão de sorriso alegre.''
So the best way to demonstrate how this technology works is to try a live demo, so I need a volunteer, preferably somebody with a face. (Laughter) Cloe's going to be our volunteer today.
A melhor maneira de demonstrar como essa tecnologia funciona é fazer uma demonstração ao vivo. Portanto, preciso de um voluntário, de preferência alguém com um rosto. (Risos) Cloe vai ser hoje a nossa voluntária.
So over the past five years, we've moved from being a research project at MIT to a company, where my team has worked really hard to make this technology work, as we like to say, in the wild. And we've also shrunk it so that the core emotion engine works on any mobile device with a camera, like this iPad. So let's give this a try.
Nos últimos cinco anos, passámos de um projeto de pesquisa no MIT para uma empresa, onde o meu grupo tem trabalhado muito para fazer funcionar esta tecnologia, como gostamos de dizer, no dia-a-dia. E também a reduzimos para que o mecanismo de emoção central funcione em qualquer aparelho com câmara, como este iPad. Então vamos lá testá-lo.
As you can see, the algorithm has essentially found Cloe's face, so it's this white bounding box, and it's tracking the main feature points on her face, so her eyebrows, her eyes, her mouth and her nose. The question is, can it recognize her expression? So we're going to test the machine. So first of all, give me your poker face. Yep, awesome. (Laughter) And then as she smiles, this is a genuine smile, it's great. So you can see the green bar go up as she smiles. Now that was a big smile. Can you try a subtle smile to see if the computer can recognize? It does recognize subtle smiles as well. We've worked really hard to make that happen. And then eyebrow raised, indicator of surprise. Brow furrow, which is an indicator of confusion. Frown. Yes, perfect. So these are all the different action units. There's many more of them. This is just a slimmed-down demo. But we call each reading an emotion data point, and then they can fire together to portray different emotions. So on the right side of the demo -- look like you're happy. So that's joy. Joy fires up. And then give me a disgust face. Try to remember what it was like when Zayn left One Direction. (Laughter) Yeah, wrinkle your nose. Awesome. And the valence is actually quite negative, so you must have been a big fan. So valence is how positive or negative an experience is, and engagement is how expressive she is as well. So imagine if Cloe had access to this real-time emotion stream, and she could share it with anybody she wanted to. Thank you. (Applause)
Como podem ver, o algoritmo encontrou o rosto da Cloe — é esta caixa delimitadora branca — e está a procurar os pontos principais das feições dela: as sobrancelhas, os olhos, a boca e o nariz. A pergunta é: ''Poderá reconhecer a expressão dela?'' Vamos testar a máquina. Primeiro, faz um rosto inexpressivo. Isso, fantástico. (Risos) Quando ela sorri, é um sorriso genuíno, é ótimo. Vejam a barra verde subir quando ela sorri. Esse foi um sorriso enorme. Podes sorrir levemente, para ver se o computador reconhece? Ele também reconhece sorrisos subtis. Trabalhámos muito para que isto aconteça. Agora o levantar das sobrancelhas, que indica surpresa. O franzir da testa, que indica confusão. (Risos) O franzir de sobrancelhas. Perfeito. Estas são diferentes unidades de ação. Existem muitas outras. Esta é uma demonstração reduzida. Nós consideramos cada leitura como um dado emocional. Podem aparecer juntos para representar diferentes emoções. No lado direito da demonstração — parece que estamos felizes. Isso é alegria. A alegria dispara. Agora faz uma cara de desgosto. Tenta lembrar-te como te sentiste quando Zayn saiu dos One Direction. (Risos) Isso, enruga o nariz. Ótimo. A valência está muito negativa, devias ser uma grande fã. A valência é quão positiva ou negativa é uma experiência, e o envolvimento é quão expressiva é a pessoa. Imaginem se Cloe tivesse acesso a este fluxo digital de emoções, e pudesse partilhar isso com quem ela quisesse. Obrigada. (Aplausos)
So, so far, we have amassed 12 billion of these emotion data points. It's the largest emotion database in the world. We've collected it from 2.9 million face videos, people who have agreed to share their emotions with us, and from 75 countries around the world. It's growing every day. It blows my mind away that we can now quantify something as personal as our emotions, and we can do it at this scale.
Até agora, já acumulámos 12 mil milhões destes dados emocionais. É o maior banco de dados emocionais do mundo. Fomos buscá-los a 2,9 milhões de vídeos de rostos, de pessoas que aceitaram partilhar as suas emoções connosco, de 75 países em todo o mundo. Ele está a crescer todos os dias. Eu fico espantada com o fato de que hoje em dia podemos quantificar uma coisa tão pessoal como as emoções e podemos fazer isso a este nível.
So what have we learned to date? Gender. Our data confirms something that you might suspect. Women are more expressive than men. Not only do they smile more, their smiles last longer, and we can now really quantify what it is that men and women respond to differently. Let's do culture: So in the United States, women are 40 percent more expressive than men, but curiously, we don't see any difference in the U.K. between men and women. (Laughter) Age: People who are 50 years and older are 25 percent more emotive than younger people. Women in their 20s smile a lot more than men the same age, perhaps a necessity for dating. But perhaps what surprised us the most about this data is that we happen to be expressive all the time, even when we are sitting in front of our devices alone, and it's not just when we're watching cat videos on Facebook. We are expressive when we're emailing, texting, shopping online, or even doing our taxes.
Então o que é que aprendemos até agora? Diferenças entre sexos. Os nossos dados confirmam uma coisa que vocês talvez suspeitem. As mulheres são mais expressivas do que os homens. Sorriem-se mais, e os sorrisos delas duram mais tempo. Podemos quantificar a que é que homens e mulheres reagem de modo diferente. Vamos contribuir para a cultura: Nos Estados Unidos, as mulheres são 50% mais expressivas do que os homens mas, curiosamente, não vemos diferença no Reino Unido entre homens e mulheres. (Risos) Idade: As pessoas com 50 anos ou mais são 25% mais emotivas do que as pessoas jovens. As mulheres na faixa dos 20 anos sorriem mais do que os homens da mesma idade, talvez seja uma necessidade para arranjar namoro. Mas talvez o que mais nos surpreendeu em relação a estes dados é que nós somos expressivos o tempo todo, mesmo quando estamos sentados sozinhos em frente dos nossos computadores, e não é só quando assistimos a vídeos de gatos no Facebook. Somos expressivos quando enviamos e-mails e mensagens, quando compramos online, e até quando fazemos a declaração de impostos.
Where is this data used today? In understanding how we engage with media, so understanding virality and voting behavior; and also empowering or emotion-enabling technology, and I want to share some examples that are especially close to my heart. Emotion-enabled wearable glasses can help individuals who are visually impaired read the faces of others, and it can help individuals on the autism spectrum interpret emotion, something that they really struggle with. In education, imagine if your learning apps sense that you're confused and slow down, or that you're bored, so it's sped up, just like a great teacher would in a classroom. What if your wristwatch tracked your mood, or your car sensed that you're tired, or perhaps your fridge knows that you're stressed, so it auto-locks to prevent you from binge eating. (Laughter) I would like that, yeah. What if, when I was in Cambridge, I had access to my real-time emotion stream, and I could share that with my family back home in a very natural way, just like I would've if we were all in the same room together?
Onde é que esses dados são usados hoje? Para compreender como nos envolvemos com os media; para compreender os fenómenos virais e o comportamento eleitoral; e também nas tecnologias que reforçam ou provocam emoções. Quero mostrar-vos alguns exemplos que considero muito especiais. Óculos que reconheçam emoções podem ajudar indivíduos que possuem deficiente visão a ler o rosto dos outros. Podem ajudar indivíduos do espetro autista a interpretar emoções, que é uma coisa em que eles têm muita dificuldade. Na área do ensino, imaginem se os aplicativos educacionais percebam que estamos confusos e abrandem de velocidade ou que estamos aborrecidos e avancem mais depressa, como faria um bom professor na aula. E se o nosso relógio detetasse a nossa disposição? Ou se o nosso carro sentisse que estamos cansados? Ou o nosso frigorífico percebesse que estamos nervosos e trancasse automaticamente para impedir que comamos demais? (Risos) Eu adoraria isso. E se, quando eu estava em Cambridge, eu tivesse tido acesso ao meu fluxo de emoções em tempo real e pudesse partilhar isso com a minha família de modo natural, tal como faria se estivéssemos todos juntos na mesma sala?
I think five years down the line, all our devices are going to have an emotion chip, and we won't remember what it was like when we couldn't just frown at our device and our device would say, "Hmm, you didn't like that, did you?" Our biggest challenge is that there are so many applications of this technology, my team and I realize that we can't build them all ourselves, so we've made this technology available so that other developers can get building and get creative. We recognize that there are potential risks and potential for abuse, but personally, having spent many years doing this, I believe that the benefits to humanity from having emotionally intelligent technology far outweigh the potential for misuse. And I invite you all to be part of the conversation. The more people who know about this technology, the more we can all have a voice in how it's being used. So as more and more of our lives become digital, we are fighting a losing battle trying to curb our usage of devices in order to reclaim our emotions. So what I'm trying to do instead is to bring emotions into our technology and make our technologies more responsive. So I want those devices that have separated us to bring us back together. And by humanizing technology, we have this golden opportunity to reimagine how we connect with machines, and therefore, how we, as human beings, connect with one another.
Eu acho que, daqui a 5 anos, todos os nossos aparelhos terão um chip emocional. Nem nos vamos lembrar como era não poder franzir testa para o computador e ele responder: ''Hmm, não gostaste disto, pois não?.'' O nosso maior desafio é que há tantas aplicações desta tecnologia que a minha equipa e eu percebemos que não podemos montar tudo sozinhos. Assim, tornámos disponível esta tecnologia para que outras pessoas possam começar a construir e a criar. Sabemos que há riscos potenciais e há potencial para abusos, mas, pessoalmente, como trabalhei nisto durante muitos anos, acredito que os benefícios para a humanidade de termos uma tecnologia emocionalmente inteligente são muito maiores que o potencial para uso indevido. Convido todos vocês para participar nessa discussão. Quanto mais pessoas souberem sobre esta tecnologia, mais força terá a nossa voz quanto à forma como for usada. À medida que a nossa vida é cada vez mais digital, travamos uma luta perdida ao tentar restringir o nosso uso de tecnologias para reivindicar as nossas emoções. Em vez disso, quero introduzir as emoções na nossa tecnologia e tornar a nossa tecnologia mais recetível. Quero que estes aparelhos que nos separaram nos unam novamente. Ao humanizar a tecnologia, temos uma oportunidade perfeita para re-imaginar como nos relacionamos com máquinas e, portanto, como nós, enquanto seres humanos, nos relacionamos uns com os outros.
Thank you.
Obrigada.
(Applause)
(Aplausos)