I work on helping computers communicate about the world around us. There are a lot of ways to do this, and I like to focus on helping computers to talk about what they see and understand. Given a scene like this, a modern computer-vision algorithm can tell you that there's a woman and there's a dog. It can tell you that the woman is smiling. It might even be able to tell you that the dog is incredibly cute. I work on this problem thinking about how humans understand and process the world. The thoughts, memories and stories that a scene like this might evoke for humans. All the interconnections of related situations. Maybe you've seen a dog like this one before, or you've spent time running on a beach like this one, and that further evokes thoughts and memories of a past vacation, past times to the beach, times spent running around with other dogs. One of my guiding principles is that by helping computers to understand what it's like to have these experiences, to understand what we share and believe and feel, then we're in a great position to start evolving computer technology in a way that's complementary with our own experiences.
Eu trabalho a ajudar computadores a comunicarem o mundo à nossa volta. Há muitas maneiras de fazer isso, e gosto de me concentrar em ajudar os computadores a falar sobre o que veem e entendem. Perante uma cena como esta, um algoritmo de visão computacional moderna pode dizer-nos que há uma mulher e há um cão. Pode dizer-nos que a mulher está a sorrir. Pode até conseguir dizer-nos que o cão é incrivelmente bonito. Eu trabalho neste problema pensando em como os seres humanos compreendem e processam o mundo. Os pensamentos, as memórias e as histórias que uma cena como esta pode evocar aos seres humanos, todas as interligações de situações relacionadas. Talvez vocês já tenham visto um cão como este, ou tenham passado algum tempo a correr numa praia como esta, e isso ainda evoca mais pensamentos e memórias de férias passadas, de tempos passados na praia, de tempos passados a correr com outros cães. Um dos meus princípios orientadores é ajudar os computadores a entender como é ter essas experiências, para entenderem o que partilhamos e acreditarem e sentirem. Estamos numa ótima posição para fazer evoluir a tecnologia de computador de uma forma que é complementar das nossas próprias experiências.
So, digging more deeply into this, a few years ago I began working on helping computers to generate human-like stories from sequences of images. So, one day, I was working with my computer to ask it what it thought about a trip to Australia. It took a look at the pictures, and it saw a koala. It didn't know what the koala was, but it said it thought it was an interesting-looking creature. Then I shared with it a sequence of images about a house burning down. It took a look at the images and it said, "This is an amazing view! This is spectacular!" It sent chills down my spine. It saw a horrible, life-changing and life-destroying event and thought it was something positive. I realized that it recognized the contrast, the reds, the yellows, and thought it was something worth remarking on positively. And part of why it was doing this was because most of the images I had given it were positive images. That's because people tend to share positive images when they talk about their experiences. When was the last time you saw a selfie at a funeral?
Então, mergulhando nisto mais profundamente, há uns anos comecei a trabalhar ajudando os computadores a gerarem histórias humanas a partir de sequências de imagens. Um dia, eu estava a trabalhar no meu computador para lhe perguntar o que é que ele pensava duma viagem à Austrália. Ele observou as fotos e viu um coala. Ele não sabia o que era um coala, mas disse que achava que era uma criatura de aspeto interessante. Então, mostrei-lhe uma sequência de imagens sobre uma casa a arder. Deu uma olhadela a essas imagens e disse: “Isto é uma vista incrível! Isto é espetacular! " Senti arrepios pela espinha abaixo. Ele vira um acontecimento terrível, que mudava e destruía vidas e achara que era uma coisa positiva. Percebi que ele reconhecia o contraste, os vermelhos, os amarelos, e pensara que era uma coisa que valia a pena comentar positivamente. Em parte, o motivo por que estava a fazer isso era porque a maioria das imagens que eu lhe tinha dado tinham sido imagens positivas. As pessoas têm tendência a partilhar imagens positivas quando falam sobre as suas experiências. Quando foi a última vez que vocês viram uma "selfie" num funeral?
I realized that, as I worked on improving AI task by task, dataset by dataset, that I was creating massive gaps, holes and blind spots in what it could understand. And while doing so, I was encoding all kinds of biases. Biases that reflect a limited viewpoint, limited to a single dataset -- biases that can reflect human biases found in the data, such as prejudice and stereotyping. I thought back to the evolution of the technology that brought me to where I was that day -- how the first color images were calibrated against a white woman's skin, meaning that color photography was biased against black faces. And that same bias, that same blind spot continued well into the '90s. And the same blind spot continues even today in how well we can recognize different people's faces in facial recognition technology. I though about the state of the art in research today, where we tend to limit our thinking to one dataset and one problem. And that in doing so, we were creating more blind spots and biases that the AI could further amplify.
Eu percebi que, enquanto trabalhava para melhorar a IA tarefa a tarefa, conjunto de dados a conjunto de dados, estava a criar lacunas enormes, buracos e pontos cegos no que ele poderia entender. E enquanto fazia isso, eu estava a codificar todos os tipos de preconceitos. Preconceitos que refletem um ponto de vista limitado, limitado a um único conjunto de dados, preconceitos que podem refletir preconceitos humanos encontrados nos dados, como preconceitos e estereótipos. Recordei a evolução da tecnologia que me levara para onde eu estava naquele dia — como as primeiras imagens coloridas tinham sido calibradas a partir da pele de uma mulher branca, ou seja, a fotografia colorida era tendenciosa contra rostos negros. Esse mesmo preconceito, esse mesmo ponto cego continuou até aos anos 90. E o mesmo ponto cego continua ainda hoje na forma como reconhecemos tão bem os rostos de pessoas diferentes na tecnologia de reconhecimento facial. Eu pensei na investigação de ponta de hoje, onde tendemos a limitar o nosso pensamento a um conjunto de dados e a um só problema. Ao fazermos isso, estávamos a criar mais pontos cegos e preconceitos que a IA poderia ampliar ainda mais.
I realized then that we had to think deeply about how the technology we work on today looks in five years, in 10 years. Humans evolve slowly, with time to correct for issues in the interaction of humans and their environment. In contrast, artificial intelligence is evolving at an incredibly fast rate. And that means that it really matters that we think about this carefully right now -- that we reflect on our own blind spots, our own biases, and think about how that's informing the technology we're creating and discuss what the technology of today will mean for tomorrow.
Eu percebi então que tínhamos de pensar profundamente sobre como será daqui a cinco anos, daqui a 10 anos, a tecnologia em que trabalhamos hoje, Os seres humanos evoluem lentamente, com tempo para corrigir os problemas na interação dos seres humanos com o seu ambiente. Em contraste, a inteligência artificial está a evoluir a um ritmo incrivelmente rápido. Isso significa que é importante que pensemos nisso agora com o maior cuidado, que reflitamos nos nossos pontos cegos, nos nossos preconceitos, e pensemos em como isso está a afetar a tecnologia que estamos a criar e analisemos o que a tecnologia de hoje significará amanhã.
CEOs and scientists have weighed in on what they think the artificial intelligence technology of the future will be. Stephen Hawking warns that "Artificial intelligence could end mankind." Elon Musk warns that it's an existential risk and one of the greatest risks that we face as a civilization. Bill Gates has made the point, "I don't understand why people aren't more concerned." But these views -- they're part of the story. The math, the models, the basic building blocks of artificial intelligence are something that we call access and all work with. We have open-source tools for machine learning and intelligence that we can contribute to. And beyond that, we can share our experience. We can share our experiences with technology and how it concerns us and how it excites us. We can discuss what we love. We can communicate with foresight about the aspects of technology that could be more beneficial or could be more problematic over time.
CEOs e cientistas avaliaram aquilo que eles consideram que virá a ser a tecnologia da inteligência artificial do futuro. Stephen Hawking avisa: "A Inteligência artificial pode acabar com a Humanidade. " Elon Musk avisa que é um risco existencial e um dos maiores riscos que enfrentamos enquanto civilização. Bill Gates deixou claro: "Não entendo porque é que as pessoas não estão mais preocupadas." Mas essas perspetivas fazem parte da História. A matemática, os modelos, os blocos de construção básicos da inteligência artificial são algo a que chamamos "acesso" e com que todos trabalham. Temos ferramentas de código aberto para aprendizagem de máquina para as quais podemos contribuir. E além disso, podemos partilhar a nossa experiência. Podemos partilhar as nossas experiências com a tecnologia como ela nos preocupa e como isso nos entusiasma. Podemos analisar o que amamos. Podemos comunicar com conhecimento antecipado quais os aspetos da tecnologia que poderão ser mais benéficos ou que poderão ser mais problemáticos com o tempo.
If we all focus on opening up the discussion on AI with foresight towards the future, this will help create a general conversation and awareness about what AI is now, what it can become and all the things that we need to do in order to enable that outcome that best suits us. We already see and know this in the technology that we use today. We use smart phones and digital assistants and Roombas. Are they evil? Maybe sometimes. Are they beneficial? Yes, they're that, too. And they're not all the same. And there you already see a light shining on what the future holds. The future continues on from what we build and create right now. We set into motion that domino effect that carves out AI's evolutionary path.
Se todos nós nos concentrarmos em abrir o debate sobre a IA, com uma visão para o futuro, isso ajudará a criar uma conversa e uma consciência sobre o que a IA é agora, sobre aquilo que ela pode vir a ser e sobre todas as coisas que precisamos de fazer a fim de permitir o resultado que melhor nos convém. Nós já vemos e sabemos isso na tecnologia que usamos hoje. Usamos "smartphones", assistentes digitais e robôs-aspiradores. Eles são maus? Talvez às vezes. Eles são benéficos? Sim, também são. E não são todos iguais. Aí já vemos uma luz brilhando sobre o que o futuro reserva. O futuro continua a partir do que construímos e criamos hoje. Colocamos em movimento o efeito dominó que traça o caminho evolutivo da IA.
In our time right now, we shape the AI of tomorrow. Technology that immerses us in augmented realities bringing to life past worlds. Technology that helps people to share their experiences when they have difficulty communicating. Technology built on understanding the streaming visual worlds used as technology for self-driving cars. Technology built on understanding images and generating language, evolving into technology that helps people who are visually impaired be better able to access the visual world. And we also see how technology can lead to problems. We have technology today that analyzes physical characteristics we're born with -- such as the color of our skin or the look of our face -- in order to determine whether or not we might be criminals or terrorists. We have technology that crunches through our data, even data relating to our gender or our race, in order to determine whether or not we might get a loan. All that we see now is a snapshot in the evolution of artificial intelligence. Because where we are right now, is within a moment of that evolution. That means that what we do now will affect what happens down the line and in the future.
No nosso tempo de hoje, nós modelamos a IA de amanhã. A tecnologia que nos envolve em realidades aumentadas trazendo à vida mundos passados. A tecnologia que ajuda as pessoas a partilhar as suas experiências quando elas têm dificuldade em comunicar. A tecnologia baseada na compreensão dos mundos visuais do "streaming" usado como tecnologia para carros autónomos. A tecnologia baseada na compreensão de imagens e gerando linguagem, evoluindo para a tecnologia que ajuda as pessoas que são deficientes visuais a conseguirem ter acesso ao mundo visual. E também vemos como a tecnologia pode levar a problemas. Temos tecnologia hoje que analisa as características físicas com que nascemos como a cor da pele ou o aspeto do rosto a fim de determinar se seremos ou não criminosos ou terroristas. Temos tecnologia que processa os nossos dados, até mesmo os dados relacionados com o nosso género ou etnia, a fim de determinar se podemos ou não obter um empréstimo. Tudo o que vemos agora é um instantâneo da evolução da inteligência artificial. Porque o ponto em que estamos agora, está dentro de um momento dessa evolução. Isso significa que o que fazemos agora afetará o que acontece no futuro e no futuro.
If we want AI to evolve in a way that helps humans, then we need to define the goals and strategies that enable that path now. What I'd like to see is something that fits well with humans, with our culture and with the environment. Technology that aids and assists those of us with neurological conditions or other disabilities in order to make life equally challenging for everyone. Technology that works regardless of your demographics or the color of your skin. And so today, what I focus on is the technology for tomorrow and for 10 years from now.
Se quisermos que a IA evolua de uma forma que ajude os seres humanos, precisamos de definir os objetivos e as estratégias que permitem esse caminho agora. O que eu gostaria de ver é algo que se encaixa bem com os seres humanos, com a nossa cultura e com o meio ambiente. Uma tecnologia que ajude e auxilie os que têm problemas neurológicos ou outras deficiências a fim de tornar a vida igualmente desafiadora para todos. Uma tecnologia que funcione independentemente dos nossos dados demográficos ou da cor da pele. Assim, aquilo em que eu me foco hoje é a tecnologia para amanhã e para 10 anos a partir de agora.
AI can turn out in many different ways. But in this case, it isn't a self-driving car without any destination. This is the car that we are driving. We choose when to speed up and when to slow down. We choose if we need to make a turn. We choose what the AI of the future will be. There's a vast playing field of all the things that artificial intelligence can become. It will become many things. And it's up to us now, in order to figure out what we need to put in place to make sure the outcomes of artificial intelligence are the ones that will be better for all of us.
A IA pode revelar-se de muitas maneiras diferentes. Mas, neste caso, não é um carro autónomo sem qualquer destino. É o carro que somos nós a dirigir. Nós escolhemos quando acelerar e quando abrandar. Nós escolhemos se precisamos de fazer uma curva. Nós escolhemos o que será a IA do futuro. Há um vasto campo de jogo de todas as coisas em que a inteligência artificial se pode tornar. Tornar-se-á em muitas coisas. E cabe a nós agora, a fim de descobrir o que precisamos de implementar para garantir que os resultados da inteligência artificial são os que serão melhor para todos nós.
Thank you.
Obrigada.
(Applause)
(Aplausos)