I work on helping computers communicate about the world around us. There are a lot of ways to do this, and I like to focus on helping computers to talk about what they see and understand. Given a scene like this, a modern computer-vision algorithm can tell you that there's a woman and there's a dog. It can tell you that the woman is smiling. It might even be able to tell you that the dog is incredibly cute. I work on this problem thinking about how humans understand and process the world. The thoughts, memories and stories that a scene like this might evoke for humans. All the interconnections of related situations. Maybe you've seen a dog like this one before, or you've spent time running on a beach like this one, and that further evokes thoughts and memories of a past vacation, past times to the beach, times spent running around with other dogs. One of my guiding principles is that by helping computers to understand what it's like to have these experiences, to understand what we share and believe and feel, then we're in a great position to start evolving computer technology in a way that's complementary with our own experiences.
전 컴퓨터가 세상을 이해하도록 돕는 일을 합니다. 여러가지 방법이 있지요. 전 컴퓨터를 돕는 것을 즐기며 컴퓨터가 보고 이해하는 것을 돕습니다. 이런 장면을 컴퓨터에게 보여주면 현대판 컴퓨터 알고리즘이 작용하여 한 여성과 개가 있다고 알려주죠. 그녀는 웃고 있다고 알려주기도 하죠. 개가 매우 귀엽다고 말해 줄 수도 있을 겁니다. 제가 연구하고 있는 분야는 인간이 어떻게 세상을 이해하고 받아들이는 가입니다. 생각, 기억, 이야기들 이런 장면이 인간에게 어떤 영향을 주는 지를 연구하고 있죠. 연관된 상황들의 상호 연결에 대해서요. 여러분은 이런 개를 본적이 있거나 개와 함께 해변을 달렸을 수도 있죠. 이러한 생각은 이전 휴가의 기억을 떠오르게 합니다. 해변에서 보낸 과거의 기억 개와 달리며 보낸 시간들을요. 컴퓨터가 세상을 이해하도록 돕는 저의 지도 원칙은 이 경험들이 어떤 것인지를 이해시키고 우리가 나누고 믿고 느끼는 것을 이해시키며 컴퓨터 기술을 발전시키는 것이 우리의 중요한 역할이라는 것입니다. 인간의 기억과 상호 보완되도록 말입니다.
So, digging more deeply into this, a few years ago I began working on helping computers to generate human-like stories from sequences of images. So, one day, I was working with my computer to ask it what it thought about a trip to Australia. It took a look at the pictures, and it saw a koala. It didn't know what the koala was, but it said it thought it was an interesting-looking creature. Then I shared with it a sequence of images about a house burning down. It took a look at the images and it said, "This is an amazing view! This is spectacular!" It sent chills down my spine. It saw a horrible, life-changing and life-destroying event and thought it was something positive. I realized that it recognized the contrast, the reds, the yellows, and thought it was something worth remarking on positively. And part of why it was doing this was because most of the images I had given it were positive images. That's because people tend to share positive images when they talk about their experiences. When was the last time you saw a selfie at a funeral?
좀더 자세히 설명해보겠습니다. 몇년 전 저는 컴퓨터가 인간의 이야기를 지어낼수 있도록 했습니다. 여러 장의 이미지를 통해서요. 어느 날 저는 컴퓨터에게 호주 여행을 어떻게 생각하냐고 물었습니다. 컴퓨터는 사진들 속에서 코알라를 보았습니다. 그것은 코알라가 무엇인지 몰랐죠. 컴퓨터는 흥미롭게 생긴 생명체가 있다고 하더군요. 그후 불타고 있는 집의 이미지를 보여주었습니다. 이미지를 보다가 컴퓨터는 대답했죠. "멋진 광경이네요! 대단한 장관이에요!" 갑자기 오싹하는 느낌이 들었습니다. 끔찍하고 인생을 뒤바꾸고 파괴할 수도 있는 사건을 보고 그것은 긍정적 장면이라고 생각했던 거죠. 저는 컴퓨터가 색채 대비와 빨강과 노랑을 보고는 긍정적으로 인지할만한 것이라고 생각했음을 깨달았습니다. 그런 반응의 이유는 여태 보여준 이미지들이 긍정적이었기 때문이죠. 사람들은 좋은 순간의 사진들을 보여주죠. 자기 이야기를 할 때는 말이죠. 장례식에서 자신의 사진을 찍어본 적이 있으세요?
I realized that, as I worked on improving AI task by task, dataset by dataset, that I was creating massive gaps, holes and blind spots in what it could understand. And while doing so, I was encoding all kinds of biases. Biases that reflect a limited viewpoint, limited to a single dataset -- biases that can reflect human biases found in the data, such as prejudice and stereotyping. I thought back to the evolution of the technology that brought me to where I was that day -- how the first color images were calibrated against a white woman's skin, meaning that color photography was biased against black faces. And that same bias, that same blind spot continued well into the '90s. And the same blind spot continues even today in how well we can recognize different people's faces in facial recognition technology. I though about the state of the art in research today, where we tend to limit our thinking to one dataset and one problem. And that in doing so, we were creating more blind spots and biases that the AI could further amplify.
전 인공지능(Al)과 일하면서 깨달았습니다. 모든 작업과 정보 데이터마다 거대한 틈이 있었던 겁니다. 컴퓨터는 허점과 사각지대 속에서 이해를 하고 있던 겁니다. 그 와중에 저는 편파적인 생각을 인식시키고 있던 겁니다. 제한된 생각을 가진 한가지 정보에만 국한된 선입관 데이터 속에 반영된 인간들의 편견 판에 박은 고정 관념 컴퓨터의 발전을 생각해보면 예전의 모습을 떠올리게 됩니다. 처음 색채의 이미지는 백인 여자의 피부색에 맞추어 졌다는 사실을요. 사진의 색채가 흑인 여자의 얼굴색에는 편견으로 작용한다는 거죠. 바로 그 편견과 사각지대가 90년대까지 계속되었습니다. 그같은 헛점은 오늘날에도 존재합니다. 각각의 얼굴의 모양을 구별하는 얼굴 인식 프로그램에도 존재합니다. 오늘날의 최첨단의 연구를 생각해보았습니다. 우리는 한가지 문제, 한가지 데이터 속에 생각을 제한합니다. 그로 인해 헛점과 편견을 만들어 내는 것입니다. 인공지능(AI)은 그 편견을 확대시킵니다.
I realized then that we had to think deeply about how the technology we work on today looks in five years, in 10 years. Humans evolve slowly, with time to correct for issues in the interaction of humans and their environment. In contrast, artificial intelligence is evolving at an incredibly fast rate. And that means that it really matters that we think about this carefully right now -- that we reflect on our own blind spots, our own biases, and think about how that's informing the technology we're creating and discuss what the technology of today will mean for tomorrow.
우리는 깊게 이 문제를 생각해야합니다. 오늘 우리가 연구하는 이 기술이 5년, 10년후엔 어떻게 변할까요? 인간은 천천히 발전하면서 시간에 맞춰 문제를 해결합니다. 다른 인간과 다른 환경과 상호 작용을 하면서요. 반면, 인공지능은 놀라운 속도로 빠르게 발전합니다. 정말 알아야 할 중요한 사실은 우리가 사각지대인 헛점까지도 인공지능에 반영하고 있다는 사실입니다. 우리 자신의 편견을요. 우리가 만들어낸 기술이 어떻게 인식될 지를 생각하며 현재의 기술이 미래에 어떤 영향을 미칠 지를 생각해야 합니다.
CEOs and scientists have weighed in on what they think the artificial intelligence technology of the future will be. Stephen Hawking warns that "Artificial intelligence could end mankind." Elon Musk warns that it's an existential risk and one of the greatest risks that we face as a civilization. Bill Gates has made the point, "I don't understand why people aren't more concerned." But these views -- they're part of the story. The math, the models, the basic building blocks of artificial intelligence are something that we call access and all work with. We have open-source tools for machine learning and intelligence that we can contribute to. And beyond that, we can share our experience. We can share our experiences with technology and how it concerns us and how it excites us. We can discuss what we love. We can communicate with foresight about the aspects of technology that could be more beneficial or could be more problematic over time.
최고 경영자들과 과학자들은 신중히 고려하며 인공지능이 미래에 어떻게 변할지를 말했습니다. 스티븐 호킹은 경고했죠. "인공 지능은 인류를 멸망시킬수 있다" 엘론 머스크는 인공 지능은 실존하는 위험이며 문명사회로서 겪어야 할 가장 큰 위험이라고 했습니다. 빌 게이츠는 역설했습니다. "사람들이 왜 신경을 안 쓰는지 이해가 안됩니다." 하지만 이런 견해들은 그저 이야기의 한 부분일 뿐입니다. 수학과 모형같은 인공지능의 기초토대는 우리가 모두 접근해서 입력해야하는 정보들입니다. 공개소스인 오픈소스를 통해 컴퓨터의 학습과 지능에 기여를 할 수 있는 것입니다. 더 나아가 우리의 경험을 공유할 수도 있습니다. 우리는 테크놀로지를 통하여 고민도 하고 기쁘게도 하는 경험을 함께 나눌 수 있습니다. 우리가 무엇을 좋아하는 지를 이야기하며 앞날을 예측하며 의사소통을 합니다. 테크놀로지가 인류에게 이득인지를 반문하고 혹은 시간이 지남에 따라 해가 되는지도 토론하죠.
If we all focus on opening up the discussion on AI with foresight towards the future, this will help create a general conversation and awareness about what AI is now, what it can become and all the things that we need to do in order to enable that outcome that best suits us. We already see and know this in the technology that we use today. We use smart phones and digital assistants and Roombas. Are they evil? Maybe sometimes. Are they beneficial? Yes, they're that, too. And they're not all the same. And there you already see a light shining on what the future holds. The future continues on from what we build and create right now. We set into motion that domino effect that carves out AI's evolutionary path.
우리 모두가 인공지능에 대해 공개하고 토론하면서 미래를 관측한다면 그것은 전반적인 대화와 인식을 이끌어내서 인공지능이 무엇인지를 이해하게 되고 미래의 모습도 추측할 수 있습니다. 그에 따라 무엇을 해야할 지도 알게 되죠. 인류에게 최선이 될 결과를 만들게되는 거죠. 현재의 테크놀로지 속에서도 우리는 이미 이 사실을 보고 있죠. 예로 스마트폰, 디지탈 기기, 룸바[Roombas]로봇 등이 있죠. 이들이 해로울까요? 아마도 가끔은요. 이들이 도움이 될까요? 네, 그렇죠. 이들이 늘 똑같지는 않습니다. 여러분은 이미 미래에 대한 신호를 보고 있는 겁니다. 미래는 현재를 어떻게 만드느냐에 따라 달라질 것입니다. 도미노 효과가 일어나 듯 말입니다. 그 효과는 인공지능의 발전에 영향을 줄 것입니다.
In our time right now, we shape the AI of tomorrow. Technology that immerses us in augmented realities bringing to life past worlds. Technology that helps people to share their experiences when they have difficulty communicating. Technology built on understanding the streaming visual worlds used as technology for self-driving cars. Technology built on understanding images and generating language, evolving into technology that helps people who are visually impaired be better able to access the visual world. And we also see how technology can lead to problems. We have technology today that analyzes physical characteristics we're born with -- such as the color of our skin or the look of our face -- in order to determine whether or not we might be criminals or terrorists. We have technology that crunches through our data, even data relating to our gender or our race, in order to determine whether or not we might get a loan. All that we see now is a snapshot in the evolution of artificial intelligence. Because where we are right now, is within a moment of that evolution. That means that what we do now will affect what happens down the line and in the future.
지금 우리의 시대는, 미래를 위한 인공지능의 기초입니다. 증강현실에 몰입하게 하는 기술은 세상을 뛰어넘어 생명을 불어넣어주는 기술이죠. 서로의 이야기를 나누기 위한 기술은 의사소통의 어려움을 해결해주죠. 스트리밍으로 전송되는 영상세계를 만드는 기술은 자동운전 테크놀리지에 이용되죠. 이미지와 언어생성을 목적으로 만들어진 기술은 시각장애인들을 돕는 테크놀로지로 발전했죠. 그들이 시각적으로 세상에 더 가까이 다가갈 수 있도록요. 하지만 테크놀로지는 문제를 야기하기도 합니다. 오늘날 우리의 테크놀로지는 우리의 선천적 신체적 특징을 분석합니다. 피부색이나 얼굴의 표정 등을요. 범죄자인지 테러리스트인지를 구별할 수 있도록 하기 위해서죠. 우리는 정보 데이터를 통하여 수집하는 기술을 가지고 있습니다. 성별 또는 인종과 관련되는 데이터는 빚을 지고 있는지 아닌지를 결정하는 기술이 되지도 하지요. 지금 보고 있는 모든 것은 인공지능의 단편일 뿐입니다. 왜냐하면 우리는 지금 인공지능의 발전의 한 순간에 존재하고 있으니까요. 즉 지금 우리가 무엇을 하는 가는 전적으로 영향을 끼칠테니까요. 우리의 미래에요.
If we want AI to evolve in a way that helps humans, then we need to define the goals and strategies that enable that path now. What I'd like to see is something that fits well with humans, with our culture and with the environment. Technology that aids and assists those of us with neurological conditions or other disabilities in order to make life equally challenging for everyone. Technology that works regardless of your demographics or the color of your skin. And so today, what I focus on is the technology for tomorrow and for 10 years from now.
인공지능이 인류를 도와주는 방향으로 발전시키고 싶다면 우리는 목적과 계획을 규정해야합니다. 그런 방향으로 갈 수 있도록요. 인간에게 적합한 기술이기를 바랍니다. 문화와 환경이 담긴 기술. 신경질환을 가진 사람들에게 도움이 되는 테크놀로지. 다른 신체 장애인들도 일반인처럼 동등하게 하루를 살아갈 수 있도록하는 기술. 테크놀로지가 인구통계나 피부색과 관련없이 실행되기를 바랍니다. 제가 지금 연구하고 있는 일은 미래를 위한 테크놀로지입니다. 지금부터 십년 후를 위한 거죠.
AI can turn out in many different ways. But in this case, it isn't a self-driving car without any destination. This is the car that we are driving. We choose when to speed up and when to slow down. We choose if we need to make a turn. We choose what the AI of the future will be. There's a vast playing field of all the things that artificial intelligence can become. It will become many things. And it's up to us now, in order to figure out what we need to put in place to make sure the outcomes of artificial intelligence are the ones that will be better for all of us.
인공지능은 여러모습으로 만들어 질수 있습니다. 하지만 지금은 목적없이 스스로 작동하고 있는 위험한 자동차입니다. 이 차는 우리가 운전해야 하는데 말입니다. 언제 속도를 내고 언제 속도를 줄일지는 우리가 정해야 합니다. 차의 진행 방향도 우리가 정해야 합니다. 우리는 인공지능의 미래의 모습을 정해야 합니다. 거대한 컴퓨터의 장이 인공지능의 변화를 기다리고 있습니다. 인공지능은 여러 모습이 될것이고 그것은 우리 모두에게 달려있습니다. 무엇이 적절히 실행되어야 하는지를 알고 인공지능 발전의 결과를 확실히 하는 것은 우리 모두에게 최상이 될 것입니다.
Thank you.
감사합니다.
(Applause)
(박수)