Ever since computers were invented, we've been trying to make them smarter and more powerful. From the abacus, to room-sized machines, to desktops, to computers in our pockets. And are now designing artificial intelligence to automate tasks that would require human intelligence. If you look at the history of computing, we've always treated computers as external devices that compute and act on our behalf. What I want to do is I want to weave computing, AI and internet as part of us. As part of human cognition, freeing us to interact with the world around us. Integrate human and machine intelligence right inside our own bodies to augment us, instead of diminishing us or replacing us.
컴퓨터가 발명된 이래로 컴퓨터를 더 똑똑하고 더 효과적으로 만들기 위해 노력중입니다. 주판부터 집채만한 기계로 개인용 컴퓨터 그리고 주머니 속 컴퓨터까지 말입니다. 지금은 사람의 지능이 필요한 업무를 자동화할 인공지능을 개발중입니다. 컴퓨터의 역사를 보면 우리는 언제나 컴퓨터를 계산과 행동을 대신해주는 외부장치로 대했습니다. 제가 하려는 건 컴퓨터와 AI, 인터넷을 우리의 일부분으로 엮는 것입니다. 우리를 세상과 교류할 수 있게 해 주는 인간 인식의 일부로서 말이죠. 우리 몸안에 인간과 기계 지능을 융합하는 것입니다. 기계가 우리 자리를 빼앗거나 축소하는 대신 말이죠.
Could we combine what people do best, such as creative and intuitive thinking, with what computers do best, such as processing information and perfectly memorizing stuff? Could this whole be better than the sum of its parts?
과연 우리가 사람이 제일 잘 하는 창의적이고 직관적인 생각들을 정보처리나 완벽하게 외우는 작업같이 컴퓨터가 제일 잘 하는 것들과 결합시킬 수 있을까요? 이 결합이 각 부분의 합보다 더 나을 수 있을까요?
We have a device that could make that possible. It's called AlterEgo, and it's a wearable device that gives you the experience of a conversational AI that lives inside your head, that you could talk to in likeness to talking to yourself internally. We have a new prototype that we're showing here, for the first time at TED, and here's how it works.
여기, 이를 가능하게 할 장치가 있습니다. Alter Ego(분신)이라 부르는 착용형 기기입니다. 이 대화형 AI는 우리 머리속에 존재하며 이를 통해 내면의 대화를 하는 듯한 형식으로 AI와 대화할 수 있습니다. TED에서 처음으로 새 프로토타입 버전을 통해 어떻게 작동하는지 보여드리겠습니다.
Normally, when we speak, the brain sends neurosignals through the nerves to your internal speech systems, to activate them and your vocal cords to produce speech. One of the most complex cognitive and motor tasks that we do as human beings. Now, imagine talking to yourself without vocalizing, without moving your mouth, without moving your jaw, but by simply articulating those words internally. Thereby very subtly engaging your internal speech systems, such as your tongue and back of your palate. When that happens, the brain sends extremely weak signals to these internal speech systems.
보통 우리가 이야기할 때 뇌는 신경계를 통해 세포신호를 보냅니다. 여러분의 내부 발음 기관으로요. 말을 할 수 있도록 이와 음성 기관을 작동시키는 겁니다. 우리가 인간으로서 하는 가장 복잡한 인지 과정과 운동 과정중 하나입니다. 이제, 스스로에게 말하는 것을 상상해 보세요. 목소리를 내지 않고, 입을 움직이지 않고 턱을 움직이지 않고 그냥 마음속으로만 말하는 겁니다. 그러면서 혀와 입천장의 깊숙한 곳 등 발음 기관들이 밀접하게 연결됩니다. 이때, 우리의 뇌는 발음 기관들에게 극도로 약한 신호를 보냅니다.
AlterEgo has sensors, embedded in a thin plastic, flexible and transparent device that sits on your neck just like a sticker. These sensors pick up on these internal signals sourced deep within the mouth cavity, right from the surface of the skin. An AI program running in the background then tries to figure out what the user's trying to say. It then feeds back an answer to the user by means of bone conduction, audio conducted through the skull into the user's inner ear, that the user hears, overlaid on top of the user's natural hearing of the environment, without blocking it.
Aler Ego에겐 얇은 플라스틱에 내장된 센서가 있고 이는 유연하고 투명한 장치로 스티커 같이 여러분 목에 부착됩니다. 이 센서들은 구강 깊숙이에서 시작되는 내적인 신호를 피부 표면에서 감지해낼 수 있습니다. 그러면 뒤에서 작동하는 AI는 사용자가 무엇을 말하려고 하는지를 감지해냅니다. 그리고 사용자에게 대답하는데 골전도를 이용하여 두개골부터 내이까지 전달합니다. 이 경로 덕분에 화자가 듣는 평범한 소리들은 방해받지 않고 대답과 중첩되어 귀에 들어옵니다.
The combination of all these parts, the input, the output and the AI, gives a net subjective experience of an interface inside your head that you could talk to in likeness to talking to yourself. Just to be very clear, the device does not record or read your thoughts. It records deliberate information that you want to communicate through deliberate engagement of your internal speech systems. People don't want to be read, they want to write. Which is why we designed the system to deliberately record from the peripheral nervous system. Which is why the control in all situations resides with the user.
이러한 입력, 출력, AI와의 조화는 여러분 머리의 인터페이스의 순 주관적 경험을 독백하는 것과 비슷하게 체험할 수 있게 합니다. 확실하게 해 둘 것은, AI가 기록하거나 여러분의 생각을 읽지는 않는다는 것입니다. 그저 여러분이 소통하고 싶은 의도된 정보를 기록합니다. 여러분의 내부 발음 기관과의 의도적인 연계를 통해서요. 사람들은 읽히는 것은 원하지 않고, 글쓰기를 원합니다. 그래서 말초신경로부터 의도적으로 기록하도록 시스템을 디자인한 것입니다. 그렇기 때문에 모든 상황에서 사용자가 통제권을 갖습니다.
I want to stop here for a second and show you a live demo. What I'm going to do is, I'm going to ask Eric a question. And he's going to search for that information without vocalizing, without typing, without moving his fingers, without moving his mouth. Simply by internally asking that question. The AI will then figure out the answer and feed it back to Eric, through audio, through the device. While you see a laptop in front of him, he's not using it. Everything lives on the device. All he needs is that sticker device to interface with the AI and the internet. So, Eric, what's the weather in Vancouver like, right now? What you see on the screen are the words that Eric is speaking to himself right now. This is happening in real time.
여기서 잠깐 멈춰서 라이브 데모를 보여 드리겠습니다. 제가 할 것은, 에릭의 질문에 답하는 것입니다. 그리고 그는 소리없이, 타이핑없이 손가락 움직임없이, 입을 달싹이지 않고 정보를 검색할 것입니다. 간단히 내부적으로 질문을 해서 말이죠. AI는 답변을 찾아낼 것이며 장치와 오디오를 통해 에릭에게 대답할 겁니다. 앞에 노트북이 있지만, 그는 그것을 사용하고 있지 않습니다. 모든 것들이 장치 안에 살아있습니다. AI와 인터넷에 접속을 위한 스티커 장치만 있으면 됩니다. 에릭, 벤쿠버 날씨는 어때? 화면에 보이는 것은 에릭이 지금 혼잣말하는 것입니다. 이건 실시간으로 일어나고 있습니다.
Eric: It's 50 degrees and rainy here in Vancouver.
에릭: 벤쿠버는 50도에 비가 옵니다.
Arnav Kapur: What happened is that the AI sent the answer through audio, through the device, back to Eric.
아르나브 카푸르: AI가 오디오를 통해 장치를 통해, 에릭에게 답을 보낸 겁니다.
What could the implications of something like this be? Imagine perfectly memorizing things, where you perfectly record information that you silently speak, and then hear them later when you want to, internally searching for information, crunching numbers at speeds computers do, silently texting other people. Suddenly becoming multilingual, so that you internally speak in one language, and hear the translation in your head in another. The potential could be far-reaching.
이와 같은 것은 어떤 것을 가능하게 할까요? 무언가를 완벽하게 외우는 것을 상상해보세요. 당신이 조용히 말하는 정보를 완벽하게 기록하고 나중에 듣고 싶을 때 이를 듣고 내부적으로 정보를 검색하고 컴퓨터가 하는 속도로 계산을 하고 조용히 다른 사람에게 문자를 보내는 것을요. 갑자기 여러 언어를 하게 되어 내부적으로 한 언어로 말하고 다른 언어로 번역된 걸 머릿속으로 들을 수 있는거죠. 잠재력은 광범위할 것입니다.
There are millions of people around the world who struggle with using natural speech. People with conditions such as ALS, or Lou Gehrig's disease, stroke and oral cancer, amongst many other conditions. For them, communicating is a painstakingly slow and tiring process.
세계에는 수백만 명의 사람들이 있습니다. 자연스럽게 언어능력을 사용하는데 어려움을 겪는 사람들이죠. ALS나 루게릭병 뇌졸증과 구강암 같은 질병을 가진 사람들입니다. 그들에게 있어서, 의사소통하는 것은 매우 느리고 피곤한 과정입니다.
This is Doug. Doug was diagnosed with ALS about 12 years ago and has since lost the ability to speak. Today, he uses an on-screen keyboard where he types in individual letters using his head movements. And it takes several minutes to communicate a single sentence. So we went to Doug and asked him what were the first words he'd like to use or say, using our system. Perhaps a greeting, like, "Hello, how are you?" Or indicate that he needed help with something. What Doug said that he wanted to use our system for is to reboot the old system he had, because that old system kept on crashing.
이 분은 더그입니다. 더그는 약 12년 전에 ALS를 진단받았고 그 후로 말할 수 있는 능력을 잃었습니다. 오늘날, 그는 화면상 키보드를 사용하여 머리 움직임을 이용해 문자 하나하나를 타이핑합니다. 그리고 한 문장씩 의사소통하는데는 몇 분 정도 걸립니다. 그래서 우리는 더그에게 가서 물었습니다. 시스템을 이용해서, 말하거나 사용하고 싶었던 첫 문장이 무엇이었는지를요. 아마도 "안녕, 잘지내?"같은 인사이거나 그가 도움이 필요하다는 것을 암시하는 것일 것이라 여겼습니다. 더그가 우리의 시스템을 통해 말하고자 했던 것은 그가 가진 오래된 시스템을 재부팅하는 것이 었습니다. 그 오래된 시스템이 계속 고장났기 때문입니다.
(Laughter)
(웃음)
We never could have predicted that. I'm going to show you a short clip of Doug using our system for the first time.
우리가 예상했을리 없죠. 저는 처음 시스템을 이용한 더그의 짧은 클립을 여러분께 보여줄 것입니다.
(Voice) Reboot computer.
(목소리)컴퓨터 리부트.
AK: What you just saw there was Doug communicating or speaking in real time for the first time since he lost the ability to speak. There are millions of people who might be able to communicate in real time like Doug, with other people, with their friends and with their families. My hope is to be able to help them express their thoughts and ideas.
AK: 방금 보신 것은 의사소통 능력을 잃은 후 처음 실시간으로 말하거나 의사소통하는 더그였습니다. 다른 사람들, 그들의 친구 및 가족들과 더그처럼 실시간으로 의사소통을 할 수 있게 될 지 모르는 수백만명의 사람들이 있습니다. 제 소망은 그들의 생각과 사상을 표현하게 돕는 것입니다.
I believe computing, AI and the internet would disappear into us as extensions of our cognition, instead of being external entities or adversaries, amplifying human ingenuity, giving us unimaginable abilities and unlocking our true potential. And perhaps even freeing us to becoming better at being human.
저는 컴퓨터 사용을 믿으며, AI와 인터넷은 우리의 인지의 확대로 우리안으로 사라질 것입니다. 외부적인 독립체나 적이 되는 대신 인간의 독창성을 증폭시킬 것이며 우리의 진정한 잠재력을 드러내며 상상할 수 없는 능력들을 우리에게 줄 것입니다. 그리고 어쩌면 우리가 인간이 되는 것을 더 잘 할 수 있게 해 줄지도 모릅니다.
Thank you so much.
정말 감사합니다.
(Applause)
(박수)
Shoham Arad: Come over here. OK. I want to ask you a couple of questions, they're going to clear the stage. I feel like this is amazing, it's innovative, it's creepy, it's terrifying. Can you tell us what I think ... I think there are some uncomfortable feelings around this. Tell us, is this reading your thoughts, will it in five years, is there a weaponized version of this, what does it look like?
쇼함 아라드: 이리 와보세요. 좋아요. 몇가지 질문을 하고 싶은데요, 무대를 정리할 겁니다. 저는 이것이 멋지고, 혁신적이라고 느끼긴 하지만 소름끼치고 무섭기도 합니다. 우리에게 제가 생각하는 것에 관해 말해주실 수 있나요. 저는 이것 주위에 몇몇 불편한 감정이 있다고 생각합니다. 말해보세요, 이게 당신의 생각을 읽고 있나요? 5년 안에는 그렇게 되지 않을까요? 무기화된 버전이 있나요? 어떻게 생겼나요?
AK: So our first design principle, before we started working on this, was to not render ethics as an afterthought. So we wanted to bake ethics right into the design. We flipped the design. Instead of reading from the brain directly, we're reading from the voluntary nervous system that you deliberately have to engage to communicate with the device, while still bringing the benefits of a thinking or a thought device. The best of both worlds in a way.
AK: 우리가 이 일을 시작하기 전에, 그래서 우리의 첫 번째 디자인 원칙은 윤리를 뒷전에 두지 않는 것이었습니다. 그렇게 우리는 디자인에 윤리를 바로 접목시키길 원했습니다. 우리는 디자인을 뒤집었습니다. 뇌로 직접 읽는 것 대신 우리는 자율신경계를 통해 읽는 것이며 이는 여러분이 기기와 통신하기 위해 고의적으로 참여해야 하는 것입니다. 여전히 생각이나 사고장치의 혜택을 가지고 있는 채로요. 어떻게 보면 둘다 최고입니다.
SA: OK, I think people are going to have a lot more questions for you. Also, you said that it's a sticker. So right now it sits just right here? Is that the final iteration, what the final design you hope looks like?
SA: 네, 제 생각에 사람들은 당신에게 더 많은 질문을 할 겁니다. 스티커라고도 했잖아요. 그래서 지금 여기에만 붙이나요? 이게 최종판인가요? 여러분이 바라는 최종 디자인은 무엇인가요?
AK: Our goal is for the technology to disappear completely.
AK: 우리의 목표는 기술이 완벽하게 사라지는 것입니다.
SA: What does that mean?
SA: 그게 무슨 말인가요?
AK: If you're wearing it, I shouldn't be able to see it. You don't want technology on your face, you want it in the background, to augment you in the background. So we have a sticker version that conforms to the skin, that looks like the skin, but we're trying to make an even smaller version that would sit right here.
AK: 여러분이 입는 중이라면, 저는 그걸 볼 필요가 없어야 합니다. 여러분은 얼굴이 아닌 뒤에 이 기술이 부착되길 원하며 뒤에서 백업해주길 원합니다. 그래서 우리는 피부처럼 보이는 피부와 일치하는 스티커 버전을 가지고 있지만 여기 붙일 수 있는 더 작은 버전을 만는 것을 시도 중입니다.
SA: OK. I feel like if anyone has any questions they want to ask Arnav, he'll be here all week. OK, thank you so much, Arnav.
SA: 네. 아나브에게 묻고 싶은 질문이 있으실 것 같은데요. 일주일 내내 여기 계실 겁니다. 정말 감사합니다. 아나브.
AK: Thanks, Shoham.
AK: 감사합니다, 쇼엄.