Ever since computers were invented, we've been trying to make them smarter and more powerful. From the abacus, to room-sized machines, to desktops, to computers in our pockets. And are now designing artificial intelligence to automate tasks that would require human intelligence. If you look at the history of computing, we've always treated computers as external devices that compute and act on our behalf. What I want to do is I want to weave computing, AI and internet as part of us. As part of human cognition, freeing us to interact with the world around us. Integrate human and machine intelligence right inside our own bodies to augment us, instead of diminishing us or replacing us.
ตั้งแต่คอมพิวเตอร์ถูกคิดค้นขึ้น เราพยายามปรับปรุงให้มันฉลาดขึ้น มีอานุภาพมากขึ้น ตั้งแต่ลูกคิด ไปจนถึงเครื่องจักรขนาดเท่าห้องหนึ่งห้อง จนถึงคอมพิวเตอร์วางโต๊ะ และจนถึงคอมพิวเตอร์ขนาดพกพา พวกเรากำลังออกแบบปัญญาประดิษฐ์ (AI) เพื่อให้มันทำงาน ที่จำเป็นต้องใช้ปัญญาของมนุษย์ ถ้าคุณมองที่ประวัติศาสตร์ของการคำนวณ พวกเราใช้คอมพิวเตอร์ เหมือนว่ามันเป็นอุปกรณ์ภายนอก ที่คำนวณและทำงานแทนเรา สิ่งที่ผมอยากทำคือการรวมคอมพิวเตอร์ AI และอินเตอร์เน็ตให้เป็นส่วนหนึ่งของเรา ด้วยว่าเป็นส่วนหนึ่งของการรับรู้ ข้อมูลแล้ว ก็อยากให้มันสามารถโต้ตอบกับโลกรอบตัว ได้อย่างอิสระ รวมความฉลาดของมนุษย์ และเครื่องจักรเข้าด้วยกัน ภายในร่างกายของพวกเรา เพื่อส่งเสริมตัวเอง แทนที่จะทำให้เราด้อยลงหรือแทนที่เรา
Could we combine what people do best, such as creative and intuitive thinking, with what computers do best, such as processing information and perfectly memorizing stuff? Could this whole be better than the sum of its parts?
พวกเราจะสามารถรวมสิ่งที่มนุษย์เก่งที่สุด เช่น การคิดอย่างสร้างสรรค์ และ การคิดโดยสัญชาตญาน กับสิ่งที่คอมพิวเตอร์ทำได้ดีที่สุด เช่น การประมวลผล และ การจดจำข้อมูล ได้หรือไม่ การรวมทั้งสองอย่างนี้เข้าด้วยกัน จะมีประสิทธิภาพดีกว่า การทำงานแยกกันหรือไม่
We have a device that could make that possible. It's called AlterEgo, and it's a wearable device that gives you the experience of a conversational AI that lives inside your head, that you could talk to in likeness to talking to yourself internally. We have a new prototype that we're showing here, for the first time at TED, and here's how it works.
เรามีอุปกรณ์ที่ทำให้มันเป็นจริงได้ มันมีชื่อว่า AlterEgo และมันคืออุปกรณ์สวมใส่ ที่จะให้คุณได้สัมผัสกับ AI ที่สามารถพูดคุยโต้ตอบ ที่อยู่ในหัวของคุณ ที่คุณคุยกับมันได้เหมือนคุยกับตัวเอง เรามีเครื่องมือต้นแบบ ที่เอามาโชว์เป็นครั้งแรกที่ TED และนี่คือวิธีการทำงานของมัน
Normally, when we speak, the brain sends neurosignals through the nerves to your internal speech systems, to activate them and your vocal cords to produce speech. One of the most complex cognitive and motor tasks that we do as human beings. Now, imagine talking to yourself without vocalizing, without moving your mouth, without moving your jaw, but by simply articulating those words internally. Thereby very subtly engaging your internal speech systems, such as your tongue and back of your palate. When that happens, the brain sends extremely weak signals to these internal speech systems.
เวลาที่เราพูดแบบปกติ สมองส่งสัญญาณประสาท ผ่านเส้นประสาท ไปที่ระบบประมวลผลการพูด เพื่อกระตุ้นให้สมองส่วนนั้นและเส้นเสียง ทำงาน กระบวนการนี้คือการคิดและการเคลื่อนไหว ที่ซับซ้อนที่สุดของมนุษย์ จินตนาการว่าเรากำลังพูดกับตัวเอง โดยไม่ออกเสียงและไม่ขยับปาก ไม่ขยับกราม แค่นึกถึงคำพูดในใจ การกระทำนั้นจะกระตุ้นระบบการสื่อสารภายใน เช่น ลิ้น และ เพดานปากด้านใน เมื่อเกิดการกระตุ้นขึ้น สมองจะส่งสัญญาณอ่อนๆ ไปที่ระบบการสื่อสารภายในเหล่านี้
AlterEgo has sensors, embedded in a thin plastic, flexible and transparent device that sits on your neck just like a sticker. These sensors pick up on these internal signals sourced deep within the mouth cavity, right from the surface of the skin. An AI program running in the background then tries to figure out what the user's trying to say. It then feeds back an answer to the user by means of bone conduction, audio conducted through the skull into the user's inner ear, that the user hears, overlaid on top of the user's natural hearing of the environment, without blocking it.
AlterEgo มีเซนเซอร์ ที่ถูกฝังในเส้นพลาสติกที่บาง ยืดหยุุ่น และโปรงใส ที่ติดอยู่บนคอของคุณเหมือนสติกเกอร์ เซนเซอร์จะตรวจจับสัญญาณภายใน ที่เกิดจากด้านในโพรงปาก ผ่านทางผิวหนัง โปรแกรม AI ที่ทำงานอยู่เบื้องหลัง จะประมวลผมว่าผู้ใช้พยายามจะพูดอะไร จากนั้น AI จะส่งคำตอบไปที่ผู้ใช้ ในรูปของความสั่นสะเทือนในกระดูก คลื่นเสียงจะถูกส่งไปยังหูชั้นใน ผ่านกระโหลกศีรษะ ผู้ใช้จะได้ยินเสียงนี้ ซ้อนทับกับเสียงที่ผู้ใช้ได้ยิน จากโดยรอบ โดยไม่ขัดขวางเสียงเหล่านั้น
The combination of all these parts, the input, the output and the AI, gives a net subjective experience of an interface inside your head that you could talk to in likeness to talking to yourself. Just to be very clear, the device does not record or read your thoughts. It records deliberate information that you want to communicate through deliberate engagement of your internal speech systems. People don't want to be read, they want to write. Which is why we designed the system to deliberately record from the peripheral nervous system. Which is why the control in all situations resides with the user.
การผสาน input, output และ AI สร้าง interface ขึ้นภายในหัวของคุณ ที่คุณสามารถพูดคุยด้วยได้ เหมือนคุยกับตัวเอง เพื่อความชัดเจน อุปกรณ์นี้ จะไม่เก็บบันทึกหรืออ่านความคิดของคุณ มันจะเก็บเฉพาะข้อมูล ของสิ่งที่คุณต้องการจะสื่อสาร ผ่านการทำงานอย่างตั้งใจของระบบสื่อสารภายใน พวกเราไม่อยากถูกอ่าน พวกเราอยากเขียน ซึ่งเป็นสาเหตุที่พวกเราออกแบบระบบ ที่สามารถเก็บข้อมูลจาก ส่วนปลายของระบบประสาท ซึ่งเป็นเหตุผลที่ผู้ใช้สามารถควบคุม อุปกรณ์นี้ได้ในทุกสถานการณ์
I want to stop here for a second and show you a live demo. What I'm going to do is, I'm going to ask Eric a question. And he's going to search for that information without vocalizing, without typing, without moving his fingers, without moving his mouth. Simply by internally asking that question. The AI will then figure out the answer and feed it back to Eric, through audio, through the device. While you see a laptop in front of him, he's not using it. Everything lives on the device. All he needs is that sticker device to interface with the AI and the internet. So, Eric, what's the weather in Vancouver like, right now? What you see on the screen are the words that Eric is speaking to himself right now. This is happening in real time.
ผมจะหยุดการอธิบายเท่านี้ก่อน แล้วสาธิตการทำงานของมันให้ดู ผมจะถามคำถาม Eric เขาจะค้นหาข้อมูลเหล่านั้น โดยไม่ออกเสียง ไม่พิมพ์ ไม่ขยับนิ้ว ไม่ขยับปาก เพียงแค่ถามคำถามนั้นในหัว AI จะหาคำตอบและส่งคำตอบให้ Eric ผ่านเสียงจากอุปกรณ์ คุณอาจจะเห็นแลปท็อปตรงหน้าเขา แต่เขาจะไม่ใช้มัน ทุกอย่างขึ้นอยู่กับอุปกรณ์ตัวนี้ สิ่งเดียวที่เขาต้องการคือสติกเกอร์ที่ต่อ กับ interface ด้วย AI และอินเตอร์เน็ต Eric สภาพอากาศที่แวนคูเวอร์ตอนนี้เป็นยังไง สิ่งที่คุณเห็นบนจอ คือคำพูดที่ Eric กำลังพูดกับตัวเอง มันเกิดขึ้นแบบ real time
Eric: It's 50 degrees and rainy here in Vancouver.
Eric: ตอนนี้ที่แวนคูเวอร์อุณหภูมิ 50 องศา และฝนตก
Arnav Kapur: What happened is that the AI sent the answer through audio, through the device, back to Eric.
Arnav Kapur: สิ่งที่เกิดขึ้นคือ AI ส่งคำตอบ ในรูปเสียง ผ่านอุปกรณ์นี้ไปที่ Eric
What could the implications of something like this be? Imagine perfectly memorizing things, where you perfectly record information that you silently speak, and then hear them later when you want to, internally searching for information, crunching numbers at speeds computers do, silently texting other people. Suddenly becoming multilingual, so that you internally speak in one language, and hear the translation in your head in another. The potential could be far-reaching.
ความสามารถประเภทนี้ทำอะไรได้บ้าง จินตนาการว่าเราสามารถจดจำ ข้อมูลได้แบบไม่ตกหล่น ว่าเราบันทึกข้อมูลที่พูดในใจ และฟังมันทีหลังเมื่อเราอยากฟัง ค้นหาข้อมูลได้จากภายใน คำนวณเลขได้ด้วยความเร็วเท่าคอมพิวเตอร์ ส่งข้อความไปถึงคนอื่นได้โดยไม่มีใครรู้ อยู่ดีๆ ก็เข้าใจหลายภาษา โดยที่คุณพูดภาษาหนึ่งในใจ และได้ยินคำแปลอีกภาษาหนึ่งในหัว มันมีสามารถไม่จำกัด
There are millions of people around the world who struggle with using natural speech. People with conditions such as ALS, or Lou Gehrig's disease, stroke and oral cancer, amongst many other conditions. For them, communicating is a painstakingly slow and tiring process.
คนหลายล้านคนทั่วโลก มีปัญหาด้านการพูด คนที่เป็นโรคกล้ามเนื้ออ่อนแรง หรือ โรคเซลล์ประสาทนำคำสั่งเสื่อม โรคหลอดเลือดสมองและโรคมะเร็งช่องปาก รวมถึงอีกหลายๆ โรค สำหรับพวกเขา การสื่อสารเป็นไปอย่างเชื่องช้า และน่าเหน็ดเหนื่อย
This is Doug. Doug was diagnosed with ALS about 12 years ago and has since lost the ability to speak. Today, he uses an on-screen keyboard where he types in individual letters using his head movements. And it takes several minutes to communicate a single sentence. So we went to Doug and asked him what were the first words he'd like to use or say, using our system. Perhaps a greeting, like, "Hello, how are you?" Or indicate that he needed help with something. What Doug said that he wanted to use our system for is to reboot the old system he had, because that old system kept on crashing.
นี่คือ Doug Doug ถูกวินิจฉัยด้วยโรคกล้ามเนื้ออ่อนแรง เมื่อ 12 ปีก่อน และสูญเสียงความสามารถในการพูด ตอนนี้ เขาใช้จอคีย์บอร์ด ที่เขาต้องพิมพ์อักษรแต่ละตัว ด้วยการขยับศีรษะ กว่าจะสื่อสารได้ 1 ประโยคใช้เวลาหลายนาที พวกเราจึงไปพบ Doug และถามเขาว่า คำแรกที่เขาอยากใช้หรือพูด ผ่านระบบของเราคืออะไร อาจเป็นการทักทาย เช่น "สวัสดี สบายดีไหม" หรือสื่อสารว่าเขาต้องการความช่วยเหลือ Doug บอกว่าเขาอยากใช้ระบบของเรา เพื่อรีบูตระบบเก่าที่เขามี เพราะระบบเก่าขัดข้องบ่อยมาก
(Laughter)
(เสียงหัวเราะ)
We never could have predicted that. I'm going to show you a short clip of Doug using our system for the first time.
พวกเราไม่เคยคิดถึงคำตอบแบบนี้เลย ผมจะเล่นคลิปสั้นๆ ตอนที่ Doug ใช้ระบบของเราเป็นครั้งแรกให้คุณดู
(Voice) Reboot computer.
(เสียง) รีบูตคอมพิมเตอร์
AK: What you just saw there was Doug communicating or speaking in real time for the first time since he lost the ability to speak. There are millions of people who might be able to communicate in real time like Doug, with other people, with their friends and with their families. My hope is to be able to help them express their thoughts and ideas.
AK: สิ่งที่คุณเห็น คือ Doug กำลังสื่อสารและพูดแบบ real time เป็นครั้งแรก นับต้งแต่เขาสูญเสียความสามารถในการพูด มีคนเป็นล้านคน ที่จะสามารถสื่อสารแบบ real time เหมือน Doug กับคนอื่น กับเพื่อนฝูง กับครอบครัว ความหวังของผมคือการได้ช่วยพวกเขา แสดงความคิดและไอเดีย
I believe computing, AI and the internet would disappear into us as extensions of our cognition, instead of being external entities or adversaries, amplifying human ingenuity, giving us unimaginable abilities and unlocking our true potential. And perhaps even freeing us to becoming better at being human.
ผมเชื่อว่าการคำนวณของ AI และอินเตอร์เน็ต จะกลายเป็นส่วนหนึ่งของเรา ในรูปแบบส่วนขยายของการคิด แทนที่จะเป็นอุปกรณ์ภายนอก หรือเป็นสิ่งที่กีดขวางเรา มันจะทำให้เราฉลาดขึ้น ทำให้เรามีความสามารถที่ไม่อาจจินตนาการ และ ปลดล็อคความสามารถที่แท้จริงของเราได้ และบางที มันอาจทำให้เรากลายเป็น มนุษย์ที่ดีขึ้น
Thank you so much.
ขอบคุณครับ
(Applause)
(เสียงปรบมือ)
Shoham Arad: Come over here. OK. I want to ask you a couple of questions, they're going to clear the stage. I feel like this is amazing, it's innovative, it's creepy, it's terrifying. Can you tell us what I think ... I think there are some uncomfortable feelings around this. Tell us, is this reading your thoughts, will it in five years, is there a weaponized version of this, what does it look like?
Shoham Arad: มาตรงนี้หน่อย โอเค ฉันจะถามคำถามคุณสองสามข้อ พวกเขาจะเก็บเวทีแล้ว ฉันคิดว่าอุปกรณ์นี้น่าทึ่งมาก มันแปลกใหม่ น่าขนลุก น่ากลัว คุณช่วยบอกหน่อยได้ไหมว่าสิ่งที่ฉันคิด... ฉันคิดว่าหลายคนอาจจะรู้สึกไม่สบายใจ กับเรื่องนี้ บอกพวกเราที สิ่งนี้อ่านความคิดเราหรือเปล่า มันจะอ่านความคิดเราได้ใน 5 ปีไหม มันมีสิ่งนี้ที่เป็นเวอร์ชั่นอาวุธไหม มันหน้าตาเป็นยังไง
AK: So our first design principle, before we started working on this, was to not render ethics as an afterthought. So we wanted to bake ethics right into the design. We flipped the design. Instead of reading from the brain directly, we're reading from the voluntary nervous system that you deliberately have to engage to communicate with the device, while still bringing the benefits of a thinking or a thought device. The best of both worlds in a way.
AK: กฎการออกแบบข้อแรกของพวกเรา ก่อนที่จะลงมือสร้างอุปกรณ์นี้ คือเราจะไม่เพิ่มจริยธรรมเข้าไปภายหลัง เหมือนเป็นสิ่งที่เพิ่งคิดได้ พวกเราอยากใส่จริยธรรมลงไปในการออกแบบเลย พวกเราเปลี่ยนการออกแบบ แทนที่จะอ่านข้อมูลจากสมองโดยตรง เราอ่านจากระบบประสาทใต้อำนาจจิตใจแทน หมายความว่าคุณจะต้องสื่อสารกับอุปกรณ์ ด้วยความจงใจ ในขณะเดียวกันก็ใส่ประโยชน์ของอุปกรณ์ ช่วยคิดเข้าไปด้วย รวมสิ่งที่ดีที่สุดของโลกทั้งสองด้วยกัน
SA: OK, I think people are going to have a lot more questions for you. Also, you said that it's a sticker. So right now it sits just right here? Is that the final iteration, what the final design you hope looks like?
SA: โอเค ฉันคิดว่าทุกคนน่าจะมีคำถาม เยอะเลย แล้วก็ คุณบอกว่ามีสติกเกอร์ด้วย ตอนนี้มันอยู่ตรงนี้ใช่ไหม อันนี้คือแบบล่าสุดเลยหรือเปล่า คุณหวังให้ดีไซน์สุดท้ายของคุณหน้าตาแบบไหน
AK: Our goal is for the technology to disappear completely.
AK: เป้าหมายของเราคือการทำให้ เทคโนโลยีนี้หายไป
SA: What does that mean?
SA: หมายความว่ายังไง
AK: If you're wearing it, I shouldn't be able to see it. You don't want technology on your face, you want it in the background, to augment you in the background. So we have a sticker version that conforms to the skin, that looks like the skin, but we're trying to make an even smaller version that would sit right here.
AK: ถ้าคุณกำลังใส่มันอยู่ ผมต้องมองไม่เห็นมัน คุณคงไม่อยากได้เทคโนโลยีที่อยู่บนใบหน้า คุณอยากให้มันเป็นพื้นหลัง ให้มันช่วยคุณจากเบื้องหลัง พวกเรามีสติกเกอร์แบบที่ปรับเปลี่ยน ตามผิวหนัง ดูเหมือนผิวหนัง แต่พวกเรากำลังพยายามสร้าง เวอร์ชั่นที่เล็กลง ที่จะติดอยู่ตรงนี้
SA: OK. I feel like if anyone has any questions they want to ask Arnav, he'll be here all week. OK, thank you so much, Arnav.
SA: โอเค ถ้าใครมีคำถามที่อยากถาม Arnav เขาจะอยู่ที่นี่ทั้งอาทิตย์ โอเค ขอบคุณมากค่ะ Arnav
AK: Thanks, Shoham.
AK: ขอบคุณครับ Shoham