منذ أن تم أختراع أجهزة الكمبيوتر، كنا نحاول أن نجعلها أكثر ذكاءا وأقوى. من العداد إلى آلات بحجم الغرفة، إلى الكمبيوتر المكتبي، إلى الكمبيوتر في جيوبنا. والآن نصمم الذكاء الإصطناعي لأتمتتة المهام التي تتطلب الذكاء البشري. إذا نظرت إلى تاريخ الحوسبة، لقد تعاملنا دائمًأ مع أجهزة الكمبيوتر كأجهزة خارجية تحسب وتتصرف نيابة عنا. ما أريد القيام به هو أنني أريد أن أنسج الحوسبة، الذكاء والانترنت كجزء منا. كجزء من الإدراك البشري، تحرر لنا للتفاعل مع العالم المحيط بنا. دمج الذكاء البشري والآلي مباشرة داخل أجسامنا زيادة لنا، بدلًا من التقليل من شأننا أو استبدالنا.
Ever since computers were invented, we've been trying to make them smarter and more powerful. From the abacus, to room-sized machines, to desktops, to computers in our pockets. And are now designing artificial intelligence to automate tasks that would require human intelligence. If you look at the history of computing, we've always treated computers as external devices that compute and act on our behalf. What I want to do is I want to weave computing, AI and internet as part of us. As part of human cognition, freeing us to interact with the world around us. Integrate human and machine intelligence right inside our own bodies to augment us, instead of diminishing us or replacing us.
هل يمكننا الجمع بين أفضل ما يفعله الناس، مثل التفكير الإبداعي والحدسي، مع أفضل ما يفعله الكمبيوتر، مثل معالجة المعلومات وحفظ الأشياء تمامًا؟ هل يمكن أن يكون هذا كله أفضل من مجموع أجزائه؟
Could we combine what people do best, such as creative and intuitive thinking, with what computers do best, such as processing information and perfectly memorizing stuff? Could this whole be better than the sum of its parts?
نحن لدينا جهاز يمكن أن يجعل ذلك ممكنًا. يسمى AlterEgo وهو جهاز يمكن ارتداؤه الذي يمنحك تجربة محادثة الذكاء الاصطناعي التي تعيش داخل رأسك، التي تستطيع محادثتها مثلما تتحدث مع نفسك داخليًا. نحن لدينا نموذج جديد نعرضه هنا، للمرة الأولى في TED، وهنا كيف يعمل.
We have a device that could make that possible. It's called AlterEgo, and it's a wearable device that gives you the experience of a conversational AI that lives inside your head, that you could talk to in likeness to talking to yourself internally. We have a new prototype that we're showing here, for the first time at TED, and here's how it works.
عادةً، عندما نتكلم، الدماغ يرسل إشارات عصبية من خلال الأعصاب إلى نظام الكلام الداخلي الخاص بك، لتفعليها والحبال الصوتية الخاصة بك لإنتاج الكلام. واحدة من المهام المعرفية والحركية الأكثر تعقيدًا التي نفعلها كبشر. الآن، تخيل أنك تتحدث مع نفسك دون نطق، دون تحريك فمك، دون تحريك فكك، لكن ببساطة عبر التعبير عن تلك الكلمات داخلياً. وبالتالي اشراكها بمهارة في نظام الكلام الداخلي الخاص بك، مثل لسانك والجزء الخلفي من حنكك. عندما يحدث ذلك، الدماغ يرسل إشارات ضعيفة جدًا إلى نظام الكلام الداخلي.
Normally, when we speak, the brain sends neurosignals through the nerves to your internal speech systems, to activate them and your vocal cords to produce speech. One of the most complex cognitive and motor tasks that we do as human beings. Now, imagine talking to yourself without vocalizing, without moving your mouth, without moving your jaw, but by simply articulating those words internally. Thereby very subtly engaging your internal speech systems, such as your tongue and back of your palate. When that happens, the brain sends extremely weak signals to these internal speech systems.
AlterEgo لديه أجهزة استشعار، جزءًا لا يتجزأ من جهاز رقيق بلاستيكي، مرن وشفاف الذي يجلس على رقبتك تمامًا مثل الملصق. هذه المجسات تلتقط تلك الإشارات الداخلية منبع عميق داخل تجويف الفم، مباشرة من سطح الجلد. برنامج الذكاء الإصطناعي يعمل في الخلفية ثم يحاول معرفة ما يحاول المستخدم قوله. ثم يجد جوابًا للمستخدم عن طريق توصيل العظام، الصوت الذي تم اجراؤه عبر الجمجمة في الأذن الداخلية للمستخدم، الذي يسمعه المستخدم، تراكب على قمة السمع الطبيعي لدى المستخدم للبيئة، دون عرقلة ذلك.
AlterEgo has sensors, embedded in a thin plastic, flexible and transparent device that sits on your neck just like a sticker. These sensors pick up on these internal signals sourced deep within the mouth cavity, right from the surface of the skin. An AI program running in the background then tries to figure out what the user's trying to say. It then feeds back an answer to the user by means of bone conduction, audio conducted through the skull into the user's inner ear, that the user hears, overlaid on top of the user's natural hearing of the environment, without blocking it.
المزيج بين جميع هذه الأجزاء، الإدخال، المخرجات والذكاء الاصطناعي، يعطي صافي التجربة الذاتية للواجهة داخل رأسك التي تتحدث معها مثلما تتحدث مع نفسك. فقط لأكون واضحًا جدًا، الجهاز لا يسجل أو يقرأ أفكارك. هو يسجل معلومات مدروسة تريد انت أن تنقلها من خلال المشاركة المتداولة لنظام الكلام الداخلي الخاص بك. الناس لا يريدون أن يقرأوا، انهم يريدون الكتابة. ولهذا السبب نحن صممنا النظام للتسجيل بتأنٍ من الجهاز العصبي المحيطي. وهذا هو السبب في أن التحكم في جميع الحالات يتواجد مع المستخدم.
The combination of all these parts, the input, the output and the AI, gives a net subjective experience of an interface inside your head that you could talk to in likeness to talking to yourself. Just to be very clear, the device does not record or read your thoughts. It records deliberate information that you want to communicate through deliberate engagement of your internal speech systems. People don't want to be read, they want to write. Which is why we designed the system to deliberately record from the peripheral nervous system. Which is why the control in all situations resides with the user.
أريد أن أتوقف هنا للحظة وأريكم عرض حي. ما سأفعله هو، سوف اسأل إريك سؤال. وهو سيقوم بالبحث عن هذه المعلومة دون نطق، دون كتابة، دون تحريك أصابعه، دون تحريك فمه ببساطة بطرح السؤال داخليًا. الذكاء الإصطناعي بعدها سيعرف الجواب ويعيده إلى إريك، من خلال الصوت، من خلال الجهاز بينما ترى حاسوب محمول أمامه، هو لا يستخدمه. كل شيء يعيش في الجهاز، كل ما يحتاجه هو جهاز ملصق للواجهة مع الذكاء الاصطناعي و الانترنت. إذاً إريك، ماهو الطقس في فانكوفر الآن؟ ماذا ترى على الشاشة هل الكلمات التي يقولها إريك لنفسه الآن. هذا يحدث في الوقت الحالي،
I want to stop here for a second and show you a live demo. What I'm going to do is, I'm going to ask Eric a question. And he's going to search for that information without vocalizing, without typing, without moving his fingers, without moving his mouth. Simply by internally asking that question. The AI will then figure out the answer and feed it back to Eric, through audio, through the device. While you see a laptop in front of him, he's not using it. Everything lives on the device. All he needs is that sticker device to interface with the AI and the internet. So, Eric, what's the weather in Vancouver like, right now? What you see on the screen are the words that Eric is speaking to himself right now. This is happening in real time.
انها 50 درجة وانها ممطرة هنا في فانكوفر.
Eric: It's 50 degrees and rainy here in Vancouver.
ما حدث هو أن الذكاء الاصطناعي أرسل الجواب من خلال الصوت، من خلال الجهاز، عودة إلى اريك.
Arnav Kapur: What happened is that the AI sent the answer through audio, through the device, back to Eric.
ماذا ستكون الآثار لشيء مثل هذا؟ تخيل حفظ الأشياء تمامًا، حيث يمكنك تسجيل المعلومات التي تتحدثها بصمت، ثم تسمعهم لاحقًا عندما تريد، داخليًا باحثًا عن المعلومة، عد الأرقام بسرعة تفعلها الكمبيوترات، مراسلة أشخاص آخرين بصمت. فجأة تصبح متعدد اللغات، إذًا أنت داخليًا تتحدث بلهجة واحدة، وتسمع الترجمة في رأسك بأخرى. الإمكانية قد تكون بعيدة المدى.
What could the implications of something like this be? Imagine perfectly memorizing things, where you perfectly record information that you silently speak, and then hear them later when you want to, internally searching for information, crunching numbers at speeds computers do, silently texting other people. Suddenly becoming multilingual, so that you internally speak in one language, and hear the translation in your head in another. The potential could be far-reaching.
هناك ملايين الأشخاص حول العالم الذين يعانون مع استخدام اللغة الطبيعية. الأشخاص بأمراض مثل التصلب الجانبي الضموري، أو مرض لوو جيهرج، السكتة الدماغية وسرطان الفم، من بين العديد من الأمراض الأخرى. بالنسبة لهم، التواصل عملية بطيئة ومرهقة.
There are millions of people around the world who struggle with using natural speech. People with conditions such as ALS, or Lou Gehrig's disease, stroke and oral cancer, amongst many other conditions. For them, communicating is a painstakingly slow and tiring process.
هذا هو دوق. دوق أصيب بالتصلب الجانبي الضموري منذ حوالي 12 سنة وفقد منذ ذلك الحين قدرته على التحدث. اليوم، هو يستخدم لوحة مفاتيح بشاشة حيث يكتب حروف فردية باستخدام حركات رأسه. ويستغرق الأمر عدة دقائق لإيصال جملة واحدة. إذًا ذهبنا إلى دوق وسألناه ماهي الكلمات الأولى، التي يرغب في استخدامها أو قولها، باستخدام نظامنا. ربما تحية، مثل، "مرحبا، كيف حالك؟" أو الإشارة إلى أنه بحاجة إلى مساعدة في شيء ما. ما قاله دوق هو أنه يريد أن يستخدم نظامنا في إعادة تشغيل النظام القديم لديه، لأن هذا النظام القديم أبقى على التعثر.
This is Doug. Doug was diagnosed with ALS about 12 years ago and has since lost the ability to speak. Today, he uses an on-screen keyboard where he types in individual letters using his head movements. And it takes several minutes to communicate a single sentence. So we went to Doug and asked him what were the first words he'd like to use or say, using our system. Perhaps a greeting, like, "Hello, how are you?" Or indicate that he needed help with something. What Doug said that he wanted to use our system for is to reboot the old system he had, because that old system kept on crashing.
(ضحك)
(Laughter)
لم نتمكن أبدًا من توقع ذلك. سأريكم مقطعًا قصيرًا لدوق وهو يستخدم نظامنا للمرة الأولى.
We never could have predicted that. I'm going to show you a short clip of Doug using our system for the first time.
(صوت) إعادة تشغيل الكمبيوتر.
(Voice) Reboot computer.
ماذا رأيت هناك للتو هل كان دوق يتواصل أو يتحدث في الوقت الحالي للمرة الأولى لأنه فقد القدرة على الكلام. هناك ملايين الأشخاص الذين قد يكونون قادرين على التواصل في الوقت الحالي مثل دوق، مع أشخاص آخرين، مع أصدقائهم ومع عائلاتهم. أملي هو أن أكون قادرًا على مساعدتهم للتعبيرعن أفكارهم وآرائهم.
AK: What you just saw there was Doug communicating or speaking in real time for the first time since he lost the ability to speak. There are millions of people who might be able to communicate in real time like Doug, with other people, with their friends and with their families. My hope is to be able to help them express their thoughts and ideas.
أعتقد أن الحوسبة، الذكاء الإصطناعي والانترنت سوف تختفي فينا امتدادًا لإدراكنا، بدلًا من أن تكون كيانات خارجية أو خصوم، تضخيم براعة الإنسان، منحنا قدرات لا يمكن تصورها وفتح إمكاناتنا الحقيقية. وربما يحررنا لنصبح أفضل في أن نكون بشرًا.
I believe computing, AI and the internet would disappear into us as extensions of our cognition, instead of being external entities or adversaries, amplifying human ingenuity, giving us unimaginable abilities and unlocking our true potential. And perhaps even freeing us to becoming better at being human.
شكرًا جزيلًا
Thank you so much.
(تصفيق)
(Applause)
تعال إلى هنا حسنًا. أريد أن أسألك بضعة أسئلة، سيقومون بتجهيز المسرح. أشعر أن هذا مذهل، إنه مبتكر إنه مخيف، إنه مرعب هل يمكن أن تخبرنا ما أفكر به أعتقد أن هناك بعض المشاعر الغير مريحة حول هذا. أخبرنا، هل هذا يقرأ أفكارك، سوف يكون في خمسة سنوات، هل هناك نسخة مسلحة من هذا، كيف تبدو؟
Shoham Arad: Come over here. OK. I want to ask you a couple of questions, they're going to clear the stage. I feel like this is amazing, it's innovative, it's creepy, it's terrifying. Can you tell us what I think ... I think there are some uncomfortable feelings around this. Tell us, is this reading your thoughts, will it in five years, is there a weaponized version of this, what does it look like?
إذاً مبدأنا الأول في التصميم، قبل أن نبدأ العمل على هذا، بعدم تقديم الأخلاقيات كفكرة لاحقة. إذاً أردنا أن نضع الأخلاقيات في التصميم. لقد قلبنا التصميم. بدلًا من قراءته من الدماغ مباشرة، نحن نقرأ من الجهاز العصبي الطوعي أن لديك قصدًا للمشاركة في التواصل مع الجهاز، بينما لا يزال يجلب فوائد من التفكير أو جهاز تفكير أفضل مافي العالمين بطريقة ما.
AK: So our first design principle, before we started working on this, was to not render ethics as an afterthought. So we wanted to bake ethics right into the design. We flipped the design. Instead of reading from the brain directly, we're reading from the voluntary nervous system that you deliberately have to engage to communicate with the device, while still bringing the benefits of a thinking or a thought device. The best of both worlds in a way.
حسنًا، أعتقد أن الناس لديهم الكثير من الأسئلة لك. أيضًا، أنت قلت أنه ملصق. إذًا الآن هو يجلس هنا؟ هل هذا التكرار الأخير، كيف يبدو التصميم النهائي الذي تأمل به؟
SA: OK, I think people are going to have a lot more questions for you. Also, you said that it's a sticker. So right now it sits just right here? Is that the final iteration, what the final design you hope looks like?
هدفنا للتكنولوجيا هو أن تختفي تمامًا.
AK: Our goal is for the technology to disappear completely.
ماذا يعني ذلك؟
SA: What does that mean?
إذا أنت ترتديه، لا ينبغي أن أكون قادرًا على رؤيته. أنت لا تريد تكنولوجيا في وجهك، أنت تريدها في الخلفية، لتعزيز مهاراتك في الخلفية. إذًا لدينا نسخة ملصقة تتوافق مع الجلد، تشبه الجلد، ولكننا نحاول أن نجعلها نسخة أصغر أيضًا يمكنها أن تجلس هنا
AK: If you're wearing it, I shouldn't be able to see it. You don't want technology on your face, you want it in the background, to augment you in the background. So we have a sticker version that conforms to the skin, that looks like the skin, but we're trying to make an even smaller version that would sit right here.
حسنًا. أشعر أن إن كان أي أحد لديه أي سؤال، يريدون أن يسألوه لآرناف هو سيكون هنا طوال الأسبوع. حسنًا، شكرًا جزيلًا، آرناف.
SA: OK. I feel like if anyone has any questions they want to ask Arnav, he'll be here all week. OK, thank you so much, Arnav.
شكرًا شوهام.
AK: Thanks, Shoham.