Ever since computers were invented, we've been trying to make them smarter and more powerful. From the abacus, to room-sized machines, to desktops, to computers in our pockets. And are now designing artificial intelligence to automate tasks that would require human intelligence. If you look at the history of computing, we've always treated computers as external devices that compute and act on our behalf. What I want to do is I want to weave computing, AI and internet as part of us. As part of human cognition, freeing us to interact with the world around us. Integrate human and machine intelligence right inside our own bodies to augment us, instead of diminishing us or replacing us.
מאז שהומצאו המחשבים, אנחנו מנסים לעשות אותם יותר חכמים ויותר חזקים. החל מהחשבונייה, למכונות בגודל חדר, ועד למחשבים שולחניים, למחשבים שבכיסים שלנו. ועכשיו אנו מעצבים בינה מלאכותית כדי לאטמט משימות שידרשו אינטליגנציה אנושית. אם מסתכלים על היסטורית המחשוב, תמיד התייחסנו למחשבים כאל התקנים חיצוניים שמחשבים ופועלים בשמנו. מה שאני רוצה לעשות הוא לארוג מחשוב, AI ואינטרנט כחלק מאיתנו. כחלק מההכרה האנושית, דבר שיאפשר לקיים אינטראקציה עם העולם סביבנו. לשלב אינטליגנציה אנושית עם זו של מכונה ממש בתוך גופנו כדי להוסיף לנו, במקום להקטין או להחליף אותנו.
Could we combine what people do best, such as creative and intuitive thinking, with what computers do best, such as processing information and perfectly memorizing stuff? Could this whole be better than the sum of its parts?
האם נוכל לשלב את נקודות החוזק האנושיות, כמו חשיבה יצירתית ואינטואיטיבית, עם מה שמחשבים עושים הכי טוב, כמו עיבוד מידע, וזיכרון מושלם? האם כל זה יכול להיות יותר טוב מסכום חלקיו?
We have a device that could make that possible. It's called AlterEgo, and it's a wearable device that gives you the experience of a conversational AI that lives inside your head, that you could talk to in likeness to talking to yourself internally. We have a new prototype that we're showing here, for the first time at TED, and here's how it works.
יש לנו מכשיר שיוכל לאפשר זאת. הוא נקרא AlterEgo, (העצמי האחר) והוא התקן לביש שנותן לכם את החוויה של בינה מלאכותית שיחתית שנמצאת בתוך הראש שלכם, שתוכלו לדבר איתה בדומה לדיבור פנימי עם עצמכם. יש לנו אב טיפוס חדש שאנחנו מציגים כאן, בפעם הראשונה ב- TED, וכך זה עובד.
Normally, when we speak, the brain sends neurosignals through the nerves to your internal speech systems, to activate them and your vocal cords to produce speech. One of the most complex cognitive and motor tasks that we do as human beings. Now, imagine talking to yourself without vocalizing, without moving your mouth, without moving your jaw, but by simply articulating those words internally. Thereby very subtly engaging your internal speech systems, such as your tongue and back of your palate. When that happens, the brain sends extremely weak signals to these internal speech systems.
בדרך כלל, כשאנחנו מדברים, המוח שולח אותות עצביים דרך העצבים למערכות הדיבור הפנימי שלכם, כדי להפעיל אותם ואת מיתרי הקול לייצר דיבור. אחת המשימות הקוגניטיביות והמוטוריות המורכבות ביותר שאנחנו עושים כבני אדם. עכשיו, דמיינו שאתם מדברים אל עצמכם ללא קול, בלי להזיז את הפה, בלי להזיז את הלסת, אלא פשוט מבטאים מילים אלו באופן פנימי. ובכך, בעדינות רבה מפעילים את מערכות הדיבור הפנימי שלכם. כמו הלשון שלכם והחלק האחורי של החך. כאשר זה קורה, המוח שולח אותות חלשים ביותר למערכות דיבור פנימי אלו
AlterEgo has sensors, embedded in a thin plastic, flexible and transparent device that sits on your neck just like a sticker. These sensors pick up on these internal signals sourced deep within the mouth cavity, right from the surface of the skin. An AI program running in the background then tries to figure out what the user's trying to say. It then feeds back an answer to the user by means of bone conduction, audio conducted through the skull into the user's inner ear, that the user hears, overlaid on top of the user's natural hearing of the environment, without blocking it.
ל AlterEgo יש חיישנים, מוטבעים בתוך התקן פלסטיק דק, גמיש ושקוף שיושב על הצוואר שלכם ממש כמו מדבקה. חיישנים אלה לוכדים את האותות הפנימיים האלה שמצויים עמוק בתוך חלל הפה, ממש מפני השטח של העור. תוכנת AI פועלת ברקע ומנסה להבין את מה שהמשתמש מנסה לומר. לאחר מכן היא מזינה חזרה תשובה למשתמש באמצעות הולכת עצם, אודיו שמובל דרך הגולגולת לתוך האוזן הפנימית של המשתמש, שהמשתמש שומע, מונח בשכבות על גבי יכולת שמיעת הסביבה הטבעית של המשתמש, מבלי לחסום אותה.
The combination of all these parts, the input, the output and the AI, gives a net subjective experience of an interface inside your head that you could talk to in likeness to talking to yourself. Just to be very clear, the device does not record or read your thoughts. It records deliberate information that you want to communicate through deliberate engagement of your internal speech systems. People don't want to be read, they want to write. Which is why we designed the system to deliberately record from the peripheral nervous system. Which is why the control in all situations resides with the user.
השילוב של כל החלקים האלה, הקלט, הפלט וה-AI, נותן חוויה סובייקטיבית נטו של ממשק בתוך הראש שלכם שיכולים לדבר איתו בדומה לאופן שאתם מדברים לעצמכם. רק כדי להיות ברור מאוד, ההתקן לא מקליט או קורא את המחשבות שלכם. הוא רושם מידע מכוון שאתם רוצים להעביר באמצעות הפעלה מכוונת של מערכות הדיבור הפנימיות שלכם. אנשים לא רוצים שיקראו אותם, הם רוצים לכתוב. ולכן עיצבנו את המערכת כדי להקליט במתכוון ממערכת העצבים ההיקפית. ולכן השליטה בכל המצבים היא של המשתמש.
I want to stop here for a second and show you a live demo. What I'm going to do is, I'm going to ask Eric a question. And he's going to search for that information without vocalizing, without typing, without moving his fingers, without moving his mouth. Simply by internally asking that question. The AI will then figure out the answer and feed it back to Eric, through audio, through the device. While you see a laptop in front of him, he's not using it. Everything lives on the device. All he needs is that sticker device to interface with the AI and the internet. So, Eric, what's the weather in Vancouver like, right now? What you see on the screen are the words that Eric is speaking to himself right now. This is happening in real time.
אני רוצה לעצור כאן לרגע ולהראות לכם הדגמה חיה. אני אשאל את אריק שאלה. והוא ילך לחפש עבורה מידע מבלי לבטא בקול, ללא הקלדה, מבלי להזיז את אצבעותיו, ומבלי להזיז את פיו. פשוט על ידי שאלה באופן פנימי. ה AI יפענח את התשובה ויזין אותה חזרה לאריק, באמצעות אודיו, באמצעות ההתקן. בזמן שאתם רואים מחשב נייד לפניו, הוא לא משתמש בו. הכל נמצא על ההתקן. כל מה שהוא צריך זה את התקן המדבקה כדי לממשק עם הAI והאינטרנט. אז, אריק, מה מזג האוויר בוונקובר עכשיו? מה שאתם רואים על המסך הן המילים שאריק מדבר לעצמו עכשיו. זה קורה בזמן אמת.
Eric: It's 50 degrees and rainy here in Vancouver.
אריק: הטמפרטורה היא 10 מעלות, וגשום כאן בוונקובר.
Arnav Kapur: What happened is that the AI sent the answer through audio, through the device, back to Eric.
ארנאב קפור: מה שקרה הוא שה AI שלחה את התשובה באמצעות אודיו, באמצעות התקן, חזרה לאריק.
What could the implications of something like this be? Imagine perfectly memorizing things, where you perfectly record information that you silently speak, and then hear them later when you want to, internally searching for information, crunching numbers at speeds computers do, silently texting other people. Suddenly becoming multilingual, so that you internally speak in one language, and hear the translation in your head in another. The potential could be far-reaching.
מה יוכלו להיות ההשלכות של משהו כזה? תארו לעצמכם שינון דברים בצורה מושלמת, היכן שאתם מקליטים נתונים שאתם אומרים בשקט, ואז שומעים אותם מאוחר יותר כאשר אתם רוצים, לחפש מידע בפנים, לנתח מספרים במהירויות של מחשבים, שולחים בשקט הודעות טקסט לאנשים אחרים. לפתע הופכים לרב לשוניים, כך שכלפי פנים אתם מדברים בשפה אחת, ושומעים בראשכם את התרגום בשפה אחרת. הפוטנציאל יוכל להיות מרחיק לכת.
There are millions of people around the world who struggle with using natural speech. People with conditions such as ALS, or Lou Gehrig's disease, stroke and oral cancer, amongst many other conditions. For them, communicating is a painstakingly slow and tiring process.
יש מיליוני אנשים ברחבי העולם שנאבקים עם השימוש בדיבור טבעי. אנשים במצבים כמו ALS, או מחלת לו גריג, שבץ, וסרטן הפה, ומצבים רבים אחרים. עבורם, תקשורת היא תהליך אטי ומעייף.
This is Doug. Doug was diagnosed with ALS about 12 years ago and has since lost the ability to speak. Today, he uses an on-screen keyboard where he types in individual letters using his head movements. And it takes several minutes to communicate a single sentence. So we went to Doug and asked him what were the first words he'd like to use or say, using our system. Perhaps a greeting, like, "Hello, how are you?" Or indicate that he needed help with something. What Doug said that he wanted to use our system for is to reboot the old system he had, because that old system kept on crashing.
זה דאג. דאג אובחן עם ALS לפני כ -12 שנים ומאז איבד את יכולת הדיבור. היום הוא משתמש במקלדת על המסך שעליה הוא מקליד באותיות בודדות באמצעות תנועות ראשו. ולוקח לו כמה דקות להעביר משפט אחד. אז פנינו לדאג ושאלנו אותו מה המילים הראשונות שהוא רוצה להשתמש בהן או לומר, באמצעות המערכת שלנו. אולי משהו כמו, "שלום מה שלומך?" או לאותת שהוא צריך עזרה כלשהי. דאג אמר שהוא רוצה להשתמש במערכת שלנו כדי לאתחל את המערכת הישנה שלו, שממשיכה להתרסק.
(Laughter)
(צחוק)
We never could have predicted that. I'm going to show you a short clip of Doug using our system for the first time.
מעולם לא יכולנו לחזות את זה. אציג בפניכם קטע קצר של דאג משתמש במערכת שלנו בפעם הראשונה.
(Voice) Reboot computer.
(קול) אתחל את המחשב.
AK: What you just saw there was Doug communicating or speaking in real time for the first time since he lost the ability to speak. There are millions of people who might be able to communicate in real time like Doug, with other people, with their friends and with their families. My hope is to be able to help them express their thoughts and ideas.
א.ק. מה שראיתם שם זה עתה היה דאג שמתקשר או מדבר בזמן אמת, בפעם הראשונה מאז שאיבד את יכולת הדיבור. יש מיליוני אנשים שעשויים להיות מסוגלים לתקשר בזמן אמת, כמו דאג, עם אנשים אחרים, עם חבריהם ועם משפחותיהם. תקוותי היא שאוכל לעזור להם להביע את מחשבותיהם ורעיונותיהם.
I believe computing, AI and the internet would disappear into us as extensions of our cognition, instead of being external entities or adversaries, amplifying human ingenuity, giving us unimaginable abilities and unlocking our true potential. And perhaps even freeing us to becoming better at being human.
אני מאמין שהמחשוב, ה-AI, והאינטרנט ייעלמו לתוכנו כמו הרחבות של ההכרה שלנו, במקום להיות ישויות חיצוניות או יריבות, יגבירו את היצירתיות האנושית, יעניקו לנו יכולות בלתי נתפסות וישחררו את הפוטנציאל האמיתי שלנו. ואולי אפילו יאפשרו לנו להיות בני אדם טובים יותר.
Thank you so much.
תודה רבה לכם.
(Applause)
(מחיאות כפיים)
Shoham Arad: Come over here. OK. I want to ask you a couple of questions, they're going to clear the stage. I feel like this is amazing, it's innovative, it's creepy, it's terrifying. Can you tell us what I think ... I think there are some uncomfortable feelings around this. Tell us, is this reading your thoughts, will it in five years, is there a weaponized version of this, what does it look like?
שוהם ארד: בוא הנה. בסדר. אני רוצה לשאול אותך כמה שאלות, הם עומדים לפנות את הבמה. אני מרגישה שזה מדהים, זה חדשני, זה מצמרר, זה מפחיד. אתה יכול לספר לנו מה אני חושבת ... אני חושבת שיש כמה תחושות לא נוחות סביב זה. אמור לנו, האם זה קורא את המחשבות שלך, האם זה יקרה בעוד חמש שנים, האם יש גרסה מעובדת ליישומים צבאיים, איך זה נראה?
AK: So our first design principle, before we started working on this, was to not render ethics as an afterthought. So we wanted to bake ethics right into the design. We flipped the design. Instead of reading from the brain directly, we're reading from the voluntary nervous system that you deliberately have to engage to communicate with the device, while still bringing the benefits of a thinking or a thought device. The best of both worlds in a way.
א.ק: אז עקרון העיצוב הראשון שלנו, לפני שהתחלנו לעבוד על זה, היה שהשאלות האתיות לא יהיו במקום שני. רצינו שהאתיקה תשולב ישירות בעיצוב. שינינו את העיצוב. במקום לקרוא ישר מהמוח, אנחנו קוראים ממערכת העצבים הסומטית שצריך להפעיל במתכוון כדי לתקשר עם ההתקן, בעודנו מביאים את היתרונות של חשיבה או התקן מחשבה. הטוב משני העולמות באופן כלשהו.
SA: OK, I think people are going to have a lot more questions for you. Also, you said that it's a sticker. So right now it sits just right here? Is that the final iteration, what the final design you hope looks like?
ש.א: בסדר, אני חושבת שלאנשים יהיו הרבה יותר שאלות בשבילך. כמו כן, אמרת שזו מדבקה. אז עכשיו הוא יושב בדיוק כאן? האם זו ההישנות הסופית, איך אתה מקווה שהעיצוב הסופי ייראה?
AK: Our goal is for the technology to disappear completely.
א.ק: המטרה שלנו היא שהטכנולוגיה תיעלם לחלוטין.
SA: What does that mean?
ש.א: מה זה אומר?
AK: If you're wearing it, I shouldn't be able to see it. You don't want technology on your face, you want it in the background, to augment you in the background. So we have a sticker version that conforms to the skin, that looks like the skin, but we're trying to make an even smaller version that would sit right here.
א.ק: אם את לובש אותו, אני לא אמור לראות את זה. אתם לא רוצים טכנולוגיה על פניכם, אתם רוצה את זה ברקע, כדי להרחיב אתכם ברקע. אז יש לנו גירסת מדבקה התואמת את העור, שנראית כמו העור, אבל אנחנו מנסים לייצר גרסה קטנה עוד יותר שתשב ממש כאן.
SA: OK. I feel like if anyone has any questions they want to ask Arnav, he'll be here all week. OK, thank you so much, Arnav.
ש.א: בסדר. אני מרגישה שאם למישהו יש שאלות שהוא רוצה לשאול את ארנאב, הוא יהיה כאן כל השבוע. בסדר, תודה רבה לך, ארנאב.
AK: Thanks, Shoham.
א.ק: תודה, שוהם.