There was a day, about 10 years ago, when I asked a friend to hold a baby dinosaur robot upside down. It was this toy called a Pleo that I had ordered, and I was really excited about it because I've always loved robots. And this one has really cool technical features. It had motors and touch sensors and it had an infrared camera. And one of the things it had was a tilt sensor, so it knew what direction it was facing. And when you held it upside down, it would start to cry. And I thought this was super cool, so I was showing it off to my friend, and I said, "Oh, hold it up by the tail. See what it does." So we're watching the theatrics of this robot struggle and cry out. And after a few seconds, it starts to bother me a little, and I said, "OK, that's enough now. Let's put him back down." And then I pet the robot to make it stop crying.
یک روز حدوداً ۱۰ سال قبل، از دوستی خواستم روبات بچه دایناسور را وارونه نگهدارد. اسم این عروسک پلیو نام داشت که سفارش داده بودم، و من واقعاً برای داشتن آن هیجان زده بودم زیرا همیشه روباتها را دوست داشتنم. و این یکی واقعاً ویژگیهای فنی جالبی داشت. دارای موتور، سنسور لمسی و دوربین مادون قرمز بود. و سنسور شیب، یکی دیگر از چیزهایی که آن داشت. بنابراین میدانست به چه سمتی قرار دارد. و وقتی شما آن را وارونه نگه میداشتید، آن شروع به گریه میکرد. و من فکر کردم این فوق العاده جالب است بنابراین من آن را به دوستم نشان دادم و به او گفتم، "اُه، دم این را بگیر، ببین چکار میکند." ما نمایش این روبات را نظاره میکردیم. تقلا و زاری کردن. و بعد از چند ثانیه، آن کمی موجب رنجش خاطرم شد، و من گفتم، "خوب، کافیه. بیا بگذاریمش زمین." من روبات را نوازش کردم تا گریهاش متوقف شد.
And that was kind of a weird experience for me. For one thing, I wasn't the most maternal person at the time. Although since then I've become a mother, nine months ago, and I've learned that babies also squirm when you hold them upside down.
و این یک تجربه عجیب برای من بود. آن زمان من برای روبات، مانند مادر بودم. اگرچه از آن زمان به بعد، یعنی ۹ ماه پیش من مادر شدم. و من یادگرفتم هنگامیکه بچهها را سر و ته بگیریم بچهها ناراحت میشوند.
(Laughter)
(خنده)
But my response to this robot was also interesting because I knew exactly how this machine worked, and yet I still felt compelled to be kind to it. And that observation sparked a curiosity that I've spent the past decade pursuing. Why did I comfort this robot? And one of the things I discovered was that my treatment of this machine was more than just an awkward moment in my living room, that in a world where we're increasingly integrating robots into our lives, an instinct like that might actually have consequences, because the first thing that I discovered is that it's not just me.
اما واکنش من به این روبات جالب بود. زیرا من حقیقتاً درک کردم چطور این ماشین کار کرد، و هنوز احساس میکنم مجبورم با آن مهربان باشم. و آن مشاهدات حس کنجکاوی من را برانگیخت که من ده سال گذشته را دنبال کردهام. چرا من این روبات را راحت کردم؟ و یکی از چیزهایی که من به آن پی بردم طرز رفتار من با این دستگاه بود برای بیش از یک لحظه نامتعارف در اتاق نشیمنم، که در دنیا ما به طور فزایندهای روباتها را در زندگی خود وارد کردهایم، و غریزه بمانند این ممکن است واقعاً مشکلاتی را بهمراه داشته باشد. زیرا اولین چیزی که من کشف کردم این است که فقط من نیستم.
In 2007, the Washington Post reported that the United States military was testing this robot that defused land mines. And the way it worked was it was shaped like a stick insect and it would walk around a minefield on its legs, and every time it stepped on a mine, one of the legs would blow up, and it would continue on the other legs to blow up more mines. And the colonel who was in charge of this testing exercise ends up calling it off, because, he says, it's too inhumane to watch this damaged robot drag itself along the minefield. Now, what would cause a hardened military officer and someone like myself to have this response to robots?
در سال ۲۰۰۷، واشنگتن پست گزارش داد که ارتش ایالات متحده آزمایشی روی روبات خنثیساز مینهای باقیمانده در زمین انجام داده است. روشی که این روبات کار میکند مانند حشرهای تحت نام چوبک است وبا پاهای خود برروی منطقه مینگذاری شده راه میرود. و هر زمانی که روی یک مین گام برمیدارد یکی از پاهاش منفجر خواهد شد، و مسیر را با پاهای باقیمانده خود ادامه خواهد داد تا مینهای بیشتری را منفجر کند. و سرهنگی که مسئول این آزمایش بود فرمان توقف میداد، بدلیل اینکه او میگفت، این عمل خیلی غیرانسانی است تماشای این روبات آسیبدیده که خود را در امتداد میدان مین میکشد. در حال حاضر، چه چیزی باعث خواهد شد یک افسر ارتش مقاوم و خشن و شخصی همچون من اینچنین واکنشی در برابر روباتها داشته باشد؟
Well, of course, we're primed by science fiction and pop culture to really want to personify these things, but it goes a little bit deeper than that. It turns out that we're biologically hardwired to project intent and life onto any movement in our physical space that seems autonomous to us. So people will treat all sorts of robots like they're alive. These bomb-disposal units get names. They get medals of honor. They've had funerals for them with gun salutes. And research shows that we do this even with very simple household robots, like the Roomba vacuum cleaner.
خوب، البته، با علوم تخیلی و رسم و رسوم رایج بارآمدیم و واقعاً میخواهیم به اینها شخصیت بدهیم و همزاد پنداری کنیم، اما در این خصوص کمی افراط داریم. به نظر میرسد که ما از نظر بیولوژیکی چشم اندازهای برنامهها و زندگیمان را به هر اقدامی در فضای مستقل اطرافمان متصل نمودهایم. بنابراین مردم با روباتها همچون موجودات زنده رفتار میکنند. واحدهای خنثیسازی بمب نامگذاری میشوند. مدال افتخار میگیرند. برای آنها مراسم نظامی تدفین گرفته میشود. و تحقیقات نشان میدهد ما حتی با روباتهای کوچک خانهدار خود این کار را میکنیم. همچون روبات جاروبرقی.
(Laughter)
(خنده)
It's just a disc that roams around your floor to clean it, but just the fact it's moving around on its own will cause people to name the Roomba and feel bad for the Roomba when it gets stuck under the couch.
آن شبیه یک بشقابی است که در طبقات شما برای تمیز کردن پرسه میزند، اما در واقع حرکت در اطراف محدوده خودش سبب شد که مردم آن را رومبا بنامند و برای رومبا ناراحت شوند وقتی زیر فرش گیر میافتد.
(Laughter)
(خنده)
And we can design robots specifically to evoke this response, using eyes and faces or movements that people automatically, subconsciously associate with states of mind. And there's an entire body of research called human-robot interaction that really shows how well this works. So for example, researchers at Stanford University found out that it makes people really uncomfortable when you ask them to touch a robot's private parts.
و ما بویژه میتوانیم روباتها را طراحی کنیم برای پاسخهای احساسی با استفاده از چشمها و حالتهای چهره یا حرکات بدنی بطوریکه ناخوداگاه انسانها وابستگی پیدا میکنند. و موضوع تحقیقاتی تحت عنوان روابط انسان-روبات وجود دارد. که بدرستی چگونگی این روابط را نشان میدهد. برای مثال، پژوهشگران دانشگاه استفورد پی بردند که واقعاً احساس انسانها را ناخوشایند میکند وقتی شما بخواهید تا بخشهای خصوصی روباتها را لمس کنید.
(Laughter)
(خنده)
So from this, but from many other studies, we know, we know that people respond to the cues given to them by these lifelike machines, even if they know that they're not real.
ما در این تحقیقات دانستیم که انسانها به این حالتهای احساسی این ماشینهای به ظاهر زنده واکنش نشان میدهند، حتی اگر بدانند که واقعاً آنها زنده نیستند.
Now, we're headed towards a world where robots are everywhere. Robotic technology is moving out from behind factory walls. It's entering workplaces, households. And as these machines that can sense and make autonomous decisions and learn enter into these shared spaces, I think that maybe the best analogy we have for this is our relationship with animals. Thousands of years ago, we started to domesticate animals, and we trained them for work and weaponry and companionship. And throughout history, we've treated some animals like tools or like products, and other animals, we've treated with kindness and we've given a place in society as our companions. I think it's plausible we might start to integrate robots in similar ways.
حالا، ما به سمت دنیایی میرویم که روباتها همه جا وجود خواهند داشت. تکنولوژی روباتیک از پشت دیوارهای کارخانهها بیرون میآیند. به مکانهای اشتغال و زندگی ما وارد میشوند و این ماشینها با توانایی احساسی، یادگیری و تصمیمسازی مستقل، به محدوده روابط قدم میگذارند، به نظر من شاید ارتباطی که ما با حیوانات داریم بهترین قرابت و همخوانی را با این قضیه داشته باشد. چندین هزار سال پیش ما اقدام به اهلی کردن حیوانات نمودیم. و حیوانات را به منظور کار، اقدامات نظامی و مصاحبت آموزش دادیم. و در سرتاسر تاریخ، ما با برخی از حیوانات همچون ابزار یا کالا رفتار کردیم، و با دیگر حیوانات با مهربانی رفتار کردیم و به آنها طبقه اجتماعی همچون دوست و همدم دادیم. به نظر من این احتمال وجود دارد که ما با روباتها رفتار مشابهای را آغاز نماییم.
And sure, animals are alive. Robots are not. And I can tell you, from working with roboticists, that we're pretty far away from developing robots that can feel anything. But we feel for them, and that matters, because if we're trying to integrate robots into these shared spaces, we need to understand that people will treat them differently than other devices, and that in some cases, for example, the case of a soldier who becomes emotionally attached to the robot that they work with, that can be anything from inefficient to dangerous. But in other cases, it can actually be useful to foster this emotional connection to robots. We're already seeing some great use cases, for example, robots working with autistic children to engage them in ways that we haven't seen previously, or robots working with teachers to engage kids in learning with new results. And it's not just for kids. Early studies show that robots can help doctors and patients in health care settings.
و به طور قطع، حیوانات زنده هستند اما روباتها نه. و ما براساس شناختی که از علوم روباتیک دارم، میتوانم به شما بگویم، که ما کاملاً از روباتهای توسعه یافته که قادر به احساس همه چیز باشند فاصله داریم. اما ما برای آنها احساس میکنیم، و این مهم است، زیرا ما سعی میکنیم روباتها را وارد فضای ارتباطی خود کنیم، ما باید درک کنیم که انسانها با روباتها متفاوت از دیگر وسایل رفتار میکنند، و در برخی از موارد برای مثال، در مورد سربازی که به صورت احساسی با روبات ارتباط برقرار میکند، که میتواند هر رفتاری از بیکفایتی تا مخاطرهانگیز باشد. اما در پارهای از موارد آموزش روابط احساسی به روباتها واقعاً میتواند مفید باشد. ما موارد مصرف قابل توجهی از روباتها دیدهایم برای مثال روباتها با کودکان اوتیسمی کار میکنند و آنگونه آنها را سرگرم میکنند که ما قبلاً شاهد نبودهایم، یا نتایج جدید یاری رساندن روباتها به معلمین در آموزش کودکان. و آن تنها برای کودکان نیست. مطالعات اخیر نشان داده که روباتها قادرند تا دکترها یا بیماران را در زمینه مراقبتهای بهداشتی یاری دهند.
This is the PARO baby seal robot. It's used in nursing homes and with dementia patients. It's been around for a while. And I remember, years ago, being at a party and telling someone about this robot, and her response was, "Oh my gosh. That's horrible. I can't believe we're giving people robots instead of human care." And this is a really common response, and I think it's absolutely correct, because that would be terrible. But in this case, it's not what this robot replaces. What this robot replaces is animal therapy in contexts where we can't use real animals but we can use robots, because people will consistently treat them more like an animal than a device.
این یک روبات بچه فُک به نام پارو است. پارو در خانه سالمندان و با بیماران مبتلا به فراموشی استفاده میشود. برای مدتی استفاده شده است. و من بخاطر دارم، سالها پیش، در یک مهمانی با کسی درباره این روبات صحبت کردم، و واکنش آن شخص این بود، "وای خدای من. وحشتناک است. باور نمیکنم به روباتها نقشهای مراقبتی همچون انسانها داده شود." و این واقعاً واکنشی متعارف بود، و من فکر میکنم کاملاً درست است، بدلیل آنکه آن واقعاً وحشتناک است. اما در این مورد، روبات قابل جایگزینی نیست. این روبات جایگزین حیوان درمان است. در مواردی که ما قادر به استفاده از حیوانات واقعی نیستیم اما میتوانیم از روباتها استفاده کنیم، چون انسانها با آنها بیشتر به عنوان حیوان رفتار میکنند تا روبات.
Acknowledging this emotional connection to robots can also help us anticipate challenges as these devices move into more intimate areas of people's lives. For example, is it OK if your child's teddy bear robot records private conversations? Is it OK if your sex robot has compelling in-app purchases?
شناخت این روابط عاطفی با روباتها همچنین میتواند ما را در پیشبینی چالشهای آینده یاری دهد همانطور که این وسایل به محیط شخصی زندگی مردم وارد میشوند. برای مثال، آیا خوب است که روبات اسباببازی خرس تدی مکالمات شخصی شما را ضبط کند؟ آیا خوب است روبات سکس شما خریدهای جالب توجه درون-نرمافزاری داشته باشد؟
(Laughter)
(خنده)
Because robots plus capitalism equals questions around consumer protection and privacy.
بدلیل اینکه روبات بعلاوه سیستم سرمایهداری مساوی است با پرسشهایی در خصوص حقوق و حریم شخصی مشتری.
And those aren't the only reasons that our behavior around these machines could matter. A few years after that first initial experience I had with this baby dinosaur robot, I did a workshop with my friend Hannes Gassert. And we took five of these baby dinosaur robots and we gave them to five teams of people. And we had them name them and play with them and interact with them for about an hour. And then we unveiled a hammer and a hatchet and we told them to torture and kill the robots.
و موارد اشاره شده تنها دلیل بر این نیستند که رفتار ما با این وسایل میتواند مهم باشد. چندین سال بعد از اولین تجربهای که من با روبات اسباببازی دایناسور داشتم، من کارگاه آموزشی با دوستم هانس گسرت داشتم. و ما ۵ عدد از این روباتهای دایناسور دریافت کردیم و آنها را به ۵ گروه از مردم دادیم. و از آنها خواستیم روی آنها نام بگذارند وبرای حدود یک ساعت با آنها بازی کنند و با آنها ارتباط برقرار کنند. و سپس ما یک چکش و یک تبر نشان دادیم و گفتیم که روباتها را شکنجه کنید و بکشید.
(Laughter)
(خنده)
And this turned out to be a little more dramatic than we expected it to be, because none of the participants would even so much as strike these baby dinosaur robots, so we had to improvise a little, and at some point, we said, "OK, you can save your team's robot if you destroy another team's robot."
و کمی دراماتیکتر از آن چیزی شد که انتظارش را داشتیم، چرا که هیچ یک از شرکت کنندگان حتی یک ضربه هم به این روباتهای دایناسور اسباب بازی نزدند، بنابراین مجبور شدیم کمی بداههپردازی کنیم و گفتیم، "خوب، شما میتوانید روبات گروه خود را نگه دارید به شرطی که روبات گروه دیگر را متلاشی کنید."
(Laughter)
(خنده)
And even that didn't work. They couldn't do it. So finally, we said, "We're going to destroy all of the robots unless someone takes a hatchet to one of them." And this guy stood up, and he took the hatchet, and the whole room winced as he brought the hatchet down on the robot's neck, and there was this half-joking, half-serious moment of silence in the room for this fallen robot.
و حتی این هم افاقه نکرد. آنها دست به این کار نزدند. پس در نهایت، ما گفتیم، "ما قصد داریم تمامی روباتها را از بین ببریم مگر اینکه کسی به یکی از روباتها با تبر ضربه بزند." و این شخص ایستاد و تبر را گرفت، و در کل اتاق همهمه پیچید هنگامیکه او تبر را بر گردن روبات فرود آورد، و سکوتی نیم شوخی، نیم جدی اتاق را گرفت برای روبات افتاده.
(Laughter)
(خنده)
So that was a really interesting experience. Now, it wasn't a controlled study, obviously, but it did lead to some later research that I did at MIT with Palash Nandy and Cynthia Breazeal, where we had people come into the lab and smash these HEXBUGs that move around in a really lifelike way, like insects. So instead of choosing something cute that people are drawn to, we chose something more basic, and what we found was that high-empathy people would hesitate more to hit the HEXBUGS.
این واقعاً آزمایش جالبی بود. بطور مشخص این یک مطالعه کنترل شده نبود، اما منجر به تحقیقات بعدی من در انستیتو تکنولوژی ماساچوست شد. با پالاش ناندی و سینتیا بریزیل، جاییکه مردم به آزمایشگاه ما میآیند و این روباتهای هگزباگ را خراب میکنند که واقعاً مانند حشرات زنده به اطراف حرکت میکنند. بنابراین بجای انتخاب چیزی جالب که مردم را جذب کند، ما چیز خیلی سادهای را انتخاب کردیم، و ما پی بردیم که انسانهای خیلی دلسوز از ضربه زدن به روبات هگزباگس طفره رفتند.
Now this is just a little study, but it's part of a larger body of research that is starting to indicate that there may be a connection between people's tendencies for empathy and their behavior around robots. But my question for the coming era of human-robot interaction is not: "Do we empathize with robots?" It's: "Can robots change people's empathy?" Is there reason to, for example, prevent your child from kicking a robotic dog, not just out of respect for property, but because the child might be more likely to kick a real dog?
این تقریباً یک بررسی کوچک بود، اما بخشی از یک تحقیق وسیعتر که نشان داد که ممکن است ارتباطی میان گرایش انسانها به همدلی و رفتار آنها با روباتها وجود داشته باشد. اما پرسش ما برای دوره پیشرو از ارتباطات انسان-روبات این نیست: " آیا ما با روباتها احساس همدرهی کنیم؟" بلکه "آیا روباتها قادرند حس همدلی انسانها را تغییر دهند؟" برای مثال آیا دلیلی وجود دارد فرزندانمان را از ضربه زدن به یک سگ روباتیک نه تنها بدلیل حفظ متعلقات باز بداریم، بلکه به این دلیل که کودکان به احتمال زیاد سگ واقعی را میزنند؟
And again, it's not just kids. This is the violent video games question, but it's on a completely new level because of this visceral physicality that we respond more intensely to than to images on a screen. When we behave violently towards robots, specifically robots that are designed to mimic life, is that a healthy outlet for violent behavior or is that training our cruelty muscles? We don't know ... But the answer to this question has the potential to impact human behavior, it has the potential to impact social norms, it has the potential to inspire rules around what we can and can't do with certain robots, similar to our animal cruelty laws. Because even if robots can't feel, our behavior towards them might matter for us. And regardless of whether we end up changing our rules, robots might be able to help us come to a new understanding of ourselves.
و دوباره خاطر نشان میشود، این تنها مختص به کودکان نیست مسئله بازیهای ویدیویی خشونتآمیز است، اما این یک سطح کاملاً جدید است بدلیل اینکه این یک واکنش ناخودآگاه شدیدی است که ما به تصاویر تلویزیون نشان میدهیم. هنگامیکه ما رفتار شدیدی با روباتها به ویژه روباتهای که برای تقلید زندگی طراحی شدهاند، آیا آن یک بازخورد درست برای رفتار خشونت آمیز است یا آن که ابزار بیرحمی را پرورش میدهند؟ ما نمیدانیم … اما پاسخ به این پرسش دارای نقش تاثیرگذار بر رفتار انسانی است، دارای پتانسیل تاثیرگذاری بر هنجارهای اجتماعی است، دارای پتانسیل تاثیرگذار بر اصول الهام بخش در محدوده آنچه میتوانیم و نمیتوانیم با روباتهای ویژه همچون قوانین آزار حیوانات انجام دهیم. زیرا اگرچه روباتها قادر به احساس نیستند، رفتار ما با آنها ممکن است برای ما اهمیت داشته باشد. و فارغ از اینکه ما در نهایت قوانینمان تغییر بدهیم، روباتها باید قادر باشند تا ما را یاری دهند تا خودمان را بهتر بشناسیم.
Most of what I've learned over the past 10 years has not been about technology at all. It's been about human psychology and empathy and how we relate to others. Because when a child is kind to a Roomba, when a soldier tries to save a robot on the battlefield, or when a group of people refuses to harm a robotic baby dinosaur, those robots aren't just motors and gears and algorithms. They're reflections of our own humanity.
بیشترین چیزی که من طی ۱۰ سال گذشته یاد گرفتهام هرگز درباره تکنولوژی نبوده است. آن درباره روانشناسی انسان و همدلی و طریقه ارتباط ما با دیگران است. زیرا هنگامیکه کودکی با روبات رومبا مهربان باشد، هنگامیکه سربازی سعی میکند روباتی را در جبهه جنگ نجات دهد، یا هنگامیکه گروهی از مردم از آسیب زدن به یک روبات دایناسور سر بازمیزنند. این روباتها تنها موتور، چرخ دندهها و الگوریتمها نیستند. آنها بازتاب انسانیت خود ما هستند.
Thank you.
متشکرم.
(Applause)
(تشویق)