There was a day, about 10 years ago, when I asked a friend to hold a baby dinosaur robot upside down. It was this toy called a Pleo that I had ordered, and I was really excited about it because I've always loved robots. And this one has really cool technical features. It had motors and touch sensors and it had an infrared camera. And one of the things it had was a tilt sensor, so it knew what direction it was facing. And when you held it upside down, it would start to cry. And I thought this was super cool, so I was showing it off to my friend, and I said, "Oh, hold it up by the tail. See what it does." So we're watching the theatrics of this robot struggle and cry out. And after a few seconds, it starts to bother me a little, and I said, "OK, that's enough now. Let's put him back down." And then I pet the robot to make it stop crying.
Valamikor 10 évvel ezelőtt megkértem egy barátomat, hogy tartson fejjel lefelé egy robotdinót. A Pleo nevű játékról van szó, amit megrendeltem, és nagyon izgatottan vártam, mert mindig szerettem a robotokat, és ez a játék elképesztő technikai jellemzőket vonultat fel. Motorjai, érzékelői és infrakamerája volt. Többek között dőlésérzékelője is volt, így tudta, merre néz. Amikor fejjel lefelé tartották, elkezdett sírni. Odáig voltam tőle, és megmutattam egyik barátomnak. Mondtam neki: „Tartsd a farkánál fogva, és nézd, mit csinál!” Néztük a kis robot alakítását, kapálózott, jajgatott. Néhány másodperc után már zavart egy kicsit, és azt mondtam: „Jól van, most már elég lesz. Tegyük le.” És megsimogattam, hogy ne sírjon.
And that was kind of a weird experience for me. For one thing, I wasn't the most maternal person at the time. Although since then I've become a mother, nine months ago, and I've learned that babies also squirm when you hold them upside down.
Furcsa élmény volt ez számomra. Egyrészt mert nem voltam az az anyatípus akkoriban. Bár azóta anya lettem kilenc hónappal ezelőtt, és tudom, hogy a babák is vergődnek, ha fejjel lefelé tartjuk őket.
(Laughter)
(Nevetés)
But my response to this robot was also interesting because I knew exactly how this machine worked, and yet I still felt compelled to be kind to it. And that observation sparked a curiosity that I've spent the past decade pursuing. Why did I comfort this robot? And one of the things I discovered was that my treatment of this machine was more than just an awkward moment in my living room, that in a world where we're increasingly integrating robots into our lives, an instinct like that might actually have consequences, because the first thing that I discovered is that it's not just me.
Másrészt azért volt érdekes ez a reakcióm, mert pontosan tudtam, hogyan működik a robot, mégis késztetést éreztem, hogy kedves legyek hozzá. Ez a tapasztalat felkeltette bennem a kíváncsiságot, és ez az érdeklődés motivált az elmúlt évtizedben. Miért vigasztaltam meg ezt a robotot? Az egyik, amit felfedeztem, hogy többről van szó, minthogy e gép iránti empátiám miatt volt egy kínos pillanatom a nappaliban. Egy olyan világban, ahol a robotok egyre jobban beépülnek az életünkbe, egy ilyen ösztönös reakciónak következményei lehetnek, ugyanis az első, amit felfedeztem, hogy nem csak velem történt ilyen.
In 2007, the Washington Post reported that the United States military was testing this robot that defused land mines. And the way it worked was it was shaped like a stick insect and it would walk around a minefield on its legs, and every time it stepped on a mine, one of the legs would blow up, and it would continue on the other legs to blow up more mines. And the colonel who was in charge of this testing exercise ends up calling it off, because, he says, it's too inhumane to watch this damaged robot drag itself along the minefield. Now, what would cause a hardened military officer and someone like myself to have this response to robots?
2007-ben a Washington Post írt arról, hogy az Egyesült Államok hadserege olyan robotot tesztel, amely aknamezőket hatástalanít. A módszer az volt, hogy a botsáskához hasonlóan nézett ki, és lábait emelgetve járkált a mezőn. Amikor csak aknára lépett, az egyik lába felrobbant, majd folytatta útját a többi lábával, hogy még több aknát robbantson fel. A tesztgyakorlatért felelős ezredes végül leállította az akciót, mondván, lelki szenvedés nézni, ahogy a sérült robot vonszolja magát az aknamezőn. Mi késztet egy edzett katonatisztet, vagy engem és bárkit, hogy így reagáljon robotokra?
Well, of course, we're primed by science fiction and pop culture to really want to personify these things, but it goes a little bit deeper than that. It turns out that we're biologically hardwired to project intent and life onto any movement in our physical space that seems autonomous to us. So people will treat all sorts of robots like they're alive. These bomb-disposal units get names. They get medals of honor. They've had funerals for them with gun salutes. And research shows that we do this even with very simple household robots, like the Roomba vacuum cleaner.
Bizonyára a sci-fi és a popkultúra hatása is, hogy megszemélyesítünk dolgokat, de az okok kicsit mélyebben gyökereznek. Úgy tűnik, természetes tulajdonságunk, hogy szándékot és lelket tulajdonítunk mindennek, ami fizikai környezetünkben autonómnak tűnő mozgást végez. Így minden robotot úgy kezelünk, mintha élőlény lenne. A bombahatástalanító egységek nevet kapnak. Érdemérmeket kapnak. Temetésük volt díszlövéssel. Kutatások szerint ugyanígy vagyunk egyszerű háztartási robotokkal is, mint például a Roomba porszívóval.
(Laughter)
(Nevetés)
It's just a disc that roams around your floor to clean it, but just the fact it's moving around on its own will cause people to name the Roomba and feel bad for the Roomba when it gets stuck under the couch.
Csak egy korong, ami körbejár, hogy feltakarítsa a padlót, mégis a puszta tény, hogy magától mozog, arra késztet embereket, hogy elnevezzék, és sajnálják, amikor beszorul a kanapé alá.
(Laughter)
(Nevetés)
And we can design robots specifically to evoke this response, using eyes and faces or movements that people automatically, subconsciously associate with states of mind. And there's an entire body of research called human-robot interaction that really shows how well this works. So for example, researchers at Stanford University found out that it makes people really uncomfortable when you ask them to touch a robot's private parts.
Tervezhetünk robotokat úgy, hogy kiváltsák ezt a reakciót olyan szemek, arcok, mozgások segítségével, amelyeket tudat alatt automatikusan összekapcsolunk valamilyen lelkiállapottal. Külön kutatási terület jött létre: az ember-robot kapcsolat, ami mutatja, hogy nem marad el a hatás. A Stanford Egyetem kutatói például azt tapasztalták, hogy az emberek zavarba jönnek, ha azt kérik tőlük, hogy érintsék meg robot intim területeit.
(Laughter)
(Nevetés)
So from this, but from many other studies, we know, we know that people respond to the cues given to them by these lifelike machines, even if they know that they're not real.
Ebből és más kutatásokból is tudjuk, hogy az emberek reagálnak az ilyen életszerű robotok utasításaira, akkor is, ha tudják, hogy nem valódi lények.
Now, we're headed towards a world where robots are everywhere. Robotic technology is moving out from behind factory walls. It's entering workplaces, households. And as these machines that can sense and make autonomous decisions and learn enter into these shared spaces, I think that maybe the best analogy we have for this is our relationship with animals. Thousands of years ago, we started to domesticate animals, and we trained them for work and weaponry and companionship. And throughout history, we've treated some animals like tools or like products, and other animals, we've treated with kindness and we've given a place in society as our companions. I think it's plausible we might start to integrate robots in similar ways.
Olyan világ felé haladunk, ahol a robotok mindenütt jelen lesznek. A robottechnológia kilép a gyárak falai mögül, és belép a munkahelyekre, háztartásokba. Ahogyan ezek a döntéseket megértő és autonóm döntéseket hozó, tanulásra képes gépek belépnek élettereinkbe, úgy gondolom, ez a jelenség nagyon hasonlít az állatokkal való kapcsolatunkhoz. Több ezer évvel ezelőtt elkezdtük háziasítani az állatokat, és munkára, harcászatra, társas kapcsolatra tanítottuk őket. Az idők folyamán egyes állatokkal eszközként vagy termékként bántunk, más állatokkal barátságosak voltunk. Helyet adtunk nekik a társadalomban, társaink lettek. Lehetségesnek tartom, hogy a robotokat hasonló módon elkezdjük integrálni.
And sure, animals are alive. Robots are not. And I can tell you, from working with roboticists, that we're pretty far away from developing robots that can feel anything. But we feel for them, and that matters, because if we're trying to integrate robots into these shared spaces, we need to understand that people will treat them differently than other devices, and that in some cases, for example, the case of a soldier who becomes emotionally attached to the robot that they work with, that can be anything from inefficient to dangerous. But in other cases, it can actually be useful to foster this emotional connection to robots. We're already seeing some great use cases, for example, robots working with autistic children to engage them in ways that we haven't seen previously, or robots working with teachers to engage kids in learning with new results. And it's not just for kids. Early studies show that robots can help doctors and patients in health care settings.
Persze tény: az állatok élnek, a robotok pedig nem. És mondhatom, miután dolgoztam robotszakértőkkel, hogy messze vagyunk olyan robotok fejlesztésétől, amelyek bármit is éreznek. De mi érzünk irántuk, és ez lényeges, mert ha integrálni akarjuk a robotokat különböző élettereinkbe, meg kell értenünk, hogy az emberek nem úgy fogják kezelni őket, mint más eszközöket, és hogy bizonyos esetekben, például amikor egy katona elkezd érzelmileg kötődni a robothoz, akivel dolgozik, ez a kudarctól a veszélyig sokféle bajt okozhat. Ugyanakkor más esetekben éppenséggel hasznos lehet, ha kialakul ez az érzelmi kapcsolat robotok iránt. Nagyszerű alkalmazási példákat láthatunk: robotok részt vesznek autista gyerekek terápiájában eddig nem látott módszerekkel, vagy tanárok robotok segítségével jobban be tudják vonni a gyerekeket a tanulásba. De nemcsak gyerekekről van szó. A kezdetei kutatások alapján a robotok orvosoknak és betegeknek is segíthetnek az egészségügyi ellátásban.
This is the PARO baby seal robot. It's used in nursing homes and with dementia patients. It's been around for a while. And I remember, years ago, being at a party and telling someone about this robot, and her response was, "Oh my gosh. That's horrible. I can't believe we're giving people robots instead of human care." And this is a really common response, and I think it's absolutely correct, because that would be terrible. But in this case, it's not what this robot replaces. What this robot replaces is animal therapy in contexts where we can't use real animals but we can use robots, because people will consistently treat them more like an animal than a device.
Ez itt PARO, a bébifóka-robot. Idősek otthonában segít demens betegeknek. Egy ideje már szolgálatban áll. Emlékszem, évekkel ezelőtt egy partin említést tettem valakinek erről a robotról, és így reagált: „Úristen! Ez borzalmas. Nem hiszem el, hogy robotokat adunk betegeknek emberi gondoskodás helyett.” Nagyon gyakori ez a reakció, és azt gondolom, teljesen helyénvaló, mert szörnyű lenne, ha ez lenne a helyzet. De ez esetben nem emberi gondoskodást helyettesít a robot. Állatterápiát helyettesít olyan területeken, ahol nem tudunk igazi állatokat alkalmazni, de robotokat igen, mert a betegek szívesen tekintik őket inkább állatnak, mint eszköznek.
Acknowledging this emotional connection to robots can also help us anticipate challenges as these devices move into more intimate areas of people's lives. For example, is it OK if your child's teddy bear robot records private conversations? Is it OK if your sex robot has compelling in-app purchases?
A robotokkal való érzelmi kapcsolat elfogadása segíti a felkészülésünket arra, hogy ezek az eszközök az emberek életének egyre intimebb területeire lépnek be. Például rendben van-e, ha a gyerek robotmacija magánbeszélgetéseket vesz fel? Rendben van-e, ha a szexrobot alkalmazáson belüli vásárlásokra buzdít?
(Laughter)
(Nevetés)
Because robots plus capitalism equals questions around consumer protection and privacy.
Mert robotok plusz kapitalizmus egyenlő a fogyasztóvédelmi és adatvédelmi szempontokkal.
And those aren't the only reasons that our behavior around these machines could matter. A few years after that first initial experience I had with this baby dinosaur robot, I did a workshop with my friend Hannes Gassert. And we took five of these baby dinosaur robots and we gave them to five teams of people. And we had them name them and play with them and interact with them for about an hour. And then we unveiled a hammer and a hatchet and we told them to torture and kill the robots.
De más okok is magyarázzák, miért lehet jelentősége a gépek iránti viselkedésünknek. Néhány évvel a kis robotdinóval való első tapasztalatom után szerveztem egy kísérletet Hannes Gassert barátommal. Fogtunk öt ilyen robotdinót, és odaadtuk őket öt csoportnak. A feladat az volt, hogy nevezzék el őket, játsszanak és kommunikáljanak velük egy órán át. Aztán bemutattunk egy kalapácsot és egy fejszét, és kértük, hogy kínozzák, majd öljék meg a robotot.
(Laughter)
(Nevetés)
And this turned out to be a little more dramatic than we expected it to be, because none of the participants would even so much as strike these baby dinosaur robots, so we had to improvise a little, and at some point, we said, "OK, you can save your team's robot if you destroy another team's robot."
Kicsit drámaibb lett a helyzet, mint gondoltuk, mert senki nem akarta még csak megütni sem ezeket a kis robotdinókat. Úgyhogy improvizálnunk kellett egy kicsit, és egy ponton azt mondtuk: „Oké, megmenthetitek a saját csoportotok robotját, ha egy másikét tönkreteszitek.”
(Laughter)
(Nevetés)
And even that didn't work. They couldn't do it. So finally, we said, "We're going to destroy all of the robots unless someone takes a hatchet to one of them." And this guy stood up, and he took the hatchet, and the whole room winced as he brought the hatchet down on the robot's neck, and there was this half-joking, half-serious moment of silence in the room for this fallen robot.
Még ez sem működött. Nem tudták megtenni. Végül azt mondtuk: „Tönkrevágjuk az összes robotot, ha valaki nem fog fejszét valamelyikre.” Akkor egy srác felállt, fogta a fejszét, és az egész terem feljajdult, amikor a fejszével lesújtott a robot nyakára. Félig vicces, félig komoly csendes megemlékezés következett az elesett robotért.
(Laughter)
(Nevetés)
So that was a really interesting experience. Now, it wasn't a controlled study, obviously, but it did lead to some later research that I did at MIT with Palash Nandy and Cynthia Breazeal, where we had people come into the lab and smash these HEXBUGs that move around in a really lifelike way, like insects. So instead of choosing something cute that people are drawn to, we chose something more basic, and what we found was that high-empathy people would hesitate more to hit the HEXBUGS.
Szóval rendkívül érdekes tapasztalat volt. Természetesen, nem kontrollált kísérlet volt, de elvezetett egy későbbi kutatáshoz, amit az MIT-n végeztem Palash Nandyvel és Cynthia Breazeallel. A tesztalanyoknak a laborban össze kellett törniük a HEXBUG robotokat, amik élethűen utánozzák a rovarok mozgását. Tehát nem valami cukiságot választottunk, ami tetszik az embereknek, hanem valami egyszerűbbet. Azt tapasztaltuk, hogy az empatikusabb emberek jobban vonakodnak megütni a robotokat.
Now this is just a little study, but it's part of a larger body of research that is starting to indicate that there may be a connection between people's tendencies for empathy and their behavior around robots. But my question for the coming era of human-robot interaction is not: "Do we empathize with robots?" It's: "Can robots change people's empathy?" Is there reason to, for example, prevent your child from kicking a robotic dog, not just out of respect for property, but because the child might be more likely to kick a real dog?
Ez csak egy kisebb kísérlet volt, de egy kiterjedtebb kutatás része, amely azt sejteti, hogy összefüggés lehet az emberek empátiára való hajlama és a robotokhoz való viszonya között. De számomra az ember-robot kapcsolat elkövetkező korszakának nem az a kérdése, hogy empatikusak vagyunk-e a robotok irányában, hanem hogy megváltoztathatják-e a robotok az emberek empátiáját. Van-e alapja például, hogy ne engedjük meg gyerekünknek, hogy belerúgjon egy robotkutyába. Nemcsak azért, mert óvjuk értékeinket, hanem mert lehet, hogy akkor egy igazi kutyába is bele fog rúgni.
And again, it's not just kids. This is the violent video games question, but it's on a completely new level because of this visceral physicality that we respond more intensely to than to images on a screen. When we behave violently towards robots, specifically robots that are designed to mimic life, is that a healthy outlet for violent behavior or is that training our cruelty muscles? We don't know ... But the answer to this question has the potential to impact human behavior, it has the potential to impact social norms, it has the potential to inspire rules around what we can and can't do with certain robots, similar to our animal cruelty laws. Because even if robots can't feel, our behavior towards them might matter for us. And regardless of whether we end up changing our rules, robots might be able to help us come to a new understanding of ourselves.
És itt ismét nem csak gyerekekről van szó. Az erőszakos videojátékok problémájáról, csak egy teljesen új szinten, mert arra, ami fizikai valójában létezik, erőteljesebben reagálunk, mint arra, ami képernyőn jelenik meg. Ha erőszakosan viselkedünk robotokkal, különösen élethű robotokkal, az vajon erőszakos indulatok egészséges levezetése vagy pusztító izmaink fejlesztése? Nem tudjuk. De e kérdésre adott válasz hatással lehet az emberi magatartásra, hatással lehet a társadalmi normákra, és hatással lehet annak szabályozására, hogy mit tehetünk meg, és mit nem egyes robotokkal, az állatvédelmi törvényhez hasonlóan. Mert annak ellenére, hogy a robotok nem éreznek, számunkra van jelentősége a velük szembeni viselkedésünknek. És függetlenül attól, hogy végül változtatunk-e szabályainkon, a robotok segíthetnek, hogy új képet kapjunk magunkról.
Most of what I've learned over the past 10 years has not been about technology at all. It's been about human psychology and empathy and how we relate to others. Because when a child is kind to a Roomba, when a soldier tries to save a robot on the battlefield, or when a group of people refuses to harm a robotic baby dinosaur, those robots aren't just motors and gears and algorithms. They're reflections of our own humanity.
Amit az elmúlt tíz évben megtudtam, nagyrészt nem a technológiáról szól. Az emberi lélekről és az empátiáról szól, valamint arról, hogyan viszonyulunk másokhoz. Mert amikor egy gyerek kedves egy Roombához, amikor egy katona meg akar menteni egy robotot a harcmezőn, amikor egy csoport nem hajlandó kárt tenni egy robotdinóban, akkor ezek a robotok nemcsak motorok, szerkezetek és algoritmusok. Saját emberségünk fejeződik ki bennük.
Thank you.
Köszönöm.
(Applause)
(Taps)