Our emotions influence every aspect of our lives, from our health and how we learn, to how we do business and make decisions, big ones and small. Our emotions also influence how we connect with one another. We've evolved to live in a world like this, but instead, we're living more and more of our lives like this -- this is the text message from my daughter last night -- in a world that's devoid of emotion. So I'm on a mission to change that. I want to bring emotions back into our digital experiences.
อารมณ์ของเรามีอิทธิพลต่อเรา ในทุกด้านของชีวิต ตั้งแต่สุขภาพและการเรียนรู้ ไปจนถึงการทำธุรกิจและตัดสินใจ ไม่ว่าเรื่องใหญ่หรือเรื่องเล็ก อารมณ์ของเรายังมีอิทธิพลต่อ ความสัมพันธ์ที่คนเรามีต่อกันด้วย คนเรามีวิวัฒนาการมา ให้มีชีวิตอยู่ในโลกแบบนี้ แต่แทนที่จะเป็นอย่างนั้น เรากำลังใช้ชีวิตแบบนี้มากขึ้นเรื่อยๆ นี่คือข้อความจากลูกสาวของฉันเมื่อคืนนี้ ในโลกที่ขาดไร้ซึ่งอารมณ์ ฉันเลยมีภารกิจที่จะเปลี่ยนแปลงมัน ฉันต้องการนำอารมณ์ กลับมาสู่ประสบการณ์ดิจิตอลของเรา
I started on this path 15 years ago. I was a computer scientist in Egypt, and I had just gotten accepted to a Ph.D. program at Cambridge University. So I did something quite unusual for a young newlywed Muslim Egyptian wife: With the support of my husband, who had to stay in Egypt, I packed my bags and I moved to England. At Cambridge, thousands of miles away from home, I realized I was spending more hours with my laptop than I did with any other human. Yet despite this intimacy, my laptop had absolutely no idea how I was feeling. It had no idea if I was happy, having a bad day, or stressed, confused, and so that got frustrating. Even worse, as I communicated online with my family back home, I felt that all my emotions disappeared in cyberspace. I was homesick, I was lonely, and on some days I was actually crying, but all I had to communicate these emotions was this. (Laughter) Today's technology has lots of I.Q., but no E.Q.; lots of cognitive intelligence, but no emotional intelligence. So that got me thinking, what if our technology could sense our emotions? What if our devices could sense how we felt and reacted accordingly, just the way an emotionally intelligent friend would? Those questions led me and my team to create technologies that can read and respond to our emotions, and our starting point was the human face.
ฉันเริ่มต้นเส้นทางนี้เมื่อ 15 ปีที่แล้ว ฉันเป็นนักวิทยาศาสตร์คอมพิวเตอร์ในอียิปต์ และเพิ่งได้รับตอบรับเข้าเรียนปริญญาเอก ที่มหาวิทยาลัยเคมบริดจ์ นั่นคือ ฉันทำอะไรที่ประหลาดมาก สำหรับหญิงสาวมุสลิมในอียิปต์ ที่เพิ่งแต่งงาน แต่ด้วยการสนับสนุนจากสามีของฉัน ซึ่งต้องอยู่ที่อียิปต์ ฉันก็เก็บกระเป๋าและย้ายไปอังกฤษ ที่เคมบริดจ์ หลายพันไมล์ไกลจากบ้าน ฉันเริ่มรู้ตัวว่าฉันใช้เวลา อยู่กับคอมพิวเตอร์แล็บท็อปของฉัน มากกว่าใช้เวลากับมนุษย์คนอื่น แม้จะใกล้ชิดกันขนาดนั้น แล็บท็อปของฉัน ก็ไม่รู้เลยว่าฉันกำลังรู้สึกอย่างไร มันไม่รู้เลยว่าฉันกำลังมีความสุข เจอวันที่เลวร้าย หรือเครียด หรือสับสน ฉันก็เลยเกิดคับข้องใจขึ้นมา ที่แย่กว่านั้น เวลาฉันสื่อสาร กับครอบครัวของฉันที่อยู่ที่บ้าน ฉันรู้สึกว่าอารมณ์ทั้งหมดของฉัน มันอันตรธานหายไปในโลกไซเบอร์ ฉันคิดถึงบ้าน ฉันเหงา และบางวันฉันก็ร้องไห้ แต่วิธีที่ฉันใช้สื่อสารอารมณ์เหล่านี้ได้ มีทั้งหมดก็แค่นี้ (เสียงหัวเราะ) เทคโนโลยีในปัจจุบันนี้ มี ไอ.คิว. สูงมาก แต่ไม่มี อี.คิว. ฉลาดทางปัญญามาก แต่ไม่ฉลาดทางอารมณ์ นั่นจึงทำให้ฉันคิดขึ้นมาว่า มันจะเป็นยังไงนะ ถ้าเทคโนโลยีรับรู้อารมณ์ของเราได้ ถ้าอุปกรณ์ทั้งหลายของเรารับรู้ได้ว่า เรารู้สึกอย่างไรและตอบสนองได้อย่างเหมาะสม เหมือนที่เพื่อนของเรา ที่มีความฉลาดทางอารมณ์จะตอบสนอง คำถามเหล่านี้นำพาฉันและทีม ให้สร้างเทคโนโลยีที่สามารถอ่าน และตอบสนองต่ออารมณ์ของเราได้ และจุดเริ่มต้นของเราคือใบหน้าของมนุษย์
So our human face happens to be one of the most powerful channels that we all use to communicate social and emotional states, everything from enjoyment, surprise, empathy and curiosity. In emotion science, we call each facial muscle movement an action unit. So for example, action unit 12, it's not a Hollywood blockbuster, it is actually a lip corner pull, which is the main component of a smile. Try it everybody. Let's get some smiles going on. Another example is action unit 4. It's the brow furrow. It's when you draw your eyebrows together and you create all these textures and wrinkles. We don't like them, but it's a strong indicator of a negative emotion. So we have about 45 of these action units, and they combine to express hundreds of emotions.
ใบหน้าของมนุษย์ เป็นช่องทางที่มีพลังที่สุดช่องทางหนึ่ง ที่เราใช้สื่อสารสภาวะทางอารมณ์และสังคม ทุกๆ อย่างตั้งแต่ความรื่นรมย์ ประหลาดใจ เห็นอกเห็นใจ และสงสัยใคร่รู้ ในศาสตร์ด้านอารมณ์ เรียกการเคลื่อนไหว กล้ามเนื้อใบหน้าแต่ละมัดว่าหน่วยเคลื่อนไหว เช่น หน่วยเคลื่อนไหวที่ 12 ไม่ใช่ชื่อหนังฮอลลีวูดนะ มันคือการดึงมุมปากขึ้น ซึ่งเป็นองค์ประกอบหลักของการยิ้ม ทุกคนลองดูนะคะ มาเรามายิ้มกันเถอะ อีกตัวอย่างหนึ่งคือหน่วยเคลื่อนไหวที่ 4 คือการขมวดคิ้ว เมื่อคุณดึงคิ้วเข้าหากัน ทำให้เกิดพื้นผิวรอยย่นแบบนี้ ซึ่งเราไม่ชอบเลย แต่มันเป็นตัวบ่งชี้อารมณ์ทางลบที่ชัดเจน คนเรามีหน่วยการเคลื่อนไหวแบบนี้ 45 หน่วย และมันทำงานร่วมกันเพื่อแสดงอารมณ์นับร้อยๆ
Teaching a computer to read these facial emotions is hard, because these action units, they can be fast, they're subtle, and they combine in many different ways. So take, for example, the smile and the smirk. They look somewhat similar, but they mean very different things. (Laughter) So the smile is positive, a smirk is often negative. Sometimes a smirk can make you become famous. But seriously, it's important for a computer to be able to tell the difference between the two expressions.
การสอนให้คอมพิวเตอร์ อ่านอารมณ์ทางสีหน้าพวกนี้เป็นเรื่องยาก เพราะหน่วยการเคลื่อนไหวเหล่านี้ เกิดขึ้นเร็ว มองไม่ค่อยออก และยังประกอบกันได้หลายรูปแบบ ตัวอย่างเช่น การยิ้ม กับการยิ้มเยาะ มันดูคล้ายๆ กัน แต่มันมีความหมายต่างกันมาก (เสียงหัวเราะ) การยิ้มนี่ความหมายทางบวก การยิ้มเยาะนี่มักจะมีความหมายแง่ลบ บางครั้งการยิ้มเยาะ อาจทำให้คุณกลายเป็นคนดังขึ้นมา แต่เอาจริงๆ นะ นี่เป็นเรื่องสำคัญ ที่คอมพิวเตอร์ต้องสามารถ แยกแยะความแตกต่างระหว่างสีหน้าสองแบบนี้ได้
So how do we do that? We give our algorithms tens of thousands of examples of people we know to be smiling, from different ethnicities, ages, genders, and we do the same for smirks. And then, using deep learning, the algorithm looks for all these textures and wrinkles and shape changes on our face, and basically learns that all smiles have common characteristics, all smirks have subtly different characteristics. And the next time it sees a new face, it essentially learns that this face has the same characteristics of a smile, and it says, "Aha, I recognize this. This is a smile expression."
แล้วเราทำยังไงล่ะ เราให้ชุดคำสั่งของเรา ได้เรียนรู้ตัวอย่างคนนับหมื่นๆ ที่เรารู้อย่างแน่นอนว่ากำลังยิ้มอยู่ จากทุกเชื้อชาติ อายุ เพศ แล้วเราก็ทำอย่างเดียวกันกับการยิ้มเยาะ แล้วหลังจากการเรียนรู้ที่ลึกซึ้ง ชุดคำสั่งของเราก็มองหาพื้นผิว รอยย่น และการเปลี่ยนแปลงรูปร่างเหล่านี้ บนใบหน้าของเรา และเรียนรู้ว่า การยิ้มทุกๆ ตัวอย่าง มีลักษณะอะไรร่วมกัน และการยิ้มเยาะทุกตัวอย่าง มีลักษณะที่แตกต่างไปเล็กน้อยอย่างไร ครั้งต่อไปที่มันเห็นใบหน้าใหม่ มันก็จะเรียนรู้ว่า ใบหน้านี้มีลักษณะเหมือนการยิ้ม แล้วก็บอกว่า "อะฮ้า ฉันจำได้ละ นี่คือการยิ้ม"
So the best way to demonstrate how this technology works is to try a live demo, so I need a volunteer, preferably somebody with a face. (Laughter) Cloe's going to be our volunteer today.
ทีนี้ การสาธิตที่ดีที่สุด ว่าเทคโนโลยีนี้ทำงานอย่างไร คือการทดลองกับคนจริงๆ เอาล่ะ ฉันอยากได้อาสาสมัครสักคน ขอให้เป็นคนที่มีใบหน้านะคะ (เสียงหัวเราะ) โคลอี้จะเป็นอาสาสมัครให้เราวันนี้ค่ะ
So over the past five years, we've moved from being a research project at MIT to a company, where my team has worked really hard to make this technology work, as we like to say, in the wild. And we've also shrunk it so that the core emotion engine works on any mobile device with a camera, like this iPad. So let's give this a try.
คือ ห้าปีที่ผ่านมา เราก้าวจากการเป็นโครงการวิจัยที่เอ็มไอที มาเป็นบริษัท ซึ่งทีมของฉันทำงานกันหนักมาก เพื่อให้เทคโนโลยีนี้ทำงานได้ ในสภาพการใช้งานจริง และเราก็ย่อส่วนมัน ให้โปรแกรมหลักที่ใช้วิเคราะห์อารมณ์ ทำงานบนอุปกรณ์เคลื่อนที่ที่มีกล้องได้ เช่นไอแพด เรามาลองกันนะคะ
As you can see, the algorithm has essentially found Cloe's face, so it's this white bounding box, and it's tracking the main feature points on her face, so her eyebrows, her eyes, her mouth and her nose. The question is, can it recognize her expression? So we're going to test the machine. So first of all, give me your poker face. Yep, awesome. (Laughter) And then as she smiles, this is a genuine smile, it's great. So you can see the green bar go up as she smiles. Now that was a big smile. Can you try a subtle smile to see if the computer can recognize? It does recognize subtle smiles as well. We've worked really hard to make that happen. And then eyebrow raised, indicator of surprise. Brow furrow, which is an indicator of confusion. Frown. Yes, perfect. So these are all the different action units. There's many more of them. This is just a slimmed-down demo. But we call each reading an emotion data point, and then they can fire together to portray different emotions. So on the right side of the demo -- look like you're happy. So that's joy. Joy fires up. And then give me a disgust face. Try to remember what it was like when Zayn left One Direction. (Laughter) Yeah, wrinkle your nose. Awesome. And the valence is actually quite negative, so you must have been a big fan. So valence is how positive or negative an experience is, and engagement is how expressive she is as well. So imagine if Cloe had access to this real-time emotion stream, and she could share it with anybody she wanted to. Thank you. (Applause)
คุณจะเห็นว่าชุดคำสั่งพบใบหน้าของโคลอี้แล้ว คือกล่องที่มีเส้นกรอบสีขาวนี่ แล้วมันก็ติดตามการเคลื่อนไหว ของจุดหลักๆ บนหน้าของเธอ คิ้ว ตา ปาก และจมูก คำถามคือ มันจะรู้ไหมว่าเธอแสดงสีหน้าอะไร เราจะมาทดสอบเจ้าเครื่องนี้กัน ก่อนอื่น ทำหน้าเฉยหน่อยซิ อ่ะ เจ๋งเลย (เสียงหัวเราะ) ทีนี้ พอโคลอี้ยิ้ม นี่คือยิ้มที่จริงใจ เยี่ยมมาก คุณจะเห็นแท่งสีเขียวเพิ่มขึ้นตอนที่เธอยิ้ม นั่นคือการยิ้มกว้าง ลองยิ้มน้อยๆ ได้ไหม ดูซิว่าคอมพิวเตอร์จะจับได้ไหม มันรับรู้ยิ้มจางๆ ได้ด้วยเช่นกัน เราทำงานกันหนักมากเพื่อให้มันทำได้ ทีนี้ เลิกคิ้ว ตัวบ่งชี้ว่าประหลาดใจ คิ้วขมวด ซึ่งบ่งชี้ความสับสน หน้าบึ้ง ใช่เลย เยี่ยม นี่คือหน่วยการเคลื่อนไหวต่างๆ ยังมีอีกหลายแบบมาก นี่คือการสาธิตสั้นๆ เท่านั้น เราเรียกการอ่านข้อมูลแต่ละจุดบนใบหน้า ว่าหน่วยข้อมูลอารมณ์ และมันก็ทำงานร่วมกัน เพื่อแสดงอารมณ์ที่แตกต่างกันออกไป ตรงด้านขวาของจอ ดูเหมือนเธอมีความสุขอยู่นะ นั่นคือความสุข มันสว่างขึ้นมา ทีนี้ ทำหน้าขยะแขยงซิ ทีนี้ นึกถึงความรู้สึกตอนที่เซย์น ลาออกจากวง วัน ไดเร็กชัน ซิ (เสียงหัวเราะ) ใช่ จมูกย่นเลย แจ๋ว และทิศทางอารมณ์ค่อนข้างลบมาก นี่เป็นแฟนพันธุ์แท้วงนี้ล่ะสิ ทิศทางอารมณ์คือความเป็นบวก หรือลบของประสบการณ์นั้น และความอิน คือ เธอแสดงออกมากขนาดไหน ลองจินตนาการดูสิคะ ถ้าโคลอี้เข้าถึง ข้อมูลอารมณ์แบบนี้ได้ทันทีตลอดเวลา และเธอสามารถแชร์ให้ใครก็ได้ที่เธอต้องการ ขอบคุณค่ะ (เสียงปรบมือ)
So, so far, we have amassed 12 billion of these emotion data points. It's the largest emotion database in the world. We've collected it from 2.9 million face videos, people who have agreed to share their emotions with us, and from 75 countries around the world. It's growing every day. It blows my mind away that we can now quantify something as personal as our emotions, and we can do it at this scale.
ที่ผ่านมาจนถึงวันนี้ เราเก็บรวบรวม ข้อมูลอารมณ์ได้หนึ่งหมื่นสองพันล้านหน่วย เป็นฐานข้อมูลอารมณ์ที่ใหญ่ที่สุดในโลก เราเก็บรวบรวมมาจากวิดีโอใบหน้า สองล้านเก้าแสนวิดีโอ ถ่ายจากคนที่ยินยอม ให้ข้อมูลอารมณ์ของเขาให้กับเรา จาก 75 ประเทศทั่วโลก และกำลังเพิ่มมากขึ้นทุกๆ วัน มันทำให้ฉันตื่นเต้นสุดๆ ที่ตอนนี้เราวัดปริมาณอะไรที่ เป็นประสบการณ์ส่วนตัวมากๆ อย่างอารมณ์ และเราสามารถทำได้ในขอบเขตใหญ่ขนาดนี้
So what have we learned to date? Gender. Our data confirms something that you might suspect. Women are more expressive than men. Not only do they smile more, their smiles last longer, and we can now really quantify what it is that men and women respond to differently. Let's do culture: So in the United States, women are 40 percent more expressive than men, but curiously, we don't see any difference in the U.K. between men and women. (Laughter) Age: People who are 50 years and older are 25 percent more emotive than younger people. Women in their 20s smile a lot more than men the same age, perhaps a necessity for dating. But perhaps what surprised us the most about this data is that we happen to be expressive all the time, even when we are sitting in front of our devices alone, and it's not just when we're watching cat videos on Facebook. We are expressive when we're emailing, texting, shopping online, or even doing our taxes.
แล้วจากข้อมูลนี้เราได้เรียนรู้อะไรบ้าง ความแตกต่างระหว่างเพศ ข้อมูลของเรายืนยันบางอย่าง ที่คุณอาจคาดไว้อยู่แล้ว ผู้หญิงแสดงอารมณ์มากกว่าผู้ชาย ไม่ใช่เพียงแค่ยิ้มมากกว่า แต่ยังยิ้มนานกว่า และเรายังสามารถวัดได้ด้วย ว่าอะไรที่ผู้หญิงกับผู้ชาย ตอบสนองต่างกัน ลองมาดูตามวัฒนธรรมกัน ในสหรัฐอเมริกา ผู้หญิงแสดงอารมณ์ มากกว่าผู้ชาย 40 เปอร์เซ็นต์ แต่น่าแปลกไหม ที่เราไม่เห็นความแตกต่าง ระหว่างชายหญิงในอังกฤษ (เสียงหัวเราะ) ส่วนอายุ คนที่อายุ 50 ปีขึ้นไป แสดงอารมณ์มากกว่าคนที่อายุน้อยกว่า ผู้หญิงในวัย 20 กว่า ยิ้มเยอะกว่าผู้ชายในวัยเดียวกันมาก บางทีอาจเป็นสิ่งจำเป็นในการออกเดท แต่สิ่งที่ทำให้เราประหลาดใจที่สุด จากข้อมูลชุดนี้ คือ จริงๆ คนเราแสดงอารมณ์ตลอดเวลา แม้เวลาที่เรานั่งอยู่คนเดียว หน้าอุปกรณ์อิเล็กทรอนิกส์ของเรา ไม่ใช่แค่ตอนที่เราดูวิดีโอแมวบนเฟซบุค แต่เราแสดงอารมณ์ตอนเราอีเมล์ ส่งข้อความ ซื้อของออนไลน์ หรือแม้แต่ยื่นแบบภาษี
Where is this data used today? In understanding how we engage with media, so understanding virality and voting behavior; and also empowering or emotion-enabling technology, and I want to share some examples that are especially close to my heart. Emotion-enabled wearable glasses can help individuals who are visually impaired read the faces of others, and it can help individuals on the autism spectrum interpret emotion, something that they really struggle with. In education, imagine if your learning apps sense that you're confused and slow down, or that you're bored, so it's sped up, just like a great teacher would in a classroom. What if your wristwatch tracked your mood, or your car sensed that you're tired, or perhaps your fridge knows that you're stressed, so it auto-locks to prevent you from binge eating. (Laughter) I would like that, yeah. What if, when I was in Cambridge, I had access to my real-time emotion stream, and I could share that with my family back home in a very natural way, just like I would've if we were all in the same room together?
วันนี้ เราเอาข้อมูลเหล่านี้ไปทำอะไรได้ ในการทำความเข้าใจการติดต่อสัมพันธ์กับสื่อ การแพร่กระจายข่าวสารแบบไวรัล พฤติกรรมการเลือกตั้ง เทคโนโลยีที่ให้อำนาจ หรือความสามารถทางอารมณ์ ฉันอยากเล่าตัวอย่าง ที่สำคัญกับฉันมากเป็นพิเศษ แว่นตาเพิ่มความสามารถในการรับรู้อารมณ์ ช่วยให้คนพิการทางสายตาอ่านใบหน้าคนอื่นได้ มันช่วยคนที่มีอาการออทิสซึม ให้ตีความอารมณ์คนอื่นได้ ซึ่งเป็นสิ่งที่พวกเขามีปัญหา ในวงการการศึกษา ลองคิดดูสิคะ ถ้าแอปพลิเคชันการเรียนรู้ของคุณ รับรู้ได้ว่าคุณสับสนและทำงานช้าลง หรือรู้ว่าคุณเบื่อ จึงเร่งความเร็วขึ้น เหมือนที่ครูที่ยอดเยี่ยมจะทำในห้องเรียน จะเป็นยังไงถ้านาฬิกาข้อมือของคุณ เฝ้าติดตามอารมณ์ของคุณ หรือรถของคุณรับรู้ได้ว่าคุณเหนื่อย หรือตู้เย็นของคุณอาจจะรู้ว่าคุณเครียด มันเลยล็อกตัวเองอัตโนมัติ ป้องกันคุณกินอย่างไร้สติ (เสียงหัวเราะ) ฉันอยากได้นะ จะเป็นยังไง ถ้าตอนอยู่เคมบริดจ์ ฉันสามารถเข้าถึงกระแสอารมณ์ของฉัน แบบนาทีต่อนาที และฉันสามารถแชร์ความรู้สึกนั้น กับครอบครัวของฉันที่บ้านอย่างเป็นธรรมชาติ เหมือนกับเวลาที่เราทุกคนอยู่ในห้องเดียวกัน
I think five years down the line, all our devices are going to have an emotion chip, and we won't remember what it was like when we couldn't just frown at our device and our device would say, "Hmm, you didn't like that, did you?" Our biggest challenge is that there are so many applications of this technology, my team and I realize that we can't build them all ourselves, so we've made this technology available so that other developers can get building and get creative. We recognize that there are potential risks and potential for abuse, but personally, having spent many years doing this, I believe that the benefits to humanity from having emotionally intelligent technology far outweigh the potential for misuse. And I invite you all to be part of the conversation. The more people who know about this technology, the more we can all have a voice in how it's being used. So as more and more of our lives become digital, we are fighting a losing battle trying to curb our usage of devices in order to reclaim our emotions. So what I'm trying to do instead is to bring emotions into our technology and make our technologies more responsive. So I want those devices that have separated us to bring us back together. And by humanizing technology, we have this golden opportunity to reimagine how we connect with machines, and therefore, how we, as human beings, connect with one another.
ฉันคิดว่า อีกห้าปีข้างหน้า อุปกรณ์ทุกอย่างของเรา จะมีชิพตรวจจับอารมณ์ และเราจะลืมช่วงเวลาก่อนหน้านี้ไปเลย ที่เรายังไม่สามารถหน้าบึ้งใส่อุปกรณ์ของเรา แล้วอุปกรณ์ของเรามันจะพูดว่า "อืม คุณไม่ชอบใช่ไหมล่ะ" ความท้าทายสูงสุดของเราคือ การใช้งานเทคโนโลยีนี้มีได้หลากหลายมาก ฉันกับทีมของฉันรู้ว่า เราไม่สามารถสร้างทุกอย่างเองได้ทั้งหมด เราจึงเปิดเผยเทคโนโลยีนี้ เพื่อให้นักพัฒนาคนอื่น สามารถเอาไปพัฒนาและสร้างสรรค์ต่อ เราตระหนักว่ามันมีความเสี่ยง และอาจมีการเอาไปใช้ในทางที่ผิด แต่โดยส่วนตัวที่ทำเรื่องนี้มาหลายปี ฉันเชื่อว่า ประโยชน์ที่มีต่อมนุษยชาติ จากการมีเทคโนโลยีที่มีความฉลาดทางอารมณ์ มันมากกว่าโอกาสที่จะมีคนนำไปใช้ในทางไม่ควร และฉันอยากเชื้อเชิญทุกคน ให้เป็นส่วนหนึ่งในการสนทนานี้ ยิ่งมีคนรู้เกี่ยวกับเทคโนโลยีนี้มากเท่าใด เรายิ่งมีเสียงที่หลากหลายมากขึ้น ว่าเราเอามันไปใช้ทำอะไรได้บ้าง ชีวิตของเรา กลายเป็นชีวิตดิจิตอลมากขึ้นเรื่อยๆ เราพ่ายแพ้ในการต่อสู้เพื่อพยายาม ลดการใช้อุปกรณ์อิเล็กทรอนิกส์ต่างๆ เพื่อกู้อารมณ์ของเรากลับคืนมา แทนที่จะทำอย่างนั้น สิ่งที่ฉันพยายามทำคือ นำอารมณ์มาใส่ในเทคโนโลยี และทำให้เทคโนโลยีตอบสนองกับเรามากขึ้น ฉันอยากให้อุปกรณ์เหล่านั้น ที่เคยแยกเราให้ห่างกัน นำเรากลับมาใกล้กันอีกครั้ง การทำให้เทคโนโลยีมีความเป็นมนุษย์มากขึ้น ทำให้เรามีโอกาสทอง ที่จะสร้างจินตนาการใหม่ ว่าเราจะเชื่อมต่อกับอุปกรณ์ต่างๆ อย่างไร และเพื่อให้เรา มนุษยชาติ เชื่อมโยงสัมพันธ์กันมากขึ้น
Thank you.
ขอบคุณค่ะ
(Applause)
(เสียงปรบมือ)