Hello, I'm Joy, a poet of code, on a mission to stop an unseen force that's rising, a force that I called "the coded gaze," my term for algorithmic bias.
สวัสดีค่ะ ฉันชื่อ จอย เป็นกวีเขียนรหัส มีภาระหน้าที่เพื่อหยุดยั้ง พลังที่เรามองไม่เห็นที่กำลังพุ่งขึ้นมา พลังที่ฉันเคยเรียกว่า การจ้องมองที่ถูกเข้ารหัส (โคดเดด เกซ) ศัพท์ของฉันเอง สำหรับอคติในชุดคำสั่งขั้นตอนวิธี (algorithmic bias)
Algorithmic bias, like human bias, results in unfairness. However, algorithms, like viruses, can spread bias on a massive scale at a rapid pace. Algorithmic bias can also lead to exclusionary experiences and discriminatory practices. Let me show you what I mean.
อคติที่ว่านั้น ก็เหมือนกับอคติของมนุษย์ มีผลทำให้เกิดความไม่เป็นธรรม แต่ขั้นตอนวิธีปฏิบัติ ก็เหมือนกับไวรัส สามารถแพร่กระจายอคติ ไปได้อย่างกว้างขวาง ในย่างก้าวที่รวดเร็ว อคติในชุดคำสั่งขั้นตอนวิธี ยังสามารถนำไปสู่ประสบการณ์ที่กันออกไป และการกระทำที่แบ่งแยกเลือกปฏิบัติ ขอแสดงให้คุณเข้าใจว่าฉันหมายถึงอะไร
(Video) Joy Buolamwini: Hi, camera. I've got a face. Can you see my face? No-glasses face? You can see her face. What about my face? I've got a mask. Can you see my mask?
(วิดีโอ) จอยบัวลามวินิ: สวัสดีค่ะ กล้อง ฉันมีใบหน้า คุณสามารถเห็นใบหน้าฉันหรือไม่ค่ะ ใบหน้าที่ไม่มีแว่นตานะค่ะ คุณสามารถเห็นใบหน้าของเธอได้ แล้วใบหน้าของฉันเองล่ะ ฉันสวมหน้ากากอยู่นะ คุณสามารถเห็นหน้ากากของฉันหรือไม่ค่ะ
Joy Buolamwini: So how did this happen? Why am I sitting in front of a computer in a white mask, trying to be detected by a cheap webcam? Well, when I'm not fighting the coded gaze as a poet of code, I'm a graduate student at the MIT Media Lab, and there I have the opportunity to work on all sorts of whimsical projects, including the Aspire Mirror, a project I did so I could project digital masks onto my reflection. So in the morning, if I wanted to feel powerful, I could put on a lion. If I wanted to be uplifted, I might have a quote. So I used generic facial recognition software to build the system, but found it was really hard to test it unless I wore a white mask.
จอย บัวลามมินิ: ค่ะ สิ่งนี้เกิดขึ้นได้อย่างไรหรือ ทำไมฉันจึงกำลังนั่งอยู่หน้าคอมพิวเตอร์ ใส่หน้ากากสิขาว พยายามจะให้ถูกตรวจพบโดยเว็บแคมราคาถูก ๆ ค่ะ เมื่อฉันไม่ได้กำลังต่อสู้ อยู่กับโคดเด็ดเกซ ในฐานะเป็นกวีเขียนรหัส ฉันเป็นนักศึกษาบัณฑิตศึกษา อยู่ที่ห้องทดลองสื่อที่สถาบัน MIT และที่นั่นฉันได้โอกาสทำงานในทุก ๆ เรื่อง เกี่ยวกับโครงการแปลก ๆ ซึ่งรวมถึง กระจกตามความปรารถนา (Aspire Mirror) เป็นโครงการที่ฉันทำ เพื่อให้ฉันฉาย หน้ากากดิจิตอล ลงบนภาพสะท้อนของฉันบนกระจก ดังนั้น ในตอนเช้า ถ้าฉันต้องการจะรู้สึกมีพลัง ฉันก็ใส่หน้ากากสิงโต ถ้าต้องการทำให้รู้สึกเบิกบานใจ ฉันอาจยกหรือคัดลอกคำพูดมา ดังนั้น ฉันจึงได้ใช้โปรแกรมจดจำใบหน้า แบบพื้นฐาน เพื่อสร้างระบบนั้นขึ้นมา แต่ก็ได้พบว่า มันยากจริง ๆ ที่จะทดสอบมัน เว้นแต่ว่าฉันจะต้องใส่หน้ากากสีขาว
Unfortunately, I've run into this issue before. When I was an undergraduate at Georgia Tech studying computer science, I used to work on social robots, and one of my tasks was to get a robot to play peek-a-boo, a simple turn-taking game where partners cover their face and then uncover it saying, "Peek-a-boo!" The problem is, peek-a-boo doesn't really work if I can't see you, and my robot couldn't see me. But I borrowed my roommate's face to get the project done, submitted the assignment, and figured, you know what, somebody else will solve this problem.
โชคไม่ดีค่ะ ฉันเคยวิ่งเข้าไปพบปัญหานี้ มาก่อน เมื่อตอนเรียนปริญญาตรีอยู่ที่จอร์เจียเทค เรียนวิทยาศาสตร์คอมพิวเตอร์ ฉันเคยทำงานเกี่ยวกับหุ่นยนต์สังคม และงานหน้าที่อย่างหนึ่งของฉันก็คือ ให้หุ่นยนต์เล่นเกมจ๊ะเอ๋ เป็นเกมง่าย ๆ แบบผลัดกันเล่น ที่ผู้เล่นปิดหน้าของตนไว้ แล้วก็เปิดออก พร้อมกับพูดว่า "จ๊ะเอ๋" ปัญหาก็ตือ จะเล่น จ๊ะเอ๋ ไม่ได้ ถ้าฉันมองไม่เห็นคุณ และหุ่นยนต์ของฉันก็มองไม่เห็นฉัน แต่ฉันไปยืมใบหน้าของเพื่อนร่วมห้องมา เพื่อให้โครงการนี้สำเร็จ ส่งงานนั้นให้อาจารย์ไปได้ และก็คิดไปว่า คุณรู้ไหม จะมีคนอื่นมาแก้ปัญหานี้
Not too long after, I was in Hong Kong for an entrepreneurship competition. The organizers decided to take participants on a tour of local start-ups. One of the start-ups had a social robot, and they decided to do a demo. The demo worked on everybody until it got to me, and you can probably guess it. It couldn't detect my face. I asked the developers what was going on, and it turned out we had used the same generic facial recognition software. Halfway around the world, I learned that algorithmic bias can travel as quickly as it takes to download some files off of the internet.
หลังจากนั้นไม่นานนัก ตอนอยู่ที่ฮ่องกงในการแข่งขันผู้ประกอบการ ผู้จัดการแข่งขันตัดสินใจ พาผู้เข้าร่วมการแข่งขัน ไปเที่ยวชมธุรกิจเติบโตเร็วในท้องถิ่น หนึ่งในธุรกิจเติบโตเร็วนั้นมีหุ่นยนต์สังคม (social robot) และพวกเขาก็ตัดสินใจแสดงให้ดูเป็นตัวอย่าง การแสดงทำได้ดีกับทุก ๆ คน จนมาถึงฉัน และคุณก็น่าจะเดาออก มันตรวจไม่พบใบหน้าของฉัน ฉันเลยถามผู้ที่พัฒนาสร้างมันขึ้นมา ว่าเกิดอะไรขึ้น และก็กลายเป็นว่า พวกเราใช้ โปรแกรมจดจำใบหน้าแบบพื้นฐานแบบเดียวกัน ห่างออกไปครึ่งหนึ่งของโลก ฉันเรียนรู้ว่าอคติในชุดคำสั่งขั้นตอนวิธี สามารถเดินทางไปได้อย่างรวดเร็ว เท่า ๆ กับที่มันใช้เวลาคัดลอกบางแฟ้มข้อมูล ของอินเตอร์เน็ตออกไปจนหมด
So what's going on? Why isn't my face being detected? Well, we have to look at how we give machines sight. Computer vision uses machine learning techniques to do facial recognition. So how this works is, you create a training set with examples of faces. This is a face. This is a face. This is not a face. And over time, you can teach a computer how to recognize other faces. However, if the training sets aren't really that diverse, any face that deviates too much from the established norm will be harder to detect, which is what was happening to me.
ดังนั้น จึงเกิดอะไรขึ้นหรือค่ะ ทำไมมันจึงตรวจไม่ใบหน้าของฉัน ค่ะ เราก็ต้องมาดูว่า เราให้เครื่องจักรกล มองเห็นได้อย่างไร การมองเห็นของคอมพิวเตอร์นั้น ใช้เทคนิคการเรียนรู้ของเครื่องจักรกล เพื่อให้จดจำใบหน้าได้ สิ่งนี้ทำงานอย่างไรนั้น คือ คุณสร้างชุด การฝึกขึ้นมาพร้อมกับตัวอย่างใบหน้าแบบต่าง ๆ นี่เป็นใบหน้า นี่ก็เป็นใบหน้า นี่ไม่ใช่ใบหน้า และเมื่อเวลาผ่านไป คุณก็สามารถสอนคอมพิวเตอร์ วิธีการจดจำใบหน้าอื่น ๆ ได้ อย่างไรก็ตาม ถ้าหากว่าชุดการฝึกนั้น ไม่มีความหลากหลายอย่างแท้จริงแล้ว ใบหน้าใดก็ตามที่เบี่ยงเบนไปอย่างมาก จากบรรทัดฐานที่สร้างขึ้นมา ก็จะเป็นการยากที่จะตรวจพบได้ ซึ่งก็คือ สิ่งที่กำลังเกิดขึ้นกับฉัน
But don't worry -- there's some good news. Training sets don't just materialize out of nowhere. We actually can create them. So there's an opportunity to create full-spectrum training sets that reflect a richer portrait of humanity.
แต่ไม่ต้องเป็นห่วงนะคะ -- มีข่าวดีอยู่บ้าง ชุดการฝึกนั้น ไม่ได้แค่เป็นตัวเป็นตน ขึ้นมาได้เอง จริง ๆ เราสามารถสร้างพวกมันขึ้นมาได้ ดังนั้นจึงมีโอกาสที่จะสร้าง ชุดการฝึกแบบครบถ้วนทุกส่วน ที่สะท้อนภาพเหมือนของมนุษย์ ได้สมบูรณ์ยิ่งขึ้น
Now you've seen in my examples how social robots was how I found out about exclusion with algorithmic bias. But algorithmic bias can also lead to discriminatory practices. Across the US, police departments are starting to use facial recognition software in their crime-fighting arsenal. Georgetown Law published a report showing that one in two adults in the US -- that's 117 million people -- have their faces in facial recognition networks. Police departments can currently look at these networks unregulated, using algorithms that have not been audited for accuracy. Yet we know facial recognition is not fail proof, and labeling faces consistently remains a challenge. You might have seen this on Facebook. My friends and I laugh all the time when we see other people mislabeled in our photos. But misidentifying a suspected criminal is no laughing matter, nor is breaching civil liberties.
ค่ะ คุณก็ได้เห็นในตัวอย่างของฉันแล้ว ว่า หุ่นยนต์สังคมเป็นอย่างไร ฉันค้นพบได้อย่างไร เกี่ยวกับการกันแยกออกไป ด้วยอคติของชุดคำสั่งปฏิบัติ แต่อคติของชุดคำสั่งขั้นตอนวิธี ยังสามารถ นำไปสู่การเลือกปฏิบัติได้อีกด้วย ขณะนี้ทั่วทั้งสหรัฐ กรมตำรวจกำลังเริ่มใช้โปรแกรมการจดจำใบหน้า ในคลังแสงต่อสู้อาชญากรรมของพวกเขา คณะกฎหมายมหาวิทยาลัยจอร์ดทาวน์ ได้ตีพิมพ์ แสดงให้เห็นว่า ผู้ใหญ่หนึ่งในสองคน ในสหรัฐ -- นั่นก็คือ คน 117 ล้านคน -- มีใบหน้าของพวกเขา อยู่ในเครือข่ายของการจดจำใบหน้าแล้ว ปัจจุบันกรมตำรวจสามารถเข้าไป ดูเครือข่ายเหล่านี้ได้ โดยไม่มีการควบคุม โดยใช้ชุดคำสั่งที่ยังไม่ได้ถูกตรวจสอบ ในเรื่องความเที่ยงตรง แต่เราก็รู้ว่า การจดจำใบหน้า ไม่ใช่ข้อมูลที่ใช้ไม่ได้ และการบอกชื่อลักษณะของใบหน้า ก็ยังคงเป็นสิ่งที่ท้าทาย คุณอาจจะได้เห็นสิ่งนี้มาแล้ว ในเฟซบุค เพื่อน ๆ ฉันและตัวฉันหัวเราะตลอดเวลา เมื่อเราเห็นคนอื่น ๆ ติดป้ายชื่อผิด ๆ ในภาพของเรา แต่การระบุตัวอาชญากรผู้ต้องสงสัยผิดไป ไม่ใช่เรื่องน่าขบขัน และไม่ใช่เป็นเรื่องทำให้เกิดรอยแตกร้าว ในเสรีภาพของพลเมือง
Machine learning is being used for facial recognition, but it's also extending beyond the realm of computer vision. In her book, "Weapons of Math Destruction," data scientist Cathy O'Neil talks about the rising new WMDs -- widespread, mysterious and destructive algorithms that are increasingly being used to make decisions that impact more aspects of our lives. So who gets hired or fired? Do you get that loan? Do you get insurance? Are you admitted into the college you wanted to get into? Do you and I pay the same price for the same product purchased on the same platform?
การเรียนรู้ของเครื่องจักรกล กำลังถูกใช้ สำหรับการจดจำใบหน้า แต่มันยังกำลังขยายออกไปเกินขอบเขต ของการมองเห็นของคอมพิวเตอร์ หนังสือ "อาวุธของการทำลายเชิงคณิตศาสตร์" (Weapons of Math Destruction) นักวิทยาศาสตร์ข้อมูล แคธี่ โอนีล พูดถึง การเกิดขึ้นของ ดับเบิลยูเอ็มดี แบบใหม่ -- คือ ชุดคำสั่งที่ ขยายกว้าง (widespread) ลึกลับ (mysterious) ทำลายล้าง (destructive) ที่กำลังถูกใช้เพิ่มมากขึ้น เพื่อใช้ในการตัดสินใจ ที่เกิดผลกระทบต่อด้านต่าง ๆ ในชีวิตของเรามากยิ่งขึ้น ใครถูกจ้างงาน หรือถูกไล่ออกหรือคะ คุณได้เงินกู้นั่น หรือได้ประกันหรือไม่คะ คุณได้รับการตอบรับให้เข้าเรียน ในมหาวิทยาลัยที่คุณต้องการหรือไม่คะ คุณและฉันจ่ายเงินซื้อสินค้าอย่างเดียวกัน ในราคาที่เท่ากันหรือไม่คะ เมื่อสินค้านั้นถูกซื้อบนฐานงานเดียวกัน
Law enforcement is also starting to use machine learning for predictive policing. Some judges use machine-generated risk scores to determine how long an individual is going to spend in prison. So we really have to think about these decisions. Are they fair? And we've seen that algorithmic bias doesn't necessarily always lead to fair outcomes.
การบังคับกฏหมาย กำลังเริ่มต้นที่จะใช้ การเรียนรู้ของเครื่องจักรกล เพื่อคาดเดาและระบุอาชญากรรม ผู้พิพากษาบางคนใช้คะแนนความเสี่ยง ที่ได้จากเครื่องจักรกล เพื่อตัดสินใจว่า บุคคลหนึ่งจะใช้เวลาติดคุกนานเท่าใด แท้จริง เราจึงต้องคิดเกี่ยวกับ การตัดสินใจเหล่านี้ มันยุติธรรมหรือไม่ และเราก็ได้เห็นแล้วว่า อคติในชุดคำสั่งขั้นตอนการวิธีนั้น ไม่ได้จำเป็นเสมอว่า จะนำไปสู่ผลลัพธ์ที่เป็นธรรม
So what can we do about it? Well, we can start thinking about how we create more inclusive code and employ inclusive coding practices. It really starts with people. So who codes matters. Are we creating full-spectrum teams with diverse individuals who can check each other's blind spots? On the technical side, how we code matters. Are we factoring in fairness as we're developing systems? And finally, why we code matters. We've used tools of computational creation to unlock immense wealth. We now have the opportunity to unlock even greater equality if we make social change a priority and not an afterthought. And so these are the three tenets that will make up the "incoding" movement. Who codes matters, how we code matters and why we code matters.
ดังนั้น เราจะสามารถทำอะไรได้ในเรื่องนี้ ค่ะ เราสามารถเริ่มคิดเกี่ยวกับว่า จะสร้างรหัสที่ครอบคลุมเบ็ดเสร็จยิ่งกว่านี้ และใช้วิธีการปฏิบัติในการลงรหัส ที่ครอบคลุมเบ็ดเสร็จ ได้อย่างไร โดยแท้จริงแล้ว มันเริ่มต้นจากผู้คน ใครเป็นคนลงรหัส จึงเป็นเรื่องสำคัญ เรากำลังสร้างทีมงานที่ครบถ้วนทุกส่วน พร้อมกับบุคคลที่หลากหลายหรือไม่ มีใครที่จะสามารถตรวจสอบ จุดบอดของแต่ละคนหรือไม่ ในด้านเทคนิคนั้น เราลงรหัสอย่างไร เป็นสิ่งสำคัญ เราแบ่งแยกออกเป็นส่วนๆในเรื่องความเป็นธรรม ขณะที่เราพัฒนาระบบหรือไม่ และท้ายสุด ทำไมเราจึงลงรหัส ก็สำคัญ เราใช้เครื่องมือของการสร้างเชิงคอมพิวเตอร์ เพื่อปลดล็อกความมั่งคั่งที่มากมาย ถึงตอนนี้ เรามีโอกาสที่จะปลดล็อกเปิดได้ แม้กระทั่งระดับคุณภาพที่ยิ่งใหญ่กว่า ถ้าเราทำให้การเปลี่ยนแปลงทางสังคมนั้น เป็นสิ่งสำคัญอันดับแรก และไม่ใช่เป็นสิ่งที่จะนำมาคิดพิจารณา ในภายหลัง และทั้งหมดนี้ คือ หลักการสามข้อที่จะ ก่อร่างขึ้นเป็นความเคลื่อนไหว "การลงรหัส" คนที่ลงรหัสนั้นสำคัญ เราจะลงรหัสอย่างไรนั้นสำคัญ และทำไมเราจึงลงรหัส ก็สำคัญ
So to go towards incoding, we can start thinking about building platforms that can identify bias by collecting people's experiences like the ones I shared, but also auditing existing software. We can also start to create more inclusive training sets. Imagine a "Selfies for Inclusion" campaign where you and I can help developers test and create more inclusive training sets. And we can also start thinking more conscientiously about the social impact of the technology that we're developing.
ดังนั้น จะไปสู่การลงรหัส เราสามารถเริ่มต้นการคิดเกี่ยวกับ การสร้างฐานงานที่สามารถระบุอคติได้ โดยการรวบรวมประสบการณ์ของผู้คน เช่น คนที่ฉันได้ไปแบ่งปันความคิด และก็ยังไปตรวจสอบโปรแกรมคอมพิวเตอร์ ที่มีอยู่อีกด้วย เรายังสามารถที่จะสร้างชุดการฝึก ที่ครอบคลุมเบ็ดเสร็จยิ่งกว่านี้ได้อีกด้วย ลองคิดดูซิคะ รณรงค์ "มือถือถ่ายภาพตัวเอง เพื่อนำไปรวมด้วย" ซึ่งคุณและฉันสามารถช่วยนักพัฒนาทั้งหลาย ทดสอบและสร้างขึ้นมาได้ ชุดการฝึกแบบครอบคลุมเบ็ดเสร็จ และเรายังเริ่มต้นการคิดที่ เป็นเรื่องเป็นราวยิ่งขึ้นได้อีก เกี่ยวกับผลกระทบของเทคโนโลยีต่อสังคม ที่เรากำลังพัฒนากัน
To get the incoding movement started, I've launched the Algorithmic Justice League, where anyone who cares about fairness can help fight the coded gaze. On codedgaze.com, you can report bias, request audits, become a tester and join the ongoing conversation, #codedgaze.
เพื่อให้การเคลื่อนไหวเชิงการลงรหัส เริ่มต้นขึ้นมา ฉันได้เริ่ม คณะเพื่อความเป็นธรรม ด้านชุดคำสั่งขั้นตอนวิธี ซึ่งใครๆที่สนใจเกี่ยวกับความเป็นธรรมมาร่วม ช่วยต่อสู้เรื่อง การจ้องมองที่ถูกเข้ารหัส ที่ codedgaze.com คุณสามารถรายงานเกี่ยวกับ อคติ ร้องขอการตรวจสอบ มาเป็นผู้ทดสอบ และเข้ามาร่วมการสนธนาที่กำลังมีอยู่ ที่ #codedgaze
So I invite you to join me in creating a world where technology works for all of us, not just some of us, a world where we value inclusion and center social change.
จึงขอเชิญชวนคุณให้มาร่วมกับฉัน ในการสร้างโลกใบหนึ่ง ซึ่งเทคโนโลยี ทำงานให้กับเราทุกคน ไม่ใช่แค่พวกเราบางคน โลกใบหนึ่ง ที่เราเห็นคุณค่าในการรวมกัน และมีศูนย์กลางอยู่ที่การเปลี่ยนแปลงสังคม
Thank you.
ขอบคุณค่ะ
(Applause)
(เสียงปรบมือ)
But I have one question: Will you join me in the fight?
แต่ฉันมีคำถามหนึ่ง คุณจะมาเข้าร่วมกับฉันในการต่อสู้หรือไม่คะ
(Laughter)
(เสียงหัวเราะ)
(Applause)
(เสียงปรบมือ)