This is a thought experiment.
นี่เป็นการทดลองทางความคิด
Let's say at some point in the not so distant future, you're barreling down the highway in your self-driving car, and you find yourself boxed in on all sides by other cars. Suddenly, a large, heavy object falls off the truck in front of you. Your car can't stop in time to avoid the collision, so it needs to make a decision: go straight and hit the object, swerve left into an SUV, or swerve right into a motorcycle. Should it prioritize your safety by hitting the motorcycle, minimize danger to others by not swerving, even if it means hitting the large object and sacrificing your life, or take the middle ground by hitting the SUV, which has a high passenger safety rating? So what should the self-driving car do?
เอาเป็นว่าในอนาคตอันใกล้ คุณกำลังเดินทางลงไปตามทางหลวง ในรถที่ขับเคลื่อนเอง และคุณพบว่า คุณถูกกักอยู่ท่ามกลางรถคันอื่น ทันใดนั้นเอง วัตถุหนักขนาดใหญ่ ตกลงมาจากรถบรรทุกตรงหน้าคุณ รถของคุณไม่สามารถหยุดได้ทันเวลา เพื่อที่จะป้องกันการปะทะ ฉะนั้น มันจึงต้องทำการตัดสินใจ พุ่งตรงไปและชนวัตถุ เบี่ยงซ้ายเข้าหารถอเนกประสงค์ หรือหักขวาเข้าหารถจักรยานยนต์ มันควรให้ความสำคัญ กับความปลอดภัยของคุณก่อน ลดอันตรายที่จะมีต่อคนอื่นโดยไม่เปลี่ยนทิศทาง แม้ว่านั่นหมายถึงการชนวัตถุขนาดใหญ่ และการสละชีวิตตนเอง หรือใช้ทางสายกลาง โดยชนรถอเนกประสงค์ ซึ่งมีอัตราความปลอดภัยสำหรับผู้โดยสารสูง แล้วรถที่ขับเคลื่อนเองจะทำอย่างไร
If we were driving that boxed in car in manual mode, whichever way we'd react would be understood as just that, a reaction, not a deliberate decision. It would be an instinctual panicked move with no forethought or malice. But if a programmer were to instruct the car to make the same move, given conditions it may sense in the future, well, that looks more like premeditated homicide.
ถ้าเรากำลังขับรถที่ตนเองโดนกักไว้แบบทั่วไป ไม่ว่าจะเป็นทางใดที่เราเลือก จะถูกเข้าใจให้อย่างที่มันเป็น การโต้ตอบ ไม่ใช่การตัดสินใจที่เกิดจากการคิดที่รอบคอบ มันอาจเป็นการกระทำอย่างตระหนกตกใจ ตามสัญชาตญาณโดยไม่มีการวางแผนหรือมุ่งร้าย แต่ถ้าคนเขียนโปรแกรมกำกับรถ ให้ทำการเช่นเดียวกัน ให้สถานการณ์ที่มันอาจเจอได้ในอนาคต นั่นดูเหมือนเป็นการฆาตกรรมโดยเจตนา
Now, to be fair, self-driving cars are predicted to dramatically reduce traffic accidents and fatalities by removing human error from the driving equation. Plus, there may be all sorts of other benefits: eased road congestion, decreased harmful emissions, and minimized unproductive and stressful driving time. But accidents can and will still happen, and when they do, their outcomes may be determined months or years in advance by programmers or policy makers. And they'll have some difficult decisions to make. It's tempting to offer up general decision-making principles, like minimize harm, but even that quickly leads to morally murky decisions.
ตอนนี้ ความจริงก็คือ รถที่ขับเคลื่อนเองถูกคาดว่า จะลดอุบัติเหตุและการสูญเสียบนท้องถนน ได้อย่างมาก โดยกำจัดความผิดพลาดของคน จากสมการการขับรถ รวมถึง มันอาจมีประโยชน์อย่างอื่น เช่น ทำให้ถนนไม่คับคั่งมากนัก ลดการปลดปล่อยก๊าซอันตราย และลดเวลาการขับรถที่ไม่มีประสิทธิภาพ และน่าหงุดหงิด แต่อุบัติเหตุจะยังสามารถและจะยังเกิดขึ้น และเมื่อมันเกิดขึ้น ผลที่ออกมาอาจถูกกำหนดเอาไว้แล้ว หลายเดือนหรือหลายปีล่วงหน้า โดยผู้เขียนโปรแกรม หรือผู้วางนโยบาย และพวกเขาก็ต้องลำบากใจในการตัดสินใจ ใจหนึ่งก็อยากจะให้สิทธิ ในหลักการตัดสินใจพื้นฐาน อย่างเช่น การลดอันตรายให้น้อยที่สุด แต่กระนั้น มันก็อาจนำไปสู่การตัดสินใจ ในเชิงจริยธรรมที่คลุมเครือ
For example, let's say we have the same initial set up, but now there's a motorcyclist wearing a helmet to your left and another one without a helmet to your right. Which one should your robot car crash into? If you say the biker with the helmet because she's more likely to survive, then aren't you penalizing the responsible motorist? If, instead, you save the biker without the helmet because he's acting irresponsibly, then you've gone way beyond the initial design principle about minimizing harm, and the robot car is now meting out street justice.
ยกตัวอย่างเช่น สมมติว่า เรามีการตั้งค่าแต่แรกเหมือนกัน แต่ตอนนี้ มีผู้ขับขี่รถจักรยานยนต์ ที่สวมหมวกกันน็อค ขับมาทางซ้ายของคุณ และอีกคนหนึ่งที่ไม่สวมหมวกกันน็อค ขับมาทางขวาของคุณ คนไหนล่ะที่รถหุ่นยนต์ของคุณควรจะชน ถ้าคุณบอกว่า คนที่สวมหมวกกันน็อค เพราะว่าเธอมีโอกาสที่จะรอดชีวิตมากกว่า นั่นไม่เป็นการลงโทษกับผู้ขับขี่จักรยานยนต์ ที่มีความรับผิดชอบหรอกหรือ แต่ถ้าคุณช่วยคนที่ไม่สวมหมวกกันน็อค เพราะว่าเขาไม่รับผิดชอบ นั่นก็เป็นการทำเกินไปกว่าหลักการที่ออกแบบ ไว้แต่แรกให้ลดอันตรายให้น้อยที่สุด และตอนนี้ รถหุ่นยนต์ก็ต้องแบ่งรับแบ่งสู้ กับความยุติธรรมบนท้องถนน
The ethical considerations get more complicated here. In both of our scenarios, the underlying design is functioning as a targeting algorithm of sorts. In other words, it's systematically favoring or discriminating against a certain type of object to crash into. And the owners of the target vehicles will suffer the negative consequences of this algorithm through no fault of their own.
การตัดสินทางจริยธรรมในสถานการณ์นี้ ซับซ้อนยิ่งขึ้น ในทั้งสองเหตุการณ์ของเรา การออกแบบพื้นฐานทำหน้าที่ เป็นดั่งอัลกอริทึมเป้าหมายของโจทย์ หรืออาจกล่าวได้ว่า มันคือการเลือกหรือลำเอียงอย่างเป็นระบบ เทียบกับวัตถุบางประเภทที่จะถูกเข้าชน และผู้เป็นเจ้าของของพาหนะเป้าหมาย จะต้องได้รับผลเชิงลบจากอัลกอริทึม แม้ว่าตัวพวกเขาเองจะไม่มีความผิดอะไร
Our new technologies are opening up many other novel ethical dilemmas. For instance, if you had to choose between a car that would always save as many lives as possible in an accident, or one that would save you at any cost, which would you buy? What happens if the cars start analyzing and factoring in the passengers of the cars and the particulars of their lives? Could it be the case that a random decision is still better than a predetermined one designed to minimize harm? And who should be making all of these decisions anyhow? Programmers? Companies? Governments?
เทคโนโลยีใหม่ของเรากำลังเปิดทาง ให้กับความยุ่งยากใหม่ทางจริยธรรม ยกตัวอย่างเช่น ถ้าคุณจำเป็นต้องเลือก ระหว่างรถที่จะรักษาชีวิต เอาไว้ให้ได้จำนวนมากที่สุดเสมอ กับรถที่จะช่วยคุณไม่ว่าจะอย่างไรก็ตาม คุณจะซื้อรถแบบไหน จะเกิดอะไรขึ้น ถ้ารถเริ่มที่จะวิเคราะห์ และหาค่าปัจจัย ของผู้โดยสารของรถยนต์ และรายละเอียดต่าง ๆ เกี่ยวกับชีวิต จะเป็นไปได้ไหมว่า การตัดสินอย่างสุ่ม ยังคงดีกว่าการกำหนดไว้ล่วงหน้า ที่ถูกออกแบบให้ลดอันตรายให้น้อยที่สุด แล้วว่าแต่ใครกันล่ะ ที่ควรจะเป็นผู้ทำการตัดสินใจ นักเขียนโปรแกรม บริษัท
Reality may not play out exactly like our thought experiments,
รัฐบาล
but that's not the point. They're designed to isolate and stress test our intuitions on ethics, just like science experiments do for the physical world. Spotting these moral hairpin turns now will help us maneuver the unfamiliar road of technology ethics, and allow us to cruise confidently and conscientiously into our brave new future.
ความเป็นจริงอาจไม่ได้เป็นไป ตามการทดลองทางความคิดของเรา แต่นั่นไม่ใช่ประเด็น พวกเราถูกออกแบบให้แยกแยะ และทดสอบ สำนึกทางจริยธรรมของเรา เหมือนกับที่การทดลองทางวิทยาศาสตร์ กระทำกับโลกทางกายภาพ การที่เราตระหนักถึงจุดเปลี่ยนเล็ก ๆ ทางจริยธรรมนี้ จะช่วยให้เราวางกลยุทธกับถนนที่ไม่คุ้นเคย ด้วยจริยธรรมทางเทคโนโลยีได้ และทำให้เราแล่นไปได้อย่างมั่นใจและมีสติ สู่อนาคตใหม่ที่เราเชื่อมั่น