This is a thought experiment.
Đây là một thử nghiệm về nhận thức.
Let's say at some point in the not so distant future, you're barreling down the highway in your self-driving car, and you find yourself boxed in on all sides by other cars. Suddenly, a large, heavy object falls off the truck in front of you. Your car can't stop in time to avoid the collision, so it needs to make a decision: go straight and hit the object, swerve left into an SUV, or swerve right into a motorcycle. Should it prioritize your safety by hitting the motorcycle, minimize danger to others by not swerving, even if it means hitting the large object and sacrificing your life, or take the middle ground by hitting the SUV, which has a high passenger safety rating? So what should the self-driving car do?
Giả sử tại một thời điểm nào đó không xa, bạn đang đi trên đường cao tốc trong chiếc xe tự lái của bạn, và bạn bị vây quanh bởi các xe khác. Bỗng nhiên, một vật to và nặng rơi xuống từ chiếc xe tải ngay trước mặt bạn. Bạn không thể dừng lại lập tức để tránh bị va chạm, nên bạn cần ra quyết định lập tức: đi thẳng và đụng vào vật đó, quẹo trái trúng chiếc SUV, hay quẹo phải trúng chiếc xe máy. Chiếc xe sẽ ưu tiên sự an toàn của bạn bằng cách tông vào xe máy, giảm nguy hiểm cho người khác bằng cách đi thẳng, mặc dù đó nghĩa là tông vào vật lớn và hi sinh mạng sống của bạn, hay lựa chọn tông vào chiếc SUV, khi mà khả năng an toàn cho hành khách trên xe khá cao? Vậy xe tự lái sẽ làm gì?
If we were driving that boxed in car in manual mode, whichever way we'd react would be understood as just that, a reaction, not a deliberate decision. It would be an instinctual panicked move with no forethought or malice. But if a programmer were to instruct the car to make the same move, given conditions it may sense in the future, well, that looks more like premeditated homicide.
Nếu chúng ta chạy xe ở chế độ người lái, cách phản ứng nào của chúng ta đều được xem là, một phản ứng đơn thuần, không phải một quyết định có tính suy xét. Nó sẽ là phản ứng tự nhiên mà không có sự suy nghĩ hay ý đồ xấu. Nhưng nếu một người lập trình ra lệnh cho chiếc xe phản ứng tương tự, trong một tình huống có thể xảy ra ở tương lai, có thể bị coi là giết người có chủ đích.
Now, to be fair, self-driving cars are predicted to dramatically reduce traffic accidents and fatalities by removing human error from the driving equation. Plus, there may be all sorts of other benefits: eased road congestion, decreased harmful emissions, and minimized unproductive and stressful driving time. But accidents can and will still happen, and when they do, their outcomes may be determined months or years in advance by programmers or policy makers. And they'll have some difficult decisions to make. It's tempting to offer up general decision-making principles, like minimize harm, but even that quickly leads to morally murky decisions.
Để công bằng, xe tự lái được cho là sẽ giảm thiểu tai nạn giao thông đáng kể và tỉ lệ thương vong bằng việc loại bỏ sự sai sót của con người trong phương trình lái xe. Và, còn có những lợi ích khác: giảm tắc đường, giảm khí thải độc hại, và rút ngắn thời gian lái xe vô bổ và căng thẳng. Nhưng tai nạn vẫn và sẽ tiếp tục xảy ra, và khi đó, hậu quả của nó có thể đã được xác định vài tháng hay vài năm trước đó bởi người lập trình viên hay nhà hoạch định chính sách Và họ sẽ phải đưa ra những quyết định khó khăn. Chúng ta thường hướng tới những nguyên tắc ra quyết định như giảm thiểu thiệt hại, nhưng những nguyên tắc này cũng gặp phải các vấn đề đạo đức.
For example, let's say we have the same initial set up, but now there's a motorcyclist wearing a helmet to your left and another one without a helmet to your right. Which one should your robot car crash into? If you say the biker with the helmet because she's more likely to survive, then aren't you penalizing the responsible motorist? If, instead, you save the biker without the helmet because he's acting irresponsibly, then you've gone way beyond the initial design principle about minimizing harm, and the robot car is now meting out street justice.
Ví dụ như, trong hoàn cảnh tương tự, nhưng giờ người đi xe máy phía bên trái có đội nón bảo hiểm và một người khác không đội nón bên phải bạn. Xe tự lái của bạn sẽ chọn tông vào ai? Nếu bạn nói người đó là người có nón bảo hiểm vì khả năng sống sót cao hơn, vậy nghĩa là bạn đang trừng phạt một người lái xe có trách nhiệm? Nói cách khác, bạn sẽ cứu người không có nón bời vì anh ta hành động vô trách nhiệm, khi đó bạn đã đi quá xa khỏi ranh giới nguyên tắc giảm thiểu thiệt hại, và chiếc xe giờ đối mặt với công lý trên đường.
The ethical considerations get more complicated here. In both of our scenarios, the underlying design is functioning as a targeting algorithm of sorts. In other words, it's systematically favoring or discriminating against a certain type of object to crash into. And the owners of the target vehicles will suffer the negative consequences of this algorithm through no fault of their own.
Vần đề đạo đức càng trở nên phức tạp hơn. Trong cả hai tình huống trên, thiết kế mấu chốt đang hoạt động như một hàm số. Nói cách khác, nó lựa chọn và lọc ra có hệ thống những vật mà xe tự lái có thể va chạm. Và người điều khiển phương tiện mục tiêu sẽ phải chịu những hậu quả từ hàm số này mặc dù họ không có lỗi.
Our new technologies are opening up many other novel ethical dilemmas. For instance, if you had to choose between a car that would always save as many lives as possible in an accident, or one that would save you at any cost, which would you buy? What happens if the cars start analyzing and factoring in the passengers of the cars and the particulars of their lives? Could it be the case that a random decision is still better than a predetermined one designed to minimize harm? And who should be making all of these decisions anyhow? Programmers? Companies? Governments?
Công nghệ mới của chúng ta đang mở ra nhiều tình huống nan giải khác. Ví dụ, nếu bạn phải lựa chọn giữa việc một chiếc xe luôn cố gắng cứu càng nhiều mạng người càng tốt khi tai nạn xảy ra, và chiếc xe chỉ cứu sống bạn bằng mọi giá, bạn sẽ mua chiếc nào? Điều gì sẽ xảy ra nếu những chiếc xe tự phân tích và bao hàm các hành khách trên xe và mạng sống của từng người? Như vậy, liệu một quyết định ngẫu nhiên sẽ tốt hơn là quyết định có suy tính trước để giảm thiểu thiệt hại? Và ai sẽ là người ra những quyết định này? Lập trình viên? Công ty?
Reality may not play out exactly like our thought experiments,
Chính phủ?
but that's not the point. They're designed to isolate and stress test our intuitions on ethics, just like science experiments do for the physical world. Spotting these moral hairpin turns now will help us maneuver the unfamiliar road of technology ethics, and allow us to cruise confidently and conscientiously into our brave new future.
Thực tế có thể sẽ không giống thử nghiệm của chúng ta, nhưng đó không phải là điểm chính. Các thử nghiệm nhằm cô lập và thử thách trực giác của chúng ta về đạo đức, giống như thí nghiệm khoa học đã làm trong thế giới vật chất. Nhận ra các phương diện về mặt đạo đức sẽ giúp chúng ta tinh chỉnh đạo đức công nghệ trên con đường mới mẻ, và cho phép ta tự tin và sáng suốt trong hành trình vào một tương lai tươi sáng.