This is a thought experiment.
Przeprowadźmy eksperyment myślowy.
Let's say at some point in the not so distant future, you're barreling down the highway in your self-driving car, and you find yourself boxed in on all sides by other cars. Suddenly, a large, heavy object falls off the truck in front of you. Your car can't stop in time to avoid the collision, so it needs to make a decision: go straight and hit the object, swerve left into an SUV, or swerve right into a motorcycle. Should it prioritize your safety by hitting the motorcycle, minimize danger to others by not swerving, even if it means hitting the large object and sacrificing your life, or take the middle ground by hitting the SUV, which has a high passenger safety rating? So what should the self-driving car do?
Wyobraźcie sobie, że w niedalekiej przyszłości mkniecie autostradą w samochodzie autonomicznym i z każdej strony otaczają was pojazdy. Nagle z ciężarówki przed wami wypada duży, ciężki przedmiot. Wasz pojazd nie zdąży się zatrzymać, żeby uniknąć kolizji, więc musi podjąć decyzję: jechać prosto i się z nim zderzyć, odbić w lewo na inny samochód albo w prawo na motocykl. Powinien wybrać twoje bezpieczeństwo uderzając w motocykl, zminimalizować zagrożenie innych, pozostając na trasie, nawet kosztem zderzenia z czymś dużym, poświęcając przy tym wasze życie, czy wybrać złoty środek i uderzyć w SUVa, który stoi wysoko w rankingu bezpieczeństwa pasażerów? Co powinien zrobić samochód autonomiczny?
If we were driving that boxed in car in manual mode, whichever way we'd react would be understood as just that, a reaction, not a deliberate decision. It would be an instinctual panicked move with no forethought or malice. But if a programmer were to instruct the car to make the same move, given conditions it may sense in the future, well, that looks more like premeditated homicide.
Gdybyśmy w tej sytuacji sami prowadzili samochód, jakkolwiek byśmy nie zareagowali, byłoby to postrzegane dokładnie tak, jako reakcja, a nie celowa decyzja. Byłaby to pozbawiona złych zamiarów, instynktowna reakcja na panikę. Gdyby jednak programista miał zaprogramować taki manewr, biorąc pod uwagę okoliczności mogące wystąpić w przyszłości, to zaczyna już to wyglądać jak morderstwo z premedytacją.
Now, to be fair, self-driving cars are predicted to dramatically reduce traffic accidents and fatalities by removing human error from the driving equation. Plus, there may be all sorts of other benefits: eased road congestion, decreased harmful emissions, and minimized unproductive and stressful driving time. But accidents can and will still happen, and when they do, their outcomes may be determined months or years in advance by programmers or policy makers. And they'll have some difficult decisions to make. It's tempting to offer up general decision-making principles, like minimize harm, but even that quickly leads to morally murky decisions.
Trzeba jednak przyznać, że samochody autonomiczne mają drastycznie zmniejszyć liczbę wypadków i ofiar śmiertelnych, właśnie dzięki eliminacji ludzkiego błędu z równania. Poza tym są też inne zalety: zmniejszenie zatłoczenia dróg, obniżenie szkodliwych emisji czy zminimalizowanie bezproduktywnego i stresującego czasu jazdy. Ale wypadki mogą i będą się zdarzały, a gdy do nich dojdzie, to ich efekt może być ustalony z wielomiesięcznym wyprzedzeniem przez programistów i ustawodawców. Będą musieli podjąć trudne decyzje. Łatwo mówić ogólnikowo o zasadach w procesie decyzyjnym, jak choćby o zminimalizowaniu szkód, ale samo to szybko prowadzi do moralnie niejasnych decyzji.
For example, let's say we have the same initial set up, but now there's a motorcyclist wearing a helmet to your left and another one without a helmet to your right. Which one should your robot car crash into? If you say the biker with the helmet because she's more likely to survive, then aren't you penalizing the responsible motorist? If, instead, you save the biker without the helmet because he's acting irresponsibly, then you've gone way beyond the initial design principle about minimizing harm, and the robot car is now meting out street justice.
Na przykład, powiedzmy, że sytuacja jest taka sama, ale motocyklista jadący po lewej ma kask, a ten jadący po prawej - nie. W którego powinien uderzyć wasz samochód? Czy nie karzemy odpowiedzialnego kierowcy, mówiąc, że w motocyklistkę w kasku, bo ma większe szanse na przeżycie? Za to wybierając kierowcę bez kasku, bo jest nieodpowiedzialny, wykraczamy poza pierwotne założenie minimalizowania szkód, a robotyczne auto wymierza sprawiedliwość na ulicy.
The ethical considerations get more complicated here. In both of our scenarios, the underlying design is functioning as a targeting algorithm of sorts. In other words, it's systematically favoring or discriminating against a certain type of object to crash into. And the owners of the target vehicles will suffer the negative consequences of this algorithm through no fault of their own.
Te etyczne rozważania jeszcze bardziej się komplikują. W obydwu przypadkach programowanie opiera się na pewnym algorytmie nakierowywania. Innymi słowy, systemowo faworyzuje albo dyskryminuje niektóre obiekty, w które można uderzyć. A właściciele namierzonych pojazdów będą ponosić konsekwencje algorytmu, któremu nie są winni.
Our new technologies are opening up many other novel ethical dilemmas. For instance, if you had to choose between a car that would always save as many lives as possible in an accident, or one that would save you at any cost, which would you buy? What happens if the cars start analyzing and factoring in the passengers of the cars and the particulars of their lives? Could it be the case that a random decision is still better than a predetermined one designed to minimize harm? And who should be making all of these decisions anyhow? Programmers? Companies? Governments?
Nowe technologie stawiają nas przed wachlarzem etycznych dylematów. Na przykład, gdybyście mieli wybrać między samochodem, który zawsze ocali tyle żyć, ile tylko możliwe, a takim, który za wszelką cenę ocali was, który byście wybrali? Co, jeśli samochody zaczną analizować i brać pod uwagę pasażerów pojazdów i szczegóły ich życia? Czy przypadkowa decyzja jest wciąż lepsza od tej zaprogramowanej do zminimalizowania szkód? Kto w ogóle powinien podejmować te decyzje? Programiści? Przedsiębiorcy? Rządy?
Reality may not play out exactly like our thought experiments, but that's not the point. They're designed to isolate and stress test our intuitions on ethics, just like science experiments do for the physical world. Spotting these moral hairpin turns now will help us maneuver the unfamiliar road of technology ethics, and allow us to cruise confidently and conscientiously into our brave new future.
Rzeczywistość może się różnić od eksperymentów myślowych, ale nie o to chodzi. Są stworzone do izolowania i testowania naszej intuicyjnej etyczności pod presją, tak jak podczas eksperymentów naukowych w świecie fizycznym. Wychwytywanie tych moralnych ostrych zakrętów teraz, pomoże nam pokonać nieznaną drogę do etyki w technologii i pozwoli nam pewnie i uważnie wjechać do nowej, wspaniałej przyszłości.