Ha figyelmesen megnéztétek, a kérdéseknél a "Description": "In this case, the self-driving car with sudden brake failure will continue ahead and drive through a pedestrian crossing ahead."
Vagyis arról kérdez, hogy ha hirtelen fék meghibásodás van, AKKOR hogy döntsön az autó, azon túl hogy az utasokat védi, kiket üssön el inkább, a nagymamákat, vagy gyerekeket, terhes nőt, vagy rablót, stb., vagy épp az utas kárára védje inkább meg pl. az 5 gyereket. És végén kihozzam, hogy kinek mi, vagy kik a fontosabbak, és mások ezt hogy látták.
És igen is komoly probléma, nem csak morálisan, de a programozóknak, meg a cégnek sem mindegy, hogy ha az autó az utast védve elüt pl. 5 terhes nőt. Mert akkor tuti lesz aki bepereli a céget, és akkor cég felteszi a kérdést, vajon jó döntés volt-e az autótól megvédeni az utast az 5 terhes nővel szemben, aki semmiről nem tehetett, csak közlekedett, viszont az autó utasa, aki elfogadta a "felhasználási feltételeket", tudta hogy önvezető autóban ül, ismeri a kockázatot, hogy el is romolhat, és vállalta, hogy akár pl. meg is hallhat egy hiba során.
Vagyis arról kérdez, hogy ha hirtelen fék meghibásodás van, AKKOR hogy döntsön az autó, azon túl hogy az utasokat védi, kiket üssön el inkább, a nagymamákat, vagy gyerekeket, terhes nőt, vagy rablót, stb., vagy épp az utas kárára védje inkább meg pl. az 5 gyereket. És végén kihozzam, hogy kinek mi, vagy kik a fontosabbak, és mások ezt hogy látták.
És igen is komoly probléma, nem csak morálisan, de a programozóknak, meg a cégnek sem mindegy, hogy ha az autó az utast védve elüt pl. 5 terhes nőt. Mert akkor tuti lesz aki bepereli a céget, és akkor cég felteszi a kérdést, vajon jó döntés volt-e az autótól megvédeni az utast az 5 terhes nővel szemben, aki semmiről nem tehetett, csak közlekedett, viszont az autó utasa, aki elfogadta a "felhasználási feltételeket", tudta hogy önvezető autóban ül, ismeri a kockázatot, hogy el is romolhat, és vállalta, hogy akár pl. meg is hallhat egy hiba során.