技术人员回答。
“什么?你再说一遍?一个电动汽车怎么出现伦理问题了?”
辰逸莫名其妙。
“我刚刚试验了一下特殊路况下的自动刹车程序,自动刹车没有刹车,而是采用了保护驾驶员的做法,最后我只能手动刹车,导致了撞车!”
技术人员回答。
“保护驾驶员有什么错?”
辰逸奇怪的问。
“严总,您还是没有明白一个问题,就是在某种情况下,比如说刹车就会导致驾驶员死亡,不刹车车辆前方的行人就会死亡的极端情况下!”
“车辆的行车电脑就会出现无法判断的情况,这一次是车辆电脑倾向于保护汽车驾驶员的角度,那么刚刚死的就是行人,不过这种倾向不是人为控制的,所以我们不能判断行车电脑会不会一直有这种倾向……”
技术人员详细地解释道。
辰逸愣住了,这特么的……
说这样的情况是伦理问题还真是一点错没有,到时候死谁都是由行车电脑控制的,你让电脑怎么选?
“你们是什么想法?”
他扭头问想北岭实验室的那些科研人员。
“我们一致认为目前这种情况就是最好的选择,保护驾驶人员!”
北岭实验室的人员一致回答。
“可是如果是这样,那么自动刹车有什么用?完全不需要这样的东西嘛,反而还会分散汽车的电池用电量,咱们直接人工刹车,刹得住就刹得住,刹不住反正行人也是死……”