(文/Patrick Lin)假设有一辆无人驾驶车,正面临艰难抉择:它必须向左或向右急转弯。但如果向左转,就会撞上一辆沃尔沃越野车;如果向右转,就会撞上一辆小型车Mini Cooper。如果让你来给无人车设计算法,而且要追求一个合情合理的目标——把无人车对他人的伤害降到最小,那么你会如何选择?
如果单纯从物理学角度考虑,你应该选择撞向重量较大的车,因为它能更好地吸收撞击产生的冲击力。也就是说,你的算法应该指挥无人车撞向沃尔沃。而且去撞一辆以安全性能著称的车也是合情合理的,无论如何,无人车都应该撞向沃尔沃。
但物理学并不是我们唯一需要考虑的问题。如果我们给无人车设计这样一个“撞击优化算法”,指挥它放过哪些车、撞向哪些车,那这算法简直就是军事武器系统里的“靶向算法”了。如果无人车真的采用了这种算法,那么整个无人车产业就会被带上一条法律和道德都堪忧的道路。
虽然优化算法的本意是降低伤害,但是它确实通过系统运算做出了撞向大型车的决定。至于那些不幸被当成靶子的大型车,其驾驶员或所有者没有犯任何错误,却不得不独自承担恶果;也许他们唯一的“过错”,就在于自己太注重安全,或者确实需要一辆大型SUV才能带全家人一起出行。但他们却有可能平白无故遭受冲撞,这样真的公平吗?
虽然无人车市场上最著名的是谷歌公司的产品,但他们绝非唯一的研究组。图中是斯坦福大学2009年的自驾车,在普通汽车基础上改装而来。图片来源:Stanford
看起来很合理的算法就这样遇到了道德挑战。如果无人车选择撞向大型车,而非小型车,那么沃尔沃和其他SUV车主当然有权愤愤不平——哪怕物理学告诉我们,这是当时情境下的最佳选择。
这个问题现实吗?
确实有许多道路交通事故无可避免,就算是无人驾驶车也不能逃脱噩运。比如一头野鹿忽然跳到车前,或者本来在旁边车道好好行驶的汽车忽然向你别过来。除非扭曲物理定律,不然事故近在眼前。但无人车或自动驾驶车也许能让撞车后果变得稍微好一点。
人类司机只能在紧急情况突发之际,凭本能快速做出反应。而无人驾驶车则受到软件控制,可以用它那“不眨眼”的监视器连续扫描周围环境。远在我们人类察觉危险之前,它就已经进行过无数次运算了。所以它们在刹那之间就能做出决定,撞向哪里才能把伤害减到最小。但是软件也要由人来写,而我们还不知道该如何处理这样的道德难题。
之所以要讨论这些极端案例,当然不
如果单纯从物理学角度考虑,你应该选择撞向重量较大的车,因为它能更好地吸收撞击产生的冲击力。也就是说,你的算法应该指挥无人车撞向沃尔沃。而且去撞一辆以安全性能著称的车也是合情合理的,无论如何,无人车都应该撞向沃尔沃。
但物理学并不是我们唯一需要考虑的问题。如果我们给无人车设计这样一个“撞击优化算法”,指挥它放过哪些车、撞向哪些车,那这算法简直就是军事武器系统里的“靶向算法”了。如果无人车真的采用了这种算法,那么整个无人车产业就会被带上一条法律和道德都堪忧的道路。
虽然优化算法的本意是降低伤害,但是它确实通过系统运算做出了撞向大型车的决定。至于那些不幸被当成靶子的大型车,其驾驶员或所有者没有犯任何错误,却不得不独自承担恶果;也许他们唯一的“过错”,就在于自己太注重安全,或者确实需要一辆大型SUV才能带全家人一起出行。但他们却有可能平白无故遭受冲撞,这样真的公平吗?
虽然无人车市场上最著名的是谷歌公司的产品,但他们绝非唯一的研究组。图中是斯坦福大学2009年的自驾车,在普通汽车基础上改装而来。图片来源:Stanford
看起来很合理的算法就这样遇到了道德挑战。如果无人车选择撞向大型车,而非小型车,那么沃尔沃和其他SUV车主当然有权愤愤不平——哪怕物理学告诉我们,这是当时情境下的最佳选择。
这个问题现实吗?
确实有许多道路交通事故无可避免,就算是无人驾驶车也不能逃脱噩运。比如一头野鹿忽然跳到车前,或者本来在旁边车道好好行驶的汽车忽然向你别过来。除非扭曲物理定律,不然事故近在眼前。但无人车或自动驾驶车也许能让撞车后果变得稍微好一点。
人类司机只能在紧急情况突发之际,凭本能快速做出反应。而无人驾驶车则受到软件控制,可以用它那“不眨眼”的监视器连续扫描周围环境。远在我们人类察觉危险之前,它就已经进行过无数次运算了。所以它们在刹那之间就能做出决定,撞向哪里才能把伤害减到最小。但是软件也要由人来写,而我们还不知道该如何处理这样的道德难题。
之所以要讨论这些极端案例,当然不