题之。康德、约翰·穆勒(JohnStuartMill)和约翰·罗尔斯(JohnRawls)当然能够舒舒服服地坐在大学讲堂里,花上好几天大谈伦理道德理论问题;但在司机发现危急瞬间,急都急坏,哪还有时间管这些人有什结论。或许对于迈克尔·舒马赫(MichaelSchumacher,现代最伟大级方程式赛车车手之)来说,还真能边赛车边思考哲学问题,但们大多数人都不是舒马赫。
然而,计算机算法并不是由自然选择塑造而成,而且既没情绪也无直觉。所以到危急瞬间,它们继续遵守伦理道德能力就比人类高出许多:只要们想办法把伦理道德用精确数字和统计编写成程序就行。如果们教康德、穆勒和罗尔斯怎写程序,他们就能在舒舒服服研究室里为自动驾驶汽车写出程序,也肯定能让每辆自动驾驶汽车在路上都遵守所有伦理规范。这就像让舒马赫和康德合二为,担任每辆车驾驶员样。
这样来,只要程序里规定自动驾驶汽车必须停车帮助遭遇危难陌生人,即便是赴汤蹈火,它都将在所不辞。(当然,如果你针对这些汤汤火火另加个例外条款,情况就不样。)同样,如果自动驾驶汽车程序原本就写着要转进逆向车道救那两个小孩,你绝对可以用生命打赌,它定会这样做。也就是说,设计自动驾驶汽车时候,丰田或特斯拉就是把过去道德哲学上理论问题转化成实际工程问题。
当然,哲学算法永远不会是完美。错误还是会发生,有人会受伤,有人会死亡,更有随之而来麻烦不已诉讼。(历史上第次,可能会有哲学家因其所提出理论造成不幸结果而被告上法庭,因为这也是历史上第次能够证明哲学概念与现实生活中事件有直接因果关系。)然而,如果只是要取代人类驾驶员,算法并不需要做到完美无缺,只要比人类更好就行。鉴于人类驾驶员每年造成超过100万人因车祸死亡,算法要表现得比人类好并不是什太难事。你会希望旁边那辆车驾驶员是谁?是某个喝醉小鬼,还是舒马赫和康德合体?
这套逻辑不仅适用于驾驶,也适用于其他许多情况,比如申请工作。在21世纪,已经有越来越多时候是由算法决定是否聘用某人。当然,们不能让机器来制定相关伦理标准,这件事还是得由人类自己来完成。但只要确立职场伦理标准(比如不得歧视黑人或女性),接下来就可以用机器来实施和维护这项标准。
某位人事经理可能心知肚明歧视黑人和女性有违伦理道德,但遇到某个黑人女性来申请工作时,还是下意识产生歧视而不予录用。如果让计算机来评估求职者,并在编写程序之初就设定要完全忽略种族和性别因素,计算机定会乖乖跳过这些因素,因为它并没有潜意识可言。当然,要写这种求职者评估程序并不容易,而且存在种危险:工程师可能会不经意间把自己潜在偏见写进软件里。不过发现这种错误后要清除也并非难事,至少比清除人类种族歧视和偏见难度要低得多。
们已经看到,人工智能兴起之后,可能会把大多数人类挤出就业市场
请关闭浏览器阅读模式后查看本章节,否则可能部分章节内容会丢失。