一段百度掌门人李彦宏乘坐无人驾驶汽车上北京五环的视频,引发社会各界的关注和热议。在车流密集的环路上试验是否危及公共安全?无人驾驶如何与现行法律对接?这些问题瞬间在舆论场讨论开来。
无人驾驶汽车已不是新闻——国外有谷歌、Uber、福特、丰田,国内有百度、清华大学、国防科技大学,都在研发无人驾驶技术。但显然,关于这项技术的社会学、伦理学讨论才刚刚开启。它所面临的最大拷问其实是,人工智能如何在科技伦理中做出抉择?这种预先设计的抉择能够保证都带来“善”的结果吗?这是个“元问题”,其他法治、管理和公共安全问题,只是这个问题的子命题。
曾有论者设想过这样的场景:想象你的无人驾驶汽车停在路口等待前面的行人过马路,这时候,你的车子发现后面有另一辆卡车冲过来,看起来无可避免地要发生追尾事故了,但是你坐在前排座位上,这样的事故只会给你带来一点小伤——至少不会致命。如果你的汽车具备规避程序,就可以立马躲开,移到旁边的车道去,而卡车就会冲进路口,碾压行人。这种情况下,无人驾驶汽车事前设定的“规避”程序,是善还是恶的?
在由人驾驶的汽车里,是让自己受一点小伤还是让无辜行人送命,依赖于每个人的抉择,结果也由每个人承担。但无人驾驶汽车既然有预定程序,那么如果选择规避追尾,则对无辜行人有“蓄意伤害”之嫌;如果选择承担追尾,则没有对车主完成保护义务。
评论者所提出的这一情境,其实是伦理学领域知名思想实验“电车难题”的翻版。“电车难题”的内容大致是:一个疯子将五名无辜的人绑在一条电车轨道上,而一辆失控的电车正向他们冲去。幸运的是,你可以拉动操纵杆将电车转至另一轨道。然而,该名疯子在那条轨道上也绑了一个人。此时此刻,这根操纵杆,你拉还是不拉?在“电车难题”被提出的20世纪60年代,手握操纵杆的是“人”,但现在,面临拷问的是人工智能。
要作答其实更为艰难。因为人的道德选择多样,伦理学各个流派产生了各种各样的回答,比如,功利主义者可能认为牺牲一个人比牺牲五个人更为道德;自由主义者可能认为每个生命的主体权利是平等的,为了五个人牺牲一个人同样是“恶”;但问题是,在这种情境下设计无人驾驶汽车的程序该如何作答。这是包含无人驾驶、人工智能、克隆技术、试管婴儿等等在内的新技术都遭遇的科技伦理困境。
人们对此次无人驾驶试验的质疑,深层上说,很大程度上来自于对“人工智能将怎样做出伦理选择”的不安。而和每一种新技术一样,无人驾驶的技术性“完成”只是第一步,嵌入人类整体的伦理社会生活,才是最艰难的考验。(作者:刘文嘉)
《光明日报》( 2017年07月09日 06版)
相关新闻
更多>>