去年,麻省理工学院(MIT)开展了一项开放性研究,要求参与者在面对可能对其他人造成伤害的同时保存一个团体。该研究获得了巨大成功,主要是因为研究人员将场景与围绕无人驾驶车辆的道德问题联系在一起。
时至今日,这个问题仍在人们的脑海中浮现,随着无人驾驶汽车的普及,这一问题将继续存在。另一个原因是因为科学家目前还没有可行的解决方案来教授自主平台有关驾驶的道德因素。
在开发无人驾驶系统方面,进展缓慢。最新的突破来自德国奥斯纳布吕克大学认知科学研究所,是一项研究。研究人员发表在 《行为神经科学前沿》上,发现了一种独特的方法来教系统如何理解和认可道德决策。
虚拟现实中的生命价值模型
为了实现他们的研究目标,科学家们转向了虚拟现实。要求参与者沉浸在道路交通场景中,从最小的冲突到挽救生命的决定不等。在某些情况下,人们被迫在保存动物和物品之间做出选择。然后,这些数据用于创建模型和规则,表明模式开始以参与者在试验期间做出选择的方式出现。
当涉及与交通相关的碰撞时,研究结果表明,人类决策过程并非上下文。因此,可以使用计算建模对其进行解释并传达给机器。这意味着机器,在这种情况下是自动驾驶汽车,有能力理解车轮背后的问题并做出可靠的道德选择。
该研究的第一作者莱昂·苏特菲尔德说:“在困境中的人类行为可以通过一个相当简单的基于生命价值的模型来建模,参与者可以将其归因于每个人,动物或无生命的物体。”
人类老师
该研究的结论提出了有关自动驾驶汽车的若干争议点。教导车辆在道路上做出可接受的道德决定是一个多方面的过程。由于道德在一定程度上因人而异,因此不可能满足每个人的标准和个人价值观。
从积极的角度来看,在每天挽救过马路的老人和在路边的学龄前的学生之间进行选择并不是一个选择。实际上,Google工程师(在Waymo之前)为使人们对他们的无人驾驶汽车项目感到放心,他们澄清说这种情况很少见。对于软件工程师而言,目标是通过避免此类极端情况来确保无人驾驶汽车在公共道路上不会遇到类似问题。
谷歌首席工程师安德鲁·查塔姆说:“主要要记住的是,我们还没有遇到这些问题之一。” “在我们的所有旅程中,我们从来没有遇到过要在婴儿车或祖母之间选择的情况。即使我们确实看到了这种情况,通常也就意味着您在几秒钟前犯了一个错误。 。”