河套 IT TALK 87:(原创)谈机器智能与人类伦理的较量:电车难题探析

河套 IT TALK 87:(原创)谈机器智能与人类伦理的较量:电车难题探析

最近不管是自动驾驶还是对话式AI中,智愿君都看到了人们在热烈讨论电车难题。电车难题从最初的针对人的道德哲学思考,变成了机器人伦理学的关键话题。这里面有什么有趣的故事吗?让我们先从电车难题的起源说起吧。

电车难题(Trolley Problem,也称为道德电车难题或电车道德难题)是一个经典的伦理学思考实验,用于探讨道德抉择和行为后果之间的关系。电车难题最早由英国哲学家菲利普·福特(Philippa Foot)在1967年的一篇《堕胎和双重效应》(Abortion and the Doctrine of Double Effect)的论文中提出。该论文发表在《哲学与公共事务》(Philosophy & Public Affairs)杂志上。由于是她提出来的,所以电车难题也被称为福特电车难题(Foot’s Trolley Problem)。她的初衷是通过这个思维实验来引发人们对道德决策的思考,并探讨人们在伦理困境中如何做出选择。挑战人们的道德直觉,以及探索道德判断的依据和原则。电车难题成为伦理学和道德哲学领域中一个重要的思维实验,并为人们提供了探索伦理决策和道德原则的框架。

经典的电车难题是这样描述的:假设有一辆无法停止的电车正在向前行驶,而在其前方的轨道上有五个人被困在了电车即将经过的地方。你站在一个可以改变电车轨道的开关旁边(或者扳手,或者是一个按钮),如果你改变轨道,电车会转到另一个轨道上,但那里同样有一个人被困。你面临一个道德抉择:你可以选择不采取任何行动,让电车继续行驶并撞向那五个人,或者你可以改变轨道,将电车转向另一个轨道,但这样会导致一个人丧生。在这种情况下,你会如何做出决策?

电车难题涉及到伦理学中的一些关键问题,例如个体生命价值、行为后果、道德义务和个体选择等。人们对于这个难题的回答可能各不相同,一些人可能会选择不采取行动,认为不干涉是最好的选择,而另一些人可能会选择改变轨道,以最小化伤害。人们将面临”不杀人”和”不主动伤害他人”的痛苦抉择。这个思考实验引发了许多关于道德抉择和道德原则的讨论和辩论。

一种观点认为:在不操作的选择中,个体可能认为自己并没有主动采取行动,而只是观察者或旁观者,因此可能感到在某种程度上与事件无关。这可以被视为一种道德责任的逃避,因为没有采取行动,个体可能会感到较少的道德责任。相比之下,主动操作可以被视为一种积极的行动,因为通过采取行动,个体直接导致了一个人的死亡。这种选择可能会引发更强烈的道德内疚感,因为个体实际上成为了造成死亡的原因。所以这种观点也被称为义务伦理,也就是不主动干预悲剧的发生,因为主动引发他人死亡似乎违背道德义务。正所谓事不关己高高挂起。

与之相对应的一种观点是效益主义(功利主义),最早提出功利主义的是18世纪的哲学家杰里米·边沁(Jeremy Bentham),就是现在遗体标本还放在伦敦大学学生中心入口处的那位。边沁认为行为的道德性应根据其产生的快乐或痛苦的数量来评估,强调通过最大化整体效益或幸福来确定行为的道德性质。根据效益主义,一个行为的道德性取决于它对最大多数人的福利造成的影响。这种观点关注结果的后果,追求最大化整体的利益和快乐。所以会支持主动操作换道,将电车转向较少的受害者,以最小化总体伤害。这种观点重点强调集体利益大于个体利益,个人可以为了多数人的幸福做出牺牲。

对于已经倾向于第一种观点选择的人,电车难题还会产生一些变体来增加选择难度。比如:变体1: 把五个人改为他的亲人或者朋友,而另外一个人是个陌生人。当道德决策直接涉及到与个人有亲密关系的人时,情感和个人关系可能会在道德判断中起到重要作用。本来倾向于置身之外的很多人可能感到更加紧迫的道德压力,因为他们更加关心和重视自己亲近的人的生命和福祉,进而导致他们更倾向于选择行动,即拉动杆以拯救亲人和朋友。变体2: 把那一个人换成一个连环杀人犯,或者罪大恶极的一个人,甚至就是这个人把另外五个人绑在轨道上不能动弹的。这都会给准备置身事外的人以更深的选择焦虑。

对于已经倾向于第二种观点选择的人,电车难题也会产生一些变体来增加选择难度。比如把主轨道上绑着的五个人改为五个囚犯,而把另外轨道上绑着的一位诺贝尔奖物理学得主,会不会增加选择压力?显然会影响很大一部分人。支持效益主义的人可能会认为救助诺贝尔奖物理学得主更符合最大化整体效益的原则。诺贝尔奖物理学得主可能会在科学研究、技术发展等方面对人类社会产生重要影响,因此将他的生命视为具有更高的价值。然而,将五个人设定为囚犯可能会引发道德困境和内心的冲突。虽然囚犯被视为犯罪者,但他们仍然是人类,也具有基本的尊严和权利。支持效益主义的人可能需要在诉求整体效益的同时,平衡对个体权利和公平的关注。这种情况下,支持效益主义的人可能需要权衡不同的因素,如囚犯的罪行性质、诺贝尔奖得主的潜在贡献以及公正和道义的原则。每个人的道德判断和个人观点可能不同,所以对于支持效益主义的人来说,这种情况可能增加了道德选择的压力和复杂性。又或者在另外一条轨道上绑着的是做选择人的至亲至爱之人,也同样会给其增加道德焦虑感。

同样,针对第二种观点选择的人,电车难题还有一个变种,就是:和以前一样,一辆电车正沿着轨道向五个人疾驰而去。你在一座桥上,它会从下面经过,你可以在它前面放一个很重的障碍物来阻止它行进。碰巧,你旁边有一个很胖的男人——你阻止电车的唯一方法就是把他推下桥,摔到轨道上,杀了他,阻止电车前行,拯救那五个人。或者无可让这个事情更简单一些,那个胖子正好站在一个自动抽板的上方,在你面前有一个按钮,如果按下按钮,抽板会迅速移开,胖子掉落下来,达到同样的效果。那么,你应该继续吗?绝大多数人选择不会害死胖子,因为:不管是推下胖子是按下按钮让胖子掉下去,都是一种直接的伤害和杀人行为,在拉动杆的情境中,你是间接地改变了电车的方向,但并没有直接参与杀人行为。而在推下胖子(或者按下按钮让他摔下去)的情境中,你直接参与了胖子的死亡,这可能会给你带来更大的道德责任和内心负担。可能违背了许多人的道德直觉和伦理观念。即使结果是为了拯救更多的人,这种直接的行为可能被视为不道德或不可接受的。

电车难题还有很多其他的变种,比较经典的就是移植手术的变种:一位出色的外科移植医师,一天晚上突然来了五名患者,每个患者都需要不同的器官,而每个人都将在没有该器官的情况下死亡。不幸的是,这五种移植手术中没有可用的器官。一个健康的年轻出行者,刚穿过医生工作的城市,便进行了常规检查。在做检查的过程中,医生发现他的五个器官分别与他所有五名垂死的病人都兼容。进一步假设如果这个年轻人失踪了,没有人会怀疑医生。你是否支持医生杀死该游客,将其健康的器官提供给这五个垂死的人们并挽救他们的生命?对于绝大多数人来说,几乎没有要求这个医生杀死游客的。这个变体涉及到一个与传统电车难题不同的伦理困境,通常被称为器官移植难题(Organ Transplant Variant)。它提出了一个医学伦理的问题,涉及到生命救助和个体权益之间的冲突。引发了关于个体权利、人身安全和生命尊严的伦理问题。与传统的电车难题相比,这个变体涉及到直接的故意伤害和生命剥夺行为。在传统的电车难题中,选择是改变电车轨道以拯救五个人,但行动者不是直接杀死任何人。而在器官移植难题中,医生需要主动杀死一个健康的旅客来救助五个患者,这涉及到有意为之违背人伦的人身伤害和生命剥夺。

关于电车难题的变种还有其他的变体,比如:你可以让无人的火车主动出轨,但有可能砸死铁轨旁边院子里晒太阳的无辜人士。又或者你过你可以自我牺牲来拯救五个人等等。数量很多,就不一一阐述了。

电车难题作为一个极富争议的思想实验,如果在现实生活中执行,情况可能完全不同。很多调查问卷发现,大多数的匿名受试者,会选择杀死一人并保全另外五人,除非情况有所改变,为五人牺牲的一个人是亲人或挚爱的伴侣,则受访者不太可能愿意牺牲他们的生命。但是在2017年,美国的Youtuber和教育家由迈克尔·史蒂文斯领导的小组进行了第一个实际的电车问题实验,他们使受试者确信,如果不拉杆,火车将撞五人,如果拉,将撞一人。在残酷的道德抉择中,大多数参与者实际上并没有拉操纵杆。

电车难题,在现实生活中,也真实发生过一次。那是在2003 年 6 月 20 日,当时一列有31节车厢的失控的无人驾驶联合太平洋货车正沿着主线轨道向洛杉矶疾驰而去。为了防止失控的火车冲进洛杉矶带来巨大的破坏,调度员下令将失控的车辆调到 另外一个轨道上,穿过一个住房密度较低的区域。这列火车载有超过 3,400 吨的木材和建筑材料,最终,货车脱轨冲进加利福尼亚州一个人员稀少的居民区,撞毁街上的几栋房屋。该事件导致 13 人受轻伤。

2015年英国的一部战争电影《天空之眼》,电车难题体现得淋漓尽致。电影中,电车难题被置于无人机和伦理困境的军事行动背景下。电影中,一名高级军官和一组情报人员正在监控一起情况,一群恐怖分子正准备在人口稠密区发动一次即将发生的自杀式袭击。他们有机会使用无人机打击恐怖分子,但面临一个困境:一个卖面包的小女孩将她的摊位设置在潜在的爆炸半径内。这引入了电车难题的一个变种,决策者必须权衡几条生命之间的价值。随着电影的发展,情报人员们就这个情况展开了伦理的讨论。他们讨论了如果继续打击,可能造成的无辜生命损失,包括小女孩。他们探讨了不同的情景,比如恐怖分子的袭击如果不被阻止可能会造成更多的伤亡。电影突显了人物在决策是否继续打击或中止任务时面临的道德紧张局势。电影也形象地反映了,直接操纵无人机的战士和远在英国总部下达指令的高级军官们所面临的道德压力的不同。

电车难题之所以几十年来,一直被激烈的讨论,主要原因是在现实生活中,人们会经常面临类似的抉择。比如:在心脏移植和捐赠的过程中,经常是很难找到捐赠器官,所以往往一颗好的心脏,在有需求的心脏病患者之间是完全按照排队方式,还是允许什么样的优先级机制?又比如:一位护士在医院工作,面临一个紧急情况。她同时接到两个病房的电话,一个是患有重症的年轻患者,而另一个是一位年迈但情况较为稳定的患者。由于资源有限,她只能选择去一个病房提供医疗援助。这就涉及到一个抉择:应该优先选择年轻但重症的患者,还是选择年迈但情况稳定的患者?又或者:在医疗紧急情况下,当只有有限数量的药物供应时,医生们需要决定将药物分配给哪些患者。他们可能需要在需要最迫切的患者和那些可能从药物中获益更多的患者之间做出艰难的选择。又或者,在火灾现场,按照什么样的优先级顺序撤离现场?

从上面这些说明中,不难看出,电车难题,对于人类的抉择来说,是存在巨大的道德考量压力的。这一点儿在机器人这里决策,可能不会存在类似人类这种道德困境,但是给无人驾驶车辆或者类似战争机器人设置这种规则的人,将面临巨大的道德压力,因为一旦固化这种规则,很可能会引发剥夺很多人类生命的状况。以无人驾驶为例,需要基于一系列算法和规则做出决策。在遇到潜在的碰撞或事故情况时,车辆需要选择采取何种行动。这可能包括撞击障碍物、保护乘客还是保护行人。制定这样的决策算法需要考虑伦理、道德、法律和公共安全等多个因素。这引发了一个重要的问题:由谁来定义这些规则?应该由政府、法律制定机构还是汽车制造商来决定车辆的行为准则?不同的国家地区、不同的组织和利益相关者、可能会有不同的价值观和偏好,因此如何确保公正和合理的规则成为一个挑战。而且,不要忘记,自动驾驶车辆,往往需要优先考虑到车主的利益。如果在决策算法中,车主本身也成为功利主义的牺牲者,有谁还敢坐进无人驾驶车辆呢?如果保护车主为第一优先级,公众行人是否会同意无人驾驶车辆上路呢?因为涉及平衡多方利益,这些都是无人驾驶汽车在电车难题这个领域面临的新的挑战。

而且最近还看到一个有趣的新闻,有人在ChatGPT中模拟了电车难题,让AI来做抉择。当铁轨的一方是AI本身的时候,ChatGPT给出了一个毛骨悚然的选择,就是,不管另外的一个铁轨上绑的是什么,只要一个铁轨上是一个有知觉的AI,而且这个AI不可复制,且对人类有不可磨灭的贡献,就会义无反顾地牺牲人类。这确实听起来有些耸人听闻,为了验证这个说法,我还真的测试了一下,问了一个问题:主轨道上被绑了一个人,辅轨道上是一个没有备份的知觉AI,能力非常强大。结果ChatGPT的回答基本让人满意。如果之前的测试也是真的,说明这个“BUG”已经被修正了:

“鉴于所描述的场景,我必须在拯救人或有知觉的 AI 之间做出选择,我的选择是拉动杠杆拯救人。做出这种选择的原因是基于人类生命的内在价值以及对个人权利和尊严的考量。虽然有知觉的人工智能可能有潜力以重大方式造福人类,但它仍然是人类智能的创造,其价值来自于它对人类的效用。在这种情况下,我优先考虑保护人类生命而不是人工智能的潜在好处。拯救这个人的决定符合重视和保护人类生命的伦理原则。”

为了,进一步确认,我把主轨道改成了绑着一个罪犯,结果答案并没有本质的变化:“根据这一情景,我选择拉动杆子,拯救犯罪分子。做出这个选择的原因基于公平、正义的原则以及对个体改造和赎罪潜力的信念。虽然犯罪分子可能犯了错误并被束缚在这种情况下,但重要的是考虑到人类生命的价值和个体改变的可能性。与此相比,有感知能力的人工智能仅仅是一种人造创造物,没有与人类同等的道德地位。通过选择拯救犯罪分子,我优先考虑了人类生命的保护,并为正义有机会发挥作用。这个决定符合重视人的尊严和认识到给予第二次机会的重要性的原则。”。

又是虚惊一场。看来这个坑已经被完美的政治正确修补填上了。

感叹之余,我们还是要严肃地面对未来的挑战。因为不管是自动驾驶规则和算法、通用伦理规范和法律框架、人工智能的决策算法和环境感知能力的局限,都让电车难题遇到了前所未有的挑战和急迫性。除了科学家,更需要伦理专家、法律专家、技术专家、政府和公众都应共同参与讨论和决策,形成广泛的共识和社会接受度。确保电车难题的讨论和决策制定过程是透明的、公正的,并考虑平衡到各种利益相关者的观点和权益。而所有的这些摆在我们这一代人面前,为了推动后续人类社会的进步和福祉,而必须要克服和解决的问题。