华东师范大学颜青山教授应邀做学术报告

作者:韩玮发布时间:2017-11-12浏览次数:432

  

2017117日上午,上海社会科学院哲学研究所和上海市伦理学会联合举行了哲学研究所人文演讲系列第14伦理学理论研究前沿第16届论坛,邀请了华东师范大学哲学系伦理学教研室主任颜青山教授做学术报告,题为“与类人AI相处的选言命令式:基于他心难题和图灵测试困境的康德式义务论论证”。此次报告由陆晓禾研究员主持。副所长成素梅研究员、哲学所科研人员及研究生和来自上海多所高校的伦理学会专家学者60多人出席了本次论坛参与了交流。

在报告中,颜青山教授指出,AI悲观者认为它已具备超越人类的能力,如果它反过来控制人,那就是灾难;乐观者则认为,如果AI不是人,只是工具,它控制了人,那么就是科技事故;如果AI是人,且能力比人强,那么作为人应该感到高兴。但问题是我们如何知道AI是人或不是人?我们如何确定AI的道德地位?确定AI的道德地位是一个新的伦理学问题,一个元伦理学问题,与胎儿、动物的道德地位问题不一样,是关于人工制造物的道德地位问题。

确认AI为人的前提是AI必须有心灵能力。这种确认将会遇到他心难题和图灵测试失效困境(即机心难题)。他心难题是一种较强的怀疑论,即:假如我们可以凭直接经验确定自己有心灵,那么,我们如何确定自己以外的他人有心灵?机心难题则是一种较弱的怀疑论,即:如果我们能够通过某种方式确定他人有心灵,但是否能够确定一个与人的行为无法区分(即通过了图灵测试)的人工智能有心灵?

颜青山教授认为,对他心难题的解决模式有四种:1)类比推论。代表是S. T. MillMill相信,作为结果,我的行为必定有原因,而这原因只能是我的心灵。他人也有作为结果的行动,因此,他人也有引发行动的心灵。然而正如赖尔所反驳的那样:第一,我不可能经验到他人的内在状态,因此,他心类比无法检验;第二,类比推论是一种归纳法,但样本却只有一个即我的心灵,这极不可靠。2)最佳说明((best explaination))理论。这种理论试图以科学说明的方式解释他心,消除心灵的自我中心观念,忽略我对我心的直接性,把心灵作为理论实体。但是它却无法说明我们对自己心灵的直接经验和现象学特征。3)判据(criteria)论。它的核心观点是:心灵与行为之间的关系是一种概念性关系(先天综合或分析),具有必然性,行为是心灵的判据。例如,心灵状态“痒”与行为“搔”就是概念性关联,“搔”的总是“痒”,而感知“痒”总意味着“搔”的行为倾向。但是它一方面无法说明我们的某些心灵现象,例如,一个人持有一个认知信念时,他可能没有任何行为表现;另一方面,它无法说明我们在互动时为什么不把没有心灵的物体建构为有心灵的实体。4)纯粹态度-消除推论方案。主要是解决为什么在互动中不将其他物体互动为心灵实体的难题。它认为,我心与他心同时形成,我心本身并不特别重要。这种方案在明晰化过程中也可能存在推理困难。

颜青山教授进而介绍了图灵测试及他心解决方案对机心难题的失效。图灵测试设想,将图灵机与人同时关在两个房子里,并让测试人员分别向房子里的人和机器提问,如果测试者从问题的回答中无法区分出哪个房间是人、哪个房间是机器——这种测试可以无限制进行下去——那么,机器就是能够思考的。但如果我们对图灵测试稍加修改,拆掉房间,把机器做得跟人的形象一样,并让它依据程序活动,使其行为与人无法区分,那么,人在与其互动时,就会把它直接经验为有心灵的实体。然而问题是,这样一台与人相似的图灵机是否真的是人呢?塞尔认为,图灵机只是一种语法程序,并没有语义学内容,即使它们在形式上能够模仿人的思维,但它们实际上并没有理解能力。但理解能力是一种内在能力,不能够从外部(旁观者视角)加以判断。因此,我们无论是从科学检验(图灵测试)上,还是从日常经验上,都无法解决机心难题。但如果无法确定人工智能是否属于心灵实体,那么,我们就无法确定人工智能的道德地位,从而,人工智能是否属于心灵实体的机心难题就对道德哲学构成了一个严重的挑战。

接着,颜青山教授试图从规范伦理学的角度来绕开机心难题。他认为,以往的规范伦理学对于手段的规范性论述是不充分的。一个工具之为工具,在于他具有特定的使用价值。其使用规则确定它是这样的工具,而不是另外的工具。这些规则规定了工具的自我同一性或“身份”。工具伦理学的这种个特征不同于人的伦理学。颜教授认为,依据手段伦理学(工具伦理学)和康德的人格伦理学原则,可以解决或回避机心难题。他将这种解决方案称为基于手段伦理学的“选言命令式(或析取命令式)”,并认为该选言命令式包含有两个层次的析取:

第一个层次:一个实体及其运行,要么冒犯了人,要么尊重了人。应当将一个冒犯人的实体看作既非目的也非手段:当它是心灵实体时,限制其自由;当它是非心灵实体时中止其运行(这就是对机心难题的消极解决方式:阻止或限制自由)。

第二个层次:应当尊重一个尊重人的实体的运行规则:当它是心灵实体时,尊重其本身;当它是一个非心灵实体时,尊重制造它的人(这就是对机心难题的的积极解决方式:尊重)。

在问答交流环节,与会学者围绕着AI的理解力、道德地位、未来前景等问题展开了热烈讨论。成素梅研究员补充说明,塞尔讲图灵机和人的区别在于它没有理解力,但这是已经被批驳过的观点,计算机是能够理解语法程序的,要不然它无法正常运行,计算机通过语法程序的运行来与人互动,这也是一种理解。因此存在两种理解力,一种是直接对文本的理解(即塞尔所说的语义学理解),还有一种是通过运行一种程序来理解文本,这是一种二阶的理解。塞尔对这两种理解并没有区分。而且目前许多科技哲学方面的理论还只是一种想象和假设,如果在尚未得到科学验证之前,把这些不成熟的理论用过来,作为我们讨论AI的基础,那么可能依据就不太有说服力。哲学所汪志坚博士认为,颜教授通过工具伦理学来回避机心难题不失为目前的一种可行方案,不过问题并没有真正解决,因为AI是否具有心灵,是否道德主体,这是人在制造它的时候就需要思考的问题,如果它只是工具,而不是主体(人),那么我们赋予它的规则就会完全不同。

最后陆晓禾研究员代表大家感谢颜教授的精彩报告,认为这是从哲学伦理学对类人AI问题具有原创性的深入研究。