欧盟人工智能高级专家组发布了人工智能道德准则草案。在很多人担心人工智能会取代人类、破坏伦理的背景下,草案旨在引导人们创造一个“可靠的人工智能”。我们怎样才能机器人更值得信赖?能给他们道德修养吗?就这个话题,边肖采访了匹兹堡大学科学哲学系和科学史系的一位杰出教授。西安科林·艾伦,交通大学长江讲座教授。
问:人工智能的“道德”是什么?
艾伦:人工智能的“道德”,或者说“道德机器”和“机器道德”有很多不同的含义。我把这些意义分为三类。在第一种意义上,机器应该拥有和人类完全一样的道德能力。第二层意思,机器不一定要完全具备人类的能力,但要对与道德相关的事实敏感,能够根据事实自主决策。第三层意思是,机器设计者会在最底层考虑机器的道德性,但并没有给出。机器人关注道德事实并做出决定的能力。
目前,第一种意义上设想的机器还是科学幻想。所以我跳过了《道德机器》这本书对它的讨论,更感兴趣的是讨论第二层和第三层含义之间的那些机器。目前,我们希望设计师设计机器人能够考虑道德因素。这是因为,没有人类的直接监督,机器人可能会在公共领域承担越来越多的工作。这是我们第一次创造出可以无人监督运行的机器,这也是人工智能的伦理问题与以往一些科技伦理问题最本质的区别。在这样一种无人监管的情况下,我们希望机器能够做出更符合伦理的决定,我们希望机器的设计不仅仅要关注安全,还要关注人类所关心的价值问题。
问:如何让人工智能符合伦理?
艾伦:首先,人类不是完全道德的。培养一个有道德的人并不容易。人的本质就是做事出于利己主义,不考虑他人的需求和利益。然而,一个道德代理人必须学会抑制自己的欲望以方便他人。我们现在正在建造的机器人事实上,他们没有自己的欲望或动机,因为他们没有自私的利益。所以训练人工智能和训练人的道德是有很大区别的。训练机器的问题在于,我们如何赋予它们敏感地察觉什么对人类道德价值观重要的能力。另外,机器需要意识到自己的行为会给人类带来痛苦吗?我认为有必要。我们可以考虑编程让机器有这样的行为,不用考虑怎么做。机器人优先考虑别人的利益,毕竟, 现在的机器没有利己的本能。
问:应该采用什么模式来发展人工智能的伦理?
艾伦:我们在《道德机器》中讨论了机器道德的发展模式,认为“自上而下”和“自下而上”的混合模式是最佳答案。首先,我们来说说“自上而下”和“自下而上”是什么意思。我们以两种不同的方式使用这两个术语。一个是工程学的视角,也就是一些技术和计算机科学的视角,比如机器学习和人工进化,另一个是伦理学的视角。机器学习和人工进化不从任何原理出发,只是试图让机器符合特定类型的行为描述,而当一个给定的输入使机器以这种方式行为时,它的行为就可以符合特定类型,这就是所谓的“自下而上”。相比之下,“自上而下”的方法意味着一个清晰的模型,给决策过程制定规则,并试图编写规则来指导机器学习。我们可以说,在工程领域,“自下而上” 意味着从数据中学习经验,而“自上而下”意味着按照一定的规则进行预编程。
在伦理学的某些领域,比如康德,以及更早的功利主义学派,比如边沁、穆勒,更像是“自上而下”。这些学者试图制定规则和一般原则,通过这些“规则和规定”来判断一个行为是否道德。这样,对于康德的道德律来说,它的意义包含了许多具体的规则,比如“不要说谎”。
亚里士多德对道德持有完全不同的观点。他认为道德应该由一个人通过训练获得。所以亚里士多德的观点更倾向于一种“自下而上”的方法,即一个人通过实践变得善良、善良、勇敢。当我们实践道德时,我们称之为美德伦理。这样做,一个人会变得更加贤惠,行为更好。
我认为亚里士多德的观点更正确。因为人类不是靠“撞来撞去”形成习惯的,也是思考习惯,思考需要什么原则。亚里士多德注意到,原则灌输和习惯培养之间是相互作用的。我们认为这种方法也适用于人工道德主体的构建。在很多实时决策的情况下,我们没有足够的时间去反思行为背后的理论或原理意义。但是,我们也可以从错误中学习,因为我们可以使用这些“自上而下”的原则来重新评估我们所做的事情,然后进行调整和重新培训。
这是混成法的基本思路,我觉得确实符合人类的情况。举个例子,你小时候对兄弟姐妹做了不好的事,父母会说:“如果这事发生在你身上,你会有什么感受?”对吗?在许多道德传统中有这样一个原则:“以你对待自己的方式或你希望别人对待你的方式来对待别人”,有时人们把这个原则称为黄金法则。所以,你不仅被告知不要这样做,而且你不仅因此受到惩罚。事实上,你会被告知去思考为什么它是好的或坏的。这是“自上而下”和“自下而上”的结合。
问:是否应该限制人工智能的发展?
艾伦:我认为这取决于应用领域。我现在不担心了。机器人或者人工智能会取代人类。如果情况变得危险,我们有能力阻止它。比如突然发现机器人可以生产机器人我们要做的就是切断电源。
当然,也有一些地方应该停止人工智能的应用,其中之一就是人们正在努力发展的军事领域。从人类历史的角度来看,一旦有人构想出一种武器,就很难阻止其他人的欲望和为之而战的野心。核武器和无人机就是很好的例子。
然而,我认为不应该阻止其他形式的人工智能。我们需要思考技术对生活的影响。比如自动驾驶汽车会让行人过马路更难还是更容易?行人过马路,自动驾驶汽车应该附加什么样的权限?无人车看到行人能安全停车吗,还是还可能像人类司机一样撞到行人?这些都是我们需要思考人工智能的问题。无人驾驶汽车不仅不应该停止发展,还应该加大投入。
问:机器人会变得更好还是更危险?
艾伦:在过去10年里,人工智能在某些方面的快速发展令人惊讶,但不尽如人意。在我看来,未来10年无人驾驶汽车投入真实路况的可能性不大。苹果公司Siri这种会说话的代理已经推出来了,但是以现在的情况来看,Siri很烂不是吗?我用过的所有同类产品,比如Alexa,Google Talk,都不尽如人意。所以我现在不会从伦理的角度太担心人工智能的发展。这些公司实际上发布了这些产品,但更让我惊讶的是,人们实际上在很大程度上调整自己的行为以适应人工智能,因为你知道如果你以正常人的身份和Siri说话,它永远不会理解你。人类在做调整,而不是机器,因为机器不是一个自适应系统。换句话说, 它的适应能力比人类弱。这是我最担心的。
当然,我担心的不是机器做的事情超出人类的预期,而是它们可能会改变和限制我们的行为。AlphaGo赢了围棋,但并没有改变我们的日常生活,没什么好担心的。我担心人们用愚蠢的方式与机器交谈,以便机器可以根据我们的想法做事。要知道,有很多潜在的危险。它潜移默化地改变了我们的习惯和行为,让我们对某些类型的错误更加宽容,对某些错误更加苛刻。人们会预期并容忍人类犯下的道德错误,但人类可能不会容忍这样的错误发生在机器上。计划考虑后做出的伤害他人的决定,如果发生在机器上,会比发生在人类身上更让人无法忍受。这种变化是在过去10年里发生的。就算软件会变好,机器也会变好, 但总有一种危险,就是人类会去适应机器,而不是去真正提升自己的能力。