外媒称,随着人工智能技术越来越先进,人们越来越担心。机器人可能会成为威胁。根据加州大学伯克利分校计算机科学教授斯图尔特·拉塞尔(Stuart Russell)的说法,如果我们能够解决如何将人类的价值观转化为可编程代码,这种危险是可以避免的。
据应时财经网站11月1日报道,罗素称机器人在该领域,“道德哲学将是一个非常重要的工业部门”。他指出:“随着机器人要从事更复杂的任务,我们完全有必要将我们人类的道德转化为人工智能语言。"
例如,如果机器人你不想在房子里做家务,这预计将在未来几十年内发生。机器人把宠物猫放进烤箱,给饥饿的孩子们做一顿大餐。罗素说,“你会想给的。机器人预装了一套人类价值观。"
人们已经将基本的人类价值观融入到一些机器人这个项目。玛丽皇后大学计算机科学教授彼得·麦克欧文说,手机机器人它被设定为与人类保持适当的距离。
他说:“这是机器人行为可以看作是某种价值的极其简单的例子。如果机器人当你和别人交谈时,靠近你的私人空间,你会认为这不是一个受过教育的人会做的事情。"
创造更复杂和道德的机器人这是可能的,但前提是我们找到一种方法,将人类价值观设定为明确的规则。
麦克欧文说:“这种价值设定项目应该有研究人类价值的专家参与,包括哲学家、心理学家、人种学家和外行人。就像你把专业知识变成一套规则一样,你也可以把这个讨论组提供的信息变成一系列规则。”
另外,机器人你也可以选择一个基于大量人类行为数据的模型来学习人类的价值观。
麦克欧文说,只有当程序员不负责任时,机器人会成为一种危险。
他说,“只是。机器人违背了人类的价值观,人们最担心的是,如果人类因为没有充分试验而不给。机器人如果编程正确,机器人不会有足够的安全感,他们会有办法打破一些禁忌。"
简单的方法是,当特殊情况出现时,给予机器人把它放进去检查机器人行为是否正确的程序。
麦克欧文说:“如果机器人当动物不确定自己是否适合放入微波炉时,它可以停下来哔哔地请示。"
对人类价值观进行编程最困难的一步是确定我们认为什么是道德行为,以及如何制定一套道德规则。如果我们有答案,那么机器人它将有益于人类。