AGV机器人

当前位置:前位置:首页 > AGV机器人
全部 2062

警惕人工智能的五个“烟雾弹”

时间:2024-03-16   访问量:0

人工智能的话题,最近由于谷歌公司一场商业炒作“围棋人机大战”又热了起来。人们发表了各种各样的意见,从天真和混乱的想法到不可预测的想法。为了理清思路,有必要认真思考以下五点。

第一,“老虎还年轻”并不构成养老虎的理由。

当人们表达对人工智能未来会失控或危害人类的担忧时,往往会看到人工智能行业的人,或者盲目崇拜、盲目看好科技的山达基教徒,说人工智能目前还很初级、很弱,没必要担心。这种说法在媒体上屡见不鲜,但背后却有着荒谬的逻辑。

我们担心老虎吃人,所以才有了习语的“养虎遗风”。怎么能用“老虎还小”作为养虎的理由?要说服人们同意养虎,就要论证“虎不吃人”。人们担心未来人工智能对人类的危害。要打消这种顾虑,就要论证“人工智能不会伤害人类”,不能以“人工智能还处于初级阶段”为理由。

我们就不要拿这个可笑的理由开玩笑了,因为很多人工智能行业的大腕、名人都把这个理由告诉了大众。当斯蒂芬·霍金、比尔·盖茨、埃隆·马斯克这样的智者带头呼吁世界警惕人工智能的盲目研发时,一位业内知名人士反驳了这个理由,说这三个人“愚蠢”。这就有点自大了。

如果不能证明“人工智能不会危害人类”,就需要重新考虑目前是否应该发展人工智能。

第二,“人造之物不能超越人”是一种盲目的信仰。

当然,人工智能通常是高智商的人玩的。知识分子的荣誉感会让他们很多人羞于用“老虎还年轻”来说服人们同意养虎。他们知道要论证“老虎不会吃人”,也就是“人工智能不会伤害人类”。这种论调的一个常见理由是“人造之物,不可超越人”。虽然这个理由并不能带来多少智力上的荣誉,因为很多非专业的公众都这么认为。

但是,对于“人造之物无法超越人”的论断,有人给出过令人信服的论据吗?从来没有。其实这种论断只是一种盲目的信念。这种信念其实是一种坚定的信念,认为造物主一定比他所创造的更好。这种信仰显然与宗教情怀有关。但在人工智能的争议中,那些本该最具无神论精神的科学家却不假思索地从宗教信仰中寻求思想资源。

而且,这种信念明显违背常识。一个简单的常识就是,父母可以算是孩子的创造者吗?如果有可能的话(至少在相当程度上),我们不是见过孩子超越父母的情况吗?

第三,“人工智能可能不遵守人类设定的道德标准”,没有足够的论据。

相比前两个理由,“人类可以设定人工智能的道德标准”这个理由看起来相对专业,至少不会直接给玩人工智能的高智商人群带来耻辱。这篇文章也是论证“人工智能不会伤害人类”的常见理由。

但是,对于“人工智能必然会遵守人类设定的道德标准”这一论断,有人给出令人信服的论据吗?也从来没有。

更不幸的是,这篇文章也明显违背常识。一个显而易见的常识是,人类无法避免自己的某些后代学习不好。这样的例子在日常生活中每天都在上演:父母从孩子记事起就灌输诚实、善良、友善、慷慨、勇敢等美德。这些不等于人工智能的“记忆植入”和道德设定吗?但是,还是有孩子无可救药的学不好。在这个过程中,父母制定的道德标准,学校进行的管教和矫正,都无法阻止他。

当然,坏孩子已经严重危害了一些人类,比如这些坏人的刑事犯罪。但是,为什么他们还没有统治全人类或者危害全人类呢?那是因为,毕竟他们只是能力有限的人类。然而,人工智能追求的是什么境界?在超人被创造出来之前,个别科学家会罢手吗?

第四,“拔掉电源”在未来可能不可行。

有专业人士将人工智能分为四个层次:1。没有学习能力(智力可以相当高);2.有固定的学习能力,获得的技能会趋于固定值;3,具有固定的学习能力,技能增长没有限制,但由于其学习能力是预先设定的,所以被认为不会成长为超级人工智能;4、具有无限的学习能力,可以成长为超级人工智能。

专业人士安慰说,与李世石对弈的“阿尔法围棋”只是人工智能的第二关,第四级人工智能还远没有出来。其实除了前面讨论的“老虎还年轻”的谬论,还有更大的危险。

当专业人士试图打消公众对人工智能的担忧时,他们经常会提到一句话:我们可以拔掉电源。这个说法,当人工智能的想象力停留在个体的时候。机器人阶段,可能成立。更一般的说法可以是,只要人工智能也依赖有形的伺服。机构在我们采取行动之前,也许我们可以拔掉电源。但现实是,人工智能一旦与互联网结合,借用定制、物流、快递等高度发达的社交服务,几乎可以完全摆脱一切伺服。机构依赖。这一点不仅在大量的玄幻作品中反复出现,在现实生活中也能成功实施。当人工智能只是一个在线的幽灵,没有身体,没有形态,那拔掉电源怎么办?

阿西莫夫之前——提出”机器人三大法则”——曾经论证过的个人。机器人智力的物理极限,这是有道理的,但在他那个时代没有互联网。如今,我们必须特别重视人工智能与互联网的结合,即使是对个人而言。机器人一般来说,这种组合也会很快突破智力的物理极限。就无形的人工智能而言,更危险。一旦与互联网结合,上述人工智能1、2、3、4级之间的界限还能存在吗?如果居心不良的人工智能开发者打算突破这些界限,社会怎么办?监控?人工智能进化为超级人工智能可能只需弹指一挥间,届时人类将会措手不及,完全失控。

第五,“发展科学”也可能“唤出恶魔”

这是一个带有终极性质的问题。我们必须想清楚:我们究竟为什么需要人工智能?

工厂生产线需要更多工人吗?社会服务需要更多的人力吗?需要人工智能为我们开车?需要人工智能给我们做手术吗?这些在想象人工智能的应用前景时经常被提及,却没有被仔细推敲。这些工作真的需要人工智能吗?

科技与资本结合的一个特点就是服务于资本增值。科学家很少坦率地这样说。他们总是告诉公众,这是为了“发展科学”。似乎“发展科学”才是最终目的。为了“发展科学”,其他一切,甚至人类的安全,都不需要考虑。

当然还有其他需求,比如用人工智能打赢战争,这和用核武器打赢战争是一样的。马斯克认为人工智能会“召唤出魔鬼”,这比核武器对人类的威胁更大;霍金断言:“人工智能的完全发展可能导致人类的灭绝。”他们的话值得深思。松田教授有句名言,“警惕科学!当心科学家!”关于人工智能的问题,是时候重复一下我自己了。

今天,即使我们必须发展人工智能,我们也应该以类似于美国的“曼哈顿计划”或我们过去的“两弹一星”的心态来做。比较理想的情况是,各大国坐下来谈判,签订一个国际协议,禁止或者至少限制人工智能的研发,这是人类之福。

上一篇:KEBAChinaPlas橡塑展回顾

下一篇:全国首家机器人博物馆落户苏州吴中

返回顶部