AGV机器人

当前位置:前位置:首页 > AGV机器人
全部 2062

脑机交互,究竟是人类的福音还是潘多拉的魔盒?

时间:2024-02-25   访问量:0

之前我们发布了马斯克找到了实现脑机接口的方法,只要一个想法就能控制手机?!总之,本该出现在科幻小说里的情节,可能又要变成现实了。埃隆·马斯克的Neuralink公司宣称他将在脑机交互技术上取得更多突破,一时间引起轩然大波,各方说法不一。“能力越大,责任越大”,脑机交互给我们带来的是福祉提升的未来,还是反乌托邦的噩梦?我们有必要展开更广泛、更深入、更有见地的讨论,以确保该技术得到有效控制,并引导其向更好的方向发展。

想象一下,你可以走进手术室,在大脑中植入数千个微型电极。所有的电极都像做LASIK眼科手术一样快速有效地植入。这个操作的目的是通过一个简单的手机应用来增强你大脑的潜能。

直到本周,这还是科幻小说中的情节。然而,在上周二的发布会上,埃隆马斯克(Elon Musk)创建的Neuralink。公司据称,他们在实现这一目标方面正取得巨大进展,并将在未来几年内实现更多目标。

Neuralink的脑机交互技术令人印象深刻。神经链接公司仍然采用马斯克的老方法——从不同领域聚集新的人才来加快技术创新的速度,这公司目前,脑机交互的可实现目标已经取得了很大的进展。不过,虽然无线读写脑机交互的技术前景广阔,但人们喜欢Neuralink。公司然而,他们正处于危险之中,过于关注他们能做什么,以至于忽略了他们能做什么背后的道德规范。

神经技术的伦理问题

在我2018年出版的《来自未来的电影》(Films from the Future)一书中,我描述了马斯克创造的我们当时所知的神经蕾丝。这个术语来自伊恩·M·班克斯的科幻小说,描述了未来的脑机交互。但现在我们更接近想象的未来,我对神经连接的潜在风险和伦理问题有了更多的思考。虽然我们仍在探索我们的整个身体在影响我们是谁方面有多重要,但我们总是认为大脑是最终定义我们的器官。这是我们自我意识和身份的根源,是我们接收和处理数据的地方,是我们的智慧和理性所在,也是我们最深层的感情和抱负所在。

这是伦理在负责任的神经技术发展中如此重要的部分原因。这些技术也带来了社会风险,使问题进一步复杂化。当一项新技术可能改变集体行为、破坏社会规范或摧毁既定价值观时,围绕“能”与“应该”的边界,就会产生更大范围的伦理问题。

直到上周,这些问题大多还是理论性的。基本的神经学技术已经存在了一段时间,包括耳蜗植入,深度大脑刺激和更复杂的脑机交互。它们还是比较基础的技术,为技术发展和道德使用提供了对话的空间。

然而,随着Neuralink的发布和越来越多关于其潜在技术应用的相关文献,进一步探讨此类伦理问题具有新的紧迫性。

挑战可能的极限

神经连接技术的进步之所以具有潜在的破坏性,主要是因为它的可行性。因为这是应该的公司正在开发的技术似乎建立在坚实的科学和工程基础上。虽然最先进的技术允许有限数量的原始电极硬连线到大脑的关键部位,但Neuralink正在开发的解决方案是一种集成解决方案,其中可以将数千个超细和灵活的读写电极精确植入大脑。这些设备很复杂。机器人最后将通过手机应用进行无线控制,对抗神经系统疾病。

然而,这只是对未来趋势的一种尝试。使用他们开发的平台,Neuralink的长期目标是通过添加第三方人工处理层来增强我们大脑的功能,就像一个简单的操作一样,可能只需要几个小时。按照目前的进度,实现这个目标是完全可行的。

然而,正如已故的斯坦·李指出的,“能力越大,责任越大”。这是Neuralink和这个领域的其他人公司需要批判性思维的是如何负责任地、合乎道德地创新。

伦理挑战

和往常一样,一旦话题涉及脑机交互等先进技术的伦理问题,分析就有无法继续下去的危险。

我们甚至可以推断出先进的脑机交互技术可能给用户带来的潜在心理伤害,或者被大脑黑客劫持的危险。我们很容易想到反乌托邦的未来——社会行为由机器控制,因为我们为了神经网络的便利而牺牲了自主性。

然而,当试图平衡强大的技术能力与道德和社会责任的发展时,这种猜测很少有用。相反,尽管有编造潜在风险甚至虚假谣言的诱惑,我们迫切需要明智地思考可能出现的问题以及如何应对。就神经连接技术而言,这意味着试图解决伦理和负责任的创新领域的三个具体问题。

生理效应

首先,大脑中植入成千上万个电极,可能会对人体产生急性和慢性的生理影响。确保这项技术的安全性并不容易。然而,我有理由相信机构研究人员和开发人员将能够识别和管理关键挑战。

因为我多年来一直在研究包括纳米颗粒在内的新材料的潜在健康风险,所以我关注那些致力于确保Neuralink开发的神经医学设备尽可能减少对人体伤害的科学家和监管者。机构充满敬意。但同时,随着技术的不断创新,他们也必须对新思想持开放态度。

心理和行为影响

第二个问题更难,因为它涉及潜在的心理和行为影响。当这项技术用于医疗目的时,在神经交互技术的好处和它可能如何影响一个人的精神状态和行为的风险之间总是存在权衡。然而,随着技术从修复到增强的变化,潜在的行为和情绪变化将需要更严格的审查。

比如,当人们开始使用这些设备时,是否有可能出现性格改变或成瘾行为,或者出现慢性心理障碍?在这方面,这种技术的广泛使用和心理问题的出现之间的长期滞后有可能使事情进一步复杂化。如果人们在充分了解长期影响之前就开始依赖这项技术,这可能意味着灾难。

此外,还有第三个道德问题,以及这项技术可能带来的更广泛的社会影响。

虽然Neuralink目前专注于使用其技术解决医疗问题,但这公司长期目标是创建一个与大脑相连的人工互联网覆盖层,使用户能够与未来的智能机器进行交互。这是一个大胆的目标,其目的是改造社会。正因为如此,它导致了道德和责任问题,这些问题必须在技术仍有机会以负责任的方式使用时得到解决。

例如,如果您在未来的某个时间获得了一个神经连接植入物,以增强您的精神能力或用于娱乐目的,那么谁拥有该植入物并有权访问其数据和功能?按照现在的法律,几乎可以肯定肯定不是你。

好像没什么大不了的。也许以后你会发现你有这个设备。公司威胁停止使用它,除非你支付最新的升级,或者你发现自己容易受到黑客的攻击,因为你没有购买升级计划。谁拥有这个设备当然会引发一些问题,比如谁拥有你的大脑信号,甚至谁有权向你的大脑写入数据。我们可能会看到一个强制性的自动更新覆盖你的设备和思想在未来。

神经连接技术改变神经系统的这种能力引发了许多其他问题。这是计划的医疗应用的必要功能。但我们也知道,人们肯定是想利用这项技术来提高自己的认知能力、身体灵活性、感知能力、情绪甚至人格。

想象一下,如果你能通过手机上的一个应用程序来提高你的思维能力或记忆力,或者你能通过触摸一个开关来改变你的心情。为什么不呢?你可以在游戏系统中融入神经连接,让你发自内心地感受到你的动作,然后感到舒服。看电影的时候也可以用神经植入物在大屏幕上显示情绪。

在不久的将来,以上都有可能成为现实,但不要忽视潜在的风险。想象一下——一个可以引发情绪反应的广告,一个可以操纵你情绪的新闻提要,或者一个可以让别人通过简单的文字改变你行为的应用。最重要的是,一旦你的智能手机被盗或被黑,风险系数比现在高不止一个维度。

我们现在越来越投机了。公平地说,马斯克已经明确表示,他反对用神经广告来资助神经植入物的想法。然而,随着技术的成熟,如果我们想合乎伦理地、负责任地开发和使用神经链接,这些都是需要讨论的重要课题。

我们假设上面提到的负面因素都没有发生。现在的问题是谁能获得技术,谁不能。如果脑机交互技术真的如此强大,那么我们正在自己构建一个更加两极分化的社会——在这个社会中,特权阶层可以比那些被认为不配拥有技术的穷人获得更好的工作,获得更多的报酬,享受更好的生活。

这不是一个无聊的问题。在谁能从新技术中获益的问题上,已经存在社会鸿沟,而新技术的诞生无疑加剧了社会中特权阶层和边缘群体之间的鸿沟。我们必须考虑到神经植入技术可能会进一步扩大这一差距。

负责任地推动技术发展。

除非像这样的伦理问题在早期得到解决,否则我们将看到这样的未来,要么是脑机交互产生的问题比它们能够解决的问题更多,要么是神经连接技术被扔进垃圾堆——因为它从一开始就没有足够认真地对待社会和伦理问题。

好消息是Neuralink和其他人公司现在还来得及制定强有力的技术伦理和负责任的创新战略,让全社会确保技术得到有效控制,并引导其向好的一面发展。然而,除非我们开始更广泛、更深入、更有见地的讨论,否则马斯克描述的未来并没有他可能希望的那么美好。

上一篇:【现场直击】最新最快的埃夫特展讯,你想看的都在这里

下一篇:紧跟领跑者亚马逊美国快递物流纷纷布局机器人

返回顶部