AGV机器人

当前位置:前位置:首页 > AGV机器人
全部 2062

懒癌救星!机器人可开冰箱取可乐,厨房等百余场景下精准移物

时间:2024-03-16   访问量:0

编译|熊大宝

编辑|李水清

4月25日消息,艾伦人工智能研究所(Allen Institute of Artificial Intelligence)近日推出了AI框架A12-THOR 3.0版本,加入了视觉对象操作框架ManipulaTHOR进行改进。机器人手臂视觉识别物体的能力。

操纵者可以制造机器人复杂环境下的快速训练比现实世界中目前的训练方式更快、更安全、更划算。

▲manipulator框架特点

艾伦人工智能研究所(Allen Institute of Artificial Intelligence)成立于2014年,由微软联合创始人保罗·艾伦(Paul Allen)共同创立,是一家非营利性研究机构。机构目的是通过高影响力的人工智能研究为人类做出贡献。

艾伦人工智能研究所(Allen Institute of Artificial Intelligence)的A12-THOR框架是在超过100个视觉丰富和物理虚拟房间场景中的首次研究。机器人操作问题的测试框架。

第一,高度关节化的手臂,在复杂场景下的精确抓取

众所周知,让机器人要实现精准的感知、导航和动作是有一定技术门槛的,这样一来,机器人操纵物体更加困难。

对象操作是机器人一门既定的科学研究领域,包括机械手运动、抓取和远距离规划、视觉推理等。其中,视觉推理一直是研究者面临的最大困境之一。

艾伦人工智能研究所首席执行官柳文欢·埃齐奥尼指出,让机器人在现实世界中执行一系列动作是机器人最大但经常被忽视的技术挑战之一。“让一让机器人很难在厨房里导航,然后打开冰箱,拿出一罐汽水。"

▲机器人到达指定位置,抓取厨房虚拟场景中的指定物体。

更新的ManipulaTHOR框架中有一个虚拟的。机器人Arm设计,这是第一个高度关节虚拟。机器人手臂配备了由旋转关节组成的三个等距关节和一组视觉和非视觉传感器,可以同时导航和移动物体。

及格机器人框架的迭代和复杂场景的构建由A12-THOR 3.0解决。机器人在现实世界中执行一系列动作的问题,可以将现实世界的物体移动到虚拟房间中的不同位置,实现现实世界的再现性。

埃齐奥尼说:“经过五年的努力,A12-THOR框架可以让真实世界的场景更容易在虚拟世界中重现,并像人类一样在真实场景中进行训练。机器人对世界的感知和导航。"

第二,加快指令跟踪研究,拓展技术极限。

随着AI2-托尔更新至3.0版本,其AI场景框架不断扩展,使研究人员能够更高效地设计解决方案,解决对象操作问题和相关问题。机器人其他与测试相关的传统问题。

AI2-托尔让AI2研究经理鲁兹贝·莫塔吉说:“与实际情况相比。机器人与跑步训练相比,AI2-托尔模拟框架的速度快得惊人,也更安全。"

▲在▲manipulator的框架下机器人运动物体

莫塔吉说:“多年来,AI2-托尔框架使得许多困难的任务得以研究,如导航、指令跟踪和多智能体。协作、执行家庭任务等。AI2-托尔的更新迭代可以使研究人员和科学家扩展当前人工智能的研究极限。"

除了3.0版本,艾伦人工智能研究所还将在今年的计算机视觉和模式识别大会(CVPR)上举办RoboTHOR Challenge 2021(2021)。机器人挑战)。挑战包括机器人目标导航,阿尔弗雷德(机器人后续说明)、房间重排等项目。

结论:A12-THOR 3.0牛仔裤机器人训练更快更安全。

建立在100多个视觉丰富和物理复杂的房间场景,AI2-托尔3.0框架可以机器人更高效的训练,减少实体场景训练的时间成本和物资损耗。

基于仿真框架,机器人已经能够应对厨房等小而复杂的场景,相信这种虚拟场景也将在不久的将来成为现实。

上一篇:智能机器人领军企业投资新疆

下一篇:东莞这家有机器人,帮助患者开启“太空漫步”!

返回顶部