美国卡内基梅隆大学正在用Baxter研发新一代智能协作机器人
作者:本站 来源:原创 时间:2017-07-14 浏览数:6149
美国卡内基梅隆大学(CMU)的计算机团队让Baxter机器人通过触觉反馈和试错来学习,力求打造触觉、视觉结合处理和自主学习的新一代智能工业机器人。
众所周知,在人工智能领域,要想实现对目标的识别、跟踪和测量,其中一项非常核心的技术就是计算机视觉。目前,国内外有许多家公司和实验室就在结合深度学习和计算机视觉来进行深度研究与改进,提高机器动作的精度和强度。但是也正如行业内大家所熟知的,无法结合机器的触觉是机器人发展的一大制约。
卡内基梅隆大学(Carnegie Mellon University),简称CMU,坐落在美国宾夕法尼亚州的匹兹堡(Pittsburgh),研究型大学。该校拥有全美顶级计算机学院。
该系统使用类似于Kinect的3D摄像机。 Baxter收集的视觉和触觉信息被发送到一个深层神经网络,它与ImageNet中的图像数据交叉输入。加上触摸过程的数据训练,机器人的识别精度比仅使用图像数据训练的机器人提高了10%。
实验室助理DhirajGandhi为大家演示了机器人在接触熟悉与不熟悉的对象时作出的动作与反应:当机器人识别出物体时,它牢牢抓住放入盒中,同时电脑上显示的是微笑的表情;如果对象不熟悉,机器人会挪开手臂,并且会出现扭曲困惑的表情。
传统的计算机视觉学习形式,主要是通过输入数据,经过“监督”学习训练网络来识别对象,不同的是,CMU的机器人可以自己教自己。对此,Gandhi解释说:“目前计算机视觉的核心就是你用大量目标特征数据来训练,而图像处理任务与机器识别这一动作任务之间是相互独立的。现在我们想要的就是当机器人与目标对象交互时获取的变化数据。通过这些数据,训练机器去学习可以辅助完成视觉任务的功能。”
显然,研究还处于初期阶段,但具有一定的前景。未来,触摸和视觉学习的结合可用于分类机器人,可做类似将垃圾与回收物品分开等工作。当然,该技术也可以应用到人工智能领域的其他应用方面。
早前,美国卡内基梅隆大学计算机科学学院助理研究教授M. BERNARDINE DIAS就曾率领她的团队用Baxter机器人测试与实验,希望通过触觉以机器人视觉为残障人士提供识别与导航等方面工作。