Meta AI 的这些新技术,让机器人拥有「触觉」
admin
阅读:90
2024-11-07 13:01:38
评论:0
人工智能机器人发展到今天,其拥有「视觉」或者「听觉」早已经见怪不怪。毕竟,这两种感官几乎是人类感知物理世界最重要的渠道。而 meta AI 的基础人工智能研究团队(FAIR)近日公布的新技术,则为机器人赋予了「触觉」。对此,meta 的愿景是使 AI 能够「更丰富地了解世界」并「更好地理解和模拟物理世界」。毫无疑问,这些新技术让机器人又多了一种与世界互动的方式,也让其在「类人」的道路上又向前了一步。▲图片来自:NewsBytesmeta 正在与美国传感器公司 GelSight 和韩国机器人公司 Wonik Robotics 合作,开发了一系列新技术,致力于将触觉传感器商业化,并将其用于人工智能当中。这些新技术包括三个研究工具——「Sparsh」、「Digit 360」和「Digit Plexus」,专注于触觉感知、机器人灵巧性和人机交互。此外,meta 还引入了「PARTNR」,这是一种新的基准测试,用于评估人机协作中的规划和推理。需要注意的是,这些新技术目前并未为消费者推出,而是面向科学家和研究人员的。▲图片来自:TechopediaSparsh是第一个用于基于视觉的触觉感知的通用编码器模型,由华盛顿大学和卡内基梅隆大学合作开发。听起来似乎有些抽象,既然是「触觉」,为什么又「基于视觉」呢?实际上,传统方法依赖于特定任务和传感器的手工模型,其需要将物体的「触摸参数」(例如力量、摩擦等等)打包成「感觉标签」喂给机器人,相当于告诉机器人什么是「轻轻地拿」或者「用力地推」。然而这种方法比较麻烦,因为需要为每个不同的任务和不同的传感器收集很多这样的标签数据。Sparsh 则通过自我监督学习(SSL)从经验中自主学习,不需要告诉它每个动作对应的标签。其在一个包含 460000 多个触觉图像的大型数据集上进行预训练,这就像是让机器人看很多不同的物体和场景,然后自己学习如何识别和处理这些物体。简单来说,Sparsh 就像是让机器人通过看大量的图片和视频来自学如何「感觉」物体,而不是通过人工给它的「感觉」打标签。这样,机器人就更容易学会如何在不同的任务中使用不同的触觉传感器了。有趣的是,「Sparsh」这个名字源自梵语,意为「触摸或接触感官体验」,这与它处理数字化触觉信号并实现触摸感知的功能非常贴切。▲图片来自:metaDigit 360是由 meta 与 GelSight 公司联合开发的一种人造手指形状的触觉传感器,它通过以人类级别的精度对触摸进行数字化,能够提供丰富而详细的触觉数据。Digit 360 配备超过 18 种传感功能,允许研究人员结合各种传感技术或者分离单个信号以深入分析每种模式。它可以检测空间细节的微小变化,能够捕获小至 1 毫牛顿的力,并且包含多种传感模式,可以感知振动、热量甚至气味,性能明显优于以前的传感器。▲Digit 360 触觉传感器(右). 图片来自:metameta AI 团队还为其开发了一种宽视场的触摸感知专用光学系统,由超过 800 万个传感器单元(taxels)组成,用于捕捉指尖表面的全向变形。此外,借助设备上的人工智能加速器,Digit 360 能够快速处理信息,对触摸刺激做出反应,可以充当机器人的周围神经系统。这一设计的灵感来源于人类和动物的反射弧。显然,除了提高机器人的灵活性以外,这款传感器在医学、假肢、虚拟现实和远程交互等领域都有广阔的应用前景。▲图片来自:metameta 在博客中说道: 人手非常擅长向大脑发出从指尖到手掌的皮肤触摸信息,这使得其在做出决定时能够激活手部肌肉,例如如何在键盘上打字,或者与过热的物体交互。实现嵌入式人工智能需要机器人手上的触觉传感和电机驱动之间的类似协调。基于这个理念,meta AI 与 Wonik Robotics 合作,提出并建立了一个标准化软硬件平台 Digit Plexus。它允许将各种指尖和皮肤触觉传感器(例如 Digit、Digit 360 和 ReSkin)集成到一个机器人手中,并通过一根电缆将触觉数据编码并传输到主机计算机中,以实现无缝数据收集、控制和分析。Plexus 系统的设计旨在简化机器人应用的开发,特别是对于那些需要精细触觉反馈的应用。通过使用 Plexus,开发者可以更容易地将触觉传感器技术集成到他们的机器人项目中,从而提高机器人的灵巧性和对物理世界的感知能力。▲图片来自:Techcrunch值得一提的是,meta 与 Wonik 的下一步合作重点是开发 Wonik 的新一代 Allegro Hand,这是一款配备 Digit 360 等触觉传感器的机器人手,它将在 Digit Plexus 平台上运行。▲图片来自:XELA为了研究家庭活动中的人机协作,meta 在 Habitat 3.0(一个用于研究家庭环境中人机协作任务的模拟平台)的基础上,发布了人机协作规划和推理任务基准 PARTNR。PARTNR 是同类中最大的基准,包含 100000 个自然语言任务,涵盖 60 栋房屋和 5800 多个独一无二的对象。该基准的目标是评估大型语言和视觉模型(LLMs / VLM)通过人机交互工具与人类协作的性能。通过提供标准化基准和数据集,meta 表示「希望它能使机器人的研究不仅能够独立运行,而且能够围绕人类运行,使它们更加高效、可靠,并且适应每个人的喜好」。▲图片来自:linkedIn让机器人拥有「触觉」,并不是一座「空中楼阁」。这些机器人对外界变化拥有远超人类的敏感度,配合高效的软硬件协作系统,他们将会在外科手术或者精密仪器制造场景中大有用武之地。其实,不仅「视觉」、「听觉」和「触觉」,宾夕法尼亚州立大学的研究人员已经在人工智能模型模拟出了「味觉」;同时,一家名为 Osmo 的公司已经教会人工智能模型如何模仿远优于人类的「嗅觉」。也许未来的机器人能够在感官方面完全「复刻」人类。只是他们最好不要再拥有逼真的「人形」,否则,恐怖谷效应要犯了。| · ·
本文 htmlit 原创,转载保留链接!网址:https://m.dgghz.com.cn/keji/4840.html
声明
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。
发表评论