您当前的位置: 首页 >> 智能 > >> 正文

谷歌发布RT-2视觉动作模型

来源:IT之家 2023-07-29 20:01:57发布


(资料图)

IT之家 7 月 28 日消息, 谷歌今日推出了一种新的人工智能(AI)模型 Robotics Transformer2(RT-2) ,可以帮助训练机器人理解扔垃圾等任务。

▲ 图源 谷歌 DeepMind 官网

谷歌表示,RT-2 是一种视觉语言动作模型,可将互联网上采集的信息和图像转化为机器人可理解的动作,从而帮助提升机器人的学习能力。

虽然像捡垃圾这样的任务对于人类来说听起来很简单,但机器人需要了解一系列知识后才能学习。例如,机器人必须首先能够识别哪些物品构成垃圾,然后要知道如何将其捡起来并扔掉。

RT-2 允许机器人使用来自网络的知识来帮助它理解如何完成任务,而不是为机器人编程来完成这些特定的任务。即使机器人没有明确地接受过确切步骤的训练,也能通过 RT-2 学会完成新的任务。

据《纽约时报》报道,谷歌近期没有计划发布或销售采用这项新技术的机器人,但最终这项技术或许可以用于仓储物流或家庭助理机器人。

IT之家附上 RT-2 模型详细说明 :点此前往

上一篇 下一篇
x
推荐阅读 更多

桐乡技师学院服装设计与工艺专业2023年招生

2023-09-09

过去1小时北京最大降雨出现在奥林匹克公园,降雨将持续到今夜

2023-09-09

佳禾智能:生产工艺中自动焊接及产品外观检测等有运用机器视觉技术

2023-09-09

北京小汤山属于哪个区(小汤山是什么意思)

2023-09-09

这个社区邀多方“能人”开超市,不卖东西只送服务

2023-09-09

H2Fly的双机身飞机完成世界首次液氢燃料飞行

2023-09-09

当sensei参加欲望大奖赛之后(碧蓝档案x极狐)(第四章-6)

2023-09-09

男朋友感动的句子(男朋友感动的句子说说)

2023-09-08

17岁高中生非法贩卖仿真枪被抓

2023-09-08

台湾村里长联合总会总会长陈建良:越来越多台青台商齐聚大湾区 探索全领域发展新想法

2023-09-08