Toybrick

ZISVFM:使用视觉基础模型在室内机器人环境中进行零样本...

leok

高级会员

积分
975
楼主
发表于 2025-2-10 15:36:46    查看: 418|回复: 1 | [复制链接]    打印 | 只看该作者
在非结构化环境中运行的服务机器人必须有效地识别和分割未知物体以增强其功能。传统的基于监督学习的分割技术需要大量带注释的数据集,这对于现实世界场景中遇到的物体的多样性来说是不切实际的。看不见的物体实例分割 (UOIS) 方法旨在通过在合成数据上训练模型以推广到新物体来解决这一问题,但它们往往受到模拟与现实差距的影响。本文提出了一种解决 UOIS 的新方法 (ZISVFM),利用分割任何物体模型 (SAM) 强大的零样本能力和来自自监督视觉转换器 (ViT) 的明确视觉表示。所提出的框架分为三个阶段:(1) 使用 SAM 从彩色深度图像生成与物体无关的掩模提案,(2) 使用来自自监督 ViT 的基于注意力的特征细化这些提案以过滤非物体掩模,以及 (3) 应用 K-Medoids 聚类来生成点提示,引导 SAM 进行精确的物体分割。在两个基准数据集和一个自收集数据集上的实验验证表明,ZISVFM 在复杂环境中表现出色,包括橱柜、抽屉和手持物体等分层设置。


本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

leok

高级会员

积分
975
沙发
 楼主| 发表于 2025-2-10 15:37:17 | 只看该作者
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

产品中心 购买渠道 开源社区 Wiki教程 资料下载 关于Toybrick


快速回复 返回顶部 返回列表