Meta推出AI抠图神器,机器视觉迎来高光时刻?

AI百科3个月前发布 快创云
41 0

  Meta在推特上宣布推出SAM模型,并开源。该模型能够一键抠图,实现图像和视频中任何对象的查找和分割。同日,Meta还发布了史上最大的图像注释数据集及30页详解论文《Segment Anything》。

  SAM是首个专注于计算机视觉领域的图像分割基础模型,已在海量数据集上进行了训练。基于大规模训练数据集,SAM完成一个目标的注释只需约14秒,比过去最快的完全手动基于多边形的掩码注释快6.5倍。

  SAM在操作层面具有显著亮点:万物识别、可处理多模态提示、自动分割并归类图片中的单品、视频识别与快速标记等。此外,SAM还能接受其他系统的输入提示,输出物体信息到其他AI系统

  该模型的推出引发了市场对产业方面大规模应用的关注。多家券商认为,SAM模型将颠覆机器视觉领域,对“AI视觉”、“AR”、“VR”等领域产生深远影响。

  综合多家观点,工业自动化、自动驾驶、安防等领域有望率先商用。此外,有券商指出,SAM的开源可能是AR/VR领域的安卓时刻,为XR行业安装核动力引擎。随着多模态的发展,通用视觉、通用机械臂等有望在未来进入生活。

  与SAM模型发展相关的公司包括:AI视觉领域的韦尔股份、思特威等;视频与图像数据领域的千方科技、视觉中国等;机器视觉领域的奥普特、柏楚电子等。这些公司或将受益于SAM模型的推出和应用。

© 版权声明

相关文章