04月11日VIP专栏培训!(盘中)

发布于2023-04-11 14:14:00

当地时间4月5日,Facebook母公司Meta在推特宣布推出SAM模型(Segment Anything Model)并开源。该模型能够查找和分割图像和视频中的任何对象,实现一键抠图。同日,Meta还发布了自称有史以来最大的图像注释数据集,以及30页详解论文《Segment Anything》。

SAM是首个专攻计算机视觉领域(CV)的图像分割基础模型,已在1100万张图像和11亿个掩码的 海量数据 集上进行了训练(比现有数据集大400倍)。基于大规模训练数据集,SAM取得的直接成果是,完成一个目标的注释只需要大约14秒,比过去COCO的完全手动基于多边形的掩码注释快6.5倍,比之前最大的数据注释工作快2倍。

解读龙虎榜