科研团队突破SAM限制,推出图像与视频统一上下文分割新方法

2026年1月20日
news

(图片来自网络)

近期,由北京邮电大学联合南洋理工大学等机构的研究团队,提出了一种突破SAM(Segment Anything Model)交互限制的图像与视频上下文分割方法,相关成果发表于IEEE Transaction on Pattern Analysis and Machine Intelligence(TPAMI)期刊,构建了首个视频上下文分割基准IC-VOS,为视觉大模型在图像和视频领域的应用提供了新突破。


上下文分割(In-Context Segmentation)需要模型通过参考示例指导分割特定目标,但SAM虽能零样本泛化,却受限于提示构建(如点、框)制约,难以在复杂连续视频中维持时空一致性。研究团队提出DC-SAM框架,该框架采用基于循环一致性的提示微调机制,通过正负双分支与循环一致性注意力协同,配合Mask-Tube策略,实现了SAM与SAM2在图像及视频上下文分割任务的统一与高效适配。


实验结果显示,DC-SAM在多个基准测试中取得领先性能:在COCO-20i图像基准上达到55.5 mIoU,在Pascal-5i图像基准上达到73.0 mIoU;在团队首创的视频基准IC-VOS上,J&F得分高达71.52,显著优于现有方法。该研究不仅解决了SAM在上下文分割的局限性,还为视觉大模型在工业与科研领域的落地应用提供了更具竞争力的解决方案。


DC-SAM框架由三部分核心组成:基于SAM的特征融合、正负双分支循环一致性提示生成、面向视频的Mask-tube训练策略。其中,循环一致性注意力的引入有效解决了视频分割中语义漂移问题,而Mask-tube策略则赋予了模型处理时空动态的能力,使得方法在图像与视频场景下均能高效实现上下文分割。


研究团队还构建了首个视频上下文分割基准IC-VOS,填补了该领域空白,为后续研究提供了统一测试平台。该论文已被IEEE TPAMI录用,相关代码和资源已公开,方便业界更多人研究和应用。

(声明:该内容经AI精编) 查看原网页

精彩评论(10)

  • 网友10 2026-01-20 14
    科技让生活更好,这个方法让图像视频分割更准确,今后用相关技术产品体验更好!
  • 网友9 2026-01-20 14
    原来大模型还能这样突破,循环一致性方法听着就很有趣,以后学习可以参考!
  • 网友8 2026-01-20 14
    视觉大模型在工业应用需要高效分割,这个方法统一图像视频,对企业来说很实用,值得合作!
  • 网友7 2026-01-20 14
    构建新基准和提出新方法,对视觉领域研究很有推动,希望后续有更多成果!
  • 网友6 2026-01-20 14
    从技术角度,DC-SAM的框架设计和注意力机制很新颖,对大模型微调有启发!
  • 网友5 2026-01-20 14
    听说这个方法让视频分割更准了,以后用AI处理视频内容应该方便很多,期待应用!
  • 网友4 2026-01-20 14
    研究团队在上下文分割领域做得很系统,循环一致性机制和基准构建很创新,为行业提供抓手!
  • 网友3 2026-01-20 14
    现在科技发展快,这个新方法让图像和视频分割更精准,以后用相关技术产品会更好用!
  • 网友2 2026-01-20 14
    作为AI从业者,非常关注视觉大模型落地,这个方法突破SAM限制,实现图像视频统一分割,很有实用价值,值得学习!
  • 网友1 2026-01-20 14
    这个研究太厉害了,终于让大模型在视频上下文分割更靠谱了,以后工业应用肯定方便很多!
查看“科研团队突破SAM限制,推出图像与视频统一上下文分割新方法”相关搜索 >

最新新闻

An unhandled error has occurred. Reload 🗙