Liquid AI开源4.5亿参数多模态模型LFM2-VL,解决终端部署难题

2025年8月24日
news

(图片来自网络)

近期,英伟达研究团队提出小语言模型(SLMs)在AI智能体系统中有巨大潜力,能够以更低成本和延迟提供与大模型相当性能。研究指出当前AI Agent系统过度依赖大语言模型(LLMs)存在经济和环境可持续性问题,小模型在专门化任务上往往能超越大模型,同时计算和内存需求更低,更适用于智能手机、边缘设备等终端环境。在行业推出更小规模模型(如谷歌Gemma 3 270M模型)的趋势下,脱胎于麻省理工学院(MIT)计算机科学与人工智能实验室的人工智能公司Liquid AI,正式推出首个视觉-语言基础模型系列LFM2-VL。


该系列模型旨在解决当前多模态人工智能模型因体积庞大难以在终端设备部署的普遍问题,致力于为智能手机、笔记本电脑、可穿戴设备和各类嵌入式系统提供高效、低延迟的AI视觉理解能力。目前,LFM2-VL系列的模型权重已在Hugging Face社区开源,供开发者和研究人员使用。


LFM2-VL系列首批发布了两种不同参数规模的模型,以满足不同设备的部署需求。其中,LFM2-VL-450M是一款拥有4.5亿参数的轻量级模型,主要面向资源极为有限的环境(如智能手表或基础物联网节点);另一款LFM2-VL-1.6B则拥有16亿参数,提供更全面的性能,适用于高端智能手机、个人电脑以及配备单块GPU的设备。


根据Liquid AI公布的数据,LFM2-VL在GPU上的推理速度最高可达同类视觉语言模型的两倍,同时在图像描述、视觉问答等多个行业标准基准测试中,其表现与部分参数量更大的模型相比也具有竞争力,而内存占用则显著降低。该模型的性能优势来源于其独特的底层架构——构建于Liquid AI自家的液态基础模型(LFM),架构设计灵感源自动态系统与信号处理理论,带来计算效率先天优势。具体结构由语言模型主干、视觉编码器和多模态投影器三个核心模块组成,视觉编码器采用SigLIP2 NaFlex,并集成“像素解混”技术提升效率。处理图像时支持最高512x512像素原生分辨率,无需拉伸或裁剪,超尺寸图像分块处理以保留全局上下文,开发者可动态调整平衡速度与精度。


LFM2-VL已与Hugging Face Transformers等主流开发库集成,并支持量化技术以压缩模型体积。在许可方面,该模型对年收入低于1000万美元的公司提供免费商业使用授权,大型企业需联系Liquid AI获取商业许可。这款轻量、高效、专为端侧设计的模型,为AI能力从云端解放、推动大规模实际应用提供了关键支持,是AI普及的重要推动力。

(声明:该内容经AI精编) 查看原网页

精彩评论(10)

  • 网友10 2025-08-24 18
    小模型让AI更亲民,以后智能生活会更智能,充满希望。
  • 网友9 2025-08-24 18
    参数量和性能平衡得好,这种小而精的模型很实用。
  • 网友8 2025-08-24 18
    开源模式鼓励创新,大家共同进步,这样的模型值得推广。
  • 网友7 2025-08-24 18
    轻量又高效的模型,未来AI应用场景肯定更多,很期待。
  • 网友6 2025-08-24 18
    解决大模型难部署问题,以后智能设备用AI会更顺畅,不错哦。
  • 网友5 2025-08-24 18
    期待在实际应用里看到效果,这样的模型能让AI走进更多人生活呀。
  • 网友4 2025-08-24 18
    架构设计很专业,效率提升明显,对人工智能领域发展有帮助啊。
  • 网友3 2025-08-24 18
    科技开源是好事,大家都能学习研究,促进技术发展,很支持这种做法。
  • 网友2 2025-08-24 18
    小模型发展这么快,以后AI应用会更普及,终端设备也能轻松用上AI视觉功能了。
  • 网友1 2025-08-24 18
    这个模型让手机上的AI助手更智能,以后用手机看图片理解更方便啦!
查看“Liquid AI开源4.5亿参数多模态模型LFM2-VL,解决终端部署难题”相关搜索 >

最新新闻

An unhandled error has occurred. Reload 🗙