欢迎访问:Liquid AI 发布 LFM2.5:一款面向边缘设备的小型 AI 模型家族_新鲜科技_品牌资讯_感知生活GANZH.COM
  • 微信客服微信客服
  • 微信公众号微信公众号

Liquid AI 发布 LFM2.5:一款面向边缘设备的小型 AI 模型家族

收藏  分享
网友发布网友发布0

Liquid AI 发布 LFM2.5:一款面向边缘设备的小型 AI 模型家族

Liquid AI 最近推出了 LFM2.5,这是一个新一代的小型基础模型家族,基于 LFM2架构,专注于边缘设备和本地部署。该模型家族包括 LFM2.5-1.2B-base 和 LFM2.5-1.2B-Instruct,同时扩展了日语、视觉语言和音频语言的变种。这些模型以开源权重形式发布在 Hugging Face 上,并通过 LEAP 平台进行展示。

LFM2.5保留了针对 CPU 和 NPU 设计的混合 LFM2架构,旨在实现快速且内存高效的推理。该模型的预训练阶段将参数扩展至1.2亿,训练数据从10万亿个 tokens 扩展至28万亿个 tokens。随后,指令变体模型还进行了监督微调、偏好对齐和大规模多阶段强化学习,专注于指令跟随、工具使用、数学和知识推理。

在文本模型性能方面,LFM2.5-1.2B-Instruct 是主要的通用文本模型。Liquid AI 团队在 GPQA、MMLU Pro、IFeval、IFBench 等多个基准上报告了表现,模型在 GPQA 上达到了38.89,在 MMLU Pro 上达到了44.35。这些分数明显高于其他同类开源模型,如 Llama-3.2-1B Instruct 和 Gemma-3-1B IT。

此外,LFM2.5-1.2B-JP 是专门为日语优化的文本模型,针对日语的 JMMLU、M-IFeval 和 GSM8K 等任务进行了优化。这个检查点在日语任务上超越了一般指令模型,并在这些本地基准测试中与其他小型多语言模型相竞争。

在多模态边缘工作负载方面,LFM2.5-VL-1.6B 是该系列更新的视觉语言模型,结合了图像理解的视觉模块。该模型经过调优,支持文档理解、用户界面读取和多图像推理等实际应用,能够在边缘环境中高效运行。

LFM2.5-Audio-1.5B 是一个原生音频语言模型,支持文本和音频输入输出,采用了一种新的音频反 tokenizer,其速度比之前的方案快八倍,适用于实时语音到语音的对话代理和自动语音识别等任务。

https://www.liquid.ai/blog/introducing-lfm2-5-the-next-generation-of-on-device-ai

划重点:

标签: 语言 支持 包括
更多>最新的资讯