时间:2025-08-18来源:ai02门户网
8月16日消息,谷歌宣布旗下开源旗下Gemma系列家族中最轻量的版本“Gemma3270M”,该模型拥有2.7亿参数,主要面向端侧部署场景,具备指令遵循和文本结构化能力。
获悉,目前Gemma3系列模型包括270M、1B、4B、12B与27B五种规模版本。在Q4_0量化格式下,各模型的RAM内存需求分别为240MB、892MB、3.4GB、8.7GB和21GB。其中,Gemma3270M以最低RAM内存门槛(INT4量化版本的RAM内存需求仅约240MB),成为系列模型中最适合低功耗设备部署的版本,号称在Pixel9Pro手机上运行25轮对话仅消耗手机0.75%的电量。
据谷歌介绍,该模型特别适合处理高频率、任务明确的场景,同时特别适合处理个人隐私信息,例如“情感分析、实体识别、人生规划”等,同时也适用于开发多个专用任务的小型模型。
谷歌同步发布了微**学资源,涵盖基于HuggingFaceTransformers进行全模型训练的完整流程,支持开发者在分类、信息抽取、情感分析等任务上进行定制化开发。目前已有第三方开发者通过transformers.js将该模型运行在浏览器端,证明Gemma3270M在Web环境中同样具备良好的性能与可控性。
上一篇:宇树机器人“撞人逃逸”火到国外,王兴兴回应:下次不遥控了
下一篇:最后一页
网发此文仅为传递信息,不代表认同其观点或证实其描述。同时文中图片应用自网络,如有侵权请联系删除。