时间:2025-07-31来源:ai02门户网
7月30日消息,AMDZen5架构的锐龙AIMax+395,是第一个可以在本地运行700亿参数AI大模型的平台,当然需要搭配128GB统一内存,而现在,AMD奉上重磅升级,1280亿参数大模型都可以在本地运行了!
当然,能做到这一点的还是只有锐龙AIMax+395,还是必须搭配128GB统一内存,并分配96GB作为显存,而且必须在Vulkanllama.cpp环境下。
驱动方面需要搭配还在测试阶段的25.10RC24版本,下个月初将会变成正式版25.8.1。
这使得锐龙AIMax+395成为第一个能在本地运行1090亿参数的MetaLlama4Sout大模型的平台,体积多达66GB,活跃参数最多170亿,并支持Vision、MCP。
这得益于该模型使用了混合专家(MoE)模式,每次只激活模型的一部分,从而保持性能可用,锐龙AIMax+395实测可以做到每秒15Tokens。
同时,锐龙AIMax+395还可以跑68GB体积、1230亿参数的MistralLarge,至于18GB、300亿参数的Qwen3A3B、17GB、270亿参数的GoogleGemma,自然更是不在话下。
当然,锐龙AIMax+395还支持各种各样的模型尺寸、量化格式,包括GGUF。
同样重要的是,锐龙AIMax+395升级支持了更大的上下文尺寸,从传统的4096Tokens左右,一举来到了惊人的256000Tokens,从而能够分析、汇总更大规模的文档等数据资料。
不过这里需要注意,得开启FlashAttention、Q8KVCache。
对于一般的非大规模模型,32000Tokens的上下文就足够用了,锐龙AIMax+395则提供了新的可能,而以往如此超大规模的上下文,往往需要几万十几万的设备才能实现。
锐龙AIMax+395、128GB配置的迷你AI工作站,价格已经低至1.3万元左右,可以说性价比是相当高了。
网发此文仅为传递信息,不代表认同其观点或证实其描述。同时文中图片应用自网络,如有侵权请联系删除。