六、AI体验:共享更多显存后性能明显提高 SSD性能无瓶颈
在最新版的Intel显卡驱动控制中心中,Intel提供了“共享GPU内存覆盖”功能,用户可以自由选择共享内存的比例,最少为系统内存的5%,最多可达到系统内存的95%。特别适合运行对显存需求极为夸张的AI应用,让桌面平台也可以以更低的成本部署更大规模的本地大模型。
我们首先在默认状态下,运行常规的AI大模型测试工具,作为测试对比。
在Procyon中的AI Text Generation Benchmark项目是一个简化本地 LLM AI 性能测试,提供了PHI 3.5、MISREAL 7B、LLAMA 3.1和LLAMA 2四个不同参数大小的行业标准 AI 模型轻松快速地进行测试。
Intel酷睿Ultra 7 255HX处理器内置核显,在测试中的成绩分别为381、327、322和284,加载时间分别为10.83s、11.87s、10.57s和18.04s。
之后我们在Ollama中部署Deepseek-R1:14B模型,并进行了简单的测试,测试加载时间为23.1267ms,模型效率为5.93Tokens/s,之后我们测试加载Deepseek-R1:32B模型时报错,未能完成模型加载。
我们在Intel显卡驱动控制中心中,启用共享GPU内存覆盖功能,并直接将内存限制拉到最大,即87%,将32GB内存中的27.3GB都分配给Intel核显,作为显存使用。
再次运行Procyon中的LLM AI测试,可以看到虽然评分基本没有变化,但加载时间大幅缩短到6.52s、6.49s、6.7s和12.78s,用时平均减少了三分之一,提升非常巨大。
我们再次在Ollama中运行本地部署的Deepseek-R1模型,14B模型在简单测试中,加载时间为18.176ms,模型效率为6.31Tokens/s,32B模型在同样的测试中,加载时间为22.939ms,模型效率为2.81Tokens/s。
可以看到在Intel新版显卡驱动中的共享GPU内存覆盖功能中,将更多的内存划拨给GPU使用,可以十分明显的提高大模型本地运行效率,加载时间可以大幅缩短三分之一左右,更大规模的模型也可以突破显存限制,使用成本更低的内存代替,在本地顺利部署运行。
PCIe 4.0标准的PC41Q SSD在本地运行大模型时,性能也完全没有问题,扩展显存容量之后性能提升明显。
在这个级别的本地模型面前,长江存储PC41Q SSD的性能完全不会产生瓶颈,可以放心使用。








