功耗提升30% 温度降低20度!abee AI Station 395 Max迷你液冷工作站评测:685B超大模型也能运行
  • 流云
  • 2026年01月12日 12:27
  • 0

六、AI测试:能运行Deepseek V3 685B大模型

这种产品已经不单纯是传统意义上的迷你机,更是一台迷你AI工作站,非常适合AI开发者,尤其是个人和小企业开发者。

1、AI Image Generation Benchmark--Stable Diffusion 1.5(FP16)

功耗提升30% 温度降低20度!abee AI Station 395 Max迷你液冷工作站评测:685B超大模型也能运行

2、AI Image Generation Benchmark - Stable Diffusion XL

功耗提升30% 温度降低20度!abee AI Station 395 Max迷你液冷工作站评测:685B超大模型也能运行

3、AI Computer Vision Benchmark

功耗提升30% 温度降低20度!abee AI Station 395 Max迷你液冷工作站评测:685B超大模型也能运行

4、Qwen-235b

abee AI Station 395 Max迷你液冷工作站配备了128GB LPDDR5X内存,最多可以分配96GB显存。测试时我们设置为64GB内存和64GB显存。

功耗提升30% 温度降低20度!abee AI Station 395 Max迷你液冷工作站评测:685B超大模型也能运行

设置如上,GPU卸载设置为58,尽可能的用掉64GB显存,提升AI算力。

功耗提升30% 温度降低20度!abee AI Station 395 Max迷你液冷工作站评测:685B超大模型也能运行

235B模型实际显存占用62.8GB,目前为止在消费级GPU仅有Radeon 8060S(最大可以分配96GB显存)可以流畅运行。

我们试着让Deepseek模仿杜甫的《登高》,为黄鹤楼创作一首七言律诗,生成速度为9.84tokens/s,总计耗时1分09秒。

当然如果将显存占用提升到95GB,性能应该还能提升50%左右。

功耗提升30% 温度降低20度!abee AI Station 395 Max迷你液冷工作站评测:685B超大模型也能运行

同样的命题,让豆包也写了一首《黄鹤楼》,不忍直视。

功耗提升30% 温度降低20度!abee AI Station 395 Max迷你液冷工作站评测:685B超大模型也能运行

最后我们尝试了一下Deepseek V3-0324,这是一个拥有685B参数的超大规模模型,abee AI Station 395 Max迷你液冷工作站生成速度为5.86 tokens/s。


文章纠错

  • 好文点赞
  • 水文反对

此文章为快科技原创文章,快科技网站保留文章图片及文字内容版权,如需转载此文章请注明出处:快科技

观点发布 网站评论、账号管理说明
热门评论
查看全部评论
相关报道

最热文章排行查看排行详情

邮件订阅

评论0 | 点赞0| 分享0 | 收藏0