虽然目前在数据中心人工智能(AI)芯片市场,英伟达和AMD是最主要的两家厂商,但是高通也正积极地进入这一市场。
2025年10月27日,高通就宣布推出了面向数据中心的新AI推理芯片Qualcomm AI200 和 A250 ,以及基于这两款AI芯片的加速卡及机架级解决方案。
当地时间2月24日,沙特AI厂商Humain首席执行官Tareq Amin通过Linked In宣布,高通公司的全栈式AI机架已经交付至Humain的数据中心。
这些搭载AI100芯片的机架正在安装中,将支持大规模推理和边缘到云的混合AI。
第一阶段将会部署1024张AI加速器,这也是高通公司在全球范围内规模最大的AI加速器部署之一,Adobe将是Humain该数据中心的首个客户。
Humain数据中心对于高通AI100的部署,应该也是高通数据中心AI芯片的首次大规模部署。
Tareq Amin表示:“我们的目标很明确:可扩展的边缘智能、更低的延迟和实时结果。我们与高通公司携手,目标明确,行动迅速。衷心感谢高通公司总裁兼首席执行官Cristiano R. Amon先生和Adobe公司首席执行官Shantanu Narayen先生对HUMAIN及其愿景的鼎力支持和鼎力相助。 ”
需要指出的是,此次Humain数据中心部署的是高通的AI100芯片,这是高通于2019年发布的一款数据中心AI芯片。
资料显示,AI100采用7纳米工艺打造,AI性能据称是骁龙855移动平台的50倍,可达100TOPs,并且具有完整的软件系统,支持当时流行的AI底层框架Tensflow等。
显然,以现在的眼光来看,这一款6年前发布的AI芯片可以算是很“古老”和“落后”了。因为当时发布的时候,AI100就是面向的高能效的推理认为,且只有较小的内存(Ultra版本仅有128GB),这也使得单颗芯片只能运行320亿参数的大模型。
至于为什么Humain会选择部署高通AI100芯片,有观点认为是该芯片足够便宜。另外,目前热门的AI芯片正在被OpenAI、甲骨文等云巨头大量采购,正处于缺货当中,以Humain的体量很难以合适的价格获得供应。
2025月13日,Humain宣布与高通公司签署了一份谅解备忘录 (MOU),旨在达成战略合作,开发下一代人工智能数据中心、基础设施和云到边缘服务,以满足全球对人工智能快速增长的需求。
而高通最新发布的AI200需要2026年才会上市,AI250更是要等到2027年才会上市。由于Humain的首个AI数据中心客户是Adobe,因此可以推测高通AI100加速器对于基础的图像填充和生成任务来说已经足够。


