美国AI财大气粗 国产AI学不了:Kimi仅用了1%算力就超越主流闭源
  • 宪瑞
  • 2026年01月22日 21:46
  • 0

快科技1月22日消息,在AI竞赛上领先的主要是中美两国,其中美国AI有着得天独厚的优势,不缺钱不缺算力,但中国公司的AI往往面临算力限制,学不了美国AI的财大气粗玩法。

但这不代表国产AI做不出来成绩,研发出Kimi的月之暗面公司总裁张予彤日前在达沃斯论坛上也谈到了这个问题,表示从创业第一天起就意识到中国公司没有随意堆砌算力的条件,迫使他们通过大量基础研究的创新来换取极致的效率。

张予彤提到,Kimi仅使用美国顶尖AI实验室约1%的计算资源,便成功推出Kimi K2、Kimi K2 Thinking等全球领先的开源大模型,并在部分关键性能指标上超越美国主流闭源模型。

张予彤还提到Kimi最新一代大模型即将发布,此前我们也报道过此事,该公司已经开启招募人员内测,名字可能是K2.1,也有可能叫做K2.5。

尽管月之暗面没有透露这个新模型到底有多强,但多模态及智能体Agent预计成为重点,在商业化前景最为明确的AI编程领域很有可能带来惊喜,毕竟万亿参数的规模比智谱的GLM 4.7及Minimax的MiniMax 2.1模型规模就要大不少,能力应该会更强。

事实上,算力紧缺不只是Kimi大模型遇到的,此前DeepSeek也在论文中提到他们的大模型面临着算力及世界知识的限制,毕竟这方面国内公司天然地就面临着不利,顶级AI芯片既不能买也暂时没有台积电敢给代工。

好消息是国产AI芯片突破的也很快,新一代AI芯片也会全面支持FP8、FP4算子标准,性能也会跟上,尽管还不能超越NVIDIA芯片,但通过集群设计还是可以实现性能领先的,今年应该就能看到具体的突破。

美国AI财大气粗 国产AI学不了:Kimi仅用了1%算力就超越主流闭源

文章纠错

  • 好文点赞
  • 水文反对

此文章为快科技原创文章,快科技网站保留文章图片及文字内容版权,如需转载此文章请注明出处:快科技

观点发布 网站评论、账号管理说明
热门评论
查看全部评论
相关报道

最热文章排行查看排行详情

邮件订阅

评论0 | 点赞0| 分享0 | 收藏0