算力资源稀缺!OpenAI计划自研芯片:解决GPU卡脖子问题
  • 黑白
  • 2023年10月06日 14:24
  • 0

快科技10月6日消息,据国外媒体报道称,ChatGPT背后的OpenAI计划自研AI芯片,以解决其所依赖的AI芯片短缺以及成本高昂问题,甚至已经开始评估潜在的收购目标。

据知情人士表示,OpenAI至少从去年就已经开始讨论各种方案解决AI芯片短缺问题,这些方案包括自研AI芯片、与英伟达等制造商展开更紧密合作、实现供应商多元化并最终超越英伟达等

目前英伟达主导了全球95%的Al训练领域市场,随着算力需求的激增,导致英伟达GPU“一卡难求”,再加上AI算力成本持续攀升,即便强如OpenAI也在寻找新方案,从而避免长期被“卡脖子”

早在去年的时候OpenAI的首席执行官就公开抱怨英伟达GPU芯片稀缺,称公司发展受到GPU的严重限制。

集邦咨询的报告显示,以英伟达A100显卡的处理能力计算,运行ChatGPT将可能需要使用到3万块英伟达GPU显卡而国内可以买到的A100价格已涨至15万/张左右

根据华尔街投行伯恩斯坦的分析,ChatGPT单次查询的成本约为4美分,若ChatGPT的搜索量达到谷歌的1/10,OpenAI每年将需要大约价值481亿美元(约合3512亿元人民币)的GPU以及价值约160亿美元(约合1168亿元人民币)的芯片来维持运行

考虑到自研芯片的难度,OpenAI已经在考虑对潜在目标公司进行收购来加快进程。但定制AI芯片可能需要数年时间,并且投入数额也是十分巨大的,因此OpenAI是否会继续推进定制芯片计划仍然是个问号

算力资源稀缺!OpenAI计划自研芯片:解决GPU卡脖子问题

 

文章纠错

  • 好文点赞
  • 水文反对

此文章为快科技原创文章,快科技网站保留文章图片及文字内容版权,如需转载此文章请注明出处:快科技

观点发布 网站评论、账号管理说明
热门评论
查看全部评论
相关报道

最热文章排行查看排行详情

邮件订阅

评论0 | 点赞0| 分享0 | 收藏0