
OpenAI 刚刚和芯片巨头博通联手,要自己“造芯”了!这可不是小打小闹,他们瞄准的是未来五年,部署足足 10 吉瓦(GW)的 AI 算力。简单来说,这相当于给未来 AI 基础设施安装了一个巨大的“动力心脏”。
为什么 OpenAI 要这么做?因为现在 AI 训练和运行太烧钱,而且很大程度上受制于英伟达的 GPU。OpenAI 就像一个大厨,不想只用别人提供的锅碗瓢盆,想自己打造一套最适合自己菜谱的厨具。
这套新芯片,代号“o1”,是专门为 OpenAI 自己研发的 AI 模型量身定做的,比如未来的 GPT 版本。它不像英伟达那些“万金油”芯片,而是像一把手术刀,精准优化了 AI 处理语言时最核心的计算环节——矩阵乘法。据说,它还能用上台积电最尖端的 3 纳米工艺,生产成本和能耗都会更低。
更厉害的是,博通把自己的高速网络技术也直接塞进了这块芯片里,让芯片之间沟通更快,整体算力才能达到惊人的 10 吉瓦。有行业人士估计,这种软硬件一体的设计,会让生成每一个 AI 回答(token)时,能耗降低 30%!
这事儿有多重要?
首先,它打破了英伟达一家独大的局面。OpenAI 的成功,可能会鼓励其他 AI 公司也开始走上自研芯片的道路,AI 硬件的竞争会更加激烈。
其次,OpenAI 变得更“独立”了。不再完全依赖外部芯片供应商,这让它在和谷歌、亚马逊这些巨头竞争时,底气更足。
OpenAI 的 CEO 萨姆·阿尔特曼有个“从晶体管到 token”的理念,就是要控制 AI 生产的每一个环节,从最底层的芯片到最终输出的文字,都要做到极致优化。10 吉瓦的算力,听起来很吓人,但如果能大幅降低能耗,就能让 AI 的发展更可持续。
当然,挑战也不小。芯片设计是完成了,但要用最先进的工艺生产出这么多芯片,还要克服封装等技术难题,2026 年下半年能否如期投入使用,还得看他们能不能顺利“造出来”。
不过,可以预见的是,AI 芯片的军备竞赛已经进入了新阶段。未来几年,我们可能会看到更多像 OpenAI 这样的大公司,开始自己操刀设计 AI 芯片,AI 的发展速度和成本都将迎来巨变。