人工智能是美国发誓要确保领先中国一大步的领域,也是美国极力试图锁住中国进步的前线。所以开年的1月20日,中国的AI公司推出全新的DeepSeek开源模型,让美方的AI观察家们几近“破防”。“中国的人工智能越来越好,而且更便宜”,这是他们的惊呼。一个据称是Meta员工发的帖子写道:“DeepSeek最近的一系列动作让Meta的生成式AI团队陷入了恐慌。”因为在前者的低成本高歌猛进之下,后者无法解释自己超高预算的合理性。 ▲Deepseek-V3与多个国内外大模型的测试数据对比。(图源:“Deepseek”公众号) 尤其让美国AI观察家们诧异并且感到沮丧的是,以往为了阻止中国在人工智能领域的发展,美国政府一直在严格限制对中国出口高算力芯片,甚至不断加强努力,防止中国通过第三方获得先进芯片。DeepSeek仅仅用了英伟达为配合出口管制为中国市场量身定制的“阉割版”H800 GPU,但神奇的事情发生了,它们组合出的效果不亚于使用高性能芯片“卷算力”的美国大模型,而且因为它是完全开源的,专业人士可以清晰观察DeepSeek是如何用更有效率的训练方式与细腻的技术手段扬长避短的。 ▲扎克伯格2024年7月表示,开源是AI未来的方向,美国要领先中国AI数年的目标不现实。(图源:上观新闻) 大家知道,AI大模型领域的三大要素是算法、数据和算力。算力如同人大脑的神经元,一个成熟的大模型需要训练,理论上说,基础算力越大,大模型就应该越聪明。所以美国各团队之间形成了对基础算力无穷无尽的追求和比拼。马斯克旗下xAI的超级计算数据中心装配了10万颗英伟达H100 GPU芯片,堪称当今世界最强大的AI训练集群之一 。OpenAI创始人奥特曼也不甘示弱,表示将投入1000亿美金,在得州建设10座数据中心,未来4年还要耗资5000亿美金在全美打造20个超算集群。人们形成了一个印象:谁的GPU芯片集群大,谁就将稳操胜券。 ▲在2025年达沃斯论坛上,AI科技初创公司Scale AI创始人亚历山大·王(Alexandr Wang)公开表示,中国人工智能公司DeepSeek的AI大模型性能大致与美国最好的模型相当。(图源:第一财经) DeepSeek的出现有可能带动一波有规模的仿效,成为算法创新的催化剂。前Open AI联合创始人、Tesla AI团队负责人安德烈·卡帕西在社交平台上发文称,DeepSeek-V3的出现也许意味着不需要大型GPU集群来训练前沿的大语言模型。还有人表示“如果DeepSeek的创新是真的,那AI公司是否真的需要那么多显卡?” |
|