12 月 3 日- Nvidia (NVDA.O)周三公布的新数据显示,其最新的人工智能服务器可以将新模型(包括来自中国的两款热门模型)的性能提高 10 倍。这份数据发布之际,人工智能领域的关注点已经从训练人工智能模型(英伟达在该领域占据主导地位)转向将这些模型应用于数百万用户,而英伟达在这一领域面临着来自Advanced Micro Devices (AMD.O)等竞争对手的更激烈的竞争大脑。
英伟达的数据重点关注所谓的混合专家人工智能模型。这项技术通过将问题分解成多个部分,并分配给模型中的“专家”,从而提高人工智能模型的效率。今年,中国的DeepSeek公司发布了一款高性能开源模型,震惊世界。
该模型在英伟达芯片上的训练时间比竞争对手更短,预计在2025年初就能投入使用。此后,混合专家人工智能模型迅速走红。
此后,ChatGPT 的开发者 OpenAI、法国的 Mistral 和中国的 Moonshoot AI 都采用了专家混合方法,其中 Moonshoot AI 在 7 月份发布了其自己排名很高的开源模型。
与此同时,英伟达一直致力于证明,虽然此类模型在其芯片上可能需要的训练较少,但其产品仍然可以用来向用户提供这些模型。
英伟达周三表示,其最新的 AI 服务器将 72 个领先的芯片集成到一台计算机中,并通过高速连接将它们连接起来,与上一代英伟达服务器相比,将 Moonshot 的 Kimi K2 Thinking 模型的性能提高了 10 倍,与英伟达在 DeepSeek 模型上看到的性能提升类似。
英伟达表示,这些收益主要来自服务器中可以容纳的大量芯片以及它们之间的快速连接,在这一领域,英伟达仍然比其竞争对手具有优势。
英伟达的竞争对手 AMD 正在研发一款类似的服务器,该服务器配备了多个强大的芯片,并表示将于明年上市。
我国欠这92.6万亿元人民币若是按年息百…
强制加班,类似传销组织的洗脑,这种企业能…
临阵换帅,兵家大忌
数据有问题!
这他妈的是啥东西,胡咧咧