在科技圈掀起热议的DeepSeek模型,终于迎来了英伟达CEO黄仁勋的公开回应。作为人工智能领域的领军人物之一,黄仁勋的观点无疑为这场关于AI技术的讨论注入了新的视角。本文将从第三人的视角出发,深入解读黄仁勋对DeepSeek的评价以及他对AI未来发展路径的独特见解。
DeepSeek:低成本、高性能的“搅局者”
DeepSeek作为一款新兴的人工智能模型,凭借其极高的性价比和开源策略迅速吸引了全球的关注。据测算,DeepSeek-V3的训练成本仅为OpenAI同性能模型GPT-4的十分之一,而DeepSeek-R1更是以仅占OpenAI o1模型3%至5%的成本达到了同等性能。此外,在推理方面,OpenAI o1模型的使用成本接近DeepSeek-R1模型的30倍。这一系列数据不仅展示了DeepSeek的技术优势,也引发了市场对其商业模式的广泛讨论。
值得注意的是,DeepSeek选择开源其大模型产品,并支持免费使用,这使得更多开发者能够参与到AI生态的建设中来。这种开放的态度无疑为行业注入了活力,同时也让人们对AI技术的未来充满期待。
黄仁勋的首次回应:推理并非智能的核心
在周四的一场访谈中,黄仁勋首次对DeepSeek发表了自己的看法。他高度评价了DeepSeek在推理阶段的表现,称其为“测试时间缩放的完美例子”。然而,他也明确指出,推理只是AI智能的一部分,而后训练才是“智能的核心”。黄仁勋强调:“从投资者的角度来看,他们有一种思维模式,认为人工智能领域只有预训练和推理。而推理就是你向人工智能提出一个问题,然后立即得到答案。我不知道这是谁的误解,但显然这种模式是错误的。”
黄仁勋进一步解释道,尽管DeepSeek在推理阶段表现出色,但真正的智能并不仅仅体现在快速回答问题的能力上,而是需要通过后训练不断优化模型的表现。他认为,后训练阶段能够让AI模型更好地适应复杂场景,从而实现更深层次的理解和应用。
市场的误读与算力的重要性
黄仁勋还提到了市场对DeepSeek的误读。部分投资者认为,DeepSeek的成功意味着训练模型所需的计算能力可能远低于预期,甚至质疑大型科技公司投入数万亿美元建设AI基础设施的必要性。对此,黄仁勋表示,这些观点忽视了后训练阶段对算力的需求。他指出,尽管DeepSeek在某些方面降低了对算力的依赖,但人工智能行业仍然需要强大的算力来支持模型训练后的处理方法。
黄仁勋的观点得到了不少业内人士的支持。他们认为,算力仍然是推动AI技术发展的关键因素之一,尤其是在处理复杂任务时,强大的算力可以显著提升模型的性能和效率。
DeepSeek的影响与未来展望
DeepSeek的推出不仅改变了人们对AI技术的认知,也对整个行业产生了深远的影响。知乎直答接入DeepSeek-R1模型的消息,被部分券商视为将有助于提升其未来商业化空间潜力。与此同时,DeepSeek-R1也被应用于多个领域,例如有道SpaceOne中的“小P老师”,在融合了DeepSeek-R1推理模型能力后,能够提供更加精准和多样化的教育服务。
对于DeepSeek的未来,黄仁勋持乐观态度。他认为,DeepSeek的创新为人工智能领域注入了新的活力,同时也提醒人们不要忽视后训练阶段的重要性。在他看来,AI技术的发展需要综合考虑推理、后训练以及算力等多个方面,才能真正实现智能化的目标。
总而言之,黄仁勋的这次回应不仅澄清了市场对DeepSeek的误解,也为AI行业的未来发展指明了方向。正如他所说,真正的智能不仅仅是快速回答问题的能力,更是通过不断学习和优化,实现更深层次理解和应用的过程。
发表评论 取消回复