深度学习
OpenAI 推出“强化微调”计划:让创建专家大模型更简单了
OpenAI推出了“强化微调”计划,旨在通过特定领域数据对大型语言模型进行优化,使其从“高中水平”提升至“博士级专家”的能力。这项技术将为高校、研究人员和企业提供独特的AI解决方案,特别是在法律、保险、医疗保健、金融和工程等领域。
构建测试的体系化思维(高级篇)
本文从提前规划与策略制定、自动化测试执行与监控、智能化测试工具的应用、数据驱动的测试优化等方面,详细介绍了如何构建测试的体系化思维,提升测试的效率和质量。
谷歌最强大模型登场,掀Agent风暴,放AI芯片大招,深夜突袭OpenAI
谷歌发布多模态模型Genie 2和AI芯片,向OpenAI发起挑战。与此同时,Meta和亚马逊也相继推出重磅AI产品,AI竞赛进入白热化阶段。
一文搞懂池化层!Pooling详解(网络下采样篇)
作为一名深度学习初学者,我在学习卷积神经网络时遇到了池化层这个概念。本文将从个人视角出发,详细解释池化层的工作原理、参数设置及其优缺点,并结合实际应用场景,帮助读者全面理解池化层的作用。
LSTM之父的惊人声明:1991年我就提出了线性自注意力机制,领先Transformer 26年
LSTM之父Jürgen在报告中指出,他在1991年就已经提出了线性自注意力机制,这一发现比Transformer早了26年。本文将带你深入了解这一惊人的历史,并探讨其对未来AI发展的影响。
23届计算机本科就业率狂掉3.2%,AI技能成救命稻草
作为一名23届计算机本科毕业生,我亲身经历了就业市场的寒冬。本文将分享我的求职经历,并探讨AI技能如何成为我们在就业市场中的救命稻草。
激光雷达变“大白菜”,纯视觉方案还有优势吗?
激光雷达成本大幅下降,纯视觉方案是否还能保持优势?本文从个人视角探讨了激光雷达和纯视觉方案在自动驾驶领域的竞争与发展趋势。
博弈论入门:当博弈论遇上机器学习
本文从个人视角出发,探讨了博弈论与机器学习的结合,介绍了博弈论在支持向量机(SVM)、生成对抗网络(GAN)和强化学习中的应用,并展望了未来的发展方向。
微软Phi-4封神:14B小模型数学击败GPT-4o,合成数据占比40%,36页技术报告出炉
微软推出的14B参数小型语言模型Phi-4在数学推理方面表现出色,超越多个更大规模的模型,如70B的Llama 3.3和72B的Qwen。 Phi-4使用40%合成数据进行训练,并发布了详细的36页技术报告。