华尔街日报: 上个月, 中国公司 DeepSeek发布了一款新的人工智能模型,尽管使用的芯片不那么复杂,处理能力也只是美国的一小部分,但仍能与竞争对手的美国系统相媲美, 这在华尔街引起了震动。 据该公司发表的论文称,DeepSeek 之所以能够事半功倍,是因为其最新的 R1 模型更多地依赖于一种名为强化学习的过程,在该过程中,模型使用其创建并适应自身的奖励系统从其动作中获得反馈。 该模型从现有的大量文本开始,这些文本被分解成独特的单词、单词片段和标点符号,可以用不同的方式重新组合在一起。这个“大型语言模型”有超过 6710 亿个可调整的设置,称为“参数”,可以调整这些设置来确定模型如何响应提示。 按模型划分的参数数量 参数是决定模型如何处理信息和做出决策的设置。模型中的参数数量表明了模型的大小。 DeepSeek 的最新模型 OpenAI 模型 可执行任何任务 37B GPT-1 GPT-2 GPT-3 GPT-4 DeepSeek R1 1.17亿 15亿 175B 1.8T 671B 资料来源:OpenAI(GPT-1、-2、-3);SemiAnalysis(GPT-4 估计);DeepSeek 模型的参数数量是衡量其规模的一种方式。与传统 AI 模型不同,R1 的可调设置中只有一小部分在任何单个操作期间处于活动状态。活动参数的减少大大降低了处理所需的功率和计算能力,并允许模型在更便宜、更简单的芯片上运行。 DeepSeek 的 R1 模型通过分成多个具有不同专长的网络来工作,这种方法被称为“专家混合”方法。某些提示会要求不同的专长,而为了回答提示,模型只会处理它自己教过的、最相关的网络。 相比之下,传统的人工智能模型依赖于大量预先标记的数据集,这个过程被称为监督训练。预先标记是由人工完成的,成本高昂且耗时。 DeepSeek 模型的另一个显著特点是 它是开源的 ,这意味着它可以被公司外部的开发人员重新利用。 该公司的 R1 模型在加州大学伯克利分校研究人员运营的 AI 模型评级平台 Chatbot Arena 上名列前茅。 对于数学和编码等任务,R1 的表现比大多数其他模型更好。 根据 Chatbot Arena 得分(总体得分和任务类型)排名靠前的 AI 模型 全面的 Gemini 2.0 闪电思维实验 (谷歌) Gemini 2.0 Pro 实验...
聚焦中美经济报道 Focus on us-china economic&financial report,股市分析,宏观经济分析,A股,美股,港股,分享国际主流财经媒体报道,找最新深度财经分析上财税茶座 CSCZ.ORG。