开云体育

DeepSeek:繁荣与……泡沫?开云体育官方

2025-07-16
浏览次数:
返回列表

  开云体育[永久网址:363050.com]成立于2022年在中国,是华人市场最大的线上娱乐服务供应商而且是亚洲最大的在线娱乐博彩公司之一。包括开云、开云棋牌、开云彩票、开云电竞、开云电子、全球各地赛事、动画直播、视频直播等服务。开云体育,开云体育官方,开云app下载,开云体育靠谱吗,开云官网,欢迎注册体验!我会使用DeepSeek-R1+科技类翻译大师prompt翻译出来,大家一起学习

  SemiAnalysis 在纽约市招聘一名分析师加入我们的核心研究团队,这是面向金融行业的世界级研究产品。

  自中国 LLM DeepSeek R1 发布以来已经过去了大约 150 天,它震动了股市和西方 AI 界。R1 是第一个公开发布的与 OpenAI 推理行为相匹配的模型。然而,这被对 DeepSeek(以及中国)会因极其低廉的价格(每输入 0.55 美元/每输出 2.19 美元)而使 AI 模型商品化,从而大幅压低了当时 SOTA 模型 o1 的输出 token 定价 90%以上这一担忧所掩盖。推理模型的价格自那以后显著下降,OpenAI 最近将其旗舰模型的价格降低了 80%。

  R1 在 DeepSeek 继续在发布后扩展 RL 之后得到了更新。这导致模型在许多领域,尤其是编程方面得到了改进。这种持续的发展和改进是我们在之前讨论的新范式的特征之一。

  今天我们将探讨 DeepSeek 对 AI 模型竞赛以及 AI 市场份额状态的影响。

  消费者应用流量在 DeepSeek 发布后激增,导致市场份额急剧上升。由于中国的使用情况跟踪不佳且西方实验室在中国被封锁,以下数据低估了 DeepSeek 的总覆盖范围。然而,爆炸性增长并未跟上其他 AI 应用的步伐,DeepSeek 的市场份额此后有所下降。

  对于网络浏览器流量,数据更加严峻,DeepSeek 自发布以来绝对流量有所下降。其他领先的 AI 模型提供商在同一时间段内用户数量均实现了显著增长。

  DeepSeek 托管模型的用户活跃度较低,与第三方托管的 DeepSeek 实例形成鲜明对比。第三方托管的 R1 和 V3 的总体使用量持续快速增长,自 R1 首次发布以来几乎增长了 20 倍。

  深入分析数据后,将 DeepSeek 的令牌仅拆分出由公司自身托管的部分,我们可以看到 DeepSeek 在总令牌中的份额每个月都在下降。

  那么为什么用户会放弃 DeepSeek 自己的网页应用和 API 服务,转而选择其他开源提供商,尽管 DeepSeek 模型的 popularity 正在上升,而且价格似乎非常便宜?

  答案在于代经济和为服务模型时 KPI 之间的各种权衡。这些权衡意味着模型的每个代币价格是这些 KPI 决策的输出,可以根据模型提供商的硬件和模型设置进行调整。

  代币是 AI 模型的基本构建块。AI 模型可以通过以代币形式阅读互联网来学习,并以文本、音频、图像或行动代币的形式生成输出。一个代币只是一个大型语言模型计数和处理的文本小块(如“fan”、“tas”、“tic”),而不是整个单词或字母。

  当詹森提到数据中心成为 AI 工厂时,这些工厂的输入和输出是令牌。就像物理工厂一样,AI 工厂用 P x Q 公式来赚钱:P 是每个令牌的价格,Q 是输入和输出令牌的数量。

  不同于普通工厂,代币价格是一个变量,模型提供者可以根据模型的其他属性来确定。我们列出了关键 KPI 如下:

  延迟或首次生成代币时间:模型生成一个代币所需的时间。这通常被称为“首次生成代币时间”或模型完成预填充阶段(即将输入代币编码到 KVCache)并开始在解码阶段生成第一个代币所需的时间。

  互动性:每个代币生成的速度,通常以每秒每个用户生成的代币数来衡量。一些提供者还讨论了互动性的逆指标,即每次输出代币的平均时间(每输出代币时间或 TPOT)。人类的阅读速度为每秒 3-5 个单词,但大多数模型提供者已经将输出速度定在每秒 20-60 个代币左右。

  上下文窗口:模型在“短期记忆”中可以保留多少令牌,在此之前,较早的令牌会被驱逐,模型会“忘记”对话的较旧部分。不同的应用场景需要不同的上下文窗口。大型文档和代码库分析可以从较大的上下文窗口中受益,这使得模型能够在数据上进行连贯的推理。

  对于任何给定的模型,你可以通过调整这 3 个 KPI 来产生任何期望的每令牌价格。因此,单纯讨论每百万个令牌的价格($/Mtok)并不总是有建设性或实用性的,因为这忽略了工作负载的性质以及令牌用户的实际需求。

  现在让我们看看 DeepSeek 如何为其 R1 模型提供服务的代币经济学,以理解为什么他们在自己的模型上失去了市场份额。

  将延迟与价格进行绘制,我们可以看到 DeepSeek 的自身服务已经不再是延迟最低的最便宜选项。实际上,DeepSeek 能够以如此低的价格提供产品的一个重要原因是因为他们迫使用户在模型响应第一个标记之前等待数秒。相比之下,其他一些提供商在同一价格下延迟响应的时间要短得多。标记消费者可以支付 2-4 美元以几乎无延迟的方式使用像 Parasail 或 Friendli 这样的提供商。Microsoft Azure 提供该服务的价格是 DeepSeek 的 2.5 倍,但延迟时间少 25 秒。自我们获取这些数据以来,情况变得更加严峻,几乎所有 R1 0528 实例现在都托管在 低于 5 秒的延迟[3] 中。

  来源: 年 5 月访问。混合 $/Mtok 计算使用了 3:1 的输入:输出比例,气泡大小代表上下文窗口大小

  使用相同的图表并添加气泡大小以表示上下文窗口,我们可以看到 DeepSeek 在运行一个非常便宜的模型时面临的另一个权衡,该模型使用有限的推理计算资源。他们运行了一个 64K 的上下文窗口,这是主要模型提供商中最小的之一。较小的上下文窗口限制了像编程这样的用例,这些用例需要模型在代码库中一致地记住大量的标记以进行推理。在相同的价格下,您可以在上述图表中的 Lambda 和 Nebius 等提供商处获得超过 2.5 倍的上下文大小。

  深入硬件层面,我们可以看到在 DeepSeek V3 上对 AMD 和 NVDA 芯片进行的基准测试显示,服务提供商通过在同一块或多块 GPU 上同时处理更多用户来解决 $/Mtok 的问题:这会导致更高的延迟和更慢的交互性(通过每个用户的中位端到端延迟(x 轴)来衡量),从而降低每 token 的总成本。更大的批量大小和更慢的交互性会降低每 token 的成本,但会牺牲用户体验。

  为了澄清,这是 DeepSeek 的主动决策。他们并不打算从用户身上获利,也不希望通过聊天应用或 API 服务向用户提供大量 token。该公司唯一的目标是达到 AGI,而不关心用户体验。

  批量处理以极高的速率进行,使他们能够使用最少的计算资源进行推理和外部使用。这使得他们可以保留最多的计算资源用于研究和开发。如我们之前所讨论的,出口管制限制了中国生态系统在提供模型方面的能力。因此,对于 DeepSeek 来说,开源是有意义的。他们拥有的所有计算资源都保留在内部,而其他云平台可以托管他们的模型,以便他们能够赢得市场份额和全球采用。虽然出口管制大大限制了中国大规模推理模型的能力,但我们认为这并没有同样阻碍他们训练有用模型的能力,这从最近来自腾讯、阿里巴巴、百度以及甚至 Rednote 的发布中可以得到证据。

  在 AI 的世界里,唯一重要的就是计算能力。就像 DeepSeek 一样,Anthropic 也受到计算能力的限制。Anthropic 将产品开发集中在代码上,并且在像 Cursor 这样的编码应用中得到了强烈的采用。我们认为 Cursor 的使用是最具说服力的评估,因为它代表了用户最关心的两个方面:成本和体验。Anthropic 已经连续一年多排名第一,这在 AI 行业中相当于几十年的时间。

  注意到像 Cursor 这样的 Token 消费者取得的成功,该公司推出了 Claude Code,这是一个内置在终端中的编码工具。Claude Code 的使用量急剧上升,远远超过了 OpenAI 的 Codex。

  Google 回应也发布了他们自己的工具:Gemini CLI。虽然它与 Claude Code 类似,但 Google 利用他们的计算优势(TPU)为用户提供无成本的超大请求限制。

  Claude Code,尽管其性能和设计都非常出色,但却是昂贵的。在许多方面,Anthropic 的代码模型的成功给公司带来了巨大的压力。他们在计算资源上被挤压得很紧。

  这在 Claude 4 Sonnet 的 API 输出速度上表现得最为明显。自 Claude 4 Sonnet 发布以来,速度下降了 40%,仅略高于每秒 45 个词元。造成这种情况的原因与 DeepSeek 类似——为了用有限的计算资源处理所有传入请求,他们不得不以更高的速率进行批量处理。编码使用往往倾向于更大的词元数对话,这与较低词元数的随意聊天应用程序相比,进一步加剧了计算资源的压力。无论如何,类似模型如 o3 和 Gemini 2.5 Pro 的运行速度要快得多,这反映了 OpenAI 和 Google 拥有的更大规模的计算资源。

  Anthropic 专注于获取更多计算资源,并与亚马逊达成了重大协议,我们之前已经提到过。

  Anthropic 将获得超过五十万块 Trainium 芯片,这些芯片将用于推理和训练。尽管舆论普遍认为,Claude 4 并未在 AWS Trainium 上进行预训练,实际上它是在 GPU 和 TPU 上进行训练的。

  Anthropic 还转向了他们的另一大投资者谷歌进行计算。Anthropic 从 GCP 租用了大量的计算资源,特别是 TPUs。在取得这一成功之后,Google Cloud 正在扩大其对其他 AI 公司的业务范围,并与 OpenAI 达成了协议。与之前的报道不同,Google 只是将 GPU 租给 OpenAI,而不是 TPUs。

  Claude 的速度反映了其计算限制,但总体而言,Anthropic 的用户体验通常优于 DeepSeek。首先,尽管速度较低,但 Claude 的速度仍快于 DeepSeek 的每秒 25 个标记。其次,Anthropic 的模型回答问题所需的标记数量远少于其他模型。这意味着,尽管速度较慢,但用户在整个响应过程中的体验时间显著减少。

  这一方面的标记经济学表明,提供者正在从多个维度努力改进模型。不仅仅是更多的智能,而是每生成一个标记的智能更多。每生成一个标记的智能。

  制作不易,如果这篇文章觉得对你有用,可否点个关注。给我个三连击:点赞、转发和在看。若可以再给我加个,谢谢你看我的文章,我们下篇再见!

  特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

  一位上海财经女博士坦言:如果手里有二十万,不妨死磕七大口诀

  美股盘前,明星科技股普跌,阿斯麦跌近7%,英伟达跌0.8%,AMD跌超1%

  黄仁勋:轻视华为和中国制造的人非常天线亿美元买个安心:苹果押注美国本土稀土

  谁把伦敦挤下去了?2026 QS留学城市榜里的大反转,别在申请前错过。

搜索