type
status
date
slug
summary
tags
category
icon
password
AI summary
deepseek
全新系列模型 DeepSeek-V3 首个版本上线并同步开源。登录官网 chat.deepseek.com 即可与最新版 V3 模型对话。
性能对齐海外领军闭源模型
DeepSeek-V3 为自研 MoE 模型,671B 参数,激活 37B,在 14.8T token 上进行了预训练。
DeepSeek-V3 多项评测成绩超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。

- 百科知识: DeepSeek-V3 在知识类任务(MMLU, MMLU-Pro, GPQA, SimpleQA)上的水平相比前代 DeepSeek-V2.5 显著提升,接近当前表现最好的模型 Claude-3.5-Sonnet-1022。
- 长文本: 在长文本测评中,DROP、FRAMES 和 LongBench v2 上,DeepSeek-V3 平均表现超越其他模型。
- 代码: DeepSeek-V3 在算法类代码场景(Codeforces),远远领先于市面上已有的全部非 o1 类模型;并在工程类代码场景(SWE-Bench Verified)逼近 Claude-3.5-Sonnet-1022。
- 数学: 在美国数学竞赛(AIME 2024, MATH)和全国高中数学联赛(CNMO 2024)上,DeepSeek-V3 大幅超过了所有开源闭源模型。
- 中文能力: DeepSeek-V3 与 Qwen2.5-72B 在教育类测评 C-Eval 和代词消歧等评测集上表现相近,但在事实知识 C-SimpleQA 上更为领先。

最新的活动
登录DeepSeek的官网

点击
接入API
,注册就送500万的token数量
接入API
点击
接口文档
,首次调用API,下面有实例demo,按照demo通过postman工具先调用试试记得修改
header
中Authorization
的Bearer <DeepSeek API Key>
改成自己的token,Bearer sk-b8ebb504f8994f98964850b2
这样的
得到问答结果

golang 接入API
结果

- 作者:IT小舟
- 链接:https://www.codezhou.top/article/deepseek%20ai%E5%A4%A7%E6%A8%A1%E5%9E%8B%E7%9A%84%E5%AF%B9%E6%8E%A5
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。