
【AI 大模型】DeepSeek 大模型简介 ( DeepSeek-R1 和 DeepSeek-V3 大模型 | Python 调用 DeepSeek API | 本地部署 DeepSeek )
一、DeepSeek 大模型1、DeepSeek-R1 和 DeepSeek-V3 大模型DeepSeek-V3 大模型DeepSeek-R1 大模型大模型调用2、DeepSeek 官网访问 DeepSeek-R1 和 DeepSeek-V3 大模型3、DeepSeek 大模型参数4、DeepSeek 蒸馏模型本地部署硬件需求二、DeepSeek 开发者平台1、开放平台地址2、申请 API Key
一、DeepSeek 大模型
1、DeepSeek-R1 和 DeepSeek-V3 大模型
DeepSeek 推出了 两款大模型 , 分别是 DeepSeek-R1 和 DeepSeek-V3 , 二者在 模型定位、训练方法、性能表现和应用场景等方面存在显著差异 ;
DeepSeek-V3 大模型
DeepSeek-V3 大模型 是 通用的自然语言处理模型 , 采用混合专家 ( MoE ) 架构 , 主要面向自然语言处理 ( NLP ) 任务 , 旨在提供高效、可扩展的解决方案 ;
DeepSeek-V3 大模型 应用场景 : 需要高性价比通用 AI 能力的场景 , 如 智能客服、内容创作(文案、小说)、知识问答等 ;
DeepSeek-R1 大模型
DeepSeek-R1 大模型 专注于 高级推理任务 , 专为复杂推理任务设计 , 强化在数学、代码生成 和 逻辑推理领域 的性能 ;
DeepSeek-R1 大模型 使用场景 : 针对科研、算法交易、代码生成等复杂任务设计 ;
大模型调用
在 百度千帆大模型 中的 模型广场 https://console.bce.baidu.com/qianfan/modelcenter/model/buildIn/list , 提供了 DeepSeek-R1 和 DeepSeek-V3 两个模型的 API 调用服务 ;
2、DeepSeek 官网访问 DeepSeek-R1 和 DeepSeek-V3 大模型
在 DeepSeek 官网 https://www.deepseek.com 默认使用的大模型时 DeepSeek-V3 大模型 ;
在对话界面 , 可以通过 点击输入框的 " 深度思考(R1) " 按钮 启动 DeepSeek-R1 模型 , 点击" 联网搜索 " 可以搜索最近的消息 补充到提示词中 ;
3、DeepSeek 大模型参数
DeepSeek-R1 大模型 完全体 参数规模是 671b , 同时为了方便本地部署 , 还提供了 1.5b、7b、8b、14b、32b、70b 参数规模较小的版本 ;
模型规模中的 671b 表示模型的参数量为 6710 亿 ( 671 Billion ) ;
B 是英文 " Billion " 的缩写 , 表示 10 亿 , 671B 即 671 × 10^9 个参数。
模型参数量 越大 , 对显存和计算能力的需求越高 ;
大模型任务类型 :
- 大模型推理 : 通常需要较少的显存和计算资源 ; 使用训练后的模型进行对话 就是 推理 ;
- 大模型训练 : 需要更多的显存和计算资源 , 尤其是大规模分布式训练 ; 使用万张 A100 显卡进行 大模型训练 ;
优化性能目标 :
- 低延迟推理 需要高性能 GPU ;
- 训练任务可能需要多卡或多节点分布式计算 ;
4、DeepSeek 蒸馏模型本地部署硬件需求
模型规模 | 推理硬件需求 | 推理显存需求 | 训练硬件需求 | 训练显存需求 | 模型大小(FP16) |
---|---|---|---|---|---|
1.5B | 单卡 GPU(如 RTX 3090 或 A10) | 6-8 GB | 单卡 GPU(如 A100 40GB) | 10-16 GB | 3 GB |
7B | 单卡 GPU(如 A100 40GB 或 RTX 4090) | 16-24 GB | 多卡 GPU(如 4x A100 40GB) | 32-48 GB | 14 GB |
8B | 单卡 GPU(如 A100 40GB 或 RTX 4090) | 20-28 GB | 多卡 GPU(如 4x A100 40GB) | 40-64 GB | 16 GB |
14B | 单卡 GPU(如 A100 80GB) | 32-48 GB | 多卡 GPU(如 8x A100 80GB) | 64-128 GB | 28 GB |
32B | 多卡 GPU(如 2x A100 80GB) | 64-96 GB | 多节点分布式训练(如 16x A100 80GB) | 256-512 GB | 64 GB |
70B | 多卡 GPU(如 4x A100 80GB) | 128-192 GB | 多节点分布式训练(如 32x A100 80GB) | 512-1024 GB | 140 GB |
671B | 多卡 GPU(如 16x A100 80GB) | 1-1.5 TB | 大规模分布式训练(如 128x A100 80GB) | 5-10 TB | 1.342 TB |
二、DeepSeek 开发者平台
1、开放平台地址
DeepSeek 开发者平台 : https://platform.deepseek.com/
API 价格是 100 万输入 tokens 2 元 , 100 万 输出 tokens 8 元 ;
- 通常 1 个中文词语、1 个英文单词、1 个数字或 1 个符号计为 1 个 token ;
- 1 个英文字符 ≈ 0.3 个 token
- 1 个中文字符 ≈ 0.6 个 token
2、申请 API Key
进入 API keys 页面 , 点击 " 创建 API Key " 按钮 , 创建一个 API Key ;
在弹出的 对话框 中 输入 API Key 名称 , 然后点击 " 创建 " 按钮 ;
创建成功后 , 此处可以复制该 API-Key , 注意 只有这一次机会 , 如果没有保存下来 , 只能删除该 API Key ;
这是创建的 API Key , 到了该界面后 , 如果 API Key 没有保存下来 , 再也无法复制到该 API Key , 只能删除重新创建 ;
3、Python 调用 DeepSeek API
参考 https://api-docs.deepseek.com/zh-cn/ 文档进行调用 ;
DeepSeek API 兼容 OpenAI API 调用方式 , 完全可以使用 OpenAI 的SDK 调用方式进行使用 ;
将 OpenAI 的访问地址 改为 https://api.deepseek.com , api_key 改为申请的 DeepSeek 的 API Key , 即可完成调用 ;
调用参数 | 参数值 |
---|---|
base_url | https://api.deepseek.com |
api_key | 申请的 DeepSeek API Key |
将下面的代码拷贝到 PyCharm 中 , 使用申请的 API Key 替换 代码中的 <DeepSeek API Key>
;
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")
response = client.chat.completions.create(
model="deepseek-chat",
messages=[
{"role": "system", "content": "You are a helpful assistant"},
{"role": "user", "content": "Hello"},
],
stream=False
)
print(response.choices[0].message.content)
执行结果如下 :
D:\001_Develop\022_Python\Python37_64\python.exe D:/002_Project/011_Python/OpenAI/deepseek_demo.py
Hello! How can I assist you today? 😊
Process finished with exit code 0
三、本地部署 DeepSeek 大模型
1、Ollama 安装 Llama3 大模型
参考 【AI 大模型】Meta Llama 3 大模型 ( Llama 3 大模型简介 | Ollama 软件下载安装 | Llama3 模型下载 | Llama 3 大模型 在线 / 离线 使用 ) 博客 , 安装 Ollama 软件 ;
在这篇博客中 安装完 Ollama 软件后 , 执行
ollama run llama3
命令 , 运行 Llama3 大模型 ;
2、Ollama 安装 DeepSeek 大模型
安装完 Ollama 后 , 执行
ollama run deepseek-r1:1.5b
即可安装运行 DeepSeek-R1 大模型的 1.5b 蒸馏模型 , 只有 1.5 billion 个 ( 15 亿 ) 参数 , 完全版有 671b 个 ( 671 billion / 6710 亿 ) 参数 ;
普通家用电脑 只能安装一个 1.5b 的蒸馏模型 ;
其它更大参数规模版本安装 :
- 安装 7b 蒸馏模型 :
ollama run deepseek-r1:7b
- 安装 8b 蒸馏模型 :
ollama run deepseek-r1:8b
- 安装 14b 蒸馏模型 :
ollama run deepseek-r1:14b
- 安装 32b 蒸馏模型 :
ollama run deepseek-r1:32b
- 安装 70b 蒸馏模型 :
ollama run deepseek-r1:70b
- 安装 671b 蒸馏模型 : 这个代价有点大 , 要 16 张 A100 显卡 , 每张 20 万 , 除非是保密部门或科研单位 , 否则没有必要安装 ;
ollama run deepseek-r1:671b
3、Ollama 查询搜索大模型
本地部署 DeepSeek , 通过 Ollama 进行本地部署 ;
在 Ollama https://ollama.com/search 大模型下载页面 , 第一个就是 DeepSeek ;
进入 https://ollama.com/library/deepseek-r1 模型页面 , Ollama 提供了 DeepSeek 的 7 个模型 ,
- 671b 是 完全体的模型 , 这个需要 16 张 A100 显卡 才能跑起来 , 进行推理工作 , 显卡要几百万 ;
- 1.5b、7b、8b、14b、32b、70b 都是 完全体 671b 的蒸馏简化版本 , 功能要差很多 ;
- 1.5b 的版本 只需要 3090 显卡就可以跑起来 , 需要 6 ~ 8 GB 的显存 ;
- 7b 版本需要 4090 显卡跑起来 , 需要 16 ~ 24GB 的显存 ;
- 8b 及以上的版本 , 就需要 A100 显卡 , 需要 40G 以上的显存 , 普通人基本用不上这东西 , 十几万一张 ;
更多推荐
所有评论(0)