一、DeepSeek 大模型




1、DeepSeek-R1 和 DeepSeek-V3 大模型


DeepSeek 推出了 两款大模型 , 分别是 DeepSeek-R1 DeepSeek-V3 , 二者在 模型定位、训练方法、性能表现和应用场景等方面存在显著差异 ;


DeepSeek-V3 大模型


DeepSeek-V3 大模型 是 通用的自然语言处理模型 , 采用混合专家 ( MoE ) 架构 , 主要面向自然语言处理 ( NLP ) 任务 , 旨在提供高效、可扩展的解决方案 ;

DeepSeek-V3 大模型 应用场景 : 需要高性价比通用 AI 能力的场景 , 如 智能客服、内容创作(文案、小说)、知识问答等 ;


DeepSeek-R1 大模型


DeepSeek-R1 大模型 专注于 高级推理任务 , 专为复杂推理任务设计 , 强化在数学、代码生成 和 逻辑推理领域 的性能 ;

DeepSeek-R1 大模型 使用场景 : 针对科研、算法交易、代码生成等复杂任务设计 ;


大模型调用


在 百度千帆大模型 中的 模型广场 https://console.bce.baidu.com/qianfan/modelcenter/model/buildIn/list , 提供了 DeepSeek-R1 和 DeepSeek-V3 两个模型的 API 调用服务 ;

在这里插入图片描述


2、DeepSeek 官网访问 DeepSeek-R1 和 DeepSeek-V3 大模型


在 DeepSeek 官网 https://www.deepseek.com 默认使用的大模型时 DeepSeek-V3 大模型 ;

在这里插入图片描述

在对话界面 , 可以通过 点击输入框的 " 深度思考(R1) " 按钮 启动 DeepSeek-R1 模型 , 点击" 联网搜索 " 可以搜索最近的消息 补充到提示词中 ;

在这里插入图片描述


3、DeepSeek 大模型参数


DeepSeek-R1 大模型 完全体 参数规模是 671b , 同时为了方便本地部署 , 还提供了 1.5b、7b、8b、14b、32b、70b 参数规模较小的版本 ;


模型规模中的 671b 表示模型的参数量为 6710 亿 ( 671 Billion ) ;

B 是英文 " Billion " 的缩写 , 表示 10 亿 , 671B 即 671 × 10^9 个参数。


模型参数量 越大 , 对显存和计算能力的需求越高 ;


大模型任务类型 :

  • 大模型推理 : 通常需要较少的显存和计算资源 ; 使用训练后的模型进行对话 就是 推理 ;
  • 大模型训练 : 需要更多的显存和计算资源 , 尤其是大规模分布式训练 ; 使用万张 A100 显卡进行 大模型训练 ;

优化性能目标 :

  • 低延迟推理 需要高性能 GPU ;
  • 训练任务可能需要多卡或多节点分布式计算 ;

4、DeepSeek 蒸馏模型本地部署硬件需求


模型规模推理硬件需求推理显存需求训练硬件需求训练显存需求模型大小(FP16)
1.5B单卡 GPU(如 RTX 3090 或 A10)6-8 GB单卡 GPU(如 A100 40GB)10-16 GB3 GB
7B单卡 GPU(如 A100 40GB 或 RTX 4090)16-24 GB多卡 GPU(如 4x A100 40GB)32-48 GB14 GB
8B单卡 GPU(如 A100 40GB 或 RTX 4090)20-28 GB多卡 GPU(如 4x A100 40GB)40-64 GB16 GB
14B单卡 GPU(如 A100 80GB)32-48 GB多卡 GPU(如 8x A100 80GB)64-128 GB28 GB
32B多卡 GPU(如 2x A100 80GB)64-96 GB多节点分布式训练(如 16x A100 80GB)256-512 GB64 GB
70B多卡 GPU(如 4x A100 80GB)128-192 GB多节点分布式训练(如 32x A100 80GB)512-1024 GB140 GB
671B多卡 GPU(如 16x A100 80GB)1-1.5 TB大规模分布式训练(如 128x A100 80GB)5-10 TB1.342 TB




二、DeepSeek 开发者平台




1、开放平台地址


DeepSeek 开发者平台 : https://platform.deepseek.com/

在这里插入图片描述

API 价格是 100 万输入 tokens 2 元 , 100 万 输出 tokens 8 元 ;

  • 通常 1 个中文词语、1 个英文单词、1 个数字或 1 个符号计为 1 个 token ;
  • 1 个英文字符 ≈ 0.3 个 token
  • 1 个中文字符 ≈ 0.6 个 token

2、申请 API Key


进入 API keys 页面 , 点击 " 创建 API Key " 按钮 , 创建一个 API Key ;

在这里插入图片描述

在弹出的 对话框 中 输入 API Key 名称 , 然后点击 " 创建 " 按钮 ;
在这里插入图片描述

创建成功后 , 此处可以复制该 API-Key , 注意 只有这一次机会 , 如果没有保存下来 , 只能删除该 API Key ;

在这里插入图片描述

这是创建的 API Key , 到了该界面后 , 如果 API Key 没有保存下来 , 再也无法复制到该 API Key , 只能删除重新创建 ;
在这里插入图片描述


3、Python 调用 DeepSeek API


参考 https://api-docs.deepseek.com/zh-cn/ 文档进行调用 ;

DeepSeek API 兼容 OpenAI API 调用方式 , 完全可以使用 OpenAI 的SDK 调用方式进行使用 ;

将 OpenAI 的访问地址 改为 https://api.deepseek.com , api_key 改为申请的 DeepSeek 的 API Key , 即可完成调用 ;

调用参数参数值
base_urlhttps://api.deepseek.com
api_key申请的 DeepSeek API Key

将下面的代码拷贝到 PyCharm 中 , 使用申请的 API Key 替换 代码中的 <DeepSeek API Key> ;

# Please install OpenAI SDK first: `pip3 install openai`

from openai import OpenAI

client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")

response = client.chat.completions.create(
    model="deepseek-chat",
    messages=[
        {"role": "system", "content": "You are a helpful assistant"},
        {"role": "user", "content": "Hello"},
    ],
    stream=False
)

print(response.choices[0].message.content)

执行结果如下 :

D:\001_Develop\022_Python\Python37_64\python.exe D:/002_Project/011_Python/OpenAI/deepseek_demo.py
Hello! How can I assist you today? 😊

Process finished with exit code 0

在这里插入图片描述





三、本地部署 DeepSeek 大模型




1、Ollama 安装 Llama3 大模型


参考 【AI 大模型】Meta Llama 3 大模型 ( Llama 3 大模型简介 | Ollama 软件下载安装 | Llama3 模型下载 | Llama 3 大模型 在线 / 离线 使用 ) 博客 , 安装 Ollama 软件 ;

在这篇博客中 安装完 Ollama 软件后 , 执行

ollama run llama3

命令 , 运行 Llama3 大模型 ;


2、Ollama 安装 DeepSeek 大模型


安装完 Ollama 后 , 执行

ollama run deepseek-r1:1.5b

即可安装运行 DeepSeek-R1 大模型的 1.5b 蒸馏模型 , 只有 1.5 billion 个 ( 15 亿 ) 参数 , 完全版有 671b 个 ( 671 billion / 6710 亿 ) 参数 ;

普通家用电脑 只能安装一个 1.5b 的蒸馏模型 ;


其它更大参数规模版本安装 :

  • 安装 7b 蒸馏模型 :
ollama run deepseek-r1:7b
  • 安装 8b 蒸馏模型 :
ollama run deepseek-r1:8b
  • 安装 14b 蒸馏模型 :
ollama run deepseek-r1:14b
  • 安装 32b 蒸馏模型 :
ollama run deepseek-r1:32b
  • 安装 70b 蒸馏模型 :
ollama run deepseek-r1:70b
  • 安装 671b 蒸馏模型 : 这个代价有点大 , 要 16 张 A100 显卡 , 每张 20 万 , 除非是保密部门或科研单位 , 否则没有必要安装 ;
ollama run deepseek-r1:671b

3、Ollama 查询搜索大模型


本地部署 DeepSeek , 通过 Ollama 进行本地部署 ;

在 Ollama https://ollama.com/search 大模型下载页面 , 第一个就是 DeepSeek ;

在这里插入图片描述

进入 https://ollama.com/library/deepseek-r1 模型页面 , Ollama 提供了 DeepSeek 的 7 个模型 ,

  • 671b 是 完全体的模型 , 这个需要 16 张 A100 显卡 才能跑起来 , 进行推理工作 , 显卡要几百万 ;
  • 1.5b、7b、8b、14b、32b、70b 都是 完全体 671b 的蒸馏简化版本 , 功能要差很多 ;
  • 1.5b 的版本 只需要 3090 显卡就可以跑起来 , 需要 6 ~ 8 GB 的显存 ;
  • 7b 版本需要 4090 显卡跑起来 , 需要 16 ~ 24GB 的显存 ;
  • 8b 及以上的版本 , 就需要 A100 显卡 , 需要 40G 以上的显存 , 普通人基本用不上这东西 , 十几万一张 ;

在这里插入图片描述

Logo

助力广东及东莞地区开发者,代码托管、在线学习与竞赛、技术交流与分享、资源共享、职业发展,成为松山湖开发者首选的工作与学习平台

更多推荐