前言:在人工智能技术飞速发展的今天,深度学习模型已成为推动各行各业智能化转型的核心驱动力。DeepSeek 作为一款领先的 AI 模型,凭借其高效的性能和灵活的部署方式,受到了广泛关注。无论是自然语言处理、图像识别,还是智能推荐系统,DeepSeek 都能提供强大的支持。本文将详细介绍 DeepSeek 的特点,并分享两种常见的部署方式:容器云部署和极速部署,帮助用户快速上手并高效利用这一先进技术。无论是技术开发者还是普通用户,都能通过这些方法快速上手并高效利用 DeepSeek 的强大能力。

目录

1.DeepSeek介绍

2.部署方式一:容器云部署DeepSeek 

2.1 容器云配置

2.2 终端连接

2.3 模型配置

3.部署方式二:极速部署DeepSeek 


1.DeepSeek介绍

DeepSeek 是由深度求索(DeepSeek)公司开发的一款高性能人工智能模型,专注于自然语言处理(NLP)、多模态任务以及通用人工智能(AGI)领域。作为一款领先的 AI 模型,DeepSeek 凭借其高效的性能、灵活的部署方式和广泛的应用场景,成为企业和开发者实现智能化转型的重要工具。

DeepSeek 的核心特点

  • 高性能与高效能

    DeepSeek 模型经过深度优化,能够在较低的计算资源下实现高效的推理和训练。无论是处理大规模数据集还是实时推理任务,DeepSeek 都能提供卓越的性能表现。

  • 多模型支持

    DeepSeek 提供了多种模型版本,以满足不同场景的需求。例如:

    • DeepSeek-R1:适用于轻量级任务,适合资源有限的环境。

    • DeepSeek-V3:支持更复杂的任务,具备更强的泛化能力。

    • DeepSeek-MultiModal:支持多模态任务,能够同时处理文本、图像和音频数据。

  • 灵活部署

    DeepSeek 支持多种部署方式,包括容器化部署、极速部署以及本地部署。用户可以根据自身需求选择最适合的方式,快速上手并高效利用模型。

  • 开源生态与工具集成

    DeepSeek 与 Ollama 等轻量级框架深度集成,方便开发者快速部署和扩展。同时,DeepSeek 还提供了丰富的 API 和开发工具,支持与其他系统的无缝对接。

  • 广泛的应用场景

    DeepSeek 适用于多种应用场景,包括但不限于:

    • 自然语言处理:文本生成、情感分析、机器翻译、问答系统等。

    • 多模态任务:图像描述生成、视频内容分析、跨模态检索等。

    • 智能推荐:个性化推荐、广告投放优化等。

    • 科研与教育:辅助科研数据分析、智能教学系统等。

DeepSeek 的技术优势

  • 先进的模型架构

    DeepSeek 基于 Transformer 架构,并结合了最新的深度学习技术,如自注意力机制、稀疏注意力机制等,使其在处理长文本和复杂任务时表现尤为出色。

  • 高效的训练与推理

    DeepSeek 采用了混合精度训练和分布式训练技术,大幅提升了训练效率。同时,模型经过量化优化,能够在推理阶段显著降低计算资源消耗。

  • 多语言支持

    DeepSeek 支持多种语言的处理,包括中文、英文、西班牙语、法语等,能够满足全球化业务的需求。


接下来介绍部署DeepSeek模型,介绍两种常见的部署方式:容器云部署和极速部署

2.部署方式一:容器云部署DeepSeek 

2.1 容器云配置

首先登录蓝耘元生代智算云平台

https://cloud.lanyun.net/#/registerPage?promoterCode=11f606c51e

选择容器云中的去新购 

然后选择合适的GPU ,有RTX4090、RTX4090 6152、RTX3090、RTX3090E5、RTX3090E582、RTX3090C6514、RTX3080等多种类型GPU可供选择。以及多样的CPU及内存和硬盘等类型可选择。

挑选后,点击如下红框处

 然后进行配置公共镜像

如下这里选择的是Miniconda框架-conda3-python版本3.12(ubuntu22.04)-cuda版本12.3

然后点击右下角确定,之后会自动跳转到容器实例页面并进行创建

可以看到刚刚选择的容器实例已运行

2.2 终端连接

接下来使用终端连接

需要下载两个软件:Xshell、Xftp(网上下载教程很多,自行下载)

如下为我使用的版本信息

 

安装完成以上两个软件后,打开Xshell软件,点击如下新建会话,或点击文件新建会话

进入如下界面

 复制服务器的如下SSH登录指令,SSH和密码,后续会使用

例如我的SSH如下

ssh -p 43xxx root@qhdlink.lanyun.net

用户名为root

协议为SSH

主机为qhdlink.lanyun.net

端口号为43xxx

然后将SSH入刚刚在Xshell的新建会话,点击连接

选择为接受并保存,或一次性接受

然后输入用户名为root ,点击确定

 然后粘贴刚刚复制的SSH登录指令的密码,点击确定

如下所示,成功连接上服务器(容器实例),我们会看到我们刚刚租用的实例的一些基本情况  

2.3 模型配置

接下来在这个Xshell界面输入代码进行模型配置

首先进行安装Ollama,Ollama 是一个轻量级AI模型运行框架,支持多个开源模型,我们将用它来运行DeepSeek。

在终端中执行如下指令开启加速:

source /etc/network_turbo

 执行如下命令来安装 Ollama:


curl -fsSL https://ollama.com/install.sh | sh

安装完成后启动 Ollama:


# 在后台运行
nohup ollama start >> ollama.log 2>&1 &

# 查看实时日志
tail -f ollama.log

接下来就可安装运行DeepSeek-R1了

ollama run deepseek-r1:1.5b

至此,我们已经成功在蓝耘容器平台上部署了一个DeepSeek-R1:1.5B模型了

耘元生代容器平台支持快速部署DeepSeek多款领先AI模型,只需通过修改Ollama指令即可完成其他DeepSeek模型部署,其余步骤不变。比如要运行一个DeepSeek-V3,执行如下命令即可:

ollama run deepseek-v3

注意:不用时,记得关机容器实例(按小时计费的,可节省成本) 

3.部署方式二:极速部署DeepSeek 

我们也可以直接从应用市场进行部署

点击蓝耘平台的应用市场,可以根据自己的使用场景灵活选择

点击部署即可选择GPU型号进行部署 

自动跳转到如下工作空间后等待创建成功 

然后点击快速应用即可 

随后会跳转到Deepseek登录界面 ,此时需要电子邮箱和密码

 我们返回应用市场,点击查看详情

复制粘贴默认账号密码即可 

【默认账号:lanyunuser@lanyun.net 密码:lanyunuser】

点击登录 即可

 登录成功如下界面

 此外还支持多种DeepSeek模型的切换和微调

Logo

助力广东及东莞地区开发者,代码托管、在线学习与竞赛、技术交流与分享、资源共享、职业发展,成为松山湖开发者首选的工作与学习平台

更多推荐