# 《实战AI大模型》生成AI应用-第08节:基于Dify+deepseekR1搭建智能客服机器人

作者:冰河
星球:http://m6z.cn/6aeFbs (opens new window)
博客:https://binghe.gitcode.host (opens new window)
文章汇总:https://binghe.gitcode.host/md/all/all.html (opens new window)
源码获取地址:https://t.zsxq.com/0dhvFs5oR (opens new window)

大家好,我是冰河~~

Dify是一个开源的大语言模型(LLM)应用开发平台,旨在简化和加速生成式AI应用的创建和部署。该平台结合了后端即服务(Backend as Service, BaaS)和LLMOps的理念,为开发者提供了一个用户友好的界面和一系列强大的工具,使他们能够快速搭建生产级的AI应用。今天,我们就基于Dify+deepseekR1搭建智能客服机器人。

# 一、配置环境

# 1.1 环境信息

今天,我们部署DeepSeek的环境如下所示。

版本信息如下:

  • 操作系统:centos 7.9

  • docker版本:20.10.5-3

# 1.2 安装Docker环境

采用阿里云镜像源加速Docker安装过程,并进行性能优化配置:

yum install -y yum-utils device-mapper-persistent-data lvm2
yum install yum-utils -y
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum list docker-ce --showduplicates
yum install docker-ce-cli-20.10.5-3.el7 docker-ce-20.10.5-3.el7 -y
1
2
3
4
5

Docker引擎优化配置:

mkdir -p /etc/docker
cat > /etc/docker/daemon.json << EOF
{
    "max-concurrent-downloads": 10,
    "log-driver": "json-file",
    "log-level": "warn",
    "log-opts": {
        "max-size": "100m",
        "max-file": "3"
    },
    "live-restore": true,
    "exec-opts": ["native.cgroupdriver=systemd"],
    "registry-mirrors": ["https://docker.mirrors.ustc.edu.cn"],
    "storage-driver": "overlay2",
    "storage-opts": [
        "overlay2.override_kernel_check=true"
    ]
}
EOF
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19

关键配置参数解析:

  • max-concurrent-downloads:提升镜像拉取速度
  • live-restore:确保容器在Docker守护进程重启时不中断
  • registry-mirrors:配置国内镜像源加速下载
  • storage-driver:使用overlay2文件系统提高性能

启动并验证Docker服务:

systemctl daemon-reload
systemctl enable docker
systemctl restart docker
docker info | grep "Server Version"
1
2
3
4

# 二、部署Ollama

# 2.1 安装Ollama

选择Ollama作为模型服务框架,因其轻量化和易用性:

docker run --rm -v /tmp:/mnt swr.cn-south-1.myhuaweicloud.com/migrator/ollama-bin:0.5.7 cp /ollama /mnt
mv /tmp/ollama /usr/bin/
ollama -v
1
2
3

# 2.2 将ollama纳入systemd管理

将Ollama配置为systemd服务,确保服务稳定性和自动恢复

cat > /etc/systemd/system/ollama.service << EOF
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
Environment="HOME=/root"
ExecStart=/usr/bin/ollama serve
Restart=always
RestartSec=3

[Install]
WantedBy=default.target
EOF
1
2
3
4
5
6
7
8
9
10
11
12
13
14

# 2.3 配置自启动

启动ollama并开启自启动:

systemctl enable ollama
systemctl start ollama
systemctl status ollama
1
2
3

效果如下所示。

# 查看完整文章

加入冰河技术 (opens new window)知识星球,解锁完整技术文章、小册、视频与完整代码