智能体助手部署

创建时间:2025-10-24 最近修改时间:2025-10-24

#1. 智能体助手部署

#1.1 前提条件

已在 K8s 上部署 DeepFlow 企业版(6.6 或更高版本),可参考以下文档。如使用其他版本,请通过工单沟通。

#1.1.1 部署参数

通过修改 values-custom.yaml 启用 dfWebAi、dfAnalyze 组件,可以启用智能体助手页面。同时,可以通过配置环境变量 env 来选择和配置使用的大模型。添加如下内容:

dfWebAi:
  enabled: true # 默认为false
dfAnalyze:
  enabled: true # 默认为false
  env:
    # 环境变量配置
1
2
3
4
5
6

#1.1.2 接入模型

以 DeepSeek 为例,添加以下配置。定制化模型的参数请通过工单进行沟通

dfAnalyze:
  env:
    ENV_AI_TYPE: deepseek // 大模型的名称
    DEEPSEEK_API_KEY: "xxx" // DeepSeek 的 ApiKey
    DEEPSEEK_BASE_URL: "xxx" // DeepSeek的URL,根据客户实际环境地址设置
    DEEPSEEK_MODEL: "" // 可不设置此项,默认是R1,可选的有 'deepseek-reasoner'(R1)和'deepseek-chat'(V3)
    DEEPSEEK_MAX_TOKENS: "" //可不设置此项,默认值:8192,若不确定具体值,请勿随意修改
1
2
3
4
5
6
7

#1.1.2.1 部署智能体助手组件:

/usr/local/deepflow/bin/deepflow-deploy -s
1

#1.1.2.2 卸载智能体助手组件:

/usr/local/deepflow/bin/deepflow-deploy -es
1

#2. DeepFlow Ai-web 组件部署

#2.1 架构图

label

label

注意:

  • 智能体的「处置方案」和「场景编排」这两个功能需要依赖嵌入模型。注意嵌入模型和 LLM 模型不是同一个模型
  • LLM 模型需要首先对接到智能体 Backend 中,在 df-analyze、
  • LLM 的部署中需要的 llmurl 都是指经过智能体 Backend 暴露出来的端口

#2.1.1 部署方案:

前提条件:

  • v6.6 环境必须更新 patch 到 46 以上
  • openebs必须安装,可通过如下命令检查
kubectl get pod -n openebs
有如下返回即表示正常
[root@iZ2ze2qiflhjmrs95gs5b8Z df-ai-deploy]# kubectl get pod -nopenebs
NAME                                           READY   STATUS    RESTARTS       AGE
openebs-localpv-provisioner-796d94dcc7-h76sx   1/1     Running   4 (102m ago)   4d8h
openebs-ndm-brrt2                              1/1     Running   3 (102m ago)   4d8h
openebs-ndm-operator-68d76d5674-th5sw          1/1     Running   3 (102m ago)   4d8h
1
2
3
4
5
6
7

#2.1.1.1 下载 DeepFlow 智能体组件 chart 包和部署方案

  • 文件位置: https://publicshare-unsafe.oss-cn-beijing.aliyuncs.com/v6.6/df-ai-deploy.tar.gz
#找个目录用于存放DeepFlow 智能体组件的chart
cd xxxx
tar -xzf df-ai-deploy.tar.gz 

cat df-ai-deploy/charts/value-clustom.yaml
global:
  imagePullSecrets: []  #实际环境记得修改
  mysqlByProxysql: true #实际环境记得修改
  image:
    repository: __FIXME_REGISTRY_URL__ #仓库地址 #实际环境记得修改
  password:
    mysql: YSDeepFlow@3q302 #实际环境记得修改
    redis: YSDeepFlow@3q302 #实际环境记得修改
  llmUrl: "http://llm_server" # 需要front-end以及composer组件访问该地址

dfWebComposer:
  df-web-composer_tag: __FIXME_IMAGE_TAG__ #实际环境记得修改

dfWebNext:
  df-web-next_tag: __FIXME_IMAGE_TAG__ #实际环境记得修改

frontEnd:
  apientry_tag: __FIXME_IMAGE_TAG__ #实际环境记得修改0.

dfAnalyze:
  df-analyze_tag: __FIXME_IMAGE_TAG__ #实际环境记得修改
  embeddingServer: "" #从研发处获取
  embeddingPort: "" #从研发处获取
  embeddingModelName: "" #从研发处获取
# weaviate storage 配置
storage:
  size: 32Gi
  storageClassName: "openebs-hostpath"

# 自行将相关组件的镜像上传到DeepFlow镜像仓库,所有镜像的版本找`研发`获取

# 部署
cd df-ai-deploy 
bash bin/df-ai-deploy -i
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39

#2.1.1.2 注意事项

  • 每次打patch/通过ISO升级后,front-end的配置会还原如需继续使用智能体请执行 bash bin/df-ai-deploy -uf
  • 更新智能体组件,修改df-ai-deploy/charts/value-clustom.yaml 部署参数后执行 bash bin/df-ai-deploy -u
  • 如之前部署过智能体,请先卸载。 helm uninstall xxx -ndeepflow
  • 本脚本对6.6的deepflow的部署改动只有front-end组件,其余组件均是新增,如需卸载并还原6.6配置,请执行 bash bin/df-ai-deploy -e deepflow-deploy -uo front-end
  • 目前仍需手动上传镜像到仓库,后面会将镜像包打入合集(脚本仅适配自建仓库)

#3. DeepFlow 智能体组件部署

前提条件:

  • GPU 服务器已经安装好驱动 检查驱动
英伟达:nvidia-smi 
昇腾:npu-smi info 
1
2

主要是部署以下三个组件:

  • DeepFlow 智能体引擎部署 (如有 GPU 服务器则部署在 GPU 服务器上,如用客户大模型,可部署在 DeepFlow 集群 or 单独虚拟机部署)
  • DeepFlow 推理大模型部署(必须 GPU 推理)
  • DeepFlow 嵌入大模型部署(推荐 CPU 推理)

#3.1 软件包地址

路径 : https://publicshare-unsafe.oss-cn-beijing.aliyuncs.com/llm/

文件list

DeepFlow-LLM-Embeddings.zip
DeepFlow-LLM.zip
deepflow-engine-arm.tar
deepflow-engine-x86.tar
deepflow-vllm.tar
docker26-centos-x86.tar.gz
docker26-centos-arm.tar.gz
embeddings-server-x86.tar
embeddings-server-arm.tar
ascend/ascend.zip
ascend/docker-arm64.zip
ascend/vllm-ascend-v0.9.2rc2-fixed.tar
ascend/run-docker-vllm-ascend.sh
1
2
3
4
5
6
7
8
9
10
11
12
13

#3.1.1 运行智能体引擎

docker run -d --name deepflow-engine -p 8080:8080 -p 8088:8088 -p 8081:8081 -e OPENAI_API_HOST="http://10.1.23.86:8000" -e OPENAI_API_PATH="/v1/chat/completions" -e OPENAI_API_KEY="sk-yunshan-networks-3302"   --restart unless-stopped  hub.deepflow.yunshan.net/dev/deepflow-engine:release-general
# 挂载的环境变量需要根据实际环境自行去改
1
2

#3.1.2 运行嵌入大模型

docker load -i embeddings-server-x86.tar
docker load -i embeddings-server-arm.tar
unzip DeepFlow-LLM-Embeddings.zip -d /models/ 
docker run -d -p 8001:8001 --restart unless-stopped -v /models:/models --name deepflow-vllm-embeddings -e MODEL_NAME="/models/DeepFlow-LLM-Embeddings" hub.deepflow.yunshan.net/dev/embeddings-server:dev
1
2
3
4

#3.1.2.1 测试嵌入的脚本

#!/bin/bash
OPT=$1
if [[ "$OPT" == "-h" || "OPT" == "--help" ]]; then
    echo "Usage: $0 \"<question>\""
    exit 0
fi

REQUEST=$1
if [[ -z "$REQUEST" ]]; then
    REQUEST="你好"
fi

MODEL_SERVER=localhost
PORT=8001
API_KEY="sk-yunshan-networks-3302"
MODEL_NAME="/models/DeepFlow-LLM-Embeddings"

request_api()
{
    curl -k -X POST "http://$MODEL_SERVER:$PORT/v1/embeddings" \
         -H "Authorization: Bearer $API_KEY" \
         -H "Content-Type: application/json" -d "{
           \"model\": \"$MODEL_NAME\",
           \"input\": \"$REQUEST\"
         }"
}

request_api


bash embeddings_test.sh   hello
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

#3.1.3 运行推理大模型

#3.1.3.1 NVIDIA

目前部署推理大模型支持的显卡型号系列为 H20,A10

docker load -i deepflow-vllm.tar
unzip DeepFlow-LLM.zip -d models/

docker run -d --network host --runtime=nvidia --restart unless-stopped --gpus all --shm-size=16g -v /models:/models --name deepflow-vllm dfcloud-image-registry-vpc.cn-beijing.cr.aliyuncs.com/public/deepflow-vllm:v0.8.5.post1
1
2
3
4

#3.1.3.2 Ascend

目前部署推理大模型支持的显卡型号系列为 910B

docker load -i vllm-ascend.tar
# 推理运行模型
export IMAGE=quay.io/ascend/vllm-ascend:v0.9.0rc2-fixed

docker run -d \
--name vllm-ascend \
--device /dev/davinci0 \
--device /dev/davinci1 \
--device /dev/davinci_manager \
--device /dev/devmm_svm \
--device /dev/hisi_hdc \
-v /usr/local/dcmi:/usr/local/dcmi \
-v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \
-v /usr/local/Ascend/driver/lib64/:/usr/local/Ascend/driver/lib64/ \
-v /usr/local/Ascend/driver/version.info:/usr/local/Ascend/driver/version.info \
-v /etc/ascend_install.info:/etc/ascend_install.info \
-v /root/.cache:/root/.cache \
-p 800:800 \
-v /var/lib/docker/deepflow:/mnt \
-e VLLM_USE_V1=1 \
-e VLLM_USE_MODELSCOPE=True \
-e PYTORCH_NPU_ALLOC_CONF=max_split_size_mb:256 \
--restart=unless-stopped $IMAGE \
vllm serve /mnt/DeepFlow-LLM --tensor-parallel-size 2 --max-model-len 16384 --gpu-memory-utilization 0.9 --served-model-name deepflow-ai/DeepFlow-LLM --api-key sk-yunshan-networks-3302 --port 800
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24