Skip to content

3.2.VueJS开发导师:基于dify+deepseek的实现

dify是目前非常受欢迎的开源AI应用开发平台,支持本地化部署。这节我们就来本地化部署下dify平台,然后创建一个可以调用本地deepseek模型的AI 智能体。

环境准备

1.安装 Docker

下载地址:https://www.docker.com/products/docker-desktop/

安装完成后,在终端运行:

bash
docker --version
docker-compose --version

启动 Docker Desktop 应用,等待服务就绪

2.安装 Ollama

下载地址:https://ollama.ai/download

安装完成后,在终端输入 ollama 查看命令是否生效

测试拉取模型:

bash
ollama pull llama2
ollama run llama2

Dify 的本地部署

Dify 是一个开源的 AI 应用平台,支持可视化配置和模型集成。

1.获取 Dify 源码或镜像

你可以选择以下方式之一:

方法一:使用 Docker 镜像(推荐)

bash
docker pull langgenius/dify-api:latest

方法二:克隆 GitHub 源码

bash
git clone https://github.com/langgenius/dify.git
cd dify

使用 Docker 启动服务

进入项目目录后执行:

bash
cd dify/docker
docker-compose up -d

这将启动 Dify 的后端 API 和前端 UI。

修改配置文件 编辑 .env 文件,添加以下内容以连接本地模型:

text
MODEL_PROVIDER=ollama
OLLAMA_API_URL=http://host.docker.internal:11434
DEFAULT_MODEL=deepseek
⚠️ 注意:Mac 上 Docker 使用的是虚拟机环境,所以必须使用 host.docker.internal 来访问本机服务

验证部署状态

打开浏览器访问:

http://localhost:3000

查看 Dify Web 页面是否正常加载。

同时可以测试 API 是否正常工作:

bash
curl http://localhost:5001/api/status

如果返回 "status": "ok",说明服务正常。

DeepSeek 的本地部署

DeepSeek 是由 DeepSeek 团队训练的一系列大语言模型。我们将在本地运行其推理服务。

下载并安装 DeepSeek 模型

由于版权原因,你需要从官方渠道获取 DeepSeek 模型权重文件。假设你已经下载好了模型文件,保存路径如下:

~/models/deepseek/

使用 Ollama 部署 DeepSeek 创建一个 Modelfile 文件,内容如下:

text
FROM ~/models/deepseek

然后执行加载命令:

bash
ollama create deepseek -f Modelfile

加载完成后,运行模型:

bash
ollama run deepseek

随便输入一些提示词,比如:

请帮我写一个 Vue 组件,功能是点击按钮显示当前时间。

看看是否有输出结果。

构建智能体

1.配置使用本地部署的 DeepSeek 模型

2.创建智能体和调试优化