Appearance
3.2.VueJS开发导师:基于dify+deepseek的实现
dify是目前非常受欢迎的开源AI应用开发平台,支持本地化部署。这节我们就来本地化部署下dify平台,然后创建一个可以调用本地deepseek模型的AI 智能体。
环境准备
1.安装 Docker
下载地址:https://www.docker.com/products/docker-desktop/
安装完成后,在终端运行:
bash
docker --version
docker-compose --version
启动 Docker Desktop 应用,等待服务就绪
2.安装 Ollama
下载地址:https://ollama.ai/download
安装完成后,在终端输入 ollama 查看命令是否生效
测试拉取模型:
bash
ollama pull llama2
ollama run llama2
Dify 的本地部署
Dify 是一个开源的 AI 应用平台,支持可视化配置和模型集成。
1.获取 Dify 源码或镜像
你可以选择以下方式之一:
方法一:使用 Docker 镜像(推荐)
bash
docker pull langgenius/dify-api:latest
方法二:克隆 GitHub 源码
bash
git clone https://github.com/langgenius/dify.git
cd dify
使用 Docker 启动服务
进入项目目录后执行:
bash
cd dify/docker
docker-compose up -d
这将启动 Dify 的后端 API 和前端 UI。
修改配置文件 编辑 .env 文件,添加以下内容以连接本地模型:
text
MODEL_PROVIDER=ollama
OLLAMA_API_URL=http://host.docker.internal:11434
DEFAULT_MODEL=deepseek
⚠️ 注意:Mac 上 Docker 使用的是虚拟机环境,所以必须使用 host.docker.internal 来访问本机服务
验证部署状态
打开浏览器访问:
http://localhost:3000
查看 Dify Web 页面是否正常加载。
同时可以测试 API 是否正常工作:
bash
curl http://localhost:5001/api/status
如果返回 "status": "ok",说明服务正常。
DeepSeek 的本地部署
DeepSeek 是由 DeepSeek 团队训练的一系列大语言模型。我们将在本地运行其推理服务。
下载并安装 DeepSeek 模型
由于版权原因,你需要从官方渠道获取 DeepSeek 模型权重文件。假设你已经下载好了模型文件,保存路径如下:
~/models/deepseek/
使用 Ollama 部署 DeepSeek 创建一个 Modelfile 文件,内容如下:
text
FROM ~/models/deepseek
然后执行加载命令:
bash
ollama create deepseek -f Modelfile
加载完成后,运行模型:
bash
ollama run deepseek
随便输入一些提示词,比如:
请帮我写一个 Vue 组件,功能是点击按钮显示当前时间。
看看是否有输出结果。
构建智能体
1.配置使用本地部署的 DeepSeek 模型
2.创建智能体和调试优化