使用容器进行 RAG 开发
先决条件
完成 将 RAG 应用程序容器化。
概览
在本节中,您将学习如何设置开发环境以访问您的生成式 RAG 应用程序所需的所有服务。 这包括
- 添加本地数据库
- 添加本地或远程 LLM 服务
**注意**
您可以在 GenAI Stack
完成 将 RAG 应用程序容器化。
在本节中,您将学习如何设置开发环境以访问您的生成式 RAG 应用程序所需的所有服务。 这包括
**注意**
您可以在 GenAI Stack
访问应用程序。打开浏览器并在 http://localhost:8501 示例应用程序支持 Ollama 在容器中运行 Ollama 时,您应该拥有支持 CUDA 的 GPU。虽然您可以在没有受支持 GPU 的情况下在容器中运行 Ollama,但性能可能无法接受。只有 Linux 和 Windows 11 支持对容器的 GPU 访问。 要在容器中运行 Ollama 并提供 GPU 访问权限 安装必备组件。 有关 Compose 说明的更多详细信息,请参阅 使用 Docker Compose 打开 GPU 访问权限。 Ollama 容器启动并运行后,可以使用 拉取 Ollama 模型可能需要几分钟时间。 要在容器外运行 Ollama 从 docker-compose.yaml
文件已包含必要的说明。在您自己的应用程序中,您需要在 docker-compose.yaml
中添加 Ollama 服务。以下是更新后的 docker-compose.yaml
ollama:
image: ollama/ollama
container_name: ollama
ports:
- "8000:8000"
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: 1
capabilities: [gpu]
tools
文件夹内的 download_model.sh
,使用以下命令. ./download_model.sh <model-name>
docker-compose.yaml
中删除 ollama
服务,并正确更新 winy
服务中的连接变量。- OLLAMA=http://ollama:11434
+ OLLAMA=<your-url>
此时,您的 Compose 文件中包含以下服务
应用程序运行后,打开浏览器并在 http://localhost:8501 在本节中,您学习了如何设置开发环境以提供对 GenAI 应用程序所需的所有服务的访问权限。 相关信息