• 访问应用程序。打开浏览器并在 http://localhost:8501添加本地或远程 LLM 服务

    示例应用程序支持 Ollama


    在容器中运行 Ollama 时,您应该拥有支持 CUDA 的 GPU。虽然您可以在没有受支持 GPU 的情况下在容器中运行 Ollama,但性能可能无法接受。只有 Linux 和 Windows 11 支持对容器的 GPU 访问。

    要在容器中运行 Ollama 并提供 GPU 访问权限

    1. 安装必备组件。

    2. docker-compose.yaml 文件已包含必要的说明。在您自己的应用程序中,您需要在 docker-compose.yaml 中添加 Ollama 服务。以下是更新后的 docker-compose.yaml

      ollama:
        image: ollama/ollama
        container_name: ollama
        ports:
          - "8000:8000"
        deploy:
          resources:
            reservations:
              devices:
                - driver: nvidia
                  count: 1
                  capabilities: [gpu]

      **注意**

      有关 Compose 说明的更多详细信息,请参阅 使用 Docker Compose 打开 GPU 访问权限

    3. Ollama 容器启动并运行后,可以使用 tools 文件夹内的 download_model.sh,使用以下命令

      . ./download_model.sh <model-name>
      

    拉取 Ollama 模型可能需要几分钟时间。

    要在容器外运行 Ollama

    1. 安装

  • docker-compose.yaml 中删除 ollama 服务,并正确更新 winy 服务中的连接变量。


  • 运行您的 RAG 应用程序

    此时,您的 Compose 文件中包含以下服务

    应用程序运行后,打开浏览器并在 http://localhost:8501总结

    在本节中,您学习了如何设置开发环境以提供对 GenAI 应用程序所需的所有服务的访问权限。

    相关信息