支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

Windows WSL 安装 RAGFlow 详细教程

发布日期:2025-04-11 07:17:43 浏览次数: 1790
作者:AI应用之旅

微信搜一搜,关注“AI应用之旅”

推荐语

掌握WSL环境下RAGFlow的安装技巧,提高开发效率。

核心内容:
1. 环境准备与WSL更新至Ubuntu-22.04
2. GPU环境配置及CUDA Toolkit安装
3. Docker GPU支持配置与nvidia-container-toolkit安装

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

一、环境准备

  1. 启用WSL GPU支持

  • 确保Windows主机已安装NVIDIA驱动516.40或更高版本
  • 在PowerShell执行:
    wsl --update
    wsl --set-version Ubuntu-22.04 2
  • 系统基础配置

    sudo apt update && sudo apt full-upgrade -y
    sudo apt install build-essential git curl -y
  • 二、GPU环境配置

  1. 安装CUDA Toolkit

    wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin
    sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600
    sudo apt-key adv --fetch-keys https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/3bf863cc.pub
    sudo add-apt-repository "deb https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/ /"
    sudo apt install cuda-toolkit-12-2

    验证安装:nvidia-smi应显示GPU信息

  2. 配置Docker GPU支持

    curl -fsSL https://get.docker.com | sh
    sudo groupadd docker
    sudo usermod -aG docker $USER
    newgrp docker
    sudo systemctl enable docker

    # 安装nvidia-container-toolkit
    distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
    curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
    curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
    sudo apt update && sudo apt install -y nvidia-container-toolkit
    sudo systemctl restart docker

    验证GPU支持:docker run --gpus all nvidia/cuda:12.2.0-base-ubuntu22.04 nvidia-smi

三、部署RAGFlow

  1. 获取项目源码

    git clone https://github.com/infiniflow/ragflow.git
    cd ragflow

    建议提前安装Git LFS处理大文件

  2. 优化系统参数

    sudo sysctl -w vm.max_map_count=262144
    echo "vm.max_map_count=262144" | sudo tee -a /etc/sysctl.conf
  3. 启动服务

    docker compose -f docker-compose.yml up -d

    容器包含预配置的GPU支持

  4. 验证部署

    docker logs ragflow-web -f  # 监控实时日志
    curl http://localhost:8501  # 验证服务状态

四、Ollama模型部署

  1. 安装与配置

    curl -fsSL https://ollama.com/install.sh | sh
    ollama pull deepseek-chat
  2. GPU异常处理遇到OOM错误时执行:

    sudo systemctl stop ollama
    sudo rmmod nvidia_uvm
    sudo modprobe nvidia_uvm
    sudo systemctl start ollama

    该操作可重置GPU内存分配模块

五、常见问题排查

  1. 容器启动失败

  • 检查端口冲突:netstat -tuln | grep 8501
  • 查看详细日志:docker compose logs --tail=100
  • GPU未识别

    docker run --gpus all -it ubuntu nvidia-smi  # 验证Docker GPU支持
    nvidia-container-cli --version  # 应≥v1.12.0
  • WSL内存限制%UserProfile%\.wslconfig中添加:

    [wsl2]
    memory=16GB
    processors=8
  • 完成部署后可通过http://localhost:8501访问RAGFlow界面

    ---------------------------------------------------------------------

    如镜像源无法使用,添加下述配置:

    53AI,企业落地大模型首选服务商

    产品:场景落地咨询+大模型应用平台+行业解决方案

    承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

    联系我们

    售前咨询
    186 6662 7370
    预约演示
    185 8882 0121

    微信扫码

    添加专属顾问

    回到顶部

    加载中...

    扫码咨询