AI/ETC

Open WebUI 설치 및 사용법

칼쵸쵸 2025. 1. 18. 17:34

설치 방법

설치 , 배포 방식

  • Docker
    공식적으로 지원되며 대부분의 사용자에게 권장되는 방법입니다.
  • Python :
    리소스가 적게 필요한 환경 또는 수동 설정을 원하는 사용자를 위한 방법입니다.
  • Kubernetes
    확장성과 오케스트레이션이 필요한 엔터프라이즈 배포에 적합합니다.

도커로 설치 하기

1단계: Open WebUI 이미지 가져오기

GitHub Container Registry에서 최신 Open WebUI Docker 이미지를 가져옵니다.

docker pull ghcr.io/open-webui/open-webui:main

2단계: 컨테이너 실행

기본 설정으로 컨테이너를 실행합니다. 이 명령은 데이터 손실을 방지하기 위해 지속적인 데이터 저장을 위한 볼륨 매핑을 포함합니다.

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

주요 옵션

  • 볼륨 매핑 (-v open-webui:/app/backend/data)
    데이터의 지속적인 저장을 보장합니다. 이를 통해 컨테이너가 재시작되더라도 데이터 손실을 방지할 수 있습니다.
  • 포트 매핑 (-p 3000:8080)
    로컬 머신의 3000번 포트에서 WebUI를 사용할 수 있도록 설정합니다.

GPU 지원 사용

Nvidia GPU를 지원하려면 docker run 명령에 --gpus all 옵션을 추가하세요.

docker run -d -p 3000:8080 --gpus all -v open-webui:/app/backend/data --name open-webui

실행

http://localhost:3000 으로 접속

  • 설치된 llama3 , llama3.2 모델을 기본으로 선택 가능
  • chat gpt와 유사한 ui 제공
반응형

'AI > ETC' 카테고리의 다른 글

NVIDIA의 GPU, CUDA, PyTorch, TensorRT  (0) 2025.03.10
Scikit-learn을 활용한 데이터 처리와 성능 평가  (0) 2022.05.13