설치 방법
설치 , 배포 방식
- Docker
공식적으로 지원되며 대부분의 사용자에게 권장되는 방법입니다. - Python :
리소스가 적게 필요한 환경 또는 수동 설정을 원하는 사용자를 위한 방법입니다. - Kubernetes
확장성과 오케스트레이션이 필요한 엔터프라이즈 배포에 적합합니다.
도커로 설치 하기
1단계: Open WebUI 이미지 가져오기
GitHub Container Registry에서 최신 Open WebUI Docker 이미지를 가져옵니다.
docker pull ghcr.io/open-webui/open-webui:main
2단계: 컨테이너 실행
기본 설정으로 컨테이너를 실행합니다. 이 명령은 데이터 손실을 방지하기 위해 지속적인 데이터 저장을 위한 볼륨 매핑을 포함합니다.
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
주요 옵션
- 볼륨 매핑 (-v open-webui:/app/backend/data)
데이터의 지속적인 저장을 보장합니다. 이를 통해 컨테이너가 재시작되더라도 데이터 손실을 방지할 수 있습니다. - 포트 매핑 (-p 3000:8080)
로컬 머신의 3000번 포트에서 WebUI를 사용할 수 있도록 설정합니다.
GPU 지원 사용
Nvidia GPU를 지원하려면 docker run 명령에 --gpus all 옵션을 추가하세요.
docker run -d -p 3000:8080 --gpus all -v open-webui:/app/backend/data --name open-webui
실행
http://localhost:3000 으로 접속
- 설치된 llama3 , llama3.2 모델을 기본으로 선택 가능
- chat gpt와 유사한 ui 제공
반응형
'AI > ETC' 카테고리의 다른 글
NVIDIA의 GPU, CUDA, PyTorch, TensorRT (0) | 2025.03.10 |
---|---|
Scikit-learn을 활용한 데이터 처리와 성능 평가 (0) | 2022.05.13 |