프로그래밍
[LLM] Docker로 Ollama + Open WebUI 설치 (CPU 전용)
Victory_HA
2025. 6. 18. 22:36
요약
- Docker Compose 하나로 Ollama LLM + Web UI 구성
- GPU 없이 CPU 환경에서도 사용 가능
- 모델 다운로드 후 웹에서 바로 채팅
1. 준비 사항
- Docker & Docker Compose 설치
- 11434(LLM API), 3000(Web UI) 포트 사용 가능해야 함
2. docker-compose.yml
version: '3.8'
services:
ollama:
image: ollama/ollama:latest
container_name: ollama
volumes:
- ollama_data:/root/.ollama
ports:
- "11434:11434"
restart: unless-stopped
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
volumes:
- openwebui_data:/app/backend/data
ports:
- "3000:8080"
depends_on:
- ollama
environment:
- OLLAMA_BASE_URL=http://ollama:11434
extra_hosts:
- "host.docker.internal:host-gateway"
restart: unless-stopped
volumes:
ollama_data:
openwebui_data:
- GPU 옵션 제거 → CPU 환경 최적화
- WebUI → Ollama 연동 (OLLAMA_BASE_URL)
3. 실행 명령
$ docker compose up -d # 백그라운드 실행
$ docker compose logs -f # 로그 확인
4. 모델 다운로드 & 사용
$ docker exec -it ollama ollama pull gemma3:latest
- 다른 모델은 https://ollama.com/library 를 참고하여 다운로드합니다.
- 브라우저 접속: http://localhost:3000
- 최초 로그인 -> 모델 선택 -> 대화 시작
ollama에서 다운로드 받은 model list를 확인 방법
$ docker exec -it ollama bash
- bash실행 후 아래 명령어로 Ollama model list 확인
ollama list