프로그래밍

[LLM] Docker로 Ollama + Open WebUI 설치 (CPU 전용)

Victory_HA 2025. 6. 18. 22:36

요약

  • Docker Compose 하나로 Ollama LLM + Web UI 구성
  • GPU 없이 CPU 환경에서도 사용 가능
  • 모델 다운로드 후 웹에서 바로 채팅

1. 준비 사항

  • Docker & Docker Compose 설치
  • 11434(LLM API), 3000(Web UI) 포트 사용 가능해야 함

2. docker-compose.yml

version: '3.8'
services:
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    volumes:
      - ollama_data:/root/.ollama
    ports:
      - "11434:11434"
    restart: unless-stopped

  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    volumes:
      - openwebui_data:/app/backend/data
    ports:
      - "3000:8080"
    depends_on:
      - ollama
    environment:
      - OLLAMA_BASE_URL=http://ollama:11434
    extra_hosts:
      - "host.docker.internal:host-gateway"
    restart: unless-stopped

volumes:
  ollama_data:
  openwebui_data:
  • GPU 옵션 제거 → CPU 환경 최적화
  • WebUI → Ollama 연동 (OLLAMA_BASE_URL)

3. 실행 명령

$ docker compose up -d        # 백그라운드 실행
$ docker compose logs -f      # 로그 확인

4. 모델 다운로드 & 사용

$ docker exec -it ollama ollama pull gemma3:latest

ollama에서 다운로드 받은 model list를 확인 방법

$ docker exec -it ollama bash
  • bash실행 후 아래 명령어로 Ollama model list 확인
    ollama list