
요약Docker Compose 하나로 Ollama LLM + Web UI 구성GPU 없이 CPU 환경에서도 사용 가능모델 다운로드 후 웹에서 바로 채팅1. 준비 사항Docker & Docker Compose 설치11434(LLM API), 3000(Web UI) 포트 사용 가능해야 함2. docker-compose.ymlversion: '3.8'services: ollama: image: ollama/ollama:latest container_name: ollama volumes: - ollama_data:/root/.ollama ports: - "11434:11434" restart: unless-stopped open-webui: image: gh..