Files
VLM-OCR/docker-compose.yml
2025-10-27 11:44:00 +09:00

38 lines
1.2 KiB
YAML

1version: '3.8'
services:
api_gateway:
build:
context: ./api_gateway
ports:
- "80:8000" # 호스트의 80번 포트를 게이트웨이의 8000번 포트로 연결
networks:
- vlm_network
depends_on:
- deepseek_ocr # deepseek_ocr 서비스가 시작된 후에 게이트웨이를 시작
restart: always
deepseek_ocr:
build:
context: ./model_services/deepseek_ocr
# deploy 키를 사용하여 GPU 리소스를 요청합니다.
# 이 설정은 docker-compose up --build 대신 docker stack deploy 또는 docker compose up --deploy와 함께 사용할 때 공식적으로 지원됩니다.
# 일반적인 docker-compose up에서도 동작하는 경우가 많습니다.
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: 1 # 1개의 GPU를 할당
capabilities: [gpu]
environment:
- NVIDIA_VISIBLE_DEVICES=all # 컨테이너가 모든 GPU를 볼 수 있도록 설정
- MODEL_PATH=deepseek-ai/deepseek-vl-7b-base # 사용할 모델 지정 (필요시 수정)
networks:
- vlm_network
restart: on-failure
networks:
vlm_network:
driver: bridge