1version: '3.8' services: api_gateway: build: context: ./api_gateway ports: - "80:8000" # 호스트의 80번 포트를 게이트웨이의 8000번 포트로 연결 networks: - vlm_network depends_on: - deepseek_ocr # deepseek_ocr 서비스가 시작된 후에 게이트웨이를 시작 restart: always deepseek_ocr: build: context: ./model_services/deepseek_ocr # deploy 키를 사용하여 GPU 리소스를 요청합니다. # 이 설정은 docker-compose up --build 대신 docker stack deploy 또는 docker compose up --deploy와 함께 사용할 때 공식적으로 지원됩니다. # 일반적인 docker-compose up에서도 동작하는 경우가 많습니다. deploy: resources: reservations: devices: - driver: nvidia count: 1 # 1개의 GPU를 할당 capabilities: [gpu] environment: - NVIDIA_VISIBLE_DEVICES=all # 컨테이너가 모든 GPU를 볼 수 있도록 설정 - MODEL_PATH=deepseek-ai/deepseek-vl-7b-base # 사용할 모델 지정 (필요시 수정) networks: - vlm_network restart: on-failure networks: vlm_network: driver: bridge