38 lines
1.2 KiB
YAML
38 lines
1.2 KiB
YAML
1version: '3.8'
|
|
|
|
services:
|
|
api_gateway:
|
|
build:
|
|
context: ./api_gateway
|
|
ports:
|
|
- "80:8000" # 호스트의 80번 포트를 게이트웨이의 8000번 포트로 연결
|
|
networks:
|
|
- vlm_network
|
|
depends_on:
|
|
- deepseek_ocr # deepseek_ocr 서비스가 시작된 후에 게이트웨이를 시작
|
|
restart: always
|
|
|
|
deepseek_ocr:
|
|
build:
|
|
context: ./model_services/deepseek_ocr
|
|
# deploy 키를 사용하여 GPU 리소스를 요청합니다.
|
|
# 이 설정은 docker-compose up --build 대신 docker stack deploy 또는 docker compose up --deploy와 함께 사용할 때 공식적으로 지원됩니다.
|
|
# 일반적인 docker-compose up에서도 동작하는 경우가 많습니다.
|
|
deploy:
|
|
resources:
|
|
reservations:
|
|
devices:
|
|
- driver: nvidia
|
|
count: 1 # 1개의 GPU를 할당
|
|
capabilities: [gpu]
|
|
environment:
|
|
- NVIDIA_VISIBLE_DEVICES=all # 컨테이너가 모든 GPU를 볼 수 있도록 설정
|
|
- MODEL_PATH=deepseek-ai/deepseek-vl-7b-base # 사용할 모델 지정 (필요시 수정)
|
|
networks:
|
|
- vlm_network
|
|
restart: on-failure
|
|
|
|
networks:
|
|
vlm_network:
|
|
driver: bridge
|