Files
VLM-OCR/model_services/deepseek_ocr/Dockerfile
2025-10-23 17:44:32 +09:00

33 lines
1.1 KiB
Docker

# 1. vLLM 호환을 위해 NVIDIA CUDA 베이스 이미지 선택
# 참고: vLLM 버전에 따라 적절한 CUDA 버전을 선택해야 할 수 있습니다.
FROM nvidia/cuda:12.1.0-devel-ubuntu22.04
# 2. 환경 변수 설정 및 기본 패키지 설치
ENV DEBIAN_FRONTEND=noninteractive
RUN apt-get update && apt-get install -y \
python3.9 \
python3.9-pip \
git \
&& rm -rf /var/lib/apt/lists/*
# python3.9을 기본 python/pip으로 설정
RUN update-alternatives --install /usr/bin/python python /usr/bin/python3.9 1 && \
update-alternatives --install /usr/bin/pip pip /usr/bin/pip 1
# 3. 작업 디렉토리 설정
WORKDIR /app
# 4. 소스 코드 및 의존성 파일 복사
# (main.py, requirements.txt, deepseek_ocr.py, process/, config.py 등 모든 파일)
COPY . .
# 5. Python 의존성 설치
# vLLM은 torch를 필요로 하므로 함께 설치합니다.
RUN pip install --no-cache-dir -r requirements.txt
# 6. 서비스 포트 노출
EXPOSE 8000
# 7. FastAPI 서버 실행
CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "8000"]