# 1. vLLM 호환을 위해 NVIDIA CUDA 베이스 이미지 선택 # 참고: vLLM 버전에 따라 적절한 CUDA 버전을 선택해야 할 수 있습니다. FROM nvidia/cuda:12.1.0-devel-ubuntu22.04 # 2. 환경 변수 설정 및 기본 패키지 설치 ENV DEBIAN_FRONTEND=noninteractive RUN apt-get update && apt-get install -y \ python3.9 \ python3.9-pip \ git \ && rm -rf /var/lib/apt/lists/* # python3.9을 기본 python/pip으로 설정 RUN update-alternatives --install /usr/bin/python python /usr/bin/python3.9 1 && \ update-alternatives --install /usr/bin/pip pip /usr/bin/pip 1 # 3. 작업 디렉토리 설정 WORKDIR /app # 4. 소스 코드 및 의존성 파일 복사 # (main.py, requirements.txt, deepseek_ocr.py, process/, config.py 등 모든 파일) COPY . . # 5. Python 의존성 설치 # vLLM은 torch를 필요로 하므로 함께 설치합니다. RUN pip install --no-cache-dir -r requirements.txt # 6. 서비스 포트 노출 EXPOSE 8000 # 7. FastAPI 서버 실행 CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "8000"]