33 lines
1.1 KiB
Docker
33 lines
1.1 KiB
Docker
# 1. vLLM 호환을 위해 NVIDIA CUDA 베이스 이미지 선택
|
|
# 참고: vLLM 버전에 따라 적절한 CUDA 버전을 선택해야 할 수 있습니다.
|
|
FROM nvidia/cuda:12.1.0-devel-ubuntu22.04
|
|
|
|
# 2. 환경 변수 설정 및 기본 패키지 설치
|
|
ENV DEBIAN_FRONTEND=noninteractive
|
|
RUN apt-get update && apt-get install -y \
|
|
python3.9 \
|
|
python3.9-pip \
|
|
git \
|
|
&& rm -rf /var/lib/apt/lists/*
|
|
|
|
# python3.9을 기본 python/pip으로 설정
|
|
RUN update-alternatives --install /usr/bin/python python /usr/bin/python3.9 1 && \
|
|
update-alternatives --install /usr/bin/pip pip /usr/bin/pip 1
|
|
|
|
# 3. 작업 디렉토리 설정
|
|
WORKDIR /app
|
|
|
|
# 4. 소스 코드 및 의존성 파일 복사
|
|
# (main.py, requirements.txt, deepseek_ocr.py, process/, config.py 등 모든 파일)
|
|
COPY . .
|
|
|
|
# 5. Python 의존성 설치
|
|
# vLLM은 torch를 필요로 하므로 함께 설치합니다.
|
|
RUN pip install --no-cache-dir -r requirements.txt
|
|
|
|
# 6. 서비스 포트 노출
|
|
EXPOSE 8000
|
|
|
|
# 7. FastAPI 서버 실행
|
|
CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "8000"]
|