인퍼런스 레이어 구축
This commit is contained in:
32
model_services/deepseek_ocr/Dockerfile
Normal file
32
model_services/deepseek_ocr/Dockerfile
Normal file
@@ -0,0 +1,32 @@
|
||||
# 1. vLLM 호환을 위해 NVIDIA CUDA 베이스 이미지 선택
|
||||
# 참고: vLLM 버전에 따라 적절한 CUDA 버전을 선택해야 할 수 있습니다.
|
||||
FROM nvidia/cuda:12.1.0-devel-ubuntu22.04
|
||||
|
||||
# 2. 환경 변수 설정 및 기본 패키지 설치
|
||||
ENV DEBIAN_FRONTEND=noninteractive
|
||||
RUN apt-get update && apt-get install -y \
|
||||
python3.9 \
|
||||
python3.9-pip \
|
||||
git \
|
||||
&& rm -rf /var/lib/apt/lists/*
|
||||
|
||||
# python3.9을 기본 python/pip으로 설정
|
||||
RUN update-alternatives --install /usr/bin/python python /usr/bin/python3.9 1 && \
|
||||
update-alternatives --install /usr/bin/pip pip /usr/bin/pip 1
|
||||
|
||||
# 3. 작업 디렉토리 설정
|
||||
WORKDIR /app
|
||||
|
||||
# 4. 소스 코드 및 의존성 파일 복사
|
||||
# (main.py, requirements.txt, deepseek_ocr.py, process/, config.py 등 모든 파일)
|
||||
COPY . .
|
||||
|
||||
# 5. Python 의존성 설치
|
||||
# vLLM은 torch를 필요로 하므로 함께 설치합니다.
|
||||
RUN pip install --no-cache-dir -r requirements.txt
|
||||
|
||||
# 6. 서비스 포트 노출
|
||||
EXPOSE 8000
|
||||
|
||||
# 7. FastAPI 서버 실행
|
||||
CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "8000"]
|
||||
Reference in New Issue
Block a user