2025-01-14 14:33:35 +09:00
2025-01-07 09:11:27 +09:00
2025-01-07 09:11:27 +09:00
2025-01-08 15:06:58 +09:00
2025-01-14 14:33:35 +09:00
2025-01-08 15:06:58 +09:00
2025-01-07 09:11:27 +09:00
2025-01-07 09:11:27 +09:00
2025-01-08 15:06:58 +09:00
2025-01-07 09:11:27 +09:00
2025-01-08 15:06:58 +09:00

FastAPI LLM Inference Framework

개요

목적

  • FastAPI를 이용한 대규모 언어 모델(LLM) 서빙 및 추론 환경 제공

특징

  • LLM을 활용하여 입력 텍스트 기반의 추론 수행
  • 다중 모델 지원: 여러 모델에 대해 순차적으로 추론 가능
  • 유연한 배치 처리: 대용량 CSV 데이터를 분할하여 효율적으로 처리
  • Redis + RQ 큐를 활용한 비동기 작업 관리 및 확장성 제공

사용하기

빌드

docker compose build

Dockerfile 상 변경은 없으나 디펜던시 변경 또는 환경 설정 업데이트가 있는 경우, --no-cache 옵션을 사용하여 캐시 없이 재빌드가 가능합니다.

실행

docker compose up

docker-compose.yml의 실행 진입점은 다음과 같습니다:

entrypoint: uvicorn main:app --reload --host 0.0.0.0 --port 8000

API

API 문서 확인

FastAPI의 자동 생성 API 문서를 확인하려면:

http://localhost:8000/docs

주요 API 엔드포인트

  1. 추론 시작 (POST /start-inference/):

    • CSV 데이터와 모델 리스트를 업로드하여 추론 작업 시작
    • 결과 파일은 자동으로 저장됨
  2. 최신 결과 다운로드 (GET /download-latest):

    • 가장 최근에 완료된 추론 결과를 다운로드

Description
No description provided
Readme 68 KiB
Languages
Python 90.1%
Dockerfile 9.9%