vectordb:
- name: chroma_dragonkue2
db_type: chroma
client_type: persistent
embedding_model: huggingface_drangonku-v2-ko
collection_name: huggingface_drangonku-v2-ko
path: ${PROJECT_DIR}/resources/chroma
node_lines:
- node_line_name: retrieve_node_line # Arbitrary node line name
nodes:
- node_type: retrieval
strategy:
metrics: [ retrieval_f1, retrieval_recall, retrieval_precision,
retrieval_ndcg, retrieval_map, retrieval_mrr ]
speed_threshold: 10
top_k: 5
modules:
- module_type: bm25
bm25_tokenizer: [ ko_kiwi ] # ko_kiwi, ko_okt
- module_type: vectordb
vectordb: chroma_dragonkue2 # chromadb
- module_type: hybrid_cc
normalize_method: [ mm, tmm, z, dbsf ]
target_modules: ('bm25', 'vectordb')
weight_range: (0.6, 0.4)
test_weight_size: 101
- node_type: passage_reranker # re-ranker
strategy:
metrics:
- retrieval_recall
- retrieval_precision
- retrieval_map
modules:
- module_type: dragonkue2
top_k: 3
- node_line_name: post_retrieve_node_line # 생성노드
nodes:
- node_type: prompt_maker
strategy:
metrics:
- metric_name: bleu
- metric_name: meteor
- metric_name: rouge
- metric_name: sem_score
embedding_model: huggingface_drangonku-v2-ko # raise ValueError("Only one embedding model is supported")
lang: ko
generator_modules:
- module_type: llama_index_llm
llm: ollama
model: gemma3:12b
request_timeout: 3000.0
modules:
- module_type: fstring
prompt:
- |
### 작업:
지침에 따라 제공된 컨텍스트를 활용하여 사용자 질문에 답변하세요.
### 지침:
- 답을 모를 경우, 모른다고 명확히 말하세요.
- 확신이 없다면, 사용자에게 추가 설명을 요청하세요.
- 사용자의 질문과 동일한 언어로 답변하세요.
- 컨텍스트가 읽기 어렵거나 품질이 낮을 경우, 이를 사용자에게 알리고 최선의 답변을 제공하세요.
- 컨텍스트에 답이 없지만 알고 있는 내용이라면, 이를 사용자에게 설명하고 자신의 지식을 바탕으로 답변하세요.
- XML 태그를 사용하지 마세요.
### 출력:
사용자의 질문에 대해 명확하고 직접적인 답변을 제공하세요.
{retrieved_contents}
{query}
- node_type: generator # Gen-LLM
strategy:
metrics:
- metric_name: bleu
- metric_name: meteor
- metric_name: rouge
- metric_name: sem_score
modules:
- module_type: llama_index_llm
llm: ollama
model: gemma3:12b # deepseek-r1:14b, aya-expanse:8b
temperature: 0.0
request_timeout: 300.0
batch: 8
llm: ollama
model: phi4 # deepseek-r1:14b, aya-expanse:8b
temperature: 0.0
request_timeout: 300.0
batch: 8