vectordb: - name: chroma_dragonkue2 db_type: chroma client_type: persistent embedding_model: huggingface_drangonku-v2-ko collection_name: huggingface_drangonku-v2-ko path: ${PROJECT_DIR}/resources/chroma node_lines: - node_line_name: retrieve_node_line # Arbitrary node line name nodes: - node_type: retrieval strategy: metrics: [ retrieval_f1, retrieval_recall, retrieval_precision, retrieval_ndcg, retrieval_map, retrieval_mrr ] speed_threshold: 10 top_k: 5 modules: - module_type: bm25 bm25_tokenizer: [ ko_kiwi ] # ko_kiwi, ko_okt - module_type: vectordb vectordb: chroma_dragonkue2 # chromadb - module_type: hybrid_cc normalize_method: [ mm, tmm, z, dbsf ] target_modules: ('bm25', 'vectordb') weight_range: (0.6, 0.4) test_weight_size: 101 - node_type: passage_reranker # re-ranker strategy: metrics: - retrieval_recall - retrieval_precision - retrieval_map modules: - module_type: dragonkue2 top_k: 3 - node_line_name: post_retrieve_node_line # 생성노드 nodes: - node_type: prompt_maker strategy: metrics: - metric_name: bleu - metric_name: meteor - metric_name: rouge - metric_name: sem_score embedding_model: huggingface_drangonku-v2-ko # raise ValueError("Only one embedding model is supported") lang: ko generator_modules: - module_type: llama_index_llm llm: ollama model: gemma3:12b request_timeout: 3000.0 modules: - module_type: fstring prompt: - | ### 작업: 지침에 따라 제공된 컨텍스트를 활용하여 사용자 질문에 답변하세요. ### 지침: - 답을 모를 경우, 모른다고 명확히 말하세요. - 확신이 없다면, 사용자에게 추가 설명을 요청하세요. - 사용자의 질문과 동일한 언어로 답변하세요. - 컨텍스트가 읽기 어렵거나 품질이 낮을 경우, 이를 사용자에게 알리고 최선의 답변을 제공하세요. - 컨텍스트에 답이 없지만 알고 있는 내용이라면, 이를 사용자에게 설명하고 자신의 지식을 바탕으로 답변하세요. - XML 태그를 사용하지 마세요. ### 출력: 사용자의 질문에 대해 명확하고 직접적인 답변을 제공하세요. {retrieved_contents} {query} - node_type: generator # Gen-LLM strategy: metrics: - metric_name: bleu - metric_name: meteor - metric_name: rouge - metric_name: sem_score modules: - module_type: llama_index_llm llm: ollama model: gemma3:12b # deepseek-r1:14b, aya-expanse:8b temperature: 0.0 request_timeout: 300.0 batch: 8 llm: ollama model: phi4 # deepseek-r1:14b, aya-expanse:8b temperature: 0.0 request_timeout: 300.0 batch: 8