1.6 KiB
1.6 KiB
| 1 | node_line_name | node_type | best_module_filename | best_module_name | best_module_params | best_execution_time |
|---|---|---|---|---|---|---|
| 2 | retrieve_node_line | retrieval | 2.parquet | HybridCC | {'top_k': 10, 'normalize_method': 'dbsf', 'target_modules': ('VectorDB', 'BM25'), 'weight': 0.516, 'target_module_params': ({'top_k': 10, 'vectordb': 'chroma_dragonkue2'}, {'top_k': 10, 'bm25_tokenizer': 'ko_kiwi'})} | 2.087514579296112 |
| 3 | retrieve_node_line | passage_reranker | 0.parquet | DragonKue2 | {'top_k': 5} | 0.1218856453895568 |
| 4 | post_retrieve_node_line | prompt_maker | 0.parquet | Fstring | {'prompt': '### 작업: \n지침에 따라 제공된 컨텍스트를 활용하여 사용자 질문에 답변하세요. \n\n### 지침: \n- 답을 모를 경우, 모른다고 명확히 말하세요. \n- 확신이 없다면, 사용자에게 추가 설명을 요청하세요. \n- 사용자의 질문과 동일한 언어로 답변하세요. \n- 컨텍스트가 읽기 어렵거나 품질이 낮을 경우, 이를 사용자에게 알리고 최선의 답변을 제공하세요. \n- 컨텍스트에 답이 없지만 알고 있는 내용이라면, 이를 사용자에게 설명하고 자신의 지식을 바탕으로 답변하세요. \n- XML 태그를 사용하지 마세요. \n\n### 출력: \n사용자의 질문에 대해 명확하고 직접적인 답변을 제공하세요.\n\n<context>\n{retrieved_contents}\n</context>\n\n<user_query>\n{query}\n</user_query>\n'} | 0.0003142237663269 |
| 5 | post_retrieve_node_line | generator | 0.parquet | LlamaIndexLLM | {'llm': 'ollama', 'model': 'gemma3:12b', 'temperature': 0.0, 'request_timeout': 300.0, 'batch': 8} | 0.8519447922706604 |