금융 PDF → 청킹 → 임베딩 → Reranker → 출처 인용 답변. 프로덕션 품질 RAG 완성.
금융 PDF 리포트를 자동으로 청킹 + 임베딩 + Vector DB 저장하는 완전 자동 파이프라인.
chunk_size=1000, overlap=200source, page, chunk_id, uploaded_atchunk_size=500 : 정밀 · 맥락 부족 (FAQ용) chunk_size=1000 : ⭐ 추천 · 대부분 경우 chunk_size=2000 : 맥락 우수 · 검색 정밀도 저하 overlap=200 : 20% · 표준 overlap=100 : 10% · 구조화 문서 overlap=300 : 30% · 중요 정보 많은 문서
| A. PDF 3개 처리 완료 | 5점 |
| B. 청킹 파라미터 근거 | 4점 |
| C. metadata 풍부함 | 5점 |
| D. Vector DB 정상 저장 | 3점 |
| E. 처리 통계 (총 청크 수) 확인 | 3점 |
Vector 검색만 vs Vector + Reranker의 품질 차이를 수치로 증명.
| A. Reranker 연결 설정 | 4점 |
| B. 비교 실험 설계 엄밀성 | 5점 |
| C. 5개 질문 다양성 | 3점 |
| D. 수동 채점 객관성 | 4점 |
| E. 개선율 수치 리포트 | 4점 |
Vector DB 내용을 Claude가 읽고 출처 파일명 + 페이지까지 정확히 인용하며 답변하는 챗봇.
(출처 1: FOMC_202503.pdf p.4) 형식 인용 필수| A. 출처 인용 형식 정확성 | 6점 |
| B. 환각 방지 테스트 통과 | 5점 |
| C. 프롬프트 설계 품질 | 4점 |
| D. 답변 길이·가독성 | 3점 |
| E. 로그 기록 | 2점 |
"이 RAG가 얼마나 정확한가?"를 정량 측정하는 벤치마크 파이프라인.
Recall@K = (Top-K 안에 정답이 있는 질문 수) / (전체 질문 수) 예) 10개 질문 중 Top-3 안에 정답이 7개 포함 → Recall@3 = 70% 목표: 기본 RAG: 40~60% + Reranker: 70~85% + 계층 청킹: 85~91% (부록 B 참조)
| A. 테스트 세트 품질 | 5점 |
| B. Recall 측정 정확성 | 5점 |
| C. Vector vs Hybrid 비교 | 4점 |
| D. 실패 케이스 분석 | 3점 |
| E. 개선안 구체성 | 3점 |
본인 투자 메모·관심 리포트·공부 노트를 Vector DB에 축적하고 대화형으로 활용하는 개인 RAG.
| A. 문서 20개 이상 축적 | 4점 |
| B. 카테고리 체계 설계 | 4점 |
| C. Discord 인터랙션 구현 | 4점 |
| D. 답변 품질·사용성 | 5점 |
| E. 실사용 로그 풍부함 | 3점 |