RAG(Retrieval-Augmented Generation) 검색된 외부문서 응답생성 기술
□ RAG 기본개념
ㅇ RAG는 "Retrieval-Augmented Generation"의 약자로, AI가 검색된 외부 문서를 참고해서 정확하게 응답을 생성하는 기술입니다. LLM이 단독으로 대답할 때 발생하는 오류나 부족한 정보를 보완하기 위해 사용됩니다.
※ 대표적으로 RAG : Microsoft Copilot, Google Vertex AI, LangChain, LlamaIndex 등
□ RAG 탄생배경 및 필요성
ㅇ 기존 LLM은 훈련된 데이터만 기억해서 해석하므로 아래 문제를 해결하기 위해 RAG가 등장했습니다.
“필요한 정보를 실시간으로 찾아보고 대답”하는 구조입니다.
1. 최신 정보 반영 불가
2. 기업 내부 문서 활용 어려움
3. 잘못된 정보 생성 가능
□ RAG 동작과정
ㅇ 쉽게 말해, “AI야, 내가 A문서를 전달해줄테니 찾아보고 알려줘!”라는 개념입니다.
1. 질문 입력
2. 질문과 관련된 문서를 벡터DB에서 검색
3. 검색된 문서를 바탕으로 LLM이 답변 생성
□ RAG 주요 구성요소
□ RAG을 이용한 정보보안 분야 업무활용 사례
□ RAG 장점
□ RAG 단점
□ RAG 종류 및 접속 정보(URL)
도구/플랫폼 | 특징 | URL |
LangChain | 파이썬 기반 오픈소스 RAG 프레임워크 | https://www.langchain.com |
LlamaIndex | 문서 기반 검색+생성 특화 | https://www.llamaindex.ai |
Haystack | 오픈소스 RAG 구현 플랫폼 | https://haystack.deepset.ai |
Microsoft Copilot | Office 기반 RAG AI | https://www.microsoft.com/en-us/microsoft-copilot |
Google Vertex AI | GCP 기반 RAG 솔루션 | https://cloud.google.com/vertex-ai |
감사합니다.
생성형 AI, 제대로 이해하기 (1) | 2025.04.12 |
---|---|
LLM(대규모 언어 모델) 쉽게 이해하기 (0) | 2025.04.06 |