Gazelle RAG

Gazelle RAG

폐쇄망 환경에 최적화된 Intelligent RAG 서비스를 시작하세요.

Core Values

고객과 데이터를 가장 깊이 이해하는 AI

질문 의도와 사용자 특성을 종합적으로 분석해, 최적의 맞춤형 답변을 제공합니다.

core value visual

고품질 의사결정 지원

사용자 질의에 따라 과거 대화 이력을 실시간 조회하고,
해당 문맥의 핵심 내용만 선별·통합 분석하여 더 정교하고
신뢰도 높은 답변을 제공합니다.

AI 상담 신뢰성 향상

6단계 AI 의사결정 과정을 실시간으로 시각화하고,
사용자는 시각화된 검증 결과와 근거를
직관적으로 확인할 수 있습니다.

분석 효율성 극대화

사용자별 메모리를 기반으로 고객별 최적의
분석 경로를 선택해 불필요한 계산을 제거하고
처리 시간을 단축하며, 분석 품질을 향상시킵니다.

Features

산업 도메인 지식과 폐쇄망 환경에 특화된 Intelligent RAG

가젤 RAG는 자체 메모리 시스템을 기반으로 사용자의 대화 맥락을 실시간으로 파악하고,
필요한 도구를 자동으로 설정·실행하는 스마트 워크플로우를 제공하는 고도화된 개인 맞춤형 질의응답 솔루션입니다.

4단계 계층적 메모리 기반

개인화된 메모리 관리

질문과 함께 이전 대화 이력을 조회하여 문맥에 맞는 대화 내용을 선별·추출 후

개인화된 응답을 제공합니다.

Personalize MemoryEpisodicSemanticProcedualWorking

6단계 의사 결정 과정 시각화

지능형 Agent 파이프라인

목적 지향의 6단계 의사결정 과정을 실시간으로 시각화하고, 추론 흐름을 단계별로
명확하게 확인할 수 있습니다.
이를 통해 AI 판단 과정의 투명성과 신뢰성을 제공합니다.

Intelligent Agent6-step processGoal-orientedDecision MakingVisualize

불필요한 분석 과정 제거

문맥인식 도구 선택

고객 메모리와 현재 질의를 통합적으로 분석하고 상황에 맞는 최적의 도구를 자동으로

선택하여 개인별 맞춤형 분석을 정교하게 구현할 수 있습니다.

Context-AwareIntegrated AnalysisTool SelectionAutomationPersonalize

안정적인 RAG 서비스 운영

철저한 규제 준수

보험·증권 등 다양한 산업군의 규제를 반영하여 금지 행위를 자동으로 차단하고,
규제 준수를 통해 안정적인 RAG 서비스 운영 환경을 제공합니다.

RegulationComplianceRestrictionBlockingGuardrail

가젤 RAG를 통해 안전한 폐쇄망 환경에서
정보의 가치를 높이는
비즈니스의 혁신을 경험하세요!

Architecture

자체 메모리 시스템을 기반으로 개인화된 답변을 제공합니다.

Use Case

가젤 RAG는 AI를 활용한 비즈니스 혁신에 기여합니다.

법률/법령 질의응답

다양한 법률과 법령, 사례 등을 기반으로 한 질의응답을 통해 관련 업무를
간소화합니다.

금융/보험상품 분석 비교 및 추천

복잡한 금융상품 약관 분석 및 개인화 메모리를 통해 고객 맞춤형 상품 비교
추천을 지원합니다.

논문/보고서 심화 분석 및 활용

방대한 논문 및 보고서를 빠르게 분석 · 추출하여, 깊이 있는 연구를 가능하게 합니다.

내부지식 기반 질의응답

기업 내 지식을 활용해 정확한 답변을 제공함으로써 업무 효율과 성과를
높여줍니다.

FAQ

자주 묻는 질문

네, 가능합니다. 가젤 RAG는 설치가능한 프라이빗 LLM을 기반으로 한 서비스로 고객의 인프라 환경 내에 구축할 수 있습니다.

최신 파운데이션 LLM 중 고객의 서비스와 목적에 맞는 모델을 선정한 뒤, 자체기술로 파인튜닝하여 최적화된 모델을 제공합니다.

Episodic(고객별 상담 이력 (시간순 대화 기록)), Semantic(관련 지식 및 약관 정보), Procedural(상담 패턴 및 선호도), Working(현재 세션 컨텍스트)
총 4단계 계층적 구조로 되어 있습니다. 이를 통해 사용자에게 더 정교한 답변을 제공합니다.

네, LLM을 활용한 질의와 응답을 처리하기 위해 GPU 서버가 필요합니다. 동시 사용자 수와 모델 크기 등 조건에 따라 달라질 수 있지만 A100(40GB) 1대 이상의 GPU 인프라 환경을 추천합니다. 물론 클라우드 서비스의 인프라 이용도 가능하지만 이 경우 외부망을 이용해야 한다는 점을 고려해야 합니다.

안정적인 LLM 서비스의 운영을 위해서는 증분 데이터에 대한 지속적인 반영과 사용량 증가에 따른 오토스케일링, 모니터링 등을 위한 효과적인 관리체계가
필요합니다. Gazelle RAG는 당사의 LLMOps 플랫폼 “치타”를 활용하여 이를 해결합니다.

더 궁금한 점이 있으신가요?

에이프리카의 솔루션에 대해 상담이 필요하시면
언제든지 문의해주세요.