환각 현상 (Hallucination)
환각 현상 (Hallucination)은 인공지능 모델이 실제 데이터나 학습한 정보와 일치하지 않는 잘못된 결과를 생성하는 현상입니다. 이는 주로 AI가 학습 데이터에서 패턴을 잘못 이해하거나 과도하게 일반화하여 발생합니다. 예를 들어, 질문에 대해 존재하지 않는 정보나 근거 없는 주장, 비현실적인 예시를 제시하는 경우가 이에 해당합니다. 이러한 할루시네이션은 AI의 신뢰성을 저하시킬 수 있으며, 특히 중요한 결정이 필요한 상황에서 문제를 일으킬 수 있습니다. 해결을 위해 지속적인 모델 개선과 검증이 필요합니다.
Fasoo Enterprise LLM (이하 Ellm)은 온프레미스 구축이 가능한 Private LLM으로, 조직의 선별된 내부 데이터를 학습하여 비즈니스 상황에 맞는 최적화된 결과를 제공합니다. Ellm은 RAG (Retrieval Augmented Generation) 모델 아키텍처 설계와 조직 내 Corporate Intelligence 데이터를 활용해 기존 생성형 AI의 문제점으로 알려져 있는 환각 현상을 최소화합니다. 또한, Ellm의 아키텍처에서 네비게이터 역할을 하는 Ellm CX는 온프레미스 sLLM과 복수의 퍼블릭 LLM을 연결하여 목적에 맞는 적합한 답변을 도출할 수 있도록 설계되었습니다.