외부 대규모 언어 모델(LLM)에서 질문에 대한 답변을 쿼리하면 문제가 해결되는 경우가 많지만, 이를 위한 요구 사항은 내부 기업 지식 저장소 및 데이터 세트 검색과 약간 다를 수 있습니다.
내부 연구를 수행하는 조직이 관련 답변을 얻기 위해 공용 LLM이 아닌 AI 검색 엔진에서 검색해야 하는 몇 가지 PDF를 가지고 있다고 가정해 보겠습니다. 또한 기존 관계형 데이터베이스 관리 시스템 쿼리와 생성형 AI 쿼리를 함께 사용하여 검색의 성능을 높일 수 있습니다.
이 솔루션은 ONNX(Open Neural Network Exchange) 개념을 사용하고, 자체 ONNX 모델을 만들고, 이 모델을 사용하여 PDF를 읽고 콘텐츠를 벡터화하고, 궁극적으로는 내부 지식 저장소를 쿼리할 수 있는 Oracle APEX 벡터 기반 검색 엔진을 개발하는 방법을 보여줍니다(또한 외부 LLM을 쿼리하기도 함).