Bien que l'interrogation de grands modèles de langage (LLM) externes pour obtenir des réponses aux questions résout souvent un problème, les exigences pour ce faire peuvent différer légèrement de la recherche dans les référentiels de connaissances et les ensembles de données internes de l'entreprise.
Imaginez qu'une organisation menant des recherches internes ait plusieurs PDF qui devraient être recherchés par un moteur de recherche d'IA plutôt que par des LLM publics pour obtenir des réponses pertinentes. Il est également possible d'utiliser des requêtes de système de gestion de base de données relationnelle traditionnelles ainsi que des requêtes d'IA générative pour rendre la recherche plus puissante.
Cette solution explique comment utiliser les concepts ONNX (Open Neural Network Exchange), créer nos propres modèles ONNX et utiliser ces modèles pour lire des PDF et vectoriser du contenu, en développant finalement un moteur de recherche vectoriel Oracle APEX qui peut interroger des référentiels de connaissances internes (et parfois également interroger des LLM externes).