Mentre l'esecuzione di query su modelli linguistici di grandi dimensioni esterni (LLM, large language model) per le risposte alle domande spesso risolve un problema, i requisiti per farlo potrebbero differire leggermente dalla ricerca di repository e set di dati aziendali interni.
Immagina che un'organizzazione che conduce ricerche interne abbia diversi PDF che dovrebbero essere cercati da un motore di ricerca AI piuttosto che da LLM pubblici per trovare risposte pertinenti. C'è anche la possibilità di utilizzare le query tradizionali del sistema di gestione del database relazionale insieme alle query di AI generativa per rendere la ricerca più potente.
Questa soluzione dimostra come utilizzare i concetti di Open Neural Network Exchange (ONNX), creare i nostri modelli ONNX e utilizzare questi modelli per leggere i PDF e vettorializzare i contenuti, sviluppando in ultima analisi un motore di ricerca basato su vettori Oracle APEX in grado di eseguire query sui repository di conoscenze interni (e talvolta anche eseguire query su LLM esterni).