Comment Genesys affine-t-il les grands modèles linguistiques (LLM) ?
Les hallucinations sont atténuées par un réglage fin des modèles avec des ensembles de données conversationnelles sélectionnées pour les cas d'utilisation tels que l'assistance à la clientèle et les secteurs verticaux tels que les soins de santé, les services financiers et la vente au détail. Ce processus peut réduire considérablement les hallucinations en repondérant les modèles en fonction du cas d'utilisation.
Les meilleures pratiques en matière d'incitation sont définies pour instruire le grand modèle linguistique (LLM) afin qu'il évite de fabriquer des réponses et dise "je ne sais pas" si la question n'est pas pertinente ou ne permet pas d'y répondre. Ce comportement donne au LLM un degré élevé de confiance dans la réponse, en contraignant la réponse avec des exemples de sorties correctes et en fixant la température déterministe à un niveau aussi bas que possible.
La génération augmentée par récupération (RAG) contraint les réponses de manière à ce qu'elles soient dérivées d'un ensemble de données de l'entreprise dont on sait qu'elles sont bonnes.