Lors du développement d’une application complexe avec un modèle de langage (LLM), il est courant de spécifier le format de sortie souhaité, tel que JSON, et de désigner des clés particulières pour organiser les données.
Considérons la méthode de raisonnement en chaîne de pensée comme exemple illustratif. Dans cette méthode, le processus de réflexion du LLM est représenté par des étapes distinctes : « pensée » indique le processus de raisonnement, « action » désigne l’action ultérieure entreprise et « observation » reflète l’apprentissage acquis à partir de cette action, et ainsi de suite. En élaborant une invite qui incite le LLM à utiliser ces mots-clés spécifiques (pensée, action, observation), nous pouvons guider efficacement son processus cognitif.
Dans cet article, nous aborderons le couplage de l’invite avec un analyseur qui permet l’extraction du texte associé à certains mots-clés de la sortie du LLM. Cette approche combinée offre un moyen rationalisé de spécifier les entrées du LLM et d’interpréter avec précision ses résultats.
La plupart des informations que je partage dans Medium ont déjà été partagées dans ma newsletter hebdomadaire, To Data & Beyond.
Si vous souhaitez être au courant du monde frénétique de l’IA tout en vous sentant inspiré pour agir ou, à tout le moins, être bien préparé pour l’avenir qui nous attend, ceci est pour vous.
🏝Abonnez-vous ci-dessous🏝 pour devenir un leader de l’IA parmi vos pairs et recevoir du contenu qui n’est présent sur aucune autre plateforme, Medium comprenant :
Commençons par un exemple pour clarifier le concept d’analyse de sortie. Voyons comment vous pouvez avoir une sortie JSON LLM et utiliser LangChain pour analyser cette sortie.
Dans cet exemple, nous extrairons les informations d’une évaluation de produit et les formaterons au format JSON. Voici un exemple de la manière dont vous souhaitez formater la sortie. Techniquement, il s’agit d’un dictionnaire Python, où le fait que le produit soit ou non un cadeau correspond à faux, le…