Nous recherchons un·e stagiaire pour le sujet suivant : Description : Les grands modèles de langue (Large Language Model - LLM) conversationnels montrent depuis fin 2022 des performances impressionnantes sur de nombreuses tâches, mais leur capacité à fournir des réponses robustes et factuellement exactes reste une question ouverte. Le stage abordera l'injection de connaissances dans un LLM pour explorer la véracité et la cohérence de ses réponses. La cohérence est ici au sens d'avoir la même réponse aux mêmes requêtes (même si formulées différemment) malgré le caractère pseudo-aléatoire des LLMs. La véracité est ici au sens de fournir la bonne réponse à une requête sur un fait décrit formellement dans une base de connaissance. Il s'agira concrètement d'injecter des connaissances décrites dans une base de connaissances par une méthode Retrieval-Augmented Generation (RAG) à un modèle (par exemple un Llama 3 8B), et d'étudier les réponses. Le RAG a l'avantage de permettre d'éviter une phase d'apprentissage automatique très consommatrice de moyens de calcul à haute performance. Les résultats de ce travail pourraient permettre de mieux comprendre les limites et opportunités des LLM dans des contextes nécessitant une précision factuelle. Cela contribuera à la préparation d'un poster/article scientifique pour une conférence du domaine de recherche (ex : PFIA). Compétences : - Programmation informatique, notamment Python. - Une expérience avec la manipulation de LLM par API serait un plus. - Rédaction et communication scientifique. - Un attrait pour la recherche scientifique. Informations : Lieu : Laboratoire MaIAGE, centre INRAE de Jouy-en-Josas (78) Gratification : selon la grille réglementaire (soit environ 669,90¤/mois) Pour plus d'informations et pour candidater : https://maiage.inrae.fr/node/3198