Proposition d'un stage niveau Master 2: Explication de modèles en Traitement Automatique des Langues par extraction d'arguments Natural Language Processing model explanation by argument extraction. Contexte: Ce stage aura lieu dans le cadre du projet 3IA toulousain ANITI, au sein de la chaire de Leila Amgoud "Empowering Data-driven AI by Argumentation and Persuasion", à l'IRIT. Le succès croissant des modèles d'apprentissage neuronal en Traitement Automatique des Langues (TAL/NLP) soulève des questions cruciales sur la confiance que l'on peut accorder à des "boites noires" dont les décisions sont difficiles à diagnostiquer. Une approche courante en apprentissage automatique est de chercher à repérer quels éléments de l'entrée (des pixels d'une image, des mots d'un texte) ont influencé le modèle appris ou ses prédictions. Ces approches sont en général peu structurées et ne fournissent pas une explication cohérente reliant les éléments importants de la décision (Belinkov & Glass, 2019). En traitement automatique des langues, ou l'entrée est un texte, isoler des éléments pertinents est déjà une base compréhensible par l'humain (Lei et al., 2016; Bastings et al., 2019), mais une explication convaincante demanderait à relier ces éléments pour expliciter leur rôle dans la décision, que ce soit pour supporter un choix ou pour ignorer un autre, en d'autre terme développer une argumentation de la décision. Ce stage a pour but d'enrichir les approches par extraction d'arguments de la décision en fournissant des argumentations structurées, en combinant les méthodes de repérage de "bons" arguments et les méthodes permettant d'induire automatiquement des liens pertinents entre éléments textuels (Liu & Lapata, 2018). Encadrement: Philippe Muller, Leila Amgoud, Emiliano Lorini Contact: philippe.muller@irit.fr - Compétences attendues: Master 2 en mathématique ou informatique en cours, connaissances en apprentissage automatique. Des connaissances en TAL seraient un plus, mais ne sont pas un prérequis. - Compétences développées pendant le stage: TAL, Deep learning, argumentation, IA explicable. - Durée: 5 ou 6 mois - Gratification au taux légal Références - Joost Bastings, Wilker Aziz, Ivan Titov: Interpretable Neural Predictions with Differentiable Binary Variables. ACL (1) 2019: - Yonatan Belinkov, James R. Glass: Analysis Methods in Neural Language Processing: A Survey. TACL 7: 49-72 (2019) - Tao Lei, Regina Barzilay, Tommi S. Jaakkola: Rationalizing Neural Predictions. EMNLP 2016: 107-117 - Tim Miller: Explanation in artificial intelligence: Insights from the social sciences. Artif. Intell. 267: 1-38 (2019) - Yang Liu, Mirella Lapata: Learning Structured Text Representations. TACL 6: 63-75 (2018) - Julia Strout, Ye Zhang, Raymond J. Mooney: Do Human Rationales Improve Machine Explanations? Proceedings of the Second BlackboxNLP Workshop on Analyzing and Interpreting Neural Networks for NLP, (2019)