Stage financé de Master de 4 à 6 mois - Marseille, DIMAG, LSIS, Aix-Marseille Université. *Analyse automatique des signaux socio-emotionnels dans les interactions humain-machine* /Encadrement principal/ : Magalie Ochs (http://www.lsis.org/ochsm/) /Autres//encadrants/ : Thierry Chaminade, Institut de Neurosciences de la Timone /Partenariat/: Axel Boidin, entreprise Picxel /Contexte du stage / Ce stage de Master se déroulera dans l'équipe DIMAG au LSIS en partenariat avec l'entreprise Picxel et l'Institut de Neuroscience de la Timone (INT). Au sein de l'équipe /DIMAG/, des recherches sont menées pour développer des méthodes d'extraction automatique d'information socio-affectives dans des corpus de données textuels ou vidéos. L'entreprise /Pixcel /(http://www.picxel.fr/ ) travaille depuis plusieurs années sur un logiciel de détection automatique des émotions à partir des expressions faciales des individus.L'INT s'intéresse aux bases physiologiques des comportements sociaux (http://www.int.univ-amu.fr/_CHAMINADE-Thierry_?lang=fr) /Sujet de stage / Les ordinateurs sont aujourd'hui pour la plupart socialement et émotionnellement ignorants (Pentland, 2005). Or, les interactions humain-machine sont intrinsèquement sociales et émotionnelles, impliquant souvent une expérience affective de l'utilisateur pouvant ressentir de nombreuses émotions tant positives (joie, soulagement, etc.) que négatives (frustration, énervement, etc.) lors de son interaction avec un ordinateur (Picard, 1997). De plus, sous la forme de personnages virtuels ou de robot humanoïde, ces systèmes interactifs sont de plus en plus utilisés pour incarner des rôles sociaux particuliers tels que celui de tuteur, de compagnon, d'assistant, de conseiller ou d'acteur. Dans ces contextes d'usages, les ordinateurs doivent être dotés d'une certaine forme d'*intelligence sociale et émotionnelle* (Kihlstorm et Cantor, 2000, Salovey et al., 2000) leur permettant d'interagir et sociabiliser avec l'utilisateur ainsi que d'exprimer des émotions et gérer celles de l'utilisateur afin d'optimiser l'interaction (perception, motivation, performance, décision, autonomie, etc.). L'objectif du stage s'intègre dans la perspective de concevoir des systèmes interactifs capables de détecter /l'engagement de l'utilisateur et la qualité de l'interaction/. Pour ce faire, un des enjeux aujourd'hui est d'identifier,modéliser et détecter automatiquement les signaux verbaux (e.g. vocabulaire) et non-verbaux(regards, expression faciales, mouvements de tête, etc.) porteurs d'informations socio-émotionnelles (e.g. engagement, satisfaction) dans une interaction. Ce stage vise à explorer des techniques de fouilles de données pour analyser automatiquement les signaux verbaux et non-verbaux socio-émotionnels dans des interactions humain-humain médiatisées ou humain-machine. Plus précisément, il s'agira d'analyser les séquences de signaux (sourires, direction du regard, froncement des sourcils, mouvements de tête, etc.) impliquées dans les expressions d'émotions et d'attitudes (/e.g./ l'engagement). Pour ce faire, des méthodes de « sequences mining » seront utilisées sur un corpus de données collectés par INT (Institut Neuroscience de la Timone). Ce corpus est composé d'enregistrement vidéo d'interaction naturelle humain-humain médiatisé (skype) et humain-machine (avec un personnage virtuel). Ce corpus comporte déjà un certain nombre d'annotations (mouvements du regard, mouvement de tête, etc.). Il sera complété par les signaux non-verbaux des individus détectés automatiquement à partir du logiciel développé par la société Pixcel. De plus, une analyse automatique du comportement verbal (e.g. vocabulaire, dysfluences) dans différentes situations d'interactions (e.g. interactions réussies versus non satisfaisantes) permettra d'identifier des indices verbaux sur la qualité de l'interaction. Le stage impliquera dans un premier temps une étude de la littérature en Sciences Humaines et Sociales et dans le domaine de l'Informatique Affective et du Traitement Automatique des signaux sociaux (Social Signal Processing) pour identifier les signaux verbaux et non-verbaux pertinents et les émotions et attitudes associées. Le stage focalisera sur un sous-ensemble restreint d'émotions et d'attitudes qu'il s'agira de définir. Différents algorithmes de « sequences mining » et d'apprentissage automatique seront explorés et testés sur le corpus de données.Les résultats seront ensuite modélisés afin de concevoir un modèle computationnel permettant de détecter automatiquement certainesémotions et attitudes de l'utilisateur suivant les séquences de signaux non-verbaux ou des comportements verbaux détectées.Ce modèle sera testé sur des données réelles. Le stagiaire devra à la fois avoir des connaissances techniques (Matlab, Python, SQL), des connaissances en fouille de données, TAL et surtout une ouverture pluridisciplinaire. Les dossiers de candidatures doivent contenir un CV détaillé, les notes de Master, ainsi qu'une lettre de motivation. Le dossier est à envoyé à magalie.ochs(at)lsis.org