next up previous
Next: Conclusion Up: Le textel'homme et Previous: Informatique et interprétation

Quelles applications ?

Ce point de vue, centré sur la subjectivité dans la langue, si attrayant qu'il soit, limite tout de même, outre les objectifs concrets d'une application, ses domaines d'applications. Reprenons un argument de F. Rastier à propos des exemples littéraires qui illustrent ses travaux : <<... Outre que ces textes [littéraires] sont des plus agréables à étudier, on peut prétendre que leur complexité met à rude épreuve les instruments descriptifs utilisés. Mais au contraire, choisir des textes littéraires, ne serait-ce pas une solution de facilité ? Leur cohésion guide le scholastique.>> [24].

Pour reprendre la première réponse que l'auteur apporte ici à une critique, nous ne pourrons que la renforcer en y ajoutant le statut socialement stabilisé des méthodes exhaustives d'analyse quand elles s'appliquent aux textes. Nombre de travaux littéraires mettent en exergue la rigueur nécessaire à une étude dans ce domaine, et une transversalité des études quant au niveau des entités linguistiques manipulées. Il devient donc plus acceptable de solliciter un utilisateur qui, lui, n'a pas besoin de la machine pour comprendre le texte, pour un poème ou un roman que pour une recette de cuisine ou pour une notice de montage d'un moteur d'avion. Pour ce qui est du deuxième argument, ne nous leurrons pas, l'application à de tels textes garantit également des résultats non triviaux, simplement parce que le style (au sens large) est important. Cependant, des méthodes similaires semblent trouver un écho appliqué à des textes techniques, lorsque les considérations pragmatiques sont l'extraction de connaissance, couplée aux systèmes de représentations plus classiques [2].

Bien sûr, nous ne pouvons prétendre en tout cas à une complète originalité des applications du TALN à la littérature. Au contraire, nous rejoignons en ce sens un mouvement assez riche de collaboration entre l'informatique et les sciences humaines. En effet, nombre de travaux en lexicométrie sont informatiquement appliqués à des études littéraires, pour lesquels l'outil automatique est parfaitement justifié. Un exemple d'une telle mise en tex2html_wrap223 uvre est le programme TACT (Text Analysis Computer Tools) du Center for Computing in the Humanities de l'Université de Torontogif. Constitué d'une grande famille d'outils d'analyse statistique des fréquences de mots, il permet d'extraire des structures stylistiques de textes, basées essentiellement sur la syntaxe (en fait, sur la seule forme des chaînes de caractères), et sur quelques traits sémantiques essentiellement définis comme des classes abstraites d'occurrences syntaxiques. Le principal reproche que nous pourrions porter à ces approches est la reprise de ce fameux principe issu des modèles cryptographiques, de ne regarder qu'une petite <<fenêtre>> pour expliciter un terme dans un corpus. La théorie initiale cherchait à définir le nombre de mots nécessaires dont il faut tenir compte avant et après l'occurrence considérée pour la cerner complètement. Il s'agit du fameux KWIC (Key-Word In Context) des anglo-saxons, que la coutume a fixé à une taille de 11 mots (5 avant et 5 après). De telles considérations semblent donc peu respectueuses de l'intégrité du texte analysé.

Malgré le caractère essentiellement formel de ces analyses, nombreuses sont les applications de cet outil par des chercheurs en littérature. Il y a donc un besoin (ou du moins un besoin à créer) de l'autre côté de la barrière sciences dures / sciences humaines, de tels outils scientifiques. Ce que nous proposerons ici sera en comparaison un accompagnement de la machine au long d'un acte d'interprétation. Nous avons déjà énoncé un intérêt d'une telle situation dans la gestion de la cohérence de cette interprétation, et dans un pouvoir limité de suggestivité. Mais nous envisagerons également d'autres aspects, liés aux outils précédemment cités, dans la capacité de mémoire et de présentation de la machine.

Mais pas de précipitation dans ce domaine, dont les fondements mêmes sont remis en cause, comme l'explique Mark Olsen dans [22]. Dans cet article, il constate tout d'abord le manque d'innovation et de résultats probants dans le domaine de l'analyse littéraire informatisée, malgré les progrès technologiques et le nombre de travaux croissant. En résumé, rien n'est découvert via ces méthodes technologiques qui ne le serait par une lecture attentive d'une tex2html_wrap223 uvre. Ses conclusions sont doubles : tout d'abord il prône une utilisation de l'ordinateur pour ce qu'il sait faire de mieux que l'homme : manipuler de grandes quantités de données, donc de nombreux textes. Mais surtout, il insiste sur le besoin de corrélation entre théories d'analyse et développements informatiques, indiquant par là un mouvement dans lequel nous estimons nous situer. Nous expliciterons en effet, lors du prochain chapitre les inspirations théoriques qui ont guidé ce travail.


next up previous
Next: Conclusion Up: Le textel'homme et Previous: Informatique et interprétation

Ludovic TANGUY
Fri Dec 5 16:57:51 MET 1997