next up previous
Next: Références Up: Problématique au sein du Previous: Quelles applications ?

Conclusion

En achevant notre première étape, le but que nous nous étions fixé était de placer notre approche dans son contexte au sens large. Sans avoir détaillé exhaustivement les travaux connexes en TALN, nous espérons nous être situé par rapport aux grands axes qui l'organisent.

Nous pouvons résumer ainsi les principes qui ont guidé nos travaux :

Pour terminer, il nous semble intéressant, pour clore ces questions, de nous permettre une petite comparaison, en plaçant notre approche dans la déjà longue histoire du TALN, avec l'historique et la prospective que F. Varela propose pour les sciences cognitives.

Dans son ouvrage <<Connaître : les sciences cognitives, tendances et perspectives>> [32], F. Varela décrit avec clarté les grandes évolutions des sciences cognitives, de leur genèse à leur avenir supposé. Sans vouloir émettre d'hypothèses fortes quant aux relations réelles entre ces sciences et le TALN, il semble pourtant légitime d'appliquer son schéma à un rapide historique de le discipline qui nous intéresse. Nous reprendrons donc les étapes que l'auteur repère dans le passé, ainsi que la forme didactique qu'il emploie pour synthétiser sa critique, et comparerons enfin notre prise de position à la sienne, en ce qui concerne l'évolution supposée.

L'évolution ainsi présentée est résumée en quatre étapes : depuis les périodes logiques et cybernétiques, en passant par le cognitivisme classique et le subsymbolisme vers la nébuleuse notion d'enaction.

Pour la première époque, où régnait l'optimiste cybernétique, cela se traduisit par la considération de la langue comme simple code. Les premières tentatives de traduction automatique dont nous avons parlé traduisaient bien cette absence de prise en compte de la réalité interne des phénomènes du langage, traité comme de simple chaînes de caractères à mettre en correspondance par un mécanisme simple. Le paradigme de la boîte noire est ici projeté, et cédera sa place aux tentatives d'explicitation par le formalisme logique.

L'étape cognitiviste voit ensuite la notion de symbolisme et de représentation placée sur le devant de la scène. La cognition devient représentation et manipulation de symboles par des règles logiques. Quant au langage, il devient effectivement représentation, captable informatiquement par des logiques complexes, attribuant un sens décrit à des entités qui se combinent, et le sens se construit de façon déterministe. La plupart des formalismes classiques du TALN datent de cette époque, où les systèmes experts faisaient fureur.

Nous reprendrons ici (en les transformant) les questions que pose F. Varela, dont le texte initial était le suivant : Qu'est-ce que la cognition ? Comment cela fonctionne-t-il ? Comment savoir qu'un système cognitif fonctionne de manière appropriée ?

L'étape suivante, qui ne suit pas forcément une chronologie bien nette est l'apparition de la notion de subsymbolisme, avec comme plus célèbre manifestation le connexionnisme. Inspiré par les découvertes en neuro-sciences, le principe en comparaison au cognitivisme classique est d'atteindre un résultat non par des règles de haut niveau s'appliquant à des entités bien définies et stables, mais de le faire apparaître ou plutôt émerger par la collaboration d'un grand nombre d'entités minimales, très locales et sans contenu propre. Sans proposer une nouvelle approche du calcul, il ne constitue pas moins un paradigme de représentation.

Nous nous risquerons donc à rapprocher de ce paradigme les travaux sus-cités sur les analyses distributionnelles. En effet, le principe y est aussi de voir <<émerger>> des considérations sémantiques sur un corpus à partir de la prise en compte d'un grand nombre d'éléments locaux, sans qu'à ceux-ci soit attribué un véritable contenu (décrit de manière formelle). Il s'agit donc de se dégager d'une explicitation de la notion de sens, et de ne rechercher que sa manifestation, comme un principe organisateur sous-jacent.

Enfin, F. Varela conclut par la perspective de l'enaction, ou le faire-émerger. Sans vouloir trop nous avancer sur cette notion opaque, nous retiendrons quelques aspects que nous pensons intéressants, et proches de nos préoccupations et de nos prises de position. Tout d'abord, les liens avec l'étape précédente sont importants : il y a ici refus d'une explicitation trop forte et figée d'un mécanisme général, et donc d'une description exclusivement logique du sens. L'aspect central de la création que l'auteur accorde à ce paradigme trouve également des échos dans la notion d'interprétation. Il remplace également la notion de validité d'un modèle par une viabilité, que nous aimerions concevoir comme cohérence par rapport à l'interprète.

Vouloir y trouver d'autres liens serait hasardeux et sans doute inutile, mais appliquons le jeu des trois questions à notre approche, dans un souci de résumé.

Cette dernière question n'a pas de réponse pour l'instant, et nous préférons d'ailleurs refuser l'intérêt de celle-ci. Comme nous l'avons déjà évoqué, la notion de performance n'est sans doute pas adaptée au langage. Dans le TALN, bien souvent, la notion d'application directe sert de bouclier face à des remarques théoriques sur une conception sous-jacente de la langue souvent trop pauvre et simpliste. Nul doute qu'ici nous pêcherons par excès inverse...

À notre connaissance, au sein de cette discipline, il ne se trouve pas d'approche susceptible de capter les aspects de la textualité tels que nous les avons énoncés. Une première explication peut se trouver dans la faiblesse du nombre de théories linguistiques qui traite de ces problèmes d'une manière au moins minimalement formelle. Au cours du prochain chapitre, nous nous pencherons donc de plus près sur les travaux de F. Rastier sur la sémantique interprétative, en envisageant sa mise en place formelle et informatique au vu des grandes lignes que nous avons tracées ici.


next up previous
Next: Références Up: Problématique au sein du Previous: Quelles applications ?

Ludovic TANGUY
Fri Dec 5 16:57:51 MET 1997