Présentation

Article

1 - ENJEUX ET DIFFICULTÉS DE L'ACCÈS AUX CONTENUS TEXTUELS

2 - RECHERCHE ET EXTRACTION D'INFORMATIONS TEXTUELLES

3 - TECHNIQUES DE BASE DU TRAITEMENT AUTOMATIQUE DES TEXTES

  • 3.1 - Identifier les « mots » : segmenter
  • 3.2 - Identifier les propriétés grammaticales des mots : étiqueter
  • 3.3 - Analyser les relations syntaxiques entre les mots : parseur
  • 3.4 - Analyser les relations de sens entre les mots

4 - RESSOURCES POUR LE TRAITEMENT AUTOMATIQUE DES TEXTES

  • 4.1 - Ressources textuelles
  • 4.2 - Ressources lexicales
  • 4.3 - Ressources logicielles

5 - CONCLUSION

Article de référence | Réf : H7258 v2

Recherche et extraction d'informations textuelles
Traitement automatique des textes - Techniques linguistiques

Auteur(s) : Cécile FABRE

Date de publication : 10 mai 2012

Pour explorer cet article
Télécharger l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !

Sommaire

Présentation

Version en anglais English

RÉSUMÉ

Ce dossier est consacré à la présentation des techniques de traitement automatique des textes qui  sont utilisées aujourd’hui pour permettre de gérer de façon plus pertinente et plus efficace l’information qu’ils contiennent. L’article présente tout d’abord les besoins qui se manifestent actuellement dans les activités professionnelles pour des modes d’accès fins et variés au contenu des documents. Il fournit ensuite une présentation des applications, des méthodes et des ressources linguistiques qui sont mobilisées pour mener à bien ces procédures d’analyse de l’information textuelle. 

Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.

Lire l’article

Auteur(s)

  • Cécile FABRE : Professeur en sciences du langage Université Toulouse 2 - Le Mirail et laboratoire CLLE-ERSS (UMR 5263)

INTRODUCTION

Les documents disponibles sous forme électronique constituent une source d"informations majeure et suscitent le développement d"applications visant à faciliter leur gestion et leur exploitation. Ces données textuelles sont de natures très diverses :

  • documentation produite par l'entreprise, ses partenaires et ses clients (rapports techniques, documentation de maintenance, contrats, compte rendu de réunion, messages électroniques, etc.) ;

  • informations de nature technologique et économique que les entreprises doivent collecter et exploiter dans un environnement documentaire large et diversifié (brevets, rapports d'étude, littérature grise, actualités commerciales et techniques accessibles sur le web, etc.).

C'est par le biais de ces documents que l'essentiel des informations circule et il est donc crucial pour les organisations de disposer de techniques pour accéder aux connaissances métier qui sont contenues dans ces données. De fait, l"information stratégique est en grande partie de nature textuelle. Il est indispensable d'en prendre connaissance et de l'analyser pour :

  • assurer des tâches de veille scientifique et technologique, de gestion et de transfert de connaissances ;

  • assister la prise de décision, l'identification des risques, etc.

Or, ces données ont pour caractéristique d'être volumineuses et non structurées. Elles sont de natures très hétérogènes. Leur rédaction est rarement soumise à des normes explicites et peut être effectuée sous contrainte temporelle (production de rapports, de notes, de compte rendu, de courriers). Ces caractéristiques en font un matériau très difficile à traiter : les informations pertinentes doivent être extraites du flot textuel ; cette extraction est complexe du fait de l'ambiguïté et de la variabilité qui caractérisent l'expression langagière. L"exploitation de ces textes tout-venant est donc devenue un enjeu technologique majeur. De nouvelles solutions techniques, souvent qualifiées de « sémantiques » et d'« intelligentes » sont proposées aux entreprises pour :

  • maîtriser la profusion des documents électroniques – procédures pour classer les documents, les sélectionner, les synthétiser, les structurer ;

  • extraire et organiser les informations qu'ils contiennent.

Ces solutions font appel à des techniques de traitement automatique des langues TAL. L'objectif de ce dossier est de faire le point sur les traitements linguistiques automatisés qui sont mis en œuvre, et, en facilitant la compréhension de ces traitements, de permettre un choix raisonné parmi les solutions proposées dans le domaine du traitement de l'information.

Cet article est réservé aux abonnés.
Il vous reste 95% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

VERSIONS

Il existe d'autres versions de cet article :

DOI (Digital Object Identifier)

https://doi.org/10.51257/a-v2-h7258


Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(240 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Version en anglais English

2. Recherche et extraction d'informations textuelles

Le champ du traitement automatique des langues (TAL) est connu du grand public à travers deux applications phares : la traduction automatique et la correction orthographique et grammaticale de documents . De fait, l'une et l'autre sont intégrées, avec des succès divers, dans les environnements de travail quotidien (moteurs de recherche, traitements de textes). À côté de ces tâches traditionnelles se sont développées d'autres applications visant à répondre aux besoins que nous venons de mentionner, et que l'on peut résumer par la nécessité de permettre un accès plus intelligent à l'information textuelle. On distingue à l'intérieur de ce champ deux grands types d'objectifs :

  • identifier des documents pertinents dans une base de textes : cet objectif est pris en charge par les applications de recherche documentaire, appelée également recherche d'information dans le champ du TAL ;

  • identifier et typer des fragments d'information pertinents au sein des textes : ce besoin donne lieu à une large gamme de tâches d'extraction d'information, qui traitent des segments informationnels de nature diverse.

2.1 Recherche de documents ou recherche d'information

L'objectif de la recherche d'information (RI) est de faciliter l'interrogation de textes regroupés en bases de données. Les interfaces en langage naturel dont nous allons parler ici ont été popularisées pour permettre l'accès au web. Elles sont une alternative à l'indexation dite contrôlée. Celle-ci consiste à utiliser un langage d'indexation spécifique à la base de textes à traiter et constitué de mots-clés prédéfinis et normalisés ; la requête est elle-même exprimée dans ce langage documentaire contraignant, et l'indexation est soumise à une nomenclature fixée a priori par une ressource terminologique de type thésaurus. À l'inverse, la recherche d'informations non contrôlée consiste à formuler la requête librement, en langage naturel, et à effectuer l'indexation de manière automatique à partir des mots du texte ...

Cet article est réservé aux abonnés.
Il vous reste 93% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(240 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Recherche et extraction d'informations textuelles
Sommaire
Sommaire

BIBLIOGRAPHIE

  • (1) - JURAFSKY (D.), MARTIN (J.H.) -   Speech and language processing – An introduction to natural language processing, computational linguistics, and speech recognition.  -  (2009).

  • (2) - LALLICH-BOIDIN (G.), MARET (D.) -   Recherche d'information et traitement de la langue. : fondements linguistiques et applications.  -  Les Cahiers de l'ENSSIB, no 3, Les Presses de l'ENSSIB, Lyon (2005).

  • (3) - MANNING (C.), SCHÜTZE (H.) -   Foundations of statistical natural language processing.  -  MIT Press, Cambridge, MA (1999).

  • (4) - MITKOV (R.) (Éd.) -   The Oxford Handbook of Computational Linguistics.  -  Oxford University Press, Oxford (2002).

  • (5) - PIERREL (J.-M.) (Éd.) -   Ingénierie des langues.  -  Hermès, Paris (2000).

  • (6) - POIBEAU (T.) -   Traitement automatique du contenu textuel.  -  Lavoisier,...

DANS NOS BASES DOCUMENTAIRES

1 Outils logiciels

Références des outils et ressources cités dans l'article :

TreeTagger : étiquetage morpho-syntaxique et lemmatization. Université de Stuttgart http://www.ims.uni-stuttgart.de/projekte/corplex/TreeTagger/

Lexico : outil de statistique textuelle. Université Paris 3 http://www.tal.univ-paris3.fr/lexico/

GATE : plate-forme pour l'analyse de textes. Université de Sheffield http://gate.ac.uk/

Lexique-grammaire : lexique syntaxique, l'équipe LIGM, Université Paris Est, Marne-la-Vallée http://infolingu.univ-mlv.fr/

WORDNET : Cognitive Science Laboratory, Princeton University http://wordnet.princeton.edu/

HAUT DE PAGE

2 Sites...

Cet article est réservé aux abonnés.
Il vous reste 95% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(240 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS