T-LAB Home
T-LAB 10.2 - AIDE EN LIGNE Prev Page Prev Page
T-LAB
Introduction
Ce que T-LAB fait et ce qu' il vous permet de faire
Conditions requises et performances
Préparation du Corpus
Préparation du Corpus
Critères Structuraux
Critères Formels
Fichier
Importer un unique fichier...
Préparer un Corpus (Corpus Builder)
Ouvrir un Project Existant
Configurations d'Analyse
Configurations Automatiques Personalisées
Personnalisation du Dictionnaire
Analyse des Co-occurrences
Associations de Mots
Analyse des Mots Associés et Cartes Conceptuelles
Comparaisons entre paires de Mots-Clés
Analyse des Séquences et Analyse des Réseaux
Concordances
Co-occurrence Toolkit
Analyse Thématiques
Analyse Thématique des Contextes Élémentaires
Modélisation des Thèmes Émergents
Classification Thématique des Documents
Classification Basée sur ded Dictionnaires
Textes et Discours comme Systèmes Dynamiques
Analyses Comparatives
Analyse des Spécificités
Analyse des Correspondances
Analyse des Correspondances Multiples
Classification (Cluster Analysis)
Décomposition en Valeurs Singulières
Outils Lexique
Text Screening / Désambiguïsations
Vocabulaire du Corpus
Liste de Mots vides
Listes de Locutions
Segmentation de Mots
Autres Outils
Variable Manager
Recherche Avancée dans le Corpus
Classification des Nouveaux Documents
Contextes Clé de Mots Thématiques
Exporter des Tableaux Personnalisées
Editeur
Importer-Exporter une liste des Identificateurs
Glossaire
Analyse des Correspondances
Chaînes de Markov
Chi-Deux
Classification (Cluster Analysis)
Codage
Contextes élémentaires
Corpus et Sous-ensembles
Désambiguïsation
Document Primaire
Graph Maker
Homographes
IDnumber
Index d'Association
Isotopie
Lemmatisation
Lexie et Lexicalization
MDS
Mots-Clés
Mots et Lemmes
Multiwords
N-grammes
Naïve Bayes
Normalisation
Noyaux Thématiques
Occurrences et Cooccurrences
Polarités Factorielles
Profil
Seuil de Fréquence
Spécificités
Stop Word List
Tableaux de Données
Unité d'Analyse
Unité de Contexte
Unité Lexicale
TF-IDF
Valeur-Test
Variables et Modalités
Bibliographie
www.tlab.it

Contextes élémentaires


Pendant la phase d'importation, T-LAB réalise une segmentation du corpus en contextes élémentaires: ceci pour faciliter les explorations de l'utilisateur et, surtout, pour rendre possibles les analyses qui requièrent le calcul des co-occurrences.


Selon la choix de l'utilisateur, les types de contextes élémentaires peuvent être les suivants:

1
- Énoncés

Contextes élémentaires marqués par ponctuation (.?! ) et dont la longueur est inférieure à 1.000 caractères (minimum : 50 caractères).

2 - Fragments

Contextes élémentaires de longueur comparable composés d'un ou plusieurs énoncés.

Dans ce cas, les règles de segmentation utilisées par T-LAB sont les suivantes:

  • considérer comme contexte élémentaire chaque séquence de mots interrompue par le point à la ligne et dont les dimensions sont inférieures à 400 caractères;
  • dans le cas où, dans la longueur maximale, n'est présent aucun point à la ligne, chercher, dans l'ordre, d'autres signes de ponctuation (? ! ; : ,). S'il n'y en a pas, segmenter sur la base d'un critère statistique, mais sans tronquer les unités lexicales.

3 - Paragraphes

Contextes élémentaires marqués par ponctuation (.?! ) et par le retour de chariot, dont la longueur maximale est 2.000 caractères.

4 - Textes Courts

Cette option est habilitée seulement quand la longueur maximale des textes n'excède pas les 2.000 caractères (ex. réponses aux questions ouvertes).

N.B.:

- le fichier corpus_segments.dat contient le résultat de la segmentation du corpus;
- l'option concordances permet de vérifier les contextes élémentaires où chaque mot (ou lemme) est présent.