T-LAB Home
T-LAB 10.2 - AIDE EN LIGNE Prev Page Prev Page
T-LAB
Introduction
Ce que T-LAB fait et ce qu' il vous permet de faire
Conditions requises et performances
Préparation du Corpus
Préparation du Corpus
Critères Structuraux
Critères Formels
Fichier
Importer un unique fichier...
Préparer un Corpus (Corpus Builder)
Ouvrir un Project Existant
Configurations d'Analyse
Configurations Automatiques Personalisées
Personnalisation du Dictionnaire
Analyse des Co-occurrences
Associations de Mots
Analyse des Mots Associés et Cartes Conceptuelles
Comparaisons entre paires de Mots-Clés
Analyse des Séquences et Analyse des Réseaux
Concordances
Co-occurrence Toolkit
Analyse Thématiques
Analyse Thématique des Contextes Élémentaires
Modélisation des Thèmes Émergents
Classification Thématique des Documents
Classification Basée sur ded Dictionnaires
Textes et Discours comme Systèmes Dynamiques
Analyses Comparatives
Analyse des Spécificités
Analyse des Correspondances
Analyse des Correspondances Multiples
Classification (Cluster Analysis)
Décomposition en Valeurs Singulières
Outils Lexique
Text Screening / Désambiguïsations
Vocabulaire du Corpus
Liste de Mots vides
Listes de Locutions
Segmentation de Mots
Autres Outils
Variable Manager
Recherche Avancée dans le Corpus
Classification des Nouveaux Documents
Contextes Clé de Mots Thématiques
Exporter des Tableaux Personnalisées
Editeur
Importer-Exporter une liste des Identificateurs
Glossaire
Analyse des Correspondances
Chaînes de Markov
Chi-Deux
Classification (Cluster Analysis)
Codage
Contextes élémentaires
Corpus et Sous-ensembles
Désambiguïsation
Document Primaire
Graph Maker
Homographes
IDnumber
Index d'Association
Isotopie
Lemmatisation
Lexie et Lexicalization
MDS
Mots-Clés
Mots et Lemmes
Multiwords
N-grammes
Naïve Bayes
Normalisation
Noyaux Thématiques
Occurrences et Cooccurrences
Polarités Factorielles
Profil
Seuil de Fréquence
Spécificités
Stop Word List
Tableaux de Données
Unité d'Analyse
Unité de Contexte
Unité Lexicale
TF-IDF
Valeur-Test
Variables et Modalités
Bibliographie
www.tlab.it

Conditions requises et performances


Configuration minimum requise:

- Windows 7 ou postérieur

- Minimum de 4 Gb RAM

- Résolution d'écran Full HD (1920 x 1080 recommandée).

 

Les performances de T-LAB dépendent fondamentalement de deux facteurs: la dimension du corpus et le genre de microprocesseur que vous utilisez.

Actuellement les options de T-LAB ont les restrictions suivantes:

-
dimension du corpus: max 90Mo correspondant à environ 55.000 pages de format .txt;
- documents primaires: max 30.000 (N.B.: Lorsque aucun des textes dépasse 2.000 caractères, la limite est de 99.999 documents);
- variables catégorielles: maximum 50, chacune avec un maximum de 150 modalités
;
- modélisation des thèmes émergents:
maximum 5.000 unités lexicales (*) pour 5.000.000 occurrences;
- analyse thématique des contextes élémentaires: max 300.000 lignes (unités de contexte) par 5.000 colonnes (unités lexicales);
- classification thématique des documents: max 99.999 lignes (unités de contexte, documents) par 5.000 colonnes (unités lexicales);
- analyse des spécificités (unités lexicales x modalités d'une variables): max 10.000 lignes x 150 colonnes;
- analyse des correspondances (unités lexicales x modalités d'une variables): max 10.000 lignes x 150 colonnes
;
- analyse des correspondances (unités de contexte x unités lexicales): max 10.000 lignes x 5.000 colonnes;
- analyse des correspondances multiples (contextes élémentaires x modalités des variables): max 150.000 lignes x 250 colonnes;
- décomposition en valeurs Singulières (SVD): max 300.000 lignes par 5.000 colonnes;
- classification (cluster analysis) qui emploie les résultats d'une précédente analyse des correspondances (ou SVD): max10.000 lignes (unités lexicales ou contextes élémentaires);
- association des mots, comparaisons entre paires de mots-clés et analyse des mots associés: max 5.000 unités lexicales;
- analyse de séquences: maximum 5.000 unités lexicales (ou categories) par 3.000.000 occurrences
.

(*) Dans T-LAB, les unités lexicales sont des mots, multi-mots, lemmes et catégories sémantiques. Ainsi, lorsque la lemmatisation automatique est appliquée, 5.000 unités lexicales correspondent à environ 12.000 mots.