T-LAB Home
T-LAB 10.2 - AIUDA EN RED Prev Page Prev Page
T-LAB
Introducción
Qué hace y qué permite hacer
Requisitos y prestaciones
Preparación del corpus
Preparación del corpus
Criterios Estructurales
Criterios Formales
Archivo
Importar un único archivo...
Preparar un Corpus (Corpus Builder)
Abrir un projecto ya existente
Configuraciones de Análisis
Configuración Automática y Personalizada
Personalización del Diccionario
Análisis de Co-ocurrencias
Asociaciones de Palabras
Análisis de Co-Palabras y Mapas Conceptuales
Comparaciones entre Parejas de Palabras-Clave
Análisis de Secuencias y Análisis de Redes
Concordancias
Co-occurrence Toolkit
Análisis Temáticos
Análisis Temático de Contextos Elementales
Modelización de Temas Emergentes
Clasificación Temática de Documentos
Clasificación Basada en Diccionarios
Textos y Discursos como Sistemas Dinámicos
Análisis Comparativos
Análisis de Especificidades
Análisis de Correspondencias
Análisis de Correspondencias Múltiples
Cluster Analysis
Descomposición de Valores Singulares
Herramientas Léxico
Text Screening / Desambiguaciónes
Vocabulario
Palabras Vacías
Multi-Palabras
Segmentación de Palabras
Otras Herramientas
Variable Manager
Búsqueda avanzada en el Corpus
Clasificación de Nuevos Documentos
Contextos Clave de Palabras Temáticas
Exportar Tablas Personalizadas
Editor
Importar-Exportar una lista de Identificadores
Glosario
Análisis de Correspondencias
Cadenas de Markov
Chi-cuadrado
Cluster Analysis
Codificación
Contextos Elementales
Corpus y Subconjuntos
Desambiguación
Documentos Primarios
Especificidad
Graph Maker
Homógrafos
IDnumber
Índices de Asociación
Isotopía
Lematización
Lexia y Lexicalización
MDS
Multiwords (Multi-Palabras)
N-gramas
Naïve Bayes
Normalización del Corpus
Núcleos Temáticos
Ocurrencias y Co-ocurrencias
Palabras y Lemas
Palabras Clave
Perfil
Polos de Factores
Stop Word List
Tablas de Datos
Umbral de Frecuencia
TF-IDF
Unitad de Análisis
Unidad de Contexto
Unidad Lexical
Valor Test
Variables y Modalidades
Bibliografía
www.tlab.it

Requisitos y prestaciones


Configuración mínima requerida:

- Windows 7 o superior

- 4 Gb de RAM

- pantalla Full HD (tamaño recomendado 1920 x 1080).

 

Las prestaciones de T-LAB depend

en básicamente de dos factores: la dimensión del corpus y el tipo CPU disponible.

Actualmente, las opciones de T-LAB presentan las siguientes restricciones:

- tamaño del corpus: máximo 90Mb (casi 55.000 páginas en formato .txt);
- documentos primarios: máximo 30.000 (o 99.999 textos cortos Max. 2.000 caracteres cada uno; Eje. respuestas a preguntas abiertas, mensajes de Twitter etc.);
- variables categóricas: máximo 50, cada una con máximo 150 modalidades;

- modelización de los temas emergentes: máximo 5.000 unidades lexicales (*) por 5.000.000 ocurrencias;
- análisis temático de contextos elementales: máximo 300.000 filas (unidades de contexto, documentos) por 5.000 columnas (unidades lexicales);
- clasificación temática de documentos: máximo 99.999 filas (unidades de contexto) por 5.000 columnas (unidades lexicales);
- análisis de especificidades (unidades lexicales x categorías de una variables): máximo 10.000 filas por 150 columnas;
- análisis de correspondencias (unidades lexicales x categorías de una variables): máximo 10.000 filas por 150 columnas;
- análisis de correspondencias (unidades de contexto x unidades lexicales): máximo 10.000 filas por 5.000 columnas;
- análisis de correspondencias múltiples (contextos elementales x categorías de dos o más variables): máximo 150.000 filas por 250 columnas;

- descomposición de valores singulares (SVD): máximo 300.000 filas por 5.000 columnas;
- cluster analysis que utiliza los resultados de un precedente análisis de correspondencias (o SVD): máximo 10.000 filas (unidades lexicales o contextos elementales);

- asociaciones de palabras, comparaciones entre parejas de palabras-clave y análisis de co-palabras: máximo 5.000 unidades lexicales;
- análisis de secuencias: máximo 5.000 unidades lexicales (o categorías) por 3.000.000 ocurrencias.

(*) En T-LAB, las unidades léxicales son palabras, palabras múltiples, lemas y categorías semánticas. Así que, cuando se aplica la lematización automática, 5.000 unidades léxicales corresponden a cerca de 12.000 palabras.