T-LAB Home
T-LAB 10.2 - AIUDA EN RED Prev Page Prev Page
T-LAB
Introducción
Qué hace y qué permite hacer
Requisitos y prestaciones
Preparación del corpus
Preparación del corpus
Criterios Estructurales
Criterios Formales
Archivo
Importar un único archivo...
Preparar un Corpus (Corpus Builder)
Abrir un projecto ya existente
Configuraciones de Análisis
Configuración Automática y Personalizada
Personalización del Diccionario
Análisis de Co-ocurrencias
Asociaciones de Palabras
Análisis de Co-Palabras y Mapas Conceptuales
Comparaciones entre Parejas de Palabras-Clave
Análisis de Secuencias y Análisis de Redes
Concordancias
Co-occurrence Toolkit
Análisis Temáticos
Análisis Temático de Contextos Elementales
Modelización de Temas Emergentes
Clasificación Temática de Documentos
Clasificación Basada en Diccionarios
Textos y Discursos como Sistemas Dinámicos
Análisis Comparativos
Análisis de Especificidades
Análisis de Correspondencias
Análisis de Correspondencias Múltiples
Cluster Analysis
Descomposición de Valores Singulares
Herramientas Léxico
Text Screening / Desambiguaciónes
Vocabulario
Palabras Vacías
Multi-Palabras
Segmentación de Palabras
Otras Herramientas
Variable Manager
Búsqueda avanzada en el Corpus
Clasificación de Nuevos Documentos
Contextos Clave de Palabras Temáticas
Exportar Tablas Personalizadas
Editor
Importar-Exportar una lista de Identificadores
Glosario
Análisis de Correspondencias
Cadenas de Markov
Chi-cuadrado
Cluster Analysis
Codificación
Contextos Elementales
Corpus y Subconjuntos
Desambiguación
Documentos Primarios
Especificidad
Graph Maker
Homógrafos
IDnumber
Índices de Asociación
Isotopía
Lematización
Lexia y Lexicalización
MDS
Multiwords (Multi-Palabras)
N-gramas
Naïve Bayes
Normalización del Corpus
Núcleos Temáticos
Ocurrencias y Co-ocurrencias
Palabras y Lemas
Palabras Clave
Perfil
Polos de Factores
Stop Word List
Tablas de Datos
Umbral de Frecuencia
TF-IDF
Unitad de Análisis
Unidad de Contexto
Unidad Lexical
Valor Test
Variables y Modalidades
Bibliografía
www.tlab.it

Vocabulario


Esta herramienta de T-LAB nos permite comprobar el Vocabulario del corpus y de sus subconjuntos (véase abajo la opción '1').
Por otra parte se proporcionan algunas medidas de riqueza léxica.

La tabla Vocabulario es una lista que incluye todas las palabras distintas (es decir "word types"), la cantidad de sus ocurrencias (es decir "word tokens"), los lemas correspondientes y algunas categorías usadas por T-LAB (véase Glosario/Lematización).

El usuario puede seleccionar (véase abajo la opción '2') las unidades léxicas que pertenecen a cada categoría, consultar la tabla correspondiente y exportarla como archivo .xls (véase abajo la opción '3').

Además, usando el botón derecho del ratón, es posible verificar las concordancias (Key-Word-in-Context) de cada palabra (véase abajo la opción '4').

Las medidas de riqueza léxica son cinco:

Type/Token ratio (TTR);
Root TTR (Guiraud, 1960), obtenida dividiendo el número de "types" por la raíz cuadrada del número de "tokens";
Corrected TTR (Carroll, 1964), obtenida dividiendo el número de "types" por la raíz cuadrada de dos veces el número de "tokens";
Log TTR (Herdan, 1960), obtenida dividiendo el logaritmo del número de "types" por el logaritmo del número de "tokens";
Hapax/Types ratio.

NOTA:
- Hapax (es decir Hapax Legomena) son las palabras que, en un corpus, ocurren solamente una vez; - cuando se analiza un subconjunto del corpus, todas las medidas de riqueza léxica no incluyen las palabras vacias (e.j. los artículos y las preposiciones).