The McGraw-Hill Companies Gradient
olcolc

CENTRO DE INFORMACIÓN

Tabla de contenido
Prefacio
Capítulo de muestra
Sobre el autor
Bibliografía
Ficheros de datos
Enlaces de interés



CENTRO DE PROFESOR
Login


OLC INICIO




ANÁLISIS DE DATOS MULTIVARIANTES, 1 Ed. Análisis de datos multivariantes
Por Daniel Peña
ISBN: 8448136101




Tabla de contenido

  • Prefacio
  • 1. INTRODUCCIÓN
    • 1.1. El análisis de datos multivariantes
    • 1.2. Estructura del libro
    • 1.3. Datos y programas de ordenador
    • 1.4. Un poco de historia
    • 1.5. Lecturas complementarias
  • 2. ÁLGEBRA MATRICIAL
    • 2.1. Introducción
    • 2.2. Vectores
      • 2.2.1. Definiciones básicas
      • 2.2.2. Dependencia lineal
    • 2.3. Matrices
      • 2.3.1. Definiciones básicas
      • 2.3.2. Productos entre matrices
      • 2.3.3. Rango de una matriz
      • 2.3.4. Matrices cuadradas
      • 2.3.5. Matrices particionadas
    • 2.4. Vectores y valores propios
      • 2.4.1. Definición
      • 2.4.2. Valores y vectores propios de matrices simétricas
      • 2.4.3. Diagonalización de matrices simétricas
      • 2.4.4. Raíz cuadrada de una matriz semidefinida positiva
      • 2.4.5. Descomposición en valores singulares
      • 2.4.6. (*)Diagonalización de matrices generales
      • 2.4.7. (*)Inversas generalizadas
    • 2.5. (*)Proyección ortogonal
      • 2.5.1 Matrices idempotentes
      • 2.5.2. Proyección ortogonal
    • 2.6. (*)Derivadas matriciales
  • 3. DESCRIPCIÓN DE DATOS MULTIVARIANTES
    • 3.1. Introducción
    • 3.2. Datos multivariantes
      • 3.2.1. Tipos de variables
      • 3.2.2. La matriz de datos
      • 3.2.3. Análisis univariante
    • 3.3. Medidas de centralización: el vector de medias
    • 3.4. La matriz de varianzas y covarianzas
      • 3.4.1. Cálculo a partir de la matriz de datos centrados
      • 3.4.2. Propiedades
      • 3.4.3. Variables redundantes: El caso con matriz S singular
    • 3.5. Medidas globales de variabilidad
      • 3.5.1. La varianza total y la varianza media
      • 3.5.2. La varianza generalizada
      • 3.5.3. La varianza efectiva
    • 3.6. Variabilidad y distancias
      • 3.6.1. El concepto de distancia
      • 3.6.2. La distancia de Mahalanobis
      • 3.6.3. Distancias promedio
    • 3.7. Medidas de dependencia lineal
      • 3.7.1. Dependencia por pares: la matriz de correlación
      • 3.7.2. Dependencia de cada variable y el resto: regresión múltiple
      • 3.7.3. Dependencia directa entre pares: correlaciones parciales
      • 3.7.4. El coeficiente de dependencia efectiva
    • 3.8. La matriz de precisión
    • 3.9. Coeficientes de asimetría y kurtosis
    • Apéndice 3.1. La estructura de la matriz de precisión
    • Apéndice 3.2. Los determinantes de S y R
    • Apéndice 3.3. Correlaciones parciales
  • 4. ANÁLISIS GRÁFICO Y DATOS ATÍPICOS
    • 4.1. Introducción
    • 4.2. Representaciones gráficas
      • 4.2.1. Histogramas y diagramas de dispersión
      • 4.2.2. Representación mediante figuras
      • 4.2.3. (*)Representación de proyecciones
    • 4.3. Transformaciones lineales
      • 4.3.1. Consecuencias
      • 4.3.2. Estandarización univariante
      • 4.3.3. (*)Estandización multivariante
    • 4.4. Transformaciones no lineales
      • 4.4.1. Simplicidad en las distribuciones
      • 4.4.2. Simplicidad en las relaciones
    • 4.5. Datos atípicos
      • 4.5.1. Definición
      • 4.5.2. Los efectos de los atípicos
      • 4.5.3. (*)Identificación de grupos de atípicos
    • 4.6. Lecturas complementarias
    • Apéndice 4.1. Cálculo de las direcciones de máxima Kurtosis
  • 5. COMPONENTES PRINCIPALES
    • 5.1. Introducción
    • 5.2. Planteamiento del problema
    • 5.3. Cálculo de los componentes
      • 5.3.1. Cálculo del primer componente
      • 5.3.2. Cálculo del segundo componente
      • 5.3.3. Generalización
    • 5.4. Propiedades de los componentes
    • 5.5. Análisis normado o con correlaciones
    • 5.6. Interpretación de los componentes
      • 5.6.1. Selección del número de componentes
      • 5.6.2. Representación gráfica
      • 5.6.3. Datos atípicos
      • 5.6.4. Distribución de los componentes
    • 5.7. Generalizaciones
    • 5.8. Lecturas complementarias
    • Apéndice 5.1. Distancias entre puntos y proyecciones
    • Apéndice 5.2. Los componentes como predictores óptimos
  • 6. ESCALADO MULTIDIMENSIONAL
    • 6.1. Introducción
    • 6.2. Escalados métricos: coordenadas principales
    • 6.3. Matrices compatibles con métricas euclídeas
    • 6.4. Contrucción de las coordenadas principales
    • 6.5. Relación entre coordenadas y componentes principales
    • 6.6. Biplots
    • 6.7. Escalado no métrico
    • 6.8. Lecturas complementarias
    • Apéndice 6.1. Maximización del Stress
  • 7. ANÁLISIS DE CORRESPONDENCIAS
    • 7.1. Introducción
    • 7.2. Búsqueda de la mejor proyección
      • 7.2.1. Proyección de las filas
      • 7.2.2. Proyección de las columnas
      • 7.2.3. Análisis conjunto
    • 7.3. La distancia ji-cuadrado
    • 7.4. Asignación de puntuaciones
    • 7.5. Lecturas complementarias
  • 8. ANÁLISIS DE CONGLOMERADOS
    • 8.1. Fundamentos
    • 8.2. Métodos clásicos de partición
      • 8.2.1. Fundamentos del algoritmo de k-medias
      • 8.2.2. Implementación del algoritmo
      • 8.2.3. Número de grupos
    • 8.3. Métodos jerárquicos
      • 8.3.1. Distancias y similaridades
      • 8.3.2. Algoritmos jerárquicos
      • 8.3.3. Métodos aglomerativos
    • 8.4. Conglomerados por variables
    • 8.5. Lecturas complementarias
    • Apéndice 8.1. Cálculo del estadístico Ji-Cuadrado en tablas 2x2
  • 9. DISTRIBUCIONES MULTIVARIANTES
    • 9.1. Conceptos básicos
      • 9.1.1. Variables aleatorias vectoriales
      • 9.1.2. Distribución conjunta
      • 9.1.3. Distribuciones marginales y condicionadas
      • 9.1.4. Independencia
      • 9.1.5. La maldición de la dimención
    • 9.2. Propiedades de variables vectoriales
      • 9.2.1. Vector de medias
      • 9.2.2. Esperanza de una función
      • 9.2.3. Matriz de varianzas y covarianzas
      • 9.2.4. Transformaciones de vectores aleatorios
      • 9.2.5. Esperanzas y varianzas de transformaciones lineales
    • 9.3. Dependencia entre variables aleatorias
      • 9.3.1. Esperanzas condicionadas
      • 9.3.2. Varianzas condicionadas
      • 9.3.3. Matriz de correlación
      • 9.3.4. Correlaciones múltiples
      • 9.3.5. Correlaciones parciales
    • 9.4. La distribución multinomial
    • 9.5. La distribución de Dirichlet
    • 9.6. La normal k-dimensional
      • 9.6.1. Propiedades básicas
      • 9.6.2. Distribuciones condicionadas
    • 9.7. Distribuciones elípticas
      • 9.7.1. Distribuciones esféricas
      • 9.7.2. Función de densidad
    • 9.8. (*)La distribución de Wishart
      • 9.8.1. Concepto
      • 9.8.2. Propiedades de la distribución
    • 9.9. La T2 de Hotelling
    • 9.10. Distribuciones mezcladas
    • 9.11. Lecturas complementarias
    • Apéndice 9.1. La distribución Wishart invertida
  • 10. INFERENCIA CON DATOS MULTIVARIANTES
    • 10.1. Introducción
    • 10.2. Fundamentos de la estimación máximo verosímil
    • 10.3. Estimación de los parámetros de variables normales p-dimensionales
    • 10.4. El método de la razón de verosimilitudes
    • 10.5. Contraste sobre la media de una población normal
    • 10.6. Contrastes sobre la matriz de varianzas de una población normal
      • 10.6.1. Contraste de un valor particular
      • 10.6.2. Contraste de independencia
      • 10.6.3. Contraste de esfericidad
      • 10.6.4. (*)Contraste de esfericidad parcial
      • 10.6.5. Ajustes en la distribución
    • 10.7. Contraste de igualdad de varias medias: el análisis de la varianza multivariante
    • 10.8. Contrastes de datos atípicos
    • 10.9. Contrastes de normalidad
      • 10.9.1. Contrastes básicos
      • 10.9.2. Transformaciones
    • 10.10. Lecturas complementarias
    • Apéndice 10.1. Inadmisibilidad de la media muestral para p ≥ 3
    • Apéndice 10.2. Razón de verosimilitudes y la T de Hotelling
    • Apéndice 10.3. Contraste de valores atípicos
    • Apéndice 10.4. La distribución de Wilks
  • 11. MÉTODOS DE INFERENCIA AVANZADA MULTIVARIANTE
    • 11.1. Introducción
    • 11.2. Estimación MV con datos faltantes
      • 11.2.1. Estimación MV con el algoritmo EM
      • 11.2.2. Estimación MV de mezclas
      • 11.2.3. Estimación de poblaciones normales con datos ausentes
    • 11.3. Estimación robusta
    • 11.4. Estimación bayesiana
      • 11.4.1. Concepto
      • 11.4.2. Distribución a priori
      • 11.4.3. Cálculo de la posterior
      • 11.4.4. (*) Estimación bayesiana de referencia en el modelo normal
      • 11.4.5. (*) Estimación con información a priori
    • 11.5. Contrastes bayesianos
      • 11.5.1. Conceptos básicos
      • 11.5.2. Comparación entre los contrastes bayesianos y los clásicos
    • 11.6. Selección de modelos
      • 11.6.1. El criterio de Akaike
      • 11.6.2. El criterio BIC
      • 11.6.3. Relación entre el BIC y el AIC
    • 11.7. Lecturas complementarias
    • Apéndice 11.1. Convergencia del algoritmo EM
    • Apéndice 11.2. Estimación bayesiana
  • 12. ANÁLISIS FACTORIAL
    • 12.1. Introducción
    • 12.2. El modelo factorial
      • 12.2.1. Hipótesis básicas
      • 12.2.2. Propiedades
      • 12.2.3. Unicidad del modelo
      • 12.2.4. Normalización del modelo factorial
      • 12.2.5. Número máximo de factores
    • 12.3. El método del factor principal
      • 12.3.1. Estimación de las comunalidades
      • 12.3.2. Generalizaciones
    • 12.4. (*) Estimación máximo verosímil
      • 12.4.1. Estimación MV de los parámetros
      • 12.4.2. Otros métodos de estimación
    • 12.5. Determinación del número de factores
      • 12.5.1. Contraste de verosimilitud
      • 12.5.2. Criterios de selección
    • 12.6. Rotación de los factores
    • 12.7. Estimación de los factores
      • 12.7.1. Los factores como parámetros
      • 12.7.2. Los factores como variables aleatorias
    • 12.8. Diagnosis del modelo
    • 12.9. Relación con componentes principales
    • 12.10. Análisis factorial confirmatorio
    • 12.11. Lecturas complementarias
    • Apéndice 12.1. Estimación máximo-verosímil del modelo factorial
    • Apéndice 12.2. Contrastes sobre el rango de una matriz
    • Apéndice 12.3. Estimación de los factores
    • Apéndice 12.4. Interpretación bayesiana del estimador de los factores
  • 13. ANÁLISIS DISCRIMINANTE
    • 13.1. Introducción
    • 13.2. Clasificación entre dos poblaciones
      • 13.2.1. Planteamiento del problema
      • 13.2.2. Poblaciones normales: función lineal discriminante
      • 13.2.3. Interpretación geométrica
      • 13.2.4. Cálculo de probabilidades de error
      • 13.2.5. Probabilidades a posteriori
    • 13.3. Generalización para varias poblaciones normales
      • 13.3.1. Planteamiento general
      • 13.3.2. Procedimiento operativo
    • 13.4. Poblaciones desconocidas. Caso general
      • 13.4.1. Regla estimada de clasificación
      • 13.4.2. Cálculo de probabilidades de error
    • 13.5. Variables canónicas discriminantes
      • 13.5.1. El caso de dos grupos
      • 13.5.2. Varios grupos
      • 13.5.3. Variables canónicas discriminantes
    • 13.6. Discriminación cuadrática. Discriminación en poblaciones no normales
    • 13.7. Discriminación bayesiana
    • 13.8. Lecturas complementarias
    • Apéndice 13.1. El criterio minimizar la probabilidad del error
    • Apéndice 13.2. Discriminación y regresión
  • 14. DISCRIMINACIÓN LOGÍSTICA Y OTROS MÉTODOS DE CLASIFICACIÓN
    • 14.1. Introducción
    • 14.2. Modelos de respuesta cualitativa
      • 14.2.1. Tipos de modelos
      • 14.2.2. El modelo logístico
      • 14.2.3. Interpretación del modelo logístico
    • 14.3. La estimación del modelo logit
      • 14.3.1. Estimación MV
      • 14.3.2. Contrastes
      • 14.3.3. Diagnosis
    • 14.4. El modelo multilogit
    • 14.5. Otros métodos de clasificación
      • 14.5.1. Árboles de clasificación
      • 14.5.2. Redes neuronales
      • 14.5.3. Métodos no paramétricos
      • 14.5.4. Máquinas del vector soporte
    • 14.6. Lecturas complementarias
  • 15. CLASIFICACIÓN MEDIANTE MEZCLA DE DISTRIBUCIONES
    • 15.1. Fundamentos
    • 15.2. El método de k-medias para mezclas
      • 15.2.1. Criterios
      • 15.2.2. Determinación del número de grupos
    • 15.3. Estimación de mezclas de normales
      • 15.3.1. Las ecuaciones de máxima verosimilitud para la mezcla
      • 15.3.2. Resolución mediante el algoritmo EM
      • 15.3.3. Aplicación al análisis de conglomerados
    • 15.4. Métodos bayesianos
    • 15.5. Métodos de proyección
    • 15.6. Conclusiones
    • 15.7. Lecturas complementarias
    • Apéndice 15.1. Comparación del criterio de la traza y el determinante
  • 16. DEPENDENCIA ENTRE CONJUNTOS DE VARIABLES: CORRELACIÓN CANÓNICA Y OTROS MÉTODOS
    • 16.1. Introducción
    • 16.2. Construción de variables canónicas
      • 16.2.1. La primera variable canónica
      • 16.2.2. Las r variables canónicas
    • 16.3. Propiedades de las variables y correlaciones canónicas
    • 16.4. Análisis muestral
    • 16.5. Interpretación geométrica
    • 16.6. Contrastes
    • 16.7. Extensiones a más de dos grupos
    • 16.8. Relación con otras técnicas estudiadas
    • 16.9. Análisis canónico asimétrico
      • 16.9.1. Coeficientes de redundancia
      • 16.9.2. Análisis canónico asimétrico
    • 16.10. Regresión multivariante y modelos estructurales
    • 16.11. Modelos estructurales en variables latentes
      • 16.11.1. Propiedades
      • 16.11.2. Estimación
    • 16.12. Lecturas complementarias
    • Apéndice 16.1. Estimación del modelo de regresión multivariante
  • Apéndice A
    • 1. EUROALI
    • 2. EUROSEC
    • 3. EPF
    • 4. INVEST
    • 5. MEDIFIS
    • 6. MUNDODES
    • 7. ACCIONES
  • Referencias
    • Libros de Análisis multivariante
    • Artículos y otras referencias
  • Índice

students

Comprar el libro | Solicita ejemplar para el profesor

McGraw-Hill Interamerican
Copyright 2003 McGraw-Hill Online Learning Centre
Any use is subject to the Terms of Use and Privacy Policy
McGraw-Hill Interamericana de España is one of the many fine businesses of The McGraw-Hill Companies