Estadística matemática

Estadística matemática

ESTADÍSTICA MATEMÁTICA

I.Variable aleatoria bidimensional y n-dimensional.

    1. Variable aleatoria n-dimensional. Función de distribución.
      • álgebra de Borel en .
      • Variable aleatoria bidimensional.
      • Función de distribución conjunta. Propiedades.
      • Variable aleatoria bidimensional discreta. Función de masa.
      • Variable aleatoria continua y absolutamente continua. Función de densidad.
      • Distribuciones marginales.
      • Distribuciones condicionadas.
      • Variables aleatorias independientes.
      • Cambios de variable.
    2. Características de las variables aleatorias n-dimensionales.
      • Vector de esperanzas de una variable aleatoria bidimensional.
      • Esperanza matemática de funciones de una variable aleatoria bidimensional. Propiedades.
      • Momentos respecto al origen y respecto a la media. Covarianza y matriz de covarianzas.
      • Función característica de una variable aleatoria bidimensional. Reproductividad.
      • Generalización a variables aleatorias n-dimensionales.
    3. Regresión y correlación bidimensional
      • Planteamiento del problema.
      • Rectas de regresión.
      • Coeficiente de correlación. Propiedades.
      • Curvas de regresión.
      • Razón de correlación. Propiedades.
    4. Principales distribuciones n-dimensionales. Distribuciones asociadas a la Normal.
      • Distribución Multinomial.
      • Distribución Normal bidimensional.
      • Distribución Normal n-dimensional.
      • Distribuciones asociadas a la Normal: TStudent, FSnedecor.

II.Sucesiones de variables aleatorias.

    1. Convergencia de sucesiones de variables aleatorias. Teoremas límite.
      • Sucesiones de variables aleatorias.
      • Tipos de convergencia. Relaciones entre los tipos de convergencia.
      • Leyes de los grandes números.
      • Teorema Central del Límite.

III.Introducción a la Inferencia Estadística.

    1. Estadísticos muestrales.
      • Modelo estadístico: modelo paramétrico y no paramétrico.
      • Muestra aleatoria simple. Estadísticos muestrales.
      • Distribución empírica de la muestra. Momentos muestrales y sus características.
      • Comportamiento asintótico de los momentos muestrales.
      • Estadísticos de orden.

IV.Estimación puntual paramétrica.

    1. Estimadores y sus propiedades.
      • Definición de estimador. Propiedades.
      • Error cuadrático medio. Estimador insesgado uniformemente de mínima varianza (ECUMV).
      • Métodos de obtención de estimadores.
      • Método de los Momentos
      • Método de Máxima Verosimilitud.
      • -Método de obtención de estimadores centrados uniformemente de mínima varianza: Teorema de Rao-Blackwell y Teorema de Lehmann-Sheffé.
      • Cota de Fréchet-Cramer-Rao. Consecuencias. Estimadores eficientes

V.Estimación mediante regiones de confianza y contrastes de hipótesis paramétricos.

    1. Muestreo en poblaciones Normales.
      • Distribución de la media muestral.
      • Distribución de la varianza muestral. Teorema de Fisher.
      • Distribución del estadístico de Student.
      • Distribución del estadístico diferencia de medias.
      • Distribución del estadístico cociente de varianzas.
      • Distribución del coeficiente de correlación lineal muestral.
    2. Estimación por intervalos de confianza.
      • Conceptos fundamentales.
      • Métodos de construcción de intervalos de confianza:
      • Método de Neyman.
      • Método de la cantidad pivotal.
      • Intervalos de confianza en poblaciones Normales.
      • Intervalos de confianza para muestras grandes.
    3. Contrastes de hipótesis.
      • Conceptos fundamentales: tipos de error, nivel de significación, p-valor, función de potencia, contrastes unilaterales y bilaterales.
      • Lema de Neyman-Pearson.
      • Contrastes uniformemente más potentes e insesgados.
      • Contraste de la razón de verosimilitudes.
      • Dualidad entre intervalo de confianza y contraste de hipótesis.
    4. Método de la razón de verosimilitudes: aplicación a poblaciones Normales.
      • Contrastes de la razón de verosimilitudes.
      • Distribución asintótica del cociente de verosimilitudes.
      • Aplicación a poblaciones Normales.
      • Contrastes relativos a la media.
      • Contrastes relativos a la varianza.
      • Contrastes relativos a la diferencia de medias.
      • Contrastes relativos al cociente de varianzas.
      • Contrastes más utilizados en muestras grandes.

VI.Inferencia no paramétrica.

    1. Introducción a la inferencia no paramétrica.
      • Métodos estadísticos no paramétricos: conceptos y utilización.
      • Comparación con los métodos paramétricos.
    2. Contrastes de bondad de ajuste.
      • Introducción.
      • Métodos gráficos.
      • Test de la de bondad de ajuste.
      • Test de Kolmogorov Smirnov .
      • Contrastes de Normalidad:
      • Test de Kolmogorov-Smirnov-Lilliefors.
      • Test de Shapiro y Wilk.
      • Tests basados en los coeficientes de asimetría y aplastamiento.
    3. Contrastes de independencia.
      • Introducción.
      • Contrastes de aleatoriedad: tests de rachas.
      • Contrastes de independencia en muestras pareadas.
      • Tests de Kendall y de Spearman
      • Test de independencia.
      • Contrastes para K muestras relacionadas.
      • Coeficiente de concordancia de Kendall.
      • Generalización del test .
    4. Contrastes de posición y homogeneidad
      • Introducción.
      • Contrastes de posición.
        • Para una muestra y muestras pareadas: Tests de los signos y los rangos signados.
        • Para dos muestras independientes: Tests de Wilcoxon Mann-Whitney y de la Mediana.
        • Para K muestras independientes: Test de Kruskal-Wallis.
        • Para K muestras relacionadas: Test de Friedman.
      • Contrastes de homogeneidad.
        • Test de Wald-Wolfowitz.
        • Test de KolmogorovSmirnov.
        • Test de homogeneidad.

VII.Inferencia Bayesiana.

  1. Introducción a la Inferencia Bayesiana.
    • Planteamiento del problema.
    • Estimación Bayesiana.
    • Método Bayes para intervalos de confianza.
    • Procedimiento de contraste Bayes.

 

Bibliografía

  • CAO, R. (et.al.). "Introducción a la Estadística y sus Aplicaciones". Pirámide. 2001.
  • CASAS, J. M. "Inferencia Estadística". Centro de estudios Ramón Areces. 1997
  • CRISTÓBAL, J. A. "Inferencia Estadística". Prensas Universitarias de Zaragoza. 1995.
  • CUADRAS, C. M. "Problemas de Probabilidad y Estadística". P.P.U. 1991.
  • DEGROOT, M. H. "Probabilidad y Estadística". AddisonWesley Iberoamericana. 1988.
  • FERNÁNDEZ-ABASCAL, H. "Cálculo de Probabilidades y Estadística". Ariel Economía. 1994.
  • FERNÁNDEZ-ABASCAL, H. "Ejercicios de Cálculo de Probabilidades y Estadística". Ariel Economía. 1995.
  • GARCÍA, A. "Estadística Aplicada: Conceptos básicos". U.N.E.D. 1997.
  • GIBBONS, J. D. "Nonparametric Methods for Quantitative Analysis". American Sciences Press. 1997.
  • GÓMEZ VILLEGAS, M. A., "Inferencia Estadística". Díaz de Santos. 2005
  • DE LA HORRA, J. "Estadística Aplicada". Díaz de Santos. 1995.
  • MOORE, D. S. "Estadística Aplicada básica". Antoni Bosch. 1998.
  • PEÑA, D. "Estadística Modelos y Métodos: Fundamentos". Alianza. 1991.
  • QUESADA, V. y GARCÍA, A. "Lecciones de Cálculo de Probabilidades". Díaz de Santos. 1988.
  • ROHATGI, V. K. "An Introduction to Probability Theory and Mathematical Statistics". John Wiley and sons. 1976.
  • SIEGEL, S. "Estadística no paramétrica aplicada a las ciencias de la conducta". Trillas. 1990.
  • VÉLEZ, R. y GARCÍA, A. "Principios de Inferencia Estadística". U.N.E.D.1993.