URSS.ru - Editorial URSS, Moscú - Libros de Ciencia
Página principal Librería on-line Nuestra dirección Escríbanos
LIBROS EN LENGUAS EUROPEAS


 
Regresar a: Catálogo  
Encuadernación Krasnov M.L., Kiseliov A.I., Makárenko G.I., Shikin Ie.V., Zaliapin V.I. Curso de matemáticas superiores. Estadística matemática y teoría de juegos
Id: 11275
 
13.9 EUR Bestseller!

Curso de matemáticas superiores. Estadística matemática y teoría de juegos. T.8

URSS. 224 pp. (Spanish). Cartoné. ISBN 5-354-00462-4.

 Resumen del libro

El texto de estudio que proponemos al lector fue publicado por primera vez en dos tomos, en inglés y español en el año 1990, y posteriormente en francés.

En el año 1999 este libro fue premiado en el concurso Nuevos libros de texto organizado por el Ministerio de Educación de Rusia, con la consiguiente recomendación para ser utilizado como tal en todos los centros de educación superior.

La presente edición, ampliada y mejorada notablemente, abarca casi todas las ramas de la matemática. El octavo tomo incluye estimación estadística, prueba estadística de hipótesis, análisis de dependencia, juegos de suma nula, juegos de posición y juegos bimatriciales.

Todos los tomos de la serie contienen muchos ejemplos ilustrativos de los tópicos teóricos. Al final del libro se presenta un número suficientemente grande de ejercicios propuestos, acompañados de sus respectivas respuestas.


 Índice

Estadística matemática
Capítulo XLIII Estimadores estadísticos
   § 1.  Muestras y medidas muestrales (medidas empíricas)
   § 2.  Parámetros de las distribuciones. Estimación puntual
   § 2.1.  Método de los momentos
   § 2.2.  Método de la máxima verosimilitud
   § 3.  Estimación por intervalos
   § 3.1.  Precisión y fiabilidad en la estimación del valor esperado de una variable aleatoria normal
   § 3.2.  Precisión y fiabilidad en la estimación de la varianza de una variable aleatoria normal
   § 3.3.  Precisión y fiabilidad en la estimación de distribuciones no normales
   § 3.4.  Eficiencia de una estimación. Acotación (desigualdad) de Rao--Cramer
Capítulo XLIV Pruebas estadísticas de hipótesis
   § 1.  Conceptos básicos
   § 2.  Hipótesis paramétricas. Lema de Neyman--Pearson
   § 2.1.  Prueba de la hipótesis de igualdad del valor esperado de una variable aleatoria normal a un número a
   § 2.2.  Prueba de la hipótesis de igualdad de la varianza de una variable aleatoria normal xi a un número b
   § 2.3.  Prueba de la hipótesis de igualdad de los valores esperados de variables aleatorias normales
   § 3.  Pruebas de la bondad del ajuste
   § 3.1.  Prueba de Kolmogórov--Smirnov
   § 3.2.  Prueba chi2 de Pearson
Capítulo XLV Análisis estadístico de la dependencia
   § 1.  Variables aleatorias. Análisis de correlación
   § 1.1.  Regresión simple. Significación del coeficiente de correlación
   § 1.2.  Regresión múltiple. Método de los mínimos cuadrados
   § 1.3.  Significación del coeficiente de correlación múltiple
   § 2.  Variables aleatorias. Dependencia no lineal
   § 3.  Variables no aleatorias. Modelos de regresión lineales respecto a los parámetros
   § 3.1.  Acuerdos fundamentales
   § 3.2.  Estimación de los coeficientes de regresión por el método de los mínimos cuadrados
   § 3.3.  Propiedades de los estimadores de los coeficientes de regresión
   § 3.4.  Estimación del parámetro sigma2
   § 3.5.  Idoneidad del modelo
   § 3.6.  Precisión y fiabilidad de la estimación de los coeficientes de regresión
   § 3.7.  Pronóstico de los resultados de un experimento. Precisión y fiabilidad de un pronóstico
Epílogo
Introducción a la teoría de juegos
Capítulo XLVI Juegos matriciales
   § 1.  Estrategias de equilibrio
   § 2.  Estrategias combinadas
   § 2.1.  Definiciones fundamentales
   § 2.2.  Teorema fundamental de los juegos matriciales
   § 2.3.  Propiedades básicas de las estrategias combinadas óptimas
   § 3.  Métodos de resolución de juegos matriciales
   § 3.1.  Juegos 2 x n
   § 3.2.  Juegos m x 2
   § 3.3.  Juegos m x n
   § 3.4.  Método iterativo de resolución de juegos matriciales
   § 3.5.  Reducción de juegos matriciales a problemas de programación lineal
   § 4.  Ejemplos de problemas que se pueden reducir a juegos matriciales
   § 5.  Conclusión
   § 6.  Sobre la clasificación de los juegos
Capítulo XLVII Juegos de posición
   § 1.  Estructura de un juego de posición
   § 2.  Juegos de posición en forma normal
   § 3.  Juegos de posición con información completa
   § 4.  Conclusión
Capítulo XLVIII Juegos bimatriciales
   § 1.  Ejemplos de juegos bimatriciales
   § 2.  Estrategias combinadas
   § 3.  Juegos bimatriciales 2 x 2. Situación de equilibrio
   § 4.  Búsqueda de las situaciones de equilibrio
   § 5.  Optimalidad de Pareto
   § 5.1.  Conjunto de Pareto
   § 5.2.  Método del punto eficiente
   § 5.3.  Optimalidad de Pareto en juegos bimatriciales
   § 6.  Conclusión
Epílogo
Ejercicios propuestos
Respuestas
Indice de materias

 Estadística matemática

Antes de entrar en materia, veamos algunas particularidades de los enunciados y métodos de resolución de los problemas estadísticos, particularidades que los diferencian de los problemas de teoría de probabilidades.

La teoría de probabilidades parte de características conocidas de un conjunto de variables aleatorias para responder a la pregunta sobre la probabilidad de que ocurra uno u otro suceso representado por dichas variables aleatorias:

conocida la distribución de un conjunto de variables aleatorias xi-=xi1,...,xin, se pide hallar las probabilidades de los sucesos representados por ellas.

La estadística resuelve problemas, en cierto sentido, inversos. Concretamente: al observar ciertos sucesos, cuyas probabilidades de ocurrir están descritas por un conjunto de variables aleatorias, se pide hallar las propias variables aleatorias (desconocidas) y sus medidas probabilísticas:

conocidoslos resultados de ciertas observaciones (valores concretos tomados por una variable aleatoria), se pide hacer inferencias acerca de la distribución (en particular, sobre los parámetros y medidas numéricas) de la variable aleatoria observada.

En vista de que los resultados de la observación de una variable aleatoria son, en principio, impredecibles, las inferencias hechas a partir de los resultados de un experimento tendrán valor informativo sólo en caso de que las observaciones sean "buenas". Una observación se considera "buena" cuando los valores de xi con probabilidades grandes se observan con mayor frecuencia que los valores con probabilidades menores. Las leyes de los grandes números afirman que en la gran mayoría de los experimentos sucede así. Sin embargo, esto no garantiza que un experimento concreto sea precisamente "bueno".

Así pues, ninguna inferencia estadística es totalmente confiable: si una conclusión está basada en un experimento "bueno", entonces diremos que tal inferencia está cerca de la verdad, pero si se apoya en un experimento "malo", la inferencia es errada. Además, el hecho de que un experimento sea "bueno" o "malo" no depende de nosotros, de nuestra buena fe como observadores o de la meticulosidad del investigador, sino de las circunstancias, de la naturaleza.

Lo dicho anteriormente se ilustra de manera clara en el ejemplo siguiente. Se observan los resultados de n lanzamientos de una moneda. Si se lanza la moneda muchas veces, entonces, de acuerdo con la ley de Bernoulli de los grandes números, la frecuencia con que sale, por ejemplo, cara tendrá un valor cercano a su probabilidad. Por consiguiente, a partir de la frecuencia (observada y calculada) se pueden hacer inferencias sobre la probabilidad (variable desconocida). ?`Cuán bien corresponden estas inferencias a la realidad?

Tomemos una moneda simétrica, es decir,

P(salir cara)=P(salir cruz)=0,5

(!`el hecho de que las probabilidades sean iguales no impide que en un experimento concreto los números de caras y cruces sean diferentes!).

Puede suceder que en una serie de 100 lanzamientos salga cara 45 veces y cruz 55, o que salga cara 20 veces y cruz 80. Es claro que podemos afirmar que la primera serie es "buena", y la segunda, "mala". En cualquier caso, a partir de la frecuencia observada podemos hacer una inferencia sobre la probabilidad desconocida de que salga cara en el experimento, tomando en el primer caso P(A)=0,45, y en el segundo 0,2. Podemos adoptar una posición optimista apoyándonos en el hecho de que el número de series "malas" disminuye al aumentar el tamaño de la serie. Entonces es de esperar que una serie suficientemente larga de lanzamientos sea "buena" y no que sea "mala", y que la probabilidad P(A) hallada como resultado de dicho experimento corresponda a la realidad. La fiabilidad de una inferencia estadística estará determinada por la "rareza" de los experimentos malos.

La experiencia en la utilización de los métodos estadísticos muestra que generalmente las decisiones tomadas a partir de inferencias de este tipo resultan confiables. Y precisamente este hecho (la concordancia de las inferencias estadísticas con el experimento) hace que la estadística matemática sea una ciencia útil en la solución de problemas reales.

En lo sucesivo utilizaremos repetidamente las expresiones "probabilidad pequeña" y "suceso poco probable", entre otras. ?`Cuál probabilidad se puede considerar pequeña y cuál no? Sin entrar en detalles, solamente señalaremos que si el valor de una probabilidad no está asociado a una situación concreta, entonces no proporciona ninguna información sobre si dicha probabilidad es pequeña o no. Por ejemplo, si la probabilidad de que cierto suceso ocurra es igual a 0,01, esta probabilidad se considera pequeña si el conjunto de condiciones que genera tal suceso se presenta una vez cada cien años; pero si las condiciones que lo propician se dan cada cinco minutos, entonces debemos admitir que esta probabilidad es significativa. En otras palabras, por probabilidad pequeña entenderemos la probabilidad de un suceso que prácticamente no se observa, independientemente del valor numérico de dicha probabilidad.


 Fe de erratas




 
© Editorial URSS 2016.