Antes de entrar en materia, veamos algunas particularidades de los enunciados y métodos de resolución de los problemas estadísticos, particularidades que los diferencian de los problemas de teoría de probabilidades. La teoría de probabilidades parte de características conocidas de un conjunto de variables aleatorias para responder a la pregunta sobre la probabilidad de que ocurra uno u otro suceso representado por dichas variables aleatorias: conocida la distribución de un conjunto de variables aleatorias xi-=xi1,...,xin, se pide hallar las probabilidades de los sucesos representados por ellas. La estadística resuelve problemas, en cierto sentido, inversos. Concretamente: al observar ciertos sucesos, cuyas probabilidades de ocurrir están descritas por un conjunto de variables aleatorias, se pide hallar las propias variables aleatorias (desconocidas) y sus medidas probabilísticas: conocidoslos resultados de ciertas observaciones (valores concretos tomados por una variable aleatoria), se pide hacer inferencias acerca de la distribución (en particular, sobre los parámetros y medidas numéricas) de la variable aleatoria observada. En vista de que los resultados de la observación de una variable aleatoria son, en principio, impredecibles, las inferencias hechas a partir de los resultados de un experimento tendrán valor informativo sólo en caso de que las observaciones sean "buenas". Una observación se considera "buena" cuando los valores de xi con probabilidades grandes se observan con mayor frecuencia que los valores con probabilidades menores. Las leyes de los grandes números afirman que en la gran mayoría de los experimentos sucede así. Sin embargo, esto no garantiza que un experimento concreto sea precisamente "bueno". Así pues, ninguna inferencia estadística es totalmente confiable: si una conclusión está basada en un experimento "bueno", entonces diremos que tal inferencia está cerca de la verdad, pero si se apoya en un experimento "malo", la inferencia es errada. Además, el hecho de que un experimento sea "bueno" o "malo" no depende de nosotros, de nuestra buena fe como observadores o de la meticulosidad del investigador, sino de las circunstancias, de la naturaleza. Lo dicho anteriormente se ilustra de manera clara en el ejemplo siguiente. Se observan los resultados de n lanzamientos de una moneda. Si se lanza la moneda muchas veces, entonces, de acuerdo con la ley de Bernoulli de los grandes números, la frecuencia con que sale, por ejemplo, cara tendrá un valor cercano a su probabilidad. Por consiguiente, a partir de la frecuencia (observada y calculada) se pueden hacer inferencias sobre la probabilidad (variable desconocida). ?`Cuán bien corresponden estas inferencias a la realidad? Tomemos una moneda simétrica, es decir, P(salir cara)=P(salir cruz)=0,5 (!`el hecho de que las probabilidades sean iguales no impide que en un experimento concreto los números de caras y cruces sean diferentes!). Puede suceder que en una serie de 100 lanzamientos salga cara 45 veces y cruz 55, o que salga cara 20 veces y cruz 80. Es claro que podemos afirmar que la primera serie es "buena", y la segunda, "mala". En cualquier caso, a partir de la frecuencia observada podemos hacer una inferencia sobre la probabilidad desconocida de que salga cara en el experimento, tomando en el primer caso P(A)=0,45, y en el segundo 0,2. Podemos adoptar una posición optimista apoyándonos en el hecho de que el número de series "malas" disminuye al aumentar el tamaño de la serie. Entonces es de esperar que una serie suficientemente larga de lanzamientos sea "buena" y no que sea "mala", y que la probabilidad P(A) hallada como resultado de dicho experimento corresponda a la realidad. La fiabilidad de una inferencia estadística estará determinada por la "rareza" de los experimentos malos. La experiencia en la utilización de los métodos estadísticos muestra que generalmente las decisiones tomadas a partir de inferencias de este tipo resultan confiables. Y precisamente este hecho (la concordancia de las inferencias estadísticas con el experimento) hace que la estadística matemática sea una ciencia útil en la solución de problemas reales. En lo sucesivo utilizaremos repetidamente las expresiones "probabilidad pequeña" y "suceso poco probable", entre otras. ?`Cuál probabilidad se puede considerar pequeña y cuál no? Sin entrar en detalles, solamente señalaremos que si el valor de una probabilidad no está asociado a una situación concreta, entonces no proporciona ninguna información sobre si dicha probabilidad es pequeña o no. Por ejemplo, si la probabilidad de que cierto suceso ocurra es igual a 0,01, esta probabilidad se considera pequeña si el conjunto de condiciones que genera tal suceso se presenta una vez cada cien años; pero si las condiciones que lo propician se dan cada cinco minutos, entonces debemos admitir que esta probabilidad es significativa. En otras palabras, por probabilidad pequeña entenderemos la probabilidad de un suceso que prácticamente no se observa, independientemente del valor numérico de dicha probabilidad. Kiseliov A.I. Born on August 26th 1917 in Russia. Graduated from Moscow State University (Department of Mechanics and Mathematics) in 1951. 1951-1962: Affiliated to the Institute of Physical Problems of USSR Academy of Sciences. 1962-1996: Associate Professor of Moscow Power Institute. Department of Mathematics. Fields of interest: Theory of Functions.
|