Metodos Estadisticos para Trabajadores de Investigacion - Libro Ronald A Fisher

PREFACIO DE LOS EDITORES La creciente especialización en investigación biológica ha hecho que sea imposible para cualqui

Views 33 Downloads 1 File size 4MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

PREFACIO DE LOS EDITORES La creciente especialización en investigación biológica ha hecho que sea imposible para cualquier autor tratar adecuadamente los avances actuales en el conocimiento. Se ha convertido en una cuestión de gran dificultad para que un estudiante de investigación tenga una idea correcta del estado actual del conocimiento de un tema en el que él mismo está interesado. Para enfrentar esta situación, el libro de texto se complementa con la monografía. El objetivo de la presente serie es proporcionar informes fidedignos de lo que se ha hecho en algunas de las diversas ramas de la investigación biológica y, al mismo tiempo, brindar una oportunidad a aquellos que han contribuido notablemente al desarrollo de un campo de investigación particular. de presentar los resultados de sus investigaciones, dispersos por revistas científicas, en una forma más extensa, mostrando su relación con lo que ya se ha hecho y con los problemas que quedan por resolver. La generación actual está presenciando "un regreso a la práctica de los días más viejos cuando la fisiología animal [p. Vi] aún no estaba divorciada de la morfología". Se está viendo un progreso notable en el campo de la fisiología general, de la biología experimental y en la aplicación de los principios biológicos a los problemas económicos. En esta serie, por lo tanto, se pretende que la investigación biológica, tanto pura como aplicada, esté representada. Equipo de la FAE, Edimburgo D. Ward Cutler, Rothamsted [p. vii]

PREFACIO DEL AUTOR Durante varios años, el autor ha estado trabajando en cooperación algo íntima con varios departamentos de investigación biológica; El presente libro es en todo sentido el producto de esta circunstancia. El contacto diario con los problemas estadísticos que se presentan al trabajador de laboratorio ha estimulado las investigaciones puramente matemáticas en las que se basan los métodos aquí presentados. Poca experiencia es suficiente para demostrar que la maquinaria tradicional de los procesos estadísticos es totalmente inadecuada para las necesidades de la investigación práctica. ¡No solo se necesita un cañón para disparar a un gorrión, sino que se pierde el gorrión! El elaborado mecanismo construido sobre la teoría de muestras infinitamente grandes no es lo suficientemente preciso para datos de laboratorio simples. Solo al abordar sistemáticamente pequeños problemas de muestra en sus méritos, parece posible aplicar pruebas precisas a datos prácticos. Tal al menos ha sido el objetivo de este libro. Debo más de lo que puedo decir al señor WS Gosset, al señor E. Somerfield y a la señorita WA Mackenzie, quienes [pág. viii] han leído las pruebas y hecho muchas sugerencias valiosas. Se han eliminado muchos errores pequeños pero no menos problemáticos; Estaré agradecido a los lectores que me notificarán sobre cualquier error y ambigüedad adicional que puedan detectar. ESTACIÓN EXPERIMENTAL ROTHAMSTED, febrero de 1925

INTRODUCTORIO 1. El alcance de las estadísticas La ciencia de la estadística es esencialmente una rama de las Matemáticas Aplicadas y puede considerarse como matemáticas aplicadas a los datos de observación. Como en otros estudios matemáticos, la misma fórmula es igualmente relevante para grupos de materias ampliamente diferentes. En consecuencia, la unidad de las diferentes aplicaciones generalmente se ha pasado por alto, más naturalmente porque el desarrollo de la teoría matemática subyacente ha sido muy descuidado. Por lo tanto, consideraremos el tema de las estadísticas bajo tres aspectos diferentes y luego mostraremos en un lenguaje más matemático que surgen los mismos tipos de problemas en cada caso. Las estadísticas se pueden considerar como (i.) El estudio de poblaciones , (ii.) Como el estudio de variación , (iii.) Como el estudio de métodos de reducción de datos. El significado original de la palabra "estadísticas" [p. 2] sugiere que fue el estudio de poblaciones de seres humanos que viven en unión política. Sin embargo, los métodos desarrollados no tienen nada que ver con la unidad política del grupo y no se limitan a las poblaciones de hombres o de insectos sociales. De hecho, dado que ningún registro de observación puede especificar completamente a un ser humano, las poblaciones estudiadas son, hasta cierto punto, abstracciones. Si tenemos registros de la estatura de 10,000 reclutas, es más bien la población de estaturas que la población de reclutas lo que está abierto a estudio. Sin embargo, en un sentido real, las estadísticas son el estudio de poblaciones, o agregados de individuos, en lugar de individuos. Teorías científicas que involucran las propiedades de grandes agregados de individuos, y no necesariamente las propiedades de los individuos mismos, como la Teoría cinética de los gases, la Teoría de la selección natural o la Teoría química de la acción de masas, son esencialmente argumentos estadísticos; y pueden ser mal interpretados tan pronto como se pierda de vista la naturaleza estadística del argumento. Estadístico. Los métodos son esenciales para los estudios sociales, y es principalmente con la ayuda de tales métodos que estos estudios pueden elevarse al rango de ciencias. Esta particular dependencia de los estudios sociales sobre los métodos estadísticos ha llevado a la dolorosa interpretación errónea de que las estadísticas deben considerarse como una rama de la economía, mientras que en realidad los economistas tienen mucho que aprender de sus contemporáneos científicos, no solo en el método científico general, sino en particular. En la práctica estadística. La teoría de la selección natural, o la teoría química de la acción de masas, son esencialmente argumentos estadísticos; y pueden ser mal interpretados tan pronto como se

pierda de vista la naturaleza estadística del argumento. Estadístico. Los métodos son esenciales para los estudios sociales, y es principalmente con la ayuda de tales métodos que estos estudios pueden elevarse al rango de ciencias. Esta particular dependencia de los estudios sociales sobre los métodos estadísticos ha llevado a la dolorosa interpretación errónea de que las estadísticas deben considerarse como una rama de la economía, mientras que en realidad los economistas tienen mucho que aprender de sus contemporáneos científicos, no solo en el método científico general, sino en particular. En la práctica estadística. La teoría de la selección natural, o la teoría química de la acción de masas, son esencialmente argumentos estadísticos; y pueden ser mal interpretados tan pronto como se pierda de vista la naturaleza estadística del argumento. Estadístico. Los métodos son esenciales para los estudios sociales, y es principalmente con la ayuda de tales métodos que estos estudios pueden elevarse al rango de ciencias. Esta particular dependencia de los estudios sociales sobre los métodos estadísticos ha llevado a la dolorosa interpretación errónea de que las estadísticas deben considerarse como una rama de la economía, mientras que en realidad los economistas tienen mucho que aprender de sus contemporáneos científicos, no solo en el método científico general, sino en particular. En la práctica estadística. y pueden ser mal interpretados tan pronto como se pierda de vista la naturaleza estadística del argumento. Estadístico. Los métodos son esenciales para los estudios sociales, y es principalmente con la ayuda de tales métodos que estos estudios pueden elevarse al rango de ciencias. Esta particular dependencia de los estudios sociales sobre los métodos estadísticos ha llevado a la dolorosa interpretación errónea de que las estadísticas deben considerarse como una rama de la economía, mientras que en realidad los economistas tienen mucho que aprender de sus contemporáneos científicos, no solo en el método científico general, sino en particular. En la práctica estadística. y pueden ser mal interpretados tan pronto como se pierda de vista la naturaleza estadística del argumento. Estadístico. Los métodos son esenciales para los estudios sociales, y es principalmente con la ayuda de tales métodos que estos estudios pueden elevarse al rango de ciencias. Esta particular dependencia de los estudios sociales sobre los métodos estadísticos ha llevado a la dolorosa interpretación errónea de que las estadísticas deben considerarse como una rama de la economía, mientras que en realidad los economistas tienen mucho que aprender de sus contemporáneos científicos, no solo en el método científico general, sino en particular. En la práctica estadística. La idea de una población debe aplicarse no solo [pág. 3] a individuos vivos, o incluso materiales. Si una observación, como una medición simple, se repite varias veces, el agregado de los resultados es una población de mediciones. Tales poblaciones son el campo particular de estudio de la Teoría de los Errores., una de las líneas de investigación estadística más antiguas y fructíferas. Del mismo modo que una sola observación puede considerarse

como un individuo, y su repetición genera una población, el resultado completo de un experimento extenso puede considerarse como uno más de una población de tales experimentos. El hábito saludable de repetir experimentos importantes, o de realizar observaciones originales en réplica, muestra una apreciación tácita del hecho de que el objeto de nuestro estudio no es el resultado individual, sino la población de posibilidades de las cuales hacemos todo lo posible para hacer nuestro Representante de experimentos. El cálculo de los medios y los errores probables muestra un intento deliberado de averiguar algo sobre esa población. La concepción de las estadísticas como el estudio de la variación es el resultado natural de ver al sujeto como el estudio de las poblaciones; para una población de individuos, en todos los aspectos idénticos, se describe completamente mediante una descripción de cualquier individuo, junto con el número en el grupo. Las poblaciones que son objeto de estudio estadístico siempre muestran variaciones en uno o más aspectos. Hablar de estadísticas como el estudio de la variación también sirve para enfatizar el contraste entre los objetivos de los estadísticos modernos y los de sus predecesores. Porque, hasta tiempos comparativamente recientes, la gran mayoría [p. 4] de los trabajadores en este campo parece no haber tenido otro objetivo que determinar valores agregados o promedios. La variación en sí misma no fue un objeto de estudio, sino que se reconoció más bien como una circunstancia problemática que restó valor al promedio. La curva de error de la media de una muestra normal ha sido familiar durante un siglo, pero la desviación estándar apenas se ha establecido de manera segura durante una década. Sin embargo, desde el punto de vista moderno, el estudio de las causas de variación de cualquier fenómeno variable, desde el rendimiento del trigo hasta el intelecto del hombre, debe comenzar con el examen y la medición de la variación que se presenta. El estudio de la variación conduce inmediatamente al concepto de una distribución de frecuencia.. Las distribuciones de frecuencia son de varios tipos, según el número de clases en que se distribuye la población es finito o infinito, y también según los intervalos que separan las clases son finitos o infinitesimales. En el caso más simple posible, en el que solo hay dos clases, como los nacimientos masculinos y femeninos, la distribución se especifica simplemente por la proporción en que ocurren, como por ejemplo por la afirmación de que el 51 por ciento de los nacimientos son de varones. y el 49 por ciento de las mujeres. En otros casos, la variación puede ser discontinua, pero el número de clases es indefinido, como el número de hijos nacidos de diferentes parejas casadas; la distribución de frecuencia luego mostraría la frecuencia con la que se registraron 0, 1, 2 ... niños, siendo el número de clases suficiente para incluir a la familia más grande en el registro. [pag. 5] La cantidad variable, como el número de hijos, se

llamavaria , y la distribución de frecuencia especifica con qué frecuencia la variable toma cada uno de sus valores posibles. En el tercer grupo de casos, la variable, como la estatura humana, puede tomar cualquier valor intermedio dentro de su rango de variación; luego se dice que la variable varía continuamente, y la distribución de frecuencia puede expresarse estableciendo, como una función matemática de la variable, ya sea (i) la proporción de la población para la cual la variable es menor que cualquier valor dado, o ( ii.) por el dispositivo matemático de diferenciar esta función, la proporción (infinitesimal) de la población para la cual la variable cae dentro de cualquier elemento infinitesimal de su rango. La idea de una distribución de frecuencia es aplicable a poblaciones que son finitas en número, o a poblaciones infinitas, pero se aplica de manera más útil y sencilla a esta última. Una población finita solo puede dividirse en ciertas proporciones limitadas, y en ningún caso puede mostrar una variación continua. Además, en la mayoría de los casos, solo una población infinita puede exhibir con precisión, y en su verdadera proporción, la totalidad de las posibilidades que surgen de las causas realmente en el trabajo, y que deseamos estudiar. Las observaciones reales solo pueden ser una muestra de tales posibilidades. Con una población infinita, la distribución de frecuencia especifica las fracciones de las poblaciones asignadas a las diversas clases; podemos tener (i.) un número finito de fracciones que se suman a la unidad como en las distribuciones de frecuencia mendelianas, o (ii. ) una serie infinita de fracciones finitas que se suman a la unidad, o (iii.) una matemática [pág. 6] función que expresa la fracción del total en cada uno de los elementos infinitesimales en los que se puede dividir el rango de la variable. La última posibilidad puede ser representada por una curva de frecuencia; los valores de la variable se establecen a lo largo de un eje horizontal, la fracción de la población total, dentro de cualquier límite de la variable, representada por el área de la curva que se encuentra en la longitud correspondiente del eje. Cabe señalar que el concepto familiar de la curva de frecuencia solo es aplicable a poblaciones infinitas con variables continuas. La última posibilidad puede ser representada por una curva de frecuencia; los valores de la variable se establecen a lo largo de un eje horizontal, la fracción de la población total, dentro de cualquier límite de la variable, representada por el área de la curva que se encuentra en la longitud correspondiente del eje. Cabe señalar que el concepto familiar de la curva de frecuencia solo es aplicable a poblaciones infinitas con variables continuas. La última posibilidad puede ser representada por una curva de frecuencia; los valores de la variable se establecen a lo largo de un eje horizontal, la fracción de la población total, dentro de cualquier límite de la variable, representada por el área de la curva que se encuentra en la longitud correspondiente del eje. Cabe señalar que el concepto familiar de la curva de frecuencia solo es aplicable a poblaciones infinitas con variables continuas.

El estudio de la variación ha llevado no solo a medir la cantidad de variación presente, sino al estudio de los problemas cualitativos del tipo o forma de la variación. Especialmente importante es el estudio de la variación simultánea de dos o más variables. Este estudio, que surge principalmente del trabajo de Galton y Pearson, se conoce generalmente en inglés con el nombre de Correlación , pero por algunos escritores continentales como Covariation . El tercer aspecto bajo el cual consideraremos el alcance de las estadísticas se introduce por la necesidad práctica de reducir la mayor parte de cualquier conjunto de datos. Cualquier investigador que haya realizado observaciones metódicas y extensas probablemente estará familiarizado con la necesidad opresiva de reducir sus resultados a un volumen más conveniente. Ninguna mente humana es capaz de captar en su totalidad el significado de una cantidad considerable de datos numéricos. Queremos poder expresar toda la información relevante contenida en la masa por medio de comparativamente pocos [p. 7] valores. Esta es una necesidad puramente práctica que la ciencia de las estadísticas puede satisfacer en cierta medida. En algunos casos, en cualquier caso, esposible dar toda la información relevante por medio de uno o unos pocos valores. En todos los casos, tal vez, es posible reducir a una forma numérica simple las cuestiones principales que el investigador tiene a la vista, en la medida en que los datos son competentes para arrojar luz sobre dichas cuestiones. El número de hechos independientes suministrados por los datos suele ser mucho mayor que el número de hechos buscados y, en consecuencia, gran parte de la información suministrada por cualquier cuerpo de datos reales es irrelevante. Es el objeto de los procesos estadísticos empleados en la reducción de datos para excluir esta información irrelevante y para aislar la totalidad de la información relevante contenida en los datos. 2. Método general, cálculo de estadísticas. La discriminación entre la información irrelevante y la relevante se realiza de la siguiente manera. Incluso en los casos más simples, los valores (o conjuntos de valores) que tenemos ante nosotros se interpretan como una muestra aleatoria de una población infinita hipotética de los valores que podrían haber surgido en las mismas circunstancias. La distribución de esta población será capaz de algún tipo de especificación matemática, involucrando un cierto número, generalmente pocos, de parámetros, o "constantes" entrando en la fórmula matemática. Estos parámetros son los personajes de la población. Si pudiéramos conocer la especificación exacta de la población, deberíamos conocer todas (y más que) cualquier muestra de [pág. 8] la población podría decirnos. De hecho, no podemos conocer exactamente la especificación, pero podemos hacer estimaciones de los parámetros desconocidos, que serán más o menos inexactos. Estas estimaciones, que se denominan estadísticas, se

calculan, por supuesto, a partir de las observaciones. Si podemos encontrar una forma matemática para la población que represente adecuadamente los datos, y luego calcular a partir de los datos las mejores estimaciones posibles de los parámetros requeridos, entonces parecería que hay poco o nada más que los datos pueden decirnos. ; Habremos extraído de ella toda la información relevante disponible. El valor de las estimaciones que podemos realizar aumenta enormemente si podemos calcular la magnitud y la naturaleza de los errores a los que están sujetos. Si podemos confiar en la especificación adoptada, esto presenta el problema puramente matemático de deducir de la naturaleza de la población cuál será el comportamiento de cada una de las estadísticas posibles que se pueden calcular. Este tipo de problema, con el que hasta hace pocos años se había avanzado relativamente poco, es la base de las pruebas de significación por las cuales podemos examinar si los datos están o no en armonía con alguna hipótesis sugerida. En particular, es necesario probar la adecuación de la especificación hipotética de la población sobre la cual se basó el método de reducción. Los problemas que surgen en la reducción de datos se pueden dividir convenientemente en tres tipos: (i.) Problemas de especificación , que surgen en la elección de la forma matemática de la población. [pag. 9] (ii.) Problemas de estimación , que implican la elección del método de cálculo, de nuestra muestra, estadísticas adecuadas para estimar los parámetros desconocidos de la población. (iii.) Problemas de distribución , que incluyen la deducción matemática de la naturaleza exacta de la distribución en muestras aleatorias de nuestras estimaciones de los parámetros, y de otras estadísticas diseñadas para probar la validez de nuestra especificación (pruebas de bondad de ajuste ). El examen estadístico de un conjunto de datos es, por lo tanto, lógicamente similar a la alternancia general de los métodos inductivos y deductivos en todas las ciencias. Una hipótesis se concibe y define con la exactitud necesaria; Sus consecuencias se deducen por un argumento deductivo; estas consecuencias se comparan con las observaciones disponibles; si están completamente de acuerdo con las deducciones, la hipótesis puede sostenerse en cualquier caso hasta que haya nuevas observaciones disponibles. La deducción de inferencias con respecto a muestras, a partir de supuestos con respecto a las poblaciones de las que se extraen, nos muestra la posición en Estadísticas de la Teoría de la Probabilidad.. Para una población dada,

podemos calcular la probabilidad con la que ocurrirá una muestra determinada, y si podemos resolver el problema puramente matemático presentado, podemos calcular la probabilidad de ocurrencia de cualquier estadística dada calculada a partir de dicha muestra. Los problemas de distribución pueden, de hecho, considerarse aplicaciones y extensiones de la teoría de la probabilidad. [pag. 10] Tres de las distribuciones de las que nos ocuparemos, la distribución binomial de Bernoulli, la distribución normal de Laplace y la serie de Poisson, fueron desarrolladas por escritores sobre probabilidad. Durante muchos años, durante más de un siglo y medio, se intentó extender el dominio de la idea de probabilidad a la deducción de inferencias con respecto a poblaciones a partir de supuestos (u observaciones) con respecto a muestras.Probabilidad inversa , y en ocasiones han ganado amplia aceptación. Este no es el lugar para entrar en las sutilezas de una controversia prolongada; Será suficiente, en este esquema general del alcance de la Ciencia estadística, expresar mi convicción personal, que he sostenido en otra parte, de que la teoría de la probabilidad inversa se basa en un error y debe ser rechazada por completo. Las inferencias con respecto a las poblaciones, de las que se han extraído muestras conocidas, no pueden expresarse en términos de probabilidad, excepto en el caso trivial cuando la población es en sí misma una muestra de una superpoblación cuya especificación se conoce con exactitud. Esto no quiere decir que no podamos extraer, a partir del conocimiento de una muestra, inferencias con respecto a la población de la que se extrajo la muestra, sino que el concepto matemático de probabilidad es inadecuado para expresar nuestra confianza mental o diferencia en hacer tales inferencias, y que la cantidad matemática que parece ser apropiada para medir nuestro orden de preferencia entre diferentes poblaciones posibles no obedece de hecho a las leyes de probabilidad. [pag. 11] Para distinguirlo de la probabilidad, he usado el término " Probabilidad " para designar esta cantidad; ya que tanto las palabras "probabilidad" como "probabilidad" se usan de manera general en el habla común para cubrir ambos tipos de relación. 3. Las calificaciones de estadísticas satisfactorias Las soluciones de problemas de distribución (que pueden considerarse como problemas puramente deductivos en la teoría de la probabilidad) no solo nos permiten hacer pruebas críticas de la importancia de los resultados estadísticos y de la adecuación de la distribución hipotética sobre la cual se basan nuestros métodos de cálculo numérico. las deducciones se basan, pero proporcionan cierta orientación en la elección de estadísticas apropiadas para fines de estimación. Dichas estadísticas se pueden dividir en clases según el comportamiento de sus distribuciones en muestras grandes.

Si calculamos una estadística, como, por ejemplo, la media, de una muestra muy grande, estamos acostumbrados a atribuirle una gran precisión; y de hecho, por lo general, pero no siempre, sería cierto, que si se pudieran obtener y comparar una serie de estadísticas de este tipo, las discrepancias entre ellas crecerían cada vez menos, ya que las muestras de las que se extraen se hacen cada vez más grandes. De hecho, a medida que las muestras se hacen más grandes sin límite, la estadística generalmente tenderá a algún valor fijo característico de la población y, por lo tanto, expresable en términos de los parámetros de la población. Por lo tanto, si se va a utilizar una estadística de este tipo para estimar estos parámetros, solo hay una función paramétrica a la que se puede equiparar correctamente. [pag. 12] Si se equipara a alguna otra función paramétrica, utilizaremos una estadística que incluso a partir de una muestra infinita no da el valor correcto; Tiende efectivamente a un valor fijo, pero a un valor que es erróneo desde el punto de vista con el que se usó. Estas estadísticas se denominanEstadísticas inconsistentes ; excepto cuando el error es extremadamente mínimo, como en el uso de las correcciones de Sheppard, las estadísticas inconsistentes deben considerarse fuera del alcance de un uso decente. Las estadísticas consistentes , por otra parte, tienden cada vez más a dar los valores correctos, a medida que la muestra aumenta cada vez más; En cualquier caso, si tienden a un valor fijo no es incorrecto. En los casos más simples, a los que nos referiremos, no solo tienden a dar el valor correcto, sino que los errores, para muestras de un tamaño dado, tienden a distribuirse en una distribución bien conocida (de las cuales, más en el cap. III.) Conocido como el. Ley normal de frecuencia de error, o más simplemente como la distribución normal. La responsabilidad de error puede, en tales casos, expresarse calculando el valor medio de los cuadrados de estos errores, un valor que se conoce como la varianza; y en la clase de casos a los que nos referimos, la varianza disminuye al aumentar las muestras, en proporción inversa al número de la muestra. Ahora, con el propósito de estimar cualquier parámetro, generalmente es posible inventar cualquier número de estadísticas que sean consistentes en el sentido definido anteriormente, y cada una de las cuales tiene en grandes muestras una varianza que cae inversamente con el tamaño de la muestra. Pero [p. 13] para muestras grandes de un tamaño fijo, la varianza de estas diferentes estadísticas generalmente será diferente. Por consiguiente, una importancia especial pertenece a un grupo más pequeño de estadísticas, cuyas distribuciones de error tienden a la distribución normal, a medida que aumenta la muestra, con la menor varianza posible. Por lo tanto, podemos separar del grupo general de estadísticas consistentes un grupo de valor especial, y estas se conocen como estadísticas eficientes .

La razón de este término puede hacerse evidente mediante un ejemplo. Si a partir de una muestra grande de (digamos) 1000 observaciones, calculamos una estadística eficiente, A, y una segunda estadística consistente, B, que tiene el doble de varianza de A, entonces B será una estimación válida del parámetro requerido, pero definitivamente una inferior. a A en su exactitud. Al usar la estadística B, se requeriría una muestra de 2000 valores para obtener una estimación tan buena como se obtiene al usar la estadística A de una muestra de 1000 valores. Podemos decir, en este sentido, que la estadística B utiliza el 50 por ciento de la información relevante disponible en las observaciones; o, brevemente, que su eficiencia es del 50 por ciento. El término "eficiente" en su sentido absoluto está reservado para las estadísticas cuya eficiencia es del 100 por ciento. Las estadísticas que tienen una eficiencia inferior al 100% pueden usarse legítimamente para muchos propósitos. Es posible, por ejemplo, que en algunos casos sea laborioso aumentar el número de observaciones que aplicar un método más elaborado de cálculo de los resultados. A menudo puede suceder que una estadística ineficiente sea lo suficientemente precisa para responder a la particular [pág. 14] preguntas en litigio. Sin embargo, existe una limitación para el uso legítimo de estadísticas ineficientes que debe mencionarse por adelantado. Si vamos a realizar pruebas precisas de bondad de ajuste, los métodos de ajuste empleados no deben introducir errores de ajuste comparables a los errores de muestreo aleatorio.; cuando se investiga este requisito, parece que cuando se requieren pruebas de bondad de ajuste, las estadísticas empleadas en el ajuste no solo deben ser consistentes, sino que también deben tener una eficiencia del 100 por ciento. Esta es una limitación muy seria para el uso de estadísticas ineficientes, ya que. en el examen de cualquier conjunto de datos, es deseable poder en cualquier momento probar la validez de uno o más de los supuestos provisionales que se han hecho. Se darán numerosos ejemplos del cálculo de estadísticas en los siguientes capítulos, y en estas ilustraciones de métodos se han elegido estadísticas eficientes. El descubrimiento de estadísticas eficientes en nuevos tipos de problemas puede requerir cierta investigación matemática. Las investigaciones del autor lo han llevado a la conclusión de que en todos los casos se puede encontrar una estadística eficiente mediante el Método de Máxima Probabilidad ; es decir, al elegir las estadísticas de modo que la población estimada sea aquella para la que la probabilidad es mayor. En vista de la dificultad matemática de algunos de los problemas que surgen, también es útil saber que las aproximacionesLa solución de máxima verosimilitud también es, en la mayoría de los casos, estadísticas eficientes Al final de este capítulo se proporciona un ejemplo simple de la aplicación del método de máxima verosimilitud a un problema genético. [pag. 15]

Por motivos prácticos, generalmente no es necesario presionar el refinamiento de los métodos más allá de la estipulación de que las estadísticas utilizadas deben ser eficientes. Con muestras grandes, se puede mostrar que todas las estadísticas eficientes tienden a ser equivalentes, por lo que se generan pocos inconvenientes debido a la diversidad de la práctica. Sin embargo, hay una clase de estadísticas, incluidos algunos de los ejemplos más frecuentes, que tiene un interés teórico por poseer la propiedad notable de que, incluso en muestras pequeñas, una estadística de esta clase solo incluye la totalidad de la información relevante que Las observaciones contienen. Dichas estadísticas se distinguen por el término suficiente.y, en el uso de muestras pequeñas, las estadísticas suficientes, cuando existen, son definitivamente superiores a otras estadísticas eficientes. Ejemplos de estadísticas suficientes son la media aritmética de muestras de la distribución normal o de la serie de Poisson; Es el hecho de proporcionar estadísticas suficientes para estos dos tipos importantes de distribución lo que da a la media aritmética su importancia teórica. El método de máxima probabilidad lleva a estas estadísticas suficientes donde existen. Si bien la diversidad de la práctica dentro de los límites de las estadísticas eficientes no llevará a grandes inconsistencias con muestras grandes, es, por supuesto, importante en todos los casos distinguir claramente el parámetro de la población, del cual se desea estimar el valor, de la estadística real empleada como una estimación de su valor; e informar al lector por cuál de la variedad considerable de procesos que existen para el propósito de la estimación se obtuvo realmente. [pag. dieciséis] 4. Alcance de este libro El objetivo principal de este libro es poner en manos de los investigadores, y especialmente de los biólogos, los medios para aplicar pruebas estadísticas con precisión a los datos numéricos acumulados en sus propios laboratorios o disponibles en la literatura. Tales pruebas son el resultado de soluciones de problemas de distribución, la mayoría de las cuales son solo adiciones recientes a nuestro conocimiento y hasta el momento solo han aparecido en documentos matemáticos especializados. La complejidad matemática de estos problemas ha hecho que parezca indeseable hacer más que (i.) Para indicar el tipo de problema en cuestión, (ii.) Para proporcionar ilustraciones numéricas mediante las cuales se puede verificar todo el proceso, (iii.) para proporcionar tablas numéricas por medio de las cuales se pueden hacer las pruebas sin la evaluación de expresiones algebraicas complicadas. Hubiera sido imposible dar métodos adecuados para la gran variedad de tipos de pruebas que se requieren, pero para las circunstancias imprevistas de que cada solución matemática aparezca una y otra vez en preguntas que a primera vista parecían ser bastante distintas. Por ejemplo, la solución de Pearson en

1900 de la distribución de 2.es en realidad equivalente a la distribución de la varianza según se estima a partir de muestras normales, de las cuales la solución no se dio hasta 1908, y luego de manera bastante tentativa, y sin prueba matemática completa, por "Estudiante". El autor encontró la misma distribución para el índice de dispersión derivado de pequeñas muestras de un Poisson [pág. 17] Series. Lo que es aún más notable es que, aunque el artículo de Pearson de 1900 contenía un grave error, que viciaba la mayoría de las pruebas de bondad de ajuste realizadas por este método hasta 1921, la corrección de este error no cambia la forma de la distribución, y solo requiere que se deduzcan algunas unidades de una de las variables con las que se ingresa la tabla de 2 . Es igualmente afortunado que la distribución de t , establecida por primera vez por "Student" en 1908, en su estudio del posible error de la media, sea aplicable, no solo al caso allí tratado, sino a los más complejos, pero incluso El problema más frecuentemente necesario de la comparación de dos valores medios. Además, proporciona una solución exacta de los errores de muestreo de la clase enormemente amplia de estadísticas conocidas como coeficientes de regresión. Al estudiar las distribuciones teóricas exactas en una serie de otros problemas, como los presentados por las correlaciones intraclase, la bondad de ajuste de las líneas de regresión, la relación de correlación y el coeficiente de correlación múltiple, el autor ha sido dirigido repetidamente a una tercera distribución, que puede llamarse la distribución de z , y que está íntimamente relacionada con, y de hecho, es una extensión natural de las distribuciones encontradas por Pearson y "Estudiante". Por lo tanto, ha sido posible clasificar las distribuciones necesarias, que cubren una gran variedad de casos, en estos tres grupos principales; y, lo que es igualmente importante, hacer algunas provisiones para la necesidad de valores numéricos solo a través de unas pocas tablas. [pag. 18] El libro se organizó de manera que el estudiante pueda conocer estas tres distribuciones principales en un orden lógico y pasar de casos más simples a casos más complejos. Los métodos desarrollados en capítulos posteriores son vistos frecuentemente como generalizaciones de métodos más simples desarrollados previamente. Al estudiar el trabajo metódicamente como un tratado relacionado, se espera que el estudiante no pierda la unidad fundamental de tratamiento bajo la cual se ha reunido un material tan variado; y se preparará para lidiar de manera competente y exacta con los muchos problemas análogos, que no pueden ser ejemplificados individualmente. Por otro lado, se reconoce que muchos desearán usar el libro como referencia de laboratorio y no como un curso de estudio conectado. Este uso parecería deseable solo si el lector se esforzará por resolverlo,

Es necesario anticipar una crítica, a saber, que en un libro elemental, sin pruebas matemáticas, y diseñado para lectores sin entrenamiento matemático especial, se ha incluido tanto que desde el punto de vista del profesor está avanzado; Y de hecho mucho de eso no ha aparecido previamente impreso. A modo de disculpa, el autor desea presentar las siguientes consideraciones. (1) Para lectores no matemáticos, numérico [pág. 19] las tablas son, en cualquier caso, necesarias; Las tablas precisas no son más difíciles de usar, aunque son más laboriosas de calcular, que las tablas inexactas que incorporan las aproximaciones actuales. (2) El proceso de cálculo de un error probable a partir de uno de los fórmulas establecidos no proporciona una visión real de la distribución muestral aleatoria, y solo puede proporcionar una prueba de significación con la ayuda de una tabla de desviaciones de la curva normal, y Suponiendo que la distribución es, de hecho, muy normal. El uso o no de este procedimiento debe decidirse, no por los logros matemáticos del investigador, sino por descubrir si dará o no una respuesta suficientemente precisa. El hecho de que un matemático eminente haya utilizado con éxito este proceso para analizar material muy extenso e importante no implica que sea lo suficientemente exacto para que el trabajador de laboratorio ansioso pueda sacar conclusiones correctas de un pequeño grupo de observaciones quizás preliminares. (3) Las distribuciones exactas, con el uso de las cuales se trata principalmente este libro, se han desarrollado de hecho en respuesta a los problemas prácticos que surgen en la investigación biológica y agrícola; Esto es cierto no solo por la contribución del autor al tema, sino también desde el comienzo del examen crítico de las distribuciones estadísticas en el documento "Student's" de 1908. La mayor parte del libro está ocupada por ejemplos numéricos; y estos quizás podrían con ventaja haber aumentado en número. Al elegirlos le ha parecido al autor una tarea sin esperanza [p. 20] para intentar ejemplificar la gran variedad de temas a los que se pueden aplicar estos procesos de manera útil. No hay ejemplos de estadísticas astronómicas, en los que se haya realizado un trabajo importante en los últimos años, pocos estudios sociales, y las aplicaciones biológicas se dispersen de forma no sistemática. Los ejemplos han sido elegidos cada uno para ejemplificar un proceso particular, y rara vez debido a la importancia de los datos utilizados, o incluso de exámenes similares de datos análogos. Mediante un estudio de los procesos ejemplificados, el estudiante debe poder determinar a qué preguntas, en su propio material, tales procesos son capaces de dar una respuesta definida; e, igualmente importante, qué otras observaciones serían necesarias para resolver otras cuestiones pendientes. De conformidad con el propósito de los ejemplos, el lector debe recordar que no pretenden ser exámenes críticos de cuestiones científicas generales, lo que requeriría el examen de datos mucho

más extensos y de otras pruebas, sino que se ocupan exclusivamente de las pruebas de El lote particular de datos presentados. 5. Tablas Matemáticas Las tablas de distribuciones suministradas al final de varios capítulos forman una parte esencial para el uso del libro. TABLAS I.Y II.- La importancia de la distribución normal se ha reconocido al menos desde el momento de Laplace. (La fórmula incluso se remonta a un trabajo poco conocido por De Moivre de 1733) Numerosas tablas han dado de una forma u otra la relación entre la desviación y la probabilidad de una mayor desviación. Fuentes importantes para estos valores son J. Burgess (1895), Trans. Roy Soc. Edin. , XXXIX. pp. 257-321; JWL Glaisher (1871), Phil. revista , Serie IV. Vol. XLII. pag. 436. Las muy diversas formas en que se ha tabulado esta relación aumentan considerablemente el trabajo de las aplicaciones prácticas. La forma que hemos adoptado para esto, y para las otras tablas, ha sido utilizada para la distribución normal por F. Galton y WF Sheppard (1907), Biometrika, V. p. 405; TL Kelley, Método estadístico , pp. 373-385; ambos de los cuales son tablas valiosas, en una escala más extensa que la Tabla I. En la Tabla II. Hemos dado las desviaciones normales correspondientes a probabilidades muy altas. Debe recordarse que incluso las desviaciones leves de la distribución normal harán que estas probabilidades muy pequeñas sean relativamente inexactas, y que rara vez podemos estar seguros, en cualquier caso particular, de que estas altas probabilidades sean precisas. La tabla ilustra el hecho general de que la importancia en la distribución normal de las desviaciones que exceden cuatro veces la desviación estándar es extremadamente pronunciada. TABLA III .; tabla de 2 . - Las tablas del valor de P para diferentes valores de 2 y n ' , fueron dadas por K. Pearson (1900), Phil. revista , Serie V. Vol. L. p. 175; [pag. 22] WP Elderton (1902), Biometrika , I. pp. 155-163; La misma relación en una forma muy modificada subyace. K. Pearson (I922), Tablas de la incompleta  - función.

Tabla III. proporciona los valores de 2 para los diferentes valores de P y n, en una forma diseñada para un uso rápido en el laboratorio, y con el fin de cubrir con suficiente detalle el rango de valores que realmente ocurren en la práctica. Para valores más altos de n, la prueba se complementa con una prueba aproximada calculada fácilmente. TABLA IV .; tabla de t. - Las tablas de la misma distribución que la de t han sido dadas por "Estudiante" (1908), Biometrika , VI. pag. 19; "Estudiante" (1917), Biometrika , XI. pp. 414-417. "Estudiante" da el valor de (1-½ P ) para diferentes valores de z ( = t / [sqrt] n en nuestra notación) y n ( = n +1 en nuestra notación). Como en el caso de la tabla de 2 , la aplicación muy extendida de esta distribución ha llevado a una reinterpretación del significado de n para cubrir una clase más amplia de casos. Las tablas extendidas que dan los valores de P para diferentes valores de t están en preparación por el mismo autor. Para los propósitos del presente libro, requerimos los valores de t correspondientes a valores dados de P y n. TABLA V. A proporciona los valores del coeficiente de correlación para diferentes niveles de importancia, de acuerdo con la extensión de la muestra en la que se basa el valor. Desde esta tabla, el lector puede ver de un vistazo si cualquier correlación obtenida puede considerarse significativa, para muestras de hasta 100 pares de observaciones. [pag. 23] La TABLA V. B da los valores de la función matemática conocida, la tangente hiperbólica, que hemos introducido en el cálculo de los errores de muestreo del coeficiente de correlación. La función se relaciona simplemente con las funciones logarítmicas y exponenciales, y puede encontrarse fácilmente por una tabla tan conveniente de logaritmos naturales como se da en JT Bottomley, Tablas matemáticas de cuatro figuras, Mientras que la tangente hiperbólica y su inverso aparecen en W. Hall, tablas de cuatro cifras y constantes. Una tabla de logaritmos naturales es un suplemento necesario para usar este libro, como en otros cálculos de laboratorio. Las tablas de la tangente hiperbólica inversa para el trabajo correlacional han sido previamente dadas por

RA Fisher (1921), Metron. Vol. I. No.4, pp. 26-27. TABLA VI .; tabla de z . - Las pruebas que involucran el uso de z , incluyendo como casos especiales el uso de 2 y de t , están tan extendidas, que es probable que sea necesaria una tabla más extensa de esta función. La exploración de esta función es de fecha tan reciente, y la construcción de una tabla de entrada triple es una tarea tan laboriosa, que todo lo que se puede ofrecer en la actualidad es la tabla pequeña correspondiente a la región importante, P = .05. probablemente, de hecho, si se complementa con una tabla similar para P = .01, se cumplirían todos los requisitos ordinarios, aunque para evitar el trabajo de interpolación se necesitarían tablas mucho más grandes para estos dos valores. En este momento solo puedo rogar la indulgencia del lector [p. 24] por la inadecuación de la tabla actual, abogando en mi defensa de que, en el terreno tan recientemente ganado, como lo ocupa la mayor parte de este libro, aún no se pueden esperar todas las instalaciones y comodidades que muchos trabajadores pueden acumular gradualmente. 6. El siguiente ejemplo muestra en un caso relativamente simple la aplicación del método de máxima probabilidad para descubrir una estadística capaz de dar una estimación eficiente de un parámetro desconocido. Dado que este procedimiento pertenece más bien al tratamiento matemático avanzado de las estadísticas teóricas, se puede observar que dominarlo no es un requisito previo necesario para comprender los métodos prácticos desarrollados en el resto del libro. Sin embargo, los estudiantes que deseen aplicar los principios fundamentales mencionados en este capítulo introductorio a nuevos tipos de datos, quizás se sientan contentos con un ejemplo del procedimiento general. Ex. 1. La derivación de una estadística eficiente mediante el método de máxima verosimilitud. - Los animales o plantas heterocigotas para dos factores relacionados que muestran un dominio completo se autofecundan; Si los cuatro tipos son igualmente viables, ¿cómo debería estimarse la extensión del vínculo a partir de las proporciones numéricas de los cuatro tipos de descendencia? Si los alelomorfos del primer factor son A y a , y del segundo factor B y b , los cuatro tipos de gametos AB, Ab, aB y ab serán producidos por los machos y las hembras en proporciones dependiendo del vínculo de los factores. , sujeto a la condición de que los alelomorfos de cada factor ocurren con la misma frecuencia. [pag. 25] Las proporciones serán los dos sexos; Supongamos que las proporciones sean

entonces, si los dos genes dominantes se derivan del mismo padre, q , q ' serán las relaciones de cruce, si de diferentes padres las relaciones de cruce serán p , p ' . Al tomar todas las combinaciones posibles de los gametos, parece que los cuatro tipos de descendencia ocurrirán en las proporciones

El efecto del enlace se expresa totalmente por la cantidad pp ' , y de una muestra de observaciones que dan las frecuencias observadas  ,  se requiere obtener una estimación del valor de pp' . La regla para aplicar el método de máxima verosimilitud es multiplicar cada frecuencia observada por el logaritmo de la frecuencia teórica correspondiente, y encontrar el valor de la cantidad desconocida que hace que el total de estos productos sea el máximo. Escribiendo x para pp ' ,  registro (2+ x) + (  +  ) registro (1- x ) +  registro x debe hacerse un máximo; por una aplicación bien conocida de la diferencial de cálculo, esto requiere que

lo que conduce a la ecuación cuadrática para x, (  +  +  +  ) x 2 - (  -2  -  -  ) x - 2  = 0, [pág. 26] La solución positiva de cuál es el valor más probable para pp ' , como se juzga a partir de los datos.

Para dos factores en Primula se observaron los siguientes números (datos Winton y Bateson ):

de

 = 396, = 99, = 104, = 70; la cuadrática para x es 669 x 2 + 80 x - 140 = 0, de los cuales la solución positiva es x = .4016. Para obtener los valores de cruce en los dos sexos por separado, utilizando solo la auto-fertilización, por supuesto sería necesario repetir el experimento con heterocigotos de la composición opuesta. Los números esperados, en el supuesto de que pp ' = 4016, son :

II DIAGRAMAS 7. El examen preliminar de la mayoría de los datos se facilita mediante el uso de diagramas. Los diagramas no prueban nada, pero traen características sobresalientes al ojo; por lo tanto, no son sustitutos de las pruebas críticas que pueden aplicarse a los datos, pero son valiosos para sugerir tales pruebas y para explicar las conclusiones fundadas sobre ellas. 8. Diagramas de tiempo, tasa de crecimiento y tasa de crecimiento relativa El tipo de diagrama en el uso más frecuente consiste en trazar los valores de una variable, como el peso de un animal o una muestra de plantas contra su edad, o el tamaño de una población en intervalos sucesivos de tiempo. Debe distinguirse entre los casos en que el mismo grupo de animales, como en un experimento de alimentación, se pesa en

intervalos sucesivos de tiempo, y los casos, más característicos de la fisiología vegetal, en los que los mismos individuos no se pueden usar dos veces, pero Se toma una muestra paralela a cada edad. Lo mismo. La distinción se produce en los recuentos de microorganismos [p. 28] entre los casos en que se realizan recuentos a partir de muestras del mismo cultivo, o de muestras de cultivos paralelos. Si es importante obtener la forma general de la curva de crecimiento, el segundo método tiene la ventaja de que cualquier desviación de la curva esperada puede confirmarse a partir de evidencia independiente en la siguiente medición, mientras que al usar el mismo material no se puede obtener tal confirmación independiente. Por otro lado, si el interés se centra en la tasa de crecimiento, hay una ventaja en el uso del mismo material, ya que solo así se pueden medir los aumentos reales en el peso. Ambos aspectos de la dificultad solo pueden superarse replicando las observaciones; mediante la realización de mediciones en varios animales bajo tratamiento paralelo, es posible evaluar, a partir de los pesos individuales, aunque no de los medios, si su curva de crecimiento se corresponde con un curso teórico de desarrollo asignado o si difiere significativamente de esta o de una Serie probada de forma diferente. Igualmente, Si una cantidad de plantas de cada muestra se pesan individualmente, se pueden obtener tasas de crecimiento con errores probables conocidos, y por lo tanto se pueden usar para comparaciones críticas. Por supuesto, se debe tener cuidado de que cada una sea estrictamente una muestra aleatoria. La figura 1 representa el crecimiento de un bebé pesado a la onza más cercana a intervalos semanales desde el nacimiento. La Tabla 1 indica el cálculo a partir de estos datos de la tasa de crecimiento absoluta en onzas por día y la tasa de crecimiento relativo por día. Las tasas de crecimiento absolutas, que representan las tasas reales promedio a las que se agrega la sustancia durante cada período, se encuentran en [p. 29] [figura] [p. 30] restando de cada valor que se registró previamente, y dividiendo por la duración del período. Las tasas de crecimiento relativas miden la tasa de aumento no solo por unidad de tiempo, sino por unidad de peso ya alcanzada; utilizando el hecho matemático, que

[pag. 31] se ve que el verdadero valor promedio de la tasa de crecimiento relativo para cualquier período se obtiene a partir de los logaritmos naturales de las ponderaciones sucesivas, al igual que las tasas reales de aumento son las ponderaciones en sí mismas. Estas tasas de aumento relativas se multiplican convenientemente por 100 y, por lo tanto, se expresan como la tasa porcentual de aumento por día. Si estas tasas porcentuales de aumento se hubieran calculado sobre el principio del interés simple, al dividir el aumento real por el

peso al comienzo del período, se habrían obtenido valores algo más altos; La razón de esto es que el peso real del bebé en cualquier momento durante cada período suele ser un poco más alto que su peso al principio. La figura 1A muestra el curso del aumento del peso absoluto; La pendiente promedio de dicho diagrama muestra la tasa absoluta de aumento. En este diagrama, los puntos caen aproximadamente en una línea recta, lo que muestra que la tasa de aumento absoluta fue casi constante en aproximadamente 1.66 oz. por día. La figura 1B muestra el curso del aumento en el logaritmo natural del peso; la pendiente en cualquier punto muestra la tasa relativa de aumento, que, aparte de la primera semana, disminuye perceptiblemente con la edad. Las características de tales curvas se resaltan mejor si las escalas de los dos ejes se eligen de modo que la línea forme ángulos aproximadamente iguales con los dos ejes; con líneas casi verticales o casi horizontales, los cambios en la pendiente no se perciben tan fácilmente. [pag. 32] Una forma rápida y conveniente de mostrar la línea de aumento del logaritmo se obtiene mediante el uso de papel cuadriculado en el que las reglas horizontales están espaciadas en una escala logarítmica, con los valores reales indicados en el margen. La escala horizontal se puede ajustar para darle a la línea una pendiente apropiada. Este método evita el uso de una tabla de logaritmo, que, sin embargo, aún será necesaria si los valores de la tasa relativa de aumento son necesarios. Al hacer un examen aproximado del acuerdo de las observaciones con cualquier ley de aumento, es deseable manipular las variables para que la ley a probar se represente mediante una línea recta. Por lo tanto, la Fig. 1A es

adecuada para una prueba aproximada de la ley de que la tasa absoluta de aumento es constante; si se sugiriera que la tasa relativa de aumento fuera constante, la Fig. 1B mostraría claramente que esto no era así. Con otras curvas de crecimiento hipotéticas se pueden usar otras transformaciones; por ejemplo, en la llamada curva "autocatalítica", la tasa de crecimiento relativo disminuye en proporción al peso real alcanzado en cualquier momento. Por lo tanto, si la tasa de crecimiento relativo se grafica contra el peso real, los puntos deberían caer en una línea recta si la curva "autocatalítica" se ajusta a los hechos. Para este propósito, es conveniente trazar contra cada peso observado la media de las dos tasas de crecimiento relativo adyacentes. Para ello, los datos anteriores para el crecimiento de un infante pueden dejarse como un ejercicio para el estudiante; Doce puntos estarán disponibles para pesos de 114 a 254 onzas. Las tasas de crecimiento relativas, incluso después de promediar pares adyacentes, serán muy irregulares, [pág. 33] para que no se encuentren indicaciones claras a partir de estos datos. Si se encuentra que una línea recta se ajusta a los datos, se debe producir para cumplir con el eje horizontal para encontrar el peso en el que cesa el crecimiento. Las tasas de crecimiento relativas, incluso después de promediar pares adyacentes, serán muy irregulares, [pág. 33] para que no se encuentren indicaciones claras a partir de estos datos. Si se encuentra que una línea recta se ajusta a los datos, se debe producir para cumplir con el eje horizontal para encontrar el peso en el que cesa el crecimiento. Las tasas de crecimiento relativas, incluso después de promediar pares adyacentes, serán muy irregulares, [pág. 33] para que no se encuentren indicaciones claras a partir de estos datos. Si se encuentra que una línea recta se ajusta a los datos, se debe producir para cumplir con el eje horizontal para encontrar el peso en el que cesa el crecimiento. 9. Diagramas de correlación Aunque la mayoría de los investigadores hacen uso gratuito de diagramas en los que se grafica una variable no controlada contra el tiempo, o contra algún factor controlado como la concentración de la solución o la temperatura, se podría hacer mucho más uso de los diagramas de correlación en los que se grafica un factor no controlado. otro. Cuando esto se hace como un diagrama de puntos, se obtienen una cantidad de puntos, cada uno representando un solo experimento, o un par de observaciones, y generalmente queda claro a partir de dicho diagrama si existe o no alguna relación estrecha entre las variables. Cuando las observaciones son pocas, un

diagrama de puntos a menudo nos dice si vale la pena acumular observaciones del mismo tipo; el alcance y el alcance de nuestra experiencia es visible en una & lance; y se pueden revelar asociaciones que valen la pena hacer un seguimiento. Si las observaciones son tan numerosas que los puntos no se pueden distinguir claramente, es mejor dividir el diagrama en cuadrados, registrando la frecuencia en cada uno; Este registro semi-esquemático es una tabla de correlación. La Fig. 2 muestra en un diagrama de puntos los rendimientos obtenidos de una parcela experimental de trigo (parcela sumergida, campo de Broadbalk, Rothamsted) en años con diferentes [p. 34] lluvia total. La parcela estuvo bajo tratamiento uniforme durante todo el período 1854-1888; Los 35 pares de observaciones, indicados por 35 puntos, muestran bien la asociación de alto rendimiento con baja precipitación. Incluso cuando hay pocas observaciones disponibles, un diagrama de puntos puede sugerir asociaciones hasta ahora insospechadas, o lo que es igualmente importante, la ausencia de asociaciones que se hubieran predicho con confianza. Su valor radica en dar una perspectiva simple de la experiencia acumulada hasta ahora, y en traer a la mente sugerencias [p. 35] que puede ser susceptible de un examen estadístico más exacto. En lugar de hacer un diagrama de puntos, a veces se adopta el dispositivo para organizar los valores de una variable en orden de magnitud, y para trazar los valores de una segunda variable en el mismo orden. Si la línea así obtenida muestra alguna pendiente perceptible, o una tendencia general, las variables se consideran asociadas. La Fig. 3 representa la línea obtenida de lluvia lejana, cuando los años están ordenados por orden de rendimiento de trigo. Dichos diagramas suelen ser mucho menos informativos que el diagrama y, a menudo, ocultan características de importancia presentadas por el primero. Además, el diagrama de puntos posee la ventaja de que se usa

fácilmente [pág. 36] como una tabla de correlación si el número de puntos es pequeño, y se transforma fácilmente en uno si el número de puntos es grande. En la tabla de correlación, los valores de ambas variables se dividen en clases, y los intervalos de clase deben ser iguales para todos los valores de la misma variable. Por lo tanto, podríamos dividir el valor para el rendimiento del trigo en intervalos de un bushel, y los valores de la lluvia en intervalos de 1 pulgada. El diagrama se divide así en cuadrados, y el número deLas observaciones que caen en cada casilla son contadas y registradas. La tabla de correlación es útil para tres propósitos distintos. Ofrece una valiosa representación visual de la totalidad de las observaciones, que con un poco de experiencia es tan fácil de comprender como un diagrama de puntos; sirve como un registro compacto de datos extensos, que, en lo que respecta a las dos variables, está completo. Con más de dos variables se pueden dar tablas de correlación para cada par. Esto no permitirá al lector reconstruir los datos originales en su totalidad, pero es un hecho afortunado que para la gran mayoría de los propósitos estadísticos, un conjunto de distribuciones dobles de este tipo proporciona información completa. Los datos originales que involucran más de dos variaciones se registran más convenientemente para referencia en tarjetas, cada caso se le da una tarjeta separada con las diversas variables introducidas en las posiciones correspondientes sobre ellos. La publicación de estos datos completos presenta dificultades, pero aún no se ha dado cuenta de cuánta información esencial puede presentarse en forma compacta por medio de tablas de correlación. La tercera característica de valor sobre [pág. 37] la tabla de correlación es que los datos presentados de este modo forman una base conveniente para la aplicación inmediata de métodos de reducción estadística. Las estadísticas más importantes que proporcionan los datos se pueden calcular más fácilmente a partir de la tabla de correlación. Un ejemplo de una tabla de correlación se muestra en la Tabla 31, pág. 140. · pero aún no se ha dado cuenta de cuánta información esencial puede presentarse en forma compacta por medio de tablas de correlación. La tercera característica de valor sobre [pág. 37] la tabla de correlación es que los datos presentados de este modo forman una base conveniente para la aplicación inmediata de métodos de reducción estadística. Las estadísticas más importantes que proporcionan los datos se pueden calcular más fácilmente a partir de la tabla de correlación. Un ejemplo de una tabla de correlación se muestra en la Tabla 31, pág. 140. · pero aún no se ha dado cuenta de cuánta información esencial puede presentarse en forma compacta por medio de tablas de correlación. La tercera característica de valor sobre [pág. 37] la tabla de correlación es que los datos presentados de este modo forman una base conveniente para la aplicación inmediata de métodos de reducción estadística. Las estadísticas más importantes que proporcionan los datos se pueden calcular más fácilmente a partir de la tabla de correlación. Un ejemplo de una tabla de correlación se muestra en la Tabla 31, pág. 140. · Las estadísticas más importantes que proporcionan los datos se pueden calcular

más fácilmente a partir de la tabla de correlación. Un ejemplo de una tabla de correlación se muestra en la Tabla 31, pág. 140. · Las estadísticas más importantes que proporcionan los datos se pueden calcular más fácilmente a partir de la tabla de correlación. Un ejemplo de una tabla de correlación se muestra en la Tabla 31, pág. 140. · 10. Diagramas de frecuencia Cuando se mide una gran cantidad de individuos con respecto a las dimensiones físicas, peso, color, densidad, etc., es posible describir con cierta precisión la poblaciónde los cuales nuestra experiencia puede ser considerada como una muestra. Por este medio, puede ser posible distinguirlo de otras poblaciones que difieren en su origen genético o en circunstancias ambientales. Por lo tanto, las razas locales pueden ser muy diferentes como poblaciones, aunque los individuos pueden superponerse en todos los personajes; o, en condiciones experimentales, el agregado puede mostrar efectos ambientales, sobre el tamaño, la tasa de mortalidad, etc., que no pueden detectarse en el individuo. Un diagrama de frecuencia proporciona una representación visible de un gran número de mediciones de cualquier característica. La característica medida se utiliza como abscisa, o medición a lo largo del eje horizontal, y como ordenadas se establecen verticalmente las frecuencias , correspondientes a cada rango. La Fig. 4 es un diagrama de frecuencia que ilustra la distribución en estatura de 1375 mujeres (datos modificados de Pearson y Lee). La muestra completa de mujeres se divide en rangos de altura sucesivos de una pulgada. [pag. 38] Las áreas iguales en el diagrama representan la misma frecuencia; si los datos son tales que los rangos en los que los individuos están subdivididos no son iguales, se debe tener cuidado de hacer que las áreas correspondan a las frecuencias observadas, de modo que el área que se encuentra en cualquier intervalo de la línea base represente la frecuencia real observada en ese intervalo

La clase que contiene el mayor número de observaciones se conoce técnicamente como la clase modal. En la Fig. 4, la clase modal indicada es la clase cuyo valor central es 63 pulgadas. Cuando, como es muy frecuente el caso, la variable varía continuamente, de modo que todos los valores

intermedios son posibles, la elección del intervalo de agrupación y los límites es arbitraria y hará una diferencia perceptible a la apariencia del diagrama. Generalmente, sin embargo, los posibles límites de agrupación se regirán por las unidades más pequeñas en las que se registran las mediciones. Si, por ejemplo, las medidas de altura se hicieran al más cercano [pág. 39] cuarto de pulgada, de modo que todos los valores entre 66-7 / 8 pulgadas y 67-1 / 8 se registraron como 67 pulgadas, todos los valores entre 67-1 / 8 y 67-3 / 8 se registraron como 67-1 / 4, entonces no tenemos más remedio que tomar como nuestra unidad de agrupación 1, 2, 3, 4, etc., cuartos de pulgada, y los límites de cada grupo deben caer en un número impar de octavos de pulgada. Para propósitos de cálculo, las unidades de agrupamiento más pequeñas son más precisas, pero para propósitos de diagramas, a menudo es preferible un agrupamiento más grueso. La Fig. 4 indica una unidad de agrupación adecuada en relación con el rango total para una muestra grande; con muestras más pequeñas, generalmente es necesario un agrupamiento más grueso para que puedan caer suficientes observaciones en cada clase. En todos los casos en que la variación es continua, el diagrama de frecuencia debe tener la forma de un histograma, con áreas rectangulares situadas en cada intervalo de agrupación que muestra la frecuencia de las observaciones en ese intervalo. La práctica alternativa de indicar la frecuencia mediante una sola ordenada levantada desde el centro del intervalo es a veces preferida, ya que le da al diagrama una forma que se parece más a una curva continua. La ventaja es ilusoria, ya que no solo la forma de la curva así indicada es algo engañosa, sino que siempre se debe tener mucho cuidado para distinguir la población hipotética infinitamente grande de la que se extrae nuestra muestra de observaciones, de la muestra real de observaciones que nosotros poseemos la concepción de una curva de frecuencia continua es aplicable solo a la primera, y al ilustrar esto último, no se debe hacer ningún intento de insultar esta distinción. [pag. 40] Esta consideración no debe de ninguna manera evitar que una curva de frecuencia ajustada a los datos, se superponga al histograma (como en la Fig. 4); El contraste entre el histograma que representa la muestra y la curva continua que representa una estimación de la forma de la población hipotética se destaca bien en dichos diagramas, y se ayuda al ojo a detectar cualquier discrepancia grave entre las observaciones y la hipótesis. Ninguna observación ocular de tales diagramas, como se experimenta, es realmente capaz de discriminar si las observaciones difieren o no de las expectativas en más de lo que deberíamos esperar de las circunstancias del muestreo aleatorio. Métodos precisos para hacer tales pruebas serán desarrollados en capítulos posteriores.

Con la variación discontinua, cuando, por ejemplo, la variable se limita a números enteros, la razón anterior para insistir en la forma del histograma tiene poco peso, ya que, estrictamente hablando, no hay rangos de variación dentro de cada clase. Por otro lado, no se trata de una curva de frecuencia en tales casos. La representación de tales datos por medio de un histograma es usual y no inconveniente; es especialmente apropiado si consideramos la variación discontinua como debida a una variable continua subyacente, que, sin embargo, puede expresarse solo al número entero más cercano. Por supuesto, es posible tratar los valores de la frecuencia como cualquier otra variable, representando el valor de su logaritmo, o su valor real en papel logarítmico, cuando se desea ilustrar el acuerdo [pág. 41] de las observaciones con alguna ley particular de frecuencia. La figura 5 se muestra de esta manera. el número de flores (ranúnculos) que tienen de 5 a 10 pétalos (datos de Pearson), graficado en papel logarítmico, para facilitar la comparación con la hipótesis de que la frecuencia, para pétalos por encima de cinco, disminuye en progresión geométrica. Dichas ilustraciones no son, propiamente hablando, diagramas de frecuencia, aunque la frecuencia es una de las variables [pág. 42] empleados, porque no se adhieren a la convención de que las frecuencias iguales están representadas por áreas iguales.

Una forma útil, similar a la anterior, se utiliza para comparar las tasas de mortalidad, a lo largo de la vida, de diferentes poblaciones. El logaritmo del número de sobrevivientes a cualquier edad se representa en función de la edad alcanzada. Dado que la tasa de mortalidad es la tasa dedisminución del logaritmo del número de sobrevivientes, gradientes iguales en tales curvas representan tasas de mortalidad iguales. Por lo tanto, sirven para mostrar el aumento de la tasa de mortalidad con la edad y para comparar poblaciones con diferentes tasas de mortalidad. Tales diagramas son menos sensibles a pequeñas fluctuaciones que los diagramas de frecuencia correspondientes que muestran la distribución de la población según la edad al morir; por lo tanto, son apropiados cuando tales pequeñas fluctuaciones se deben principalmente a errores de muestreo aleatorio, que en el tipo de diagrama más sensible podrían ocultar las características más amplias de la comparación. Siempre se debe recordar que la elección de los métodos apropiados de tratamiento estadístico es bastante independiente de la elección de los métodos de representación diagramática.

III DISTRIBUCIONES 11. La idea de una población infinita distribuida en una distribución de frecuencia.con respecto a uno o más caracteres es fundamental para todo trabajo estadístico. A partir de una experiencia limitada, por ejemplo, de individuos de una especie, o del clima de una localidad, podemos obtener alguna idea de la población hipotética infinita de la cual se extrae nuestra muestra, y por lo tanto de la naturaleza probable de las muestras futuras a las que Nuestras conclusiones deben ser aplicadas. Si una segunda muestra desmiente esta expectativa, inferimos que, en el lenguaje de las estadísticas, se extrae de una población diferente; que el tratamiento al que había estado expuesta la segunda muestra de organismos hizo de hecho una diferencia material, o que el clima (o los métodos para medirlo) se había alterado sustancialmente. Las pruebas críticas de este tipo pueden denominarse pruebas de significación, Una estadística es un valor calculado a partir de una muestra observada con vistas a caracterizar la población [pág. 44] de donde se extrae. Por ejemplo, la media de una serie de observaciones x 1 , x 2 ,. . . x n , viene dada por la ecuación

donde S representa la suma de toda la muestra y n el número de observaciones. Estas estadísticas son, por supuesto, variables de una muestra a otra, y la idea de una distribución de frecuencia se aplica con un valor especial a la variación de dichas estadísticas. Si sabemos exactamente cómo se distribuyó la población original, es teóricamente posible, aunque a menudo es una cuestión de gran dificultad matemática, calcular cómo se distribuirá cualquier estadística derivada de una muestra de un tamaño dado. La utilidad de cualquier estadística particular, y la naturaleza de su distribución, dependen de la distribución original, y los métodos apropiados y exactos se han desarrollado solo en unos pocos casos. La aplicación de estos casos se extiende en gran medida por el hecho de que la distribución de muchas estadísticas tiende aForma normal a medida que aumenta el tamaño de la muestra. Por este motivo, es habitual suponer que dichas estadísticas se distribuyen normalmente y limitar la consideración de su variabilidad a los cálculos del error estándar o error probable.

En el presente capítulo daremos cuenta de tres distribuciones principales: (i.) La distribución normal, (ii.) La serie de Poisson, (iii.) La distribución binomial. Es importante tener un conocimiento general de estas tres distribuciones, los fórmulas matemáticas por las cuales se representan, el experimental [p. 45] condiciones en las que ocurren, y los métodos estadísticos para reconocer su ocurrencia. Sobre este último tema, nos guiará en cierta medida a anticipar los métodos desarrollados de manera más sistemática en Chaps. IV. y V. 12. La distribución normal Se dice que una variable está distribuida normalmente cuando toma todos los valores desde - [infinito] hasta + [infinito] , con frecuencias dadas por una ley matemática definida, a saber, que el logaritmo de la frecuencia a cualquier distancia x desde el centro de la distribución es menor que el logaritmo de la frecuencia en el centro en una cantidad proporcional a x 2 . Por lo tanto, la distribución es simétrica, con la mayor frecuencia en el centro; Aunque la variación es ilimitada, la frecuencia cae a valores extremadamente pequeños a cualquier distancia considerable del centro, ya que un gran logaritmo negativo corresponde a un número muy pequeño. La figura 6B representa una curva normal de distribución. La frecuencia [pág. 46] en cualquier rango infinitesimal dxpuede ser escrito como

donde xm es la distancia de la observación, x , desde el centro de la distribución, m ; y  , llamada desviación estándar , mide en las mismas unidades la medida en que se dispersan los valores individuales. Geométricamente  es la distancia, a cada lado del centro, de los puntos más inclinados, o puntos de inflexión de la curva (Fig. 4). En aplicaciones prácticas, no queremos tan a menudo conocer la frecuencia a cualquier distancia del centro como la frecuencia total más allá de esa distancia; esto está representado por el área de la cola de la curva cortada en cualquier punto. Las tablas de esta frecuencia total, o integral de probabilidad, se han construido a partir de las cuales, para cualquier valor de

podemos encontrar qué fracción de la población total tiene una desviación mayor; o, en otras palabras, cuál es la probabilidad de que un valor así distribuido, elegido al azar, exceda una desviación dada. Tablas I. y II. se han construido para mostrar las desviaciones correspondientes a diferentes valores de esta probabilidad. La rapidez con la que disminuye la probabilidad a medida que aumenta la desviación se muestra bien en estas tablas. Una desviación que excede la desviación estándar ocurre aproximadamente una vez en tres ensayos. El doble de la desviación estándar solo se supera aproximadamente una vez en 22 intentos, tres veces la desviación estándar solo una vez en 370 ensayos, mientras que la Tabla II. muestra que para superar la desviación estándar se necesitarían seis veces [p. 47] casi mil millones de juicios. El valor para el cual P = · .05, o 1 en 20, es 1.96 o casi 2; es conveniente tomar este punto como un límite para juzgar si una desviación debe considerarse significativa o no. Las desviaciones que excedan el doble de la desviación estándar se consideran formalmente significativas. Utilizando este criterio, debemos llevarnos a realizar un seguimiento de un resultado negativo solo una vez en 22 intentos, incluso si las estadísticas son la única guía disponible. Los efectos pequeños aún no se notarán si los datos no fueran lo suficientemente numerosos para sacarlos a la luz, pero una reducción del estándar de importancia no enfrentaría esta dificultad. Algunas veces se produce una pequeña confusión por el hecho de que en algunos casos deseamos conocer la probabilidad de que la desviación, que se sabe que sea positiva, exceda un valor observado, mientras que en otros casos, la probabilidad requerida es que una desviación, que es igualmente frecuente positivo y negativo, deberá exceder un valor observado; la última probabilidad es siempre la mitad de la primera. Por ejemplo, la Tabla I. muestra que la desviación normal cae fuera del rango [más o menos] 1.598193 en el 10% de los casos y, en consecuencia, supera los +1.598193 en el 5% de los casos. El valor de la desviación más allá de la cual se encuentra la mitad de las observaciones se llama la distancia del cuartil , y lleva a la desviación estándar la razón .67449. · Por lo tanto, es una práctica común calcular el error estándar y luego, multiplicarlo por este factor, para Obtener el error probable . El error probable es, por lo tanto, alrededor de dos tercios del error estándar y, como prueba de significación, una desviación de tres veces [p. 48] el error probable es efectivamente equivalente a uno de dos veces el error estándar. El uso común del error probable es su única recomendación; cuando

se requiere una prueba crítica, la desviación debe expresarse en términos del error estándar en el uso de la tabla integral de probabilidad. 13. Ajustando la distribución normal A partir de una muestra de n individuos de una población normal, la media y la desviación estándar de la población pueden estimarse por medio de dos estadísticas fácilmente calculables. La mejor estimación de m es x donde

mientras que para la mejor estimación de  , calculamos s de

estas dos estadísticas se calculan a partir de los dos primeros momentos ( ver Apéndice, p. 74) de la muestra, y están especialmente relacionadas con la distribución normal, en el sentido de que resumen toda la información que proporciona la muestra en cuanto a la distribución a partir de la cual fue dibujado, siempre que este último fuera normal. El ajuste por momentos también se ha aplicado ampliamente a curvas oblicuas (asimétricas), y otras que no son normales; pero tales curvas no tienen las propiedades peculiares que hacen que los dos primeros momentos sean especialmente apropiados, y donde las curvas difieren ampliamente de la forma normal, las dos estadísticas anteriores pueden ser de poca o ninguna utilidad.

Ex. 2. Ajustar una distribución normal a una gran [pág. 49] muest ra . - Al calcular las estadísticas de una muestra grande, no es necesario calcular individualmente los cuadrados de las desviaciones de la media de cada medición. Las mediciones se agrupan en intervalos iguales de la variable, y la totalidad del cálculo se puede realizar rápidamente como se muestra en la Tabla 2, donde se analiza la distribución de la estatura de 1164 hombres. La primera columna muestra la altura central en pulgadas de cada grupo, seguida de las frecuencias correspondientes. Se elige un grupo central (68.5 ") como" media de trabajo ". Para formar la siguiente columna, las frecuencias se multiplican por 1, 2, 3, etc., de acuerdo con su distancia de la media de trabajo; este proceso se repite para formar el cuarta columna, que se suma de arriba a abajo en una sola operación; en la tercera columna, sin embargo, la parte superior, que representa desviaciones negativas, se suma por separado y se resta de la suma de la parte inferior. La diferencia, en este caso positivo, muestra que toda la muestra de 1164 individuos tiene en total 167 pulgadas más que si cada individuo tuviera 68.5 "de altura. Este saldo dividido por 1164 da la cantidad por la cual la media de la muestra excede 68.5 ". De la varianza así corregida, la desviación estándar se obtiene tomando

la raíz cuadrada. Este proceso se puede llevar a cabo como un ejercicio con la distribución de las tallas femeninas que figura en la misma tabla (pág. 103). Cualquier intervalo puede ser usado como una unidad de agrupación; y todo el cálculo se realiza en dichas unidades, los resultados finales se transforman en otras unidades si es necesario, del mismo modo que podríamos transformar la media y la desviación estándar de pulgadas a centímetros al multiplicar por el factor apropiado. Es ventajoso que las unidades de agrupamiento sean múltiplos exactos de las unidades de medida; de modo que si la muestra anterior se hubiera medido a décimas de pulgada, podríamos haberlos agrupado a intervalos de 0.6 "o 0.7". Considerados como estimaciones de la media y desviación estándar de una población normal de la que se considera lo anterior como una muestra, los valores encontrados se ven afectados por errores de muestreo aleatorio; es decir, no debemos esperar que una segunda muestra nos dé exactamente los mismos valores. Sin embargo, los valores para diferentes muestras (grandes) del mismo tamaño se distribuirían con mucha precisión en distribuciones normales, por lo que la precisión de [p. 52] cualquiera de estas estimaciones puede expresarse satisfactoriamente por su error estándar. Estos errores estándar pueden calcularse a partir de la desviación estándar de la población, y al tratar muestras grandes, tomamos nuestra estimación de esta desviación estándar como la base del cálculo. Las fórmulas para los errores estándar de muestreo aleatorio de estimaciones de la media y desviación estándar de una muestra normal grande son (como se indica en el Apéndice, p. 75)

y sus valores numéricos se han agregado a las cantidades a las que se refieren. De estos valores se ve que nuestra muestra muestra una aberración significativa de cualquier población cuya media se encuentra fuera de los límites 68.48 "-68.80", y por lo tanto es probable que la media de la población de la que se extrajo se encuentre entre estos límites; de manera similar, es probable que su desviación estándar esté entre 2.59 "y 2 · 81". Se puede preguntar, ¿No se pierde nada por la agrupación? La agrupación en efecto reemplaza los datos reales por datos ficticios colocados arbitrariamente en los valores centrales de los grupos; Evidentemente, una agrupación muy tosca puede ser muy engañosa. Se ha demostrado que, en lo que respecta a la obtención de estimaciones de los parámetros de una población normal, la pérdida de información causada por la agrupación es inferior al 1%, siempre que el intervalo de grupo no exceda la cuarta parte de la desviación estándar; la agrupación de la muestra anterior en pulgadas enteras es, por lo tanto, algo gruesa; La pérdida en la estimación de la [p. 53] la desviación

estándar es del 2,28 por ciento, o aproximadamente 27 observaciones de 1164; la pérdida en la estimación de la media es la mitad de grande. Sin embargo, con intervalos de grupo adecuados, se pierde poco por agrupación y se ahorra mucho trabajo. Otra forma de considerar la pérdida de información involucrada en la agrupación es considerar qué tan cerca de los valores obtenidos para la media y la desviación estándar estarán los valores obtenidos sin agrupar. Desde este punto de vista, podemos calcular un error estándar de agrupación, que no debe confundirse con el error estándar de muestreo aleatorio que mide la desviación de los valores de la muestra con respecto al valor de la población. En unidades de agrupación, el error estándar debido a la agrupación tanto de la media como de la desviación estándar es

o en este caso 0085 ". Para una agrupación suficientemente fina, esto no debe exceder una décima parte del error estándar de muestreo aleatorio. En el análisis anterior de una muestra grande, la estimación de la varianza empleada fue

que difiere de la fórmula dada anteriormente (p. 48) en que hemos dividido por n en lugar de por ( n -1). En muestras grandes, la diferencia entre estas fórmulas es pequeña, y el uso de n puede reclamar una ventaja teórica si deseamos que se use una estimación junto con la estimación de la media de la [pág. 54] misma muestra, como en el ajuste de una curva de frecuencia a los datos; de lo contrario es mejor usar ( n-1). En muestras pequeñas, la diferencia es aún pequeña en comparación con el error probable, pero se vuelve importante si se calcula una variación al promediar las estimaciones de una serie de muestras pequeñas. Por lo tanto, si se realizan una serie de experimentos cada uno con seis paralelos y tenemos razones para creer que la variación se debe en todos los casos a la operación de causas análogas, podemos tomar el promedio de tales cantidades como

para obtener una estimación no desviada de la varianza, mientras que deberíamos subestimarla si dividiéramos entre 6.

14. Prueba de salida de la normalidad. A veces es necesario probar si una muestra observada se aparta o no significativamente de la normalidad. Para este propósito se calcula el tercer momento, ya veces el cuarto momento; de cada uno de estos es posible calcular una cantidad,  , que es cero para una distribución normal, y se distribuye normalmente alrededor de cero para muestras grandes; el error estándar es calculable a partir del tamaño de la muestra. La cantidad 1 , que se calcula a partir del tercer momento, es esencialmente una medida de asimetría; es igual a [más o menos] [sqrt] 1 , de la notación de Pearson; 2 (= 2 -3), calculado desde el cuarto momento, mide un tipo simétrico de desviación de la forma normal, [p. 55] por el cual el vértice y las dos colas de la curva se incrementan a expensas de la porción intermedia, o, cuando 2 , es negativo, la parte superior y las colas se agotan y los hombros se rellenan, formando una parte relativamente plana. curva. (Ver Fig. 6, p. 45 ·) Ex. 3. Uso de momentos superiores para poner a prueba la normalidad . - Las salidas de la forma normal, a menos que estén muy marcadas, solo pueden detectarse en muestras grandes; damos un ejemplo (Tabla 3) del cálculo para 65 valores de la precipitación anual en Rothamsted; El proceso de cálculo es similar al de encontrar la media y la desviación estándar, pero se lleva dos etapas más allá, en el cálculo de los momentos 3 y 4. Las fórmulas mediante las cuales las dos correcciones se aplican a los momentos se reúnen en un apéndice, p. 74 · Por los momentos que obtengamos.

de donde se calculan

Para muestras de una distribución normal, los errores estándar de 1 y 2 son [sqrt] 6 / n y [sqrt] 24 / n, de los cuales se dan los valores numéricos. Se verá que 1 , supera su error estándar, pero 2 , es bastante insignificante; dado que 1 es positivo, parece que puede haber cierta asimetría de la distribución en el sentido de que los años moderadamente secos y muy húmedos son respectivamente más frecuentes que los años moderadamente húmedos y muy secos. [pag. 56] 15. Distribuciones discontinuas. Con frecuencia, una variable no puede tomar todos los valores posibles, pero se limita a una serie particular de valores, como los números enteros. Esto es obvio cuando la variable es una frecuencia, obtenida al contar, como el número de células en un cuadrado de un hemocitómetro, [pág. 57] o el número de colonias en una placa de medio de cultivo. La distribución normal es la más importante de las distribuciones continuas; pero entre las distribuciones discontinuas, la Serie Poisson es de primera importancia. Si un número puede tomar los valores 0, 1, 2,. . ., X ,. . ., y la frecuencia con la que se producen los valores viene dada por la serie

(donde x ! significa "factorial x " = x ( x -1) ( x -2) ... 1), entonces el número se distribuye en la serie Poisson. Mientras que la curva normal tiene dos parámetros desconocidos, m y , la serie Poisson tiene solo una. Este valor se puede estimar a partir de una serie de observaciones, tomando su media, siendo la media una estadística apropiada para las series de Poisson y para la curva normal. Se puede demostrar teóricamente que si la probabilidad de un evento es extremadamente pequeña, pero se toma un número suficientemente grande de casos independientes para obtener un número de ocurrencias, entonces este número se distribuirá en la Serie Poisson. Por ejemplo, la posibilidad de que un hombre sea asesinado por patadas de caballos en cualquier día es extremadamente pequeña, pero si un cuerpo de hombres del ejército está expuesto a este riesgo por un año, a menudo se matará a un cierto número de ellos de esta manera. . Los siguientes datos (datos de Bortkewitch)

se obtuvieron de los registros de diez cuerpos del ejército durante veinte años: [pág. 58]

El promedio, m , es .61, y utilizando este valor, los números calculados concuerdan de manera excelente con los observados. La importancia de la serie Poisson en la investigación biológica se destacó por primera vez en relación con la precisión de contar con un hemocitómetro. Se demostró que cuando la técnica del proceso de conteo fue efectivamente perfecta, el número de celdas en cada cuadrado debería distribuirse teóricamente en una Serie de Poisson; Se demostró además que esta distribución fue, en circunstancias favorables, realmente realizada en la práctica. Por lo tanto, la tabla en la página 59 (datos de Student) muestra la distribución de las células de levadura en los 400 cuadrados en que se dividió un milímetro cuadrado. El número total de celdas contadas es 1872, y el número medio es, por lo tanto, de 4.68. Las frecuencias esperadas calculadas a partir de esta media concuerdan bien con las observadas. Los métodos para apoyar el acuerdo se explican en el Capítulo IV. Cuando un número es la suma de varios componentes, cada uno de los cuales se distribuye de forma independiente en un Poisson [pág. 59] Serie, entonces el número total también se distribuye así. Por lo tanto, el recuento total de

1872 celdas puede considerarse como una muestra única de una serie, para la cual m no está muy lejos de 1872. Para valores tan grandes de m, la distribución de los números se aproxima mucho a la forma normal, de tal manera que varianza es igual a m; por lo tanto, podemos adjuntar al número contado, 1872, el error estándar [más de menos] [sqrt] 1872 = [más o menos] 43.26, para representar el error estándar de muestreo aleatorio de tal recuento. Por lo tanto, la densidad de las celdas en la suspensión original se estima con un error estándar de 2.31 por ciento. Si, por ejemplo, una segunda muestra difería en un 7 por ciento, la técnica de muestreo sería sospechosa. [pag. 60] 16. Pequeñas muestras de una serie de Poisson Exactamente los mismos principios que rigen la precisión de un recuento de hemocitómetro también regirán el recuento de colonias bacterianas o fúngicas al estimar los números de esos organismos por el método de dilución, si se pudiera suponer que la técnica de dilución proporcionó una distribución perfectamente aleatoria de organismos, y que estos podrían desarrollarse en la placa sin interferencia mutua. La concordancia de las observaciones con la distribución de Poisson permite, por lo tanto, el método de dilución de contar una prueba de la idoneidad de la técnica y el medio similar a la prueba de la técnica de conteos de hemocitómetro. La gran diferencia práctica entre estos casos es que del hemocitómetro podemos obtener un registro de un gran número de cuadrados con solo unos pocos organismos en cada uno, mientras que en un recuento de bacterias podemos tener solo 5 placas paralelas, Teniendo quizás 200 colonias cada uno. De una sola muestra de 5 sería imposible demostrar que la distribución siguió la serie de Poisson; sin embargo, cuando una gran cantidad de tales muestras se han obtenido en condiciones comparables, es posible utilizar el hecho de que para todas las series de Poisson la varianza es numéricamente igual a la media. Para cada conjunto de placas paralelas con x 1 , x 2 ,. . ., x n , colonias respectivamente, tomando la media x [barra], se puede calcular un índice de dispersión mediante la fórmula

[pag. 61] Se ha demostrado que para muestras verdaderas de una serie de Poisson, χ 2 calculadas de esta manera se distribuirán de una manera conocida; Tabla III . (p. 98) muestra los valores principales de χ 2 para esta distribución; entrando en la mesa tome n igual a uno menos que el número de placas paralelas. Para muestras pequeñas, el rango de variación permisible de χ 2 es amplio; por lo tanto, para cinco placas con n = 4, χ 2 será inferior a 1.064 en el 10 por ciento de los casos, mientras que el 10 por ciento más alto

excederá de 7.779; una sola muestra de 5 nos da poca información; pero si tenemos 50 o 100 muestras de este tipo, estamos en condiciones de verificar con precisión si se obtiene la distribución esperada. Ex. 4 · Prueba de acuerdo con una serie de Poisson de varias muestras pequeñas . - A partir de 100 conteos de bacterias en productos de refinería de azúcar, se obtuvieron los siguientes valores (Tabla 6); habiendo 6 placas en cada caso, los valores de χ 2 se tomaron de la tabla χ 2 para n = 5. Es evidente que las series observadas difieren fuertemente de las expectativas; hay un exceso enorme en la primera clase, y en los valores altos más de 15; los relativamente pocos valores de 2 a 15 no están muy lejos de las proporciones esperadas, como se muestra en la última columna al tomar el 43% de los valores esperados. Es posible entonces que incluso en este caso casi la mitad de las muestras fueran satisfactorias, pero aproximadamente el 10% eran excesivamente variables, y en aproximadamente el 45% de los casos, la variabilidad estaba anormalmente deprimida. A menudo es deseable probar si la variabilidad es de la magnitud correcta cuando no hemos acumulado [p. 62] un gran número de conteos, todos con el

mismo número de placas paralelas, pero donde un cierto número de conteos está disponible con varios números de paralelos. En este caso, no podemos verificar la distribución teórica con ninguna exactitud, pero podemos probar si [p. 63] o no, el nivel general de variabilidad se ajusta a las expectativas. La suma de un número de valores independientes de χ 2 se distribuye a sí misma de la manera mostrada en la tabla de χ 2 , siempre que tomemos para n el número S ( n ), calculado sumando los varios valores de npara los experimentos separados. Así, para seis juegos de 4 placas, se encontró que el valor total de χ 2 era 1385, el valor correspondiente de n es 6x3 = 18, y la tabla χ 2 muestra que para n = 18 el valor de 13.85 se excede entre 70 y 80 por ciento de los casos; por lo tanto, no es un valor anormal para obtener. En otro caso se obtuvieron los siguientes valores:

Por lo tanto, tenemos que probar si χ 2 = 170 es un valor irrazonablemente pequeño o grande para n = 176 · La tabla χ 2 no se ha calculado más allá de n = 30, pero para valores más altos utilizamos el hecho de que la distribución de χ 2 se vuelve casi normal. Una buena aproximación se da asumiendo que ([sqrt] 2χ 2 - [sqrt] 2 n -1 se distribuye normalmente alrededor de cero con la desviación estándar de la unidad. Si esta cantidad es sustancialmente mayor que 2, el valor de χ 2 no está de acuerdo con expectativa. En el ejemplo anterior a nosotros [p. 64]

El conjunto de 45 conteos muestra, por lo tanto, la variabilidad entre placas paralelas, muy cerca de lo que se espera teóricamente. La evidencia interna sugiere que la técnica fue satisfactoria.

17. Presencia y ausencia de organismos en las muestras. Cuando las condiciones de muestreo justifican el uso de la serie de Poisson, el número de muestras que contienen 0, 1, 2, ... organismos está, como hemos visto, conectado por una relación calculable con el número medio de organismos en la muestra. Con organismos móviles, o en otros casos que no permiten la formación discreta de colonias, el número medio de organismos en la muestra puede inferirse a partir de la proporción de cultivos fértiles, siempre que un solo organismo sea capaz de desarrollarse. Si m es el número medio de organismos en la muestra, la proporción de muestras que no contienen ninguno, es decir, la proporción de muestras estériles, es e -m , a partir de la cual podemos calcular, como en la siguiente tabla, el número promedio de organismos. Correspondiente a 10 por ciento, 20 por ciento, etc., muestras fértiles:

En relación con el uso de la tabla anterior, vale la pena señalar que para un número dado de muestras [p. 65] probado, el porcentaje se determina con mayor precisión al 50%, pero para el porcentaje mínimo de error en la estimación del número de organismos, casi el 60% u 88 organismos por muestra son los más precisos. La serie Poisson también nos permite calcular qué porcentaje de los cultivos fértiles obtenidos se han derivado de un solo organismo, ya que el porcentaje de cultivos impuros, es decir , los derivados de 2 o más organismos, se puede calcular a partir del porcentaje de cultivos que demostraron ser fértil Si e- m son estériles, yo -m Serán culturas puras, y el resto impuro. La siguiente tabla proporciona valores representativos del porcentaje de culturas que son fértiles y el porcentaje de culturas fértiles que son impuras:

Si se desea que los cultivos sean puros con alta probabilidad, se debe usar una concentración suficientemente baja para que al menos nueve décimas partes de las muestras sean estériles.

18. La distribución binomial. La distribución binomial es bien conocida como el primer ejemplo de una distribución teórica que se establecerá. Bernoulli descubrió, a principios del siglo XVIII, que si la probabilidad de que ocurriera un evento fuera p y la probabilidad de que no ocurriera fuera q (= 1 -p ), entonces si una muestra aleatoria de n ensayos [p . 66] fueron tomadas, las frecuencias con las que ocurrió el evento 0, 1, 2, ..., n veces fueron dadas por la expansión del binomio (q+p)n. Esta regla es un caso particular de un teorema más general que trata los casos en los que no solo se considera una alternativa simple, sino que el evento puede suceder de manera s con probabilidades p 1 , p 2 ..., p s ; entonces se puede demostrar que la posibilidad de que una muestra aleatoria de n dé un 1 , del primer tipo, un 2 , del segundo, ..., a s del último es

que es el término general en la expansión multinomial de ( p 1 + p 2 + ... + p s ) n . Ex. 5 · Distribución binomial dada por los registros de dados. - Al lanzar un dado verdadero, la posibilidad de anotar más de 4 es 1/3, y si se lanzan 12 dados juntos, el número de dados de 5 o 6 debe distribuirse con frecuencias dadas por los términos en la expansión de (2/3 + 1/3) 12 Sin embargo, si uno o más de los dados no eran verdaderos, pero si todos mantenían el mismo sesgo a lo largo del experimento, las frecuencias deberían darse aproximadamente por ( q + p ) 12 , donde p es una fracción a determinar a partir de los datos. [pag. 67] Se observaron las siguientes frecuencias (datos de Weldon) en un experimento de 26,306 lanzamientos.

Es evidente que las observaciones no son compatibles con la suposición de que los dados eran. sin sesgo Con los dados verdaderos debemos esperar más casos que los observados de 0, 1, 2, 3, 4 y menos casos que los observados de 5, 6, ..., 11 dados con más de cuatro. La misma conclusión se expone más claramente en la quinta columna, que muestra los valores de la medida de la divergencia.

donde m es el valor esperado y x la diferencia [p. 68] entre los valores esperados y observados. El total de estos valores es χ 2 , que mide la desviación de la serie completa de la serie esperada de frecuencias, y la probabilidad real en este caso de χ 2 que excede 40.75 si los dados fueran verdaderos es .00003. El número total de veces en que un dado mostró 5 o 6 fue 106,602, de 315,672 intentos, mientras que el número esperado con dados verdaderos es 105,224; a partir del número anterior, se puede calcular el valor de p , y resulta ser de .337.698,6, y por lo tanto se obtuvieron las expectativas de la cuarta columna. Estos valores están mucho más cerca de la serie observada y, de hecho, se ajustan satisfactoriamente, lo que demuestra que las condiciones del experimento eran realmente tales como para dar una serie binomial.

La desviación estándar de la serie binomial es [sqrt] pqn . Así, con dados verdaderos y 315,672 intentos, el número esperado de dados con más de 4 es de 105,224 con un error estándar de 264.9; el número observado supera la expectativa en 2378, o 5.20 veces su error estándar; Esta es la prueba más sensible del sesgo, y puede aplicarse legítimamente, ya que, para muestras tan grandes, la distribución binomial se acerca mucho a la normal. De la tabla de la integral de probabilidad parece que una desviación normal solo supera 5.2 veces su error estándar una vez en 5 millones de veces. La razón por la que esta última prueba ofrece probabilidades mucho más altas que la prueba de bondad de ajuste, es que esta última está probando las discrepancias de cualquier tipo, como, por ejemplo, la introducción de errores de copia. La discrepancia real se debe casi en su totalidad a un solo elemento, a saber, el valor de p , y cuando ese punto [p. 69] se prueba por separado, su importancia se pone de manifiesto más claramente. Ex. 6. Compa ración de la propor ción de sexos en familia s human as con la distrib ución binomi al. - Los datos biológicos rara vez son tan extensos como este experimento con dados; Los datos de Geissler sobre la proporción de sexos en las familias alemanas servirán de ejemplo. Es bien sabido que los nacimientos masculinos son ligeramente más numerosos que los nacimientos femeninos, por lo que si una familia de 8 se considera una muestra aleatoria de ocho de la población general, el número de niños en esas familias debería distribuirse en el binomio. (q+p)8, donde p es la proporción de niños. Sin embargo, si las familias difieren no solo por casualidad, sino también por la tendencia de algunos padres a producir machos o hembras, entonces la distribución del número de varones

debería mostrar un exceso de familias desigualmente divididas, y una deficiencia de partes iguales o Familias casi igualmente divididas. Los datos en la Tabla 11 muestran que evidentemente existe tal exceso de familias muy desigualmente divididas. La serie observada difiere de la expectativa marcadamente en dos aspectos: uno es el exceso de familias desigualmente divididas; la otra es la irregularidad de los valores centrales, mostrando un sesgo aparente en favor de los valores pares. No se sugiere ninguna razón biológica para la última discrepancia, que por lo tanto resta valor al valor de los datos. El exceso de los tipos extremos de familia puede tratarse con más detalle en [p. 70] comparando lo observado con la varianza esperada. La varianza esperada, npq , calculada a partir de los datos es de 1.998,28, mientras que la calculada a partir de los datos es de 2.067,42, mostrando un exceso de .06914, o 3.46 por ciento. El error estándar de la varianza es

donde N es el número de muestras, y 2 y 4 , son el segundo y cuarto momento de la distribución teórica, a saber,

así que eso

Los valores aproximados de estos dos términos son 8 y -1 dando +7, el valor real es 6.98966. Por lo tanto, el error estándar de la varianza es .01141; La discrepancia es más de seis veces su error estándar. [pag. 71] Una posible causa de la variación excesiva radica en la ocurrencia de nacimientos múltiples, ya que se sabe que los niños del mismo nacimiento tienden a ser del mismo sexo. Los nacimientos múltiples no están separados en estos datos, pero se puede obtener una idea de la magnitud de este efecto a partir de otros datos para el Imperio Alemán. Estos muestran alrededor de 12 nacimientos de gemelos por mil, de los cuales 5/8 son del mismo sexo y 3/8 de diferente, por lo que una cuarta parte de los nacimientos de gemelos, 3 por mil, puede considerarse "idéntica" con respecto al sexo . Por lo tanto, seis hijos por mil probablemente pertenecerían a nacimientos gemelos "idénticos", siendo pequeño el efecto adicional de trillizos, etc. Ahora, con una población de gemelos idénticos, es fácil ver que la varianza teórica se duplica; en

consecuencia, para aumentar la varianza en un 3,46 por ciento requerimos que 3. El 46 por ciento de los niños deben ser gemelos "idénticos"; esto es más de cinco veces el promedio general, y aunque es probable que la proporción de gemelos sea mayor en familias de 8 que en la población general, no podemos atribuir razonablemente más de una fracción de la variación en exceso a los nacimientos múltiples. 19. Pequeñas muestras de la serie binomial. Con muestras pequeñas, como las que ocurren normalmente en trabajos experimentales, no se puede probar el acuerdo con la serie binomial con tanta precisión a partir de una sola muestra. Sin embargo, es posible verificar que la variación sea aproximadamente lo que debería ser, calculando un índice de dispersión similar al utilizado para la Serie Poisson. [pag. 72] Ex. 7 · La exactitud de las estimaciones de infestación. - La proporción de mazorcas de cebada infectadas con goutfly puede determinarse examinando 100 mazorcas y contando las muestras infectadas. Si esto se hace repetidamente, los números obtenidos, si el material es homogéneo, deben distribuirse en el binomio. ( q + p ) 100 , donde p es la proporción infestada, y q la proporción libre de infestación. Los siguientes son los datos de 10 observaciones de este tipo realizadas en la misma gráfica (datos de JGH Frew): 16, 18, 11, 18, 21, 10, 20, 18, 17, 21. Media 17.0 · ¿Es la variabilidad de estos números atribuible al muestreo aleatorio? Es decir, ¿el material es aparentemente homogéneo? Dichos datos difieren de aquellos a los que la serie de Poisson es apropiada, ya que un total fijo de 100 se divide en cada caso en dos clases, infectados y no infectados, de modo que al tomar la variabilidad de las series infectadas estamos probando igualmente la variabilidad De la serie de números no infectados. La forma modificada de 2 , el índice de dispersión, apropiado para el binomio es

que difiere de la forma apropiada a la serie de Poisson en que contiene el divisor q [barra], o en este caso, .83. · El valor de χ 2 es 9.22, que, como muestra la tabla χ 2 , es un valor perfectamente razonable para n = 9, uno menos que el número de valores disponibles. [pag. 73]

Esta prueba de la muestra única está, por supuesto, lejos de ser concluyente, ya que χ 2 puede variar dentro de amplios límites. Sin embargo, si se dispone de una cantidad de tales muestras pequeñas, aunque se extraen de parcelas con infestaciones muy diferentes, podemos probar, al igual que con la serie de Poisson, si la tendencia general de variabilidad concuerda con la distribución binomial. Así, a partir de 20 de estos gráficos, el χ 2 total es 193.64, mientras que S ( n ) es 180. Probando como antes (p. 63), encontramos

Dado que la diferencia es menor que uno, llegamos a la conclusión de que la variación no muestra signos de desviación de la distribución binomial. La diferencia entre el método apropiado para este caso, en el que las muestras son pequeñas (10), pero cada valor se deriva de un número considerable (100) de observaciones, y el apropiado para la distribución por sexo en familias de 8, donde tuvimos muchas familias, cada una de solo 8 observaciones, radica en la omisión del término npq (1-6 pq ) En el cálculo del error estándar de la varianza. Cuando n es 100, este término es muy pequeño en comparación con 2 n 2 p 2 q 2 , y en general, el método χ 2 es altamente exacto si el número en todas las categorías de observación es tan alto como 10. [p. 74] ANEXO DE NOTACIÓN TÉCNICA Y FORMULÆ A. Definición de momentos de muestra. Las siguientes estadísticas se conocen como los primeros cuatro momentos de la variable x ; el primer momento es la media

Los momentos segundo y superior son los valores medios de los poderes segundo y superior de las desviaciones de la media.

B. Momentos de distribución teórica en términos de parámetros.

[pag. 75] C. Varianza de momentos derivados de muestras de N.

D. Correcciones en el cálculo de momentos. ( a ) Corrección de la media, si v ' es el momento de la media de trabajo, yv el valor correspondiente se corrigió a la media verdadera: v 2 = v ' 2 - v' 1 2 , v 3 = v ' 3 - 3 v' 1 v ' 2 + 2 v' 1 3 , v 4 = v ' 4 - 4 v' 1 v ' 3 + 6 v' 1 2 v ' 2 3 v' 1 4 . ( b ) Corrección para la agrupación, si v es la estimación no corregida para la agrupación, y  la estimación correspondiente corregida: 1 = v 2 - 1/12, 2 = v 3 , 3 = v 4 -1/2 2 - 1/80. [pag. 76]

PRUEBAS DE BIENES DE AJUSTE, HOMOGENEIDAD; CON TABLA DE χ 2

INDEPENDENCIA

Y

20. La distribución χ 2 En el último capítulo se ha hecho un uso de la distribución de 2 como un medio para probar el acuerdo entre la observación y la hipótesis; En el presente capítulo trataremos de manera más general la amplia gama de problemas que pueden resolverse por medio de la misma distribución. El factor común que subyace a todas estas pruebas es la comparación de los números observados para caer en cualquier número de clases con los números que, según algunas hipótesis, se esperan. Si m es el número esperado, y m + x el número observado en cualquier clase, calculamos

La suma que se extiende sobre todas las clases. Esta fórmula da el valor de χ 2 , y está claro que cuanto más de cerca coincidan los números observados con los esperados, menor será will 2 ; para utilizar la tabla es necesario conocer también el valor de n con el que se debe ingresar la tabla. La regla para encontrar [p. 78] n es que n es igual al número de grados de libertad en que las series observadas pueden diferir de las hipotéticas; en otras palabras, es igual al número de clases en las que se pueden rellenar arbitrariamente las frecuencias. Se darán varios ejemplos para ilustrar esta regla. Para cualquier valor de n, que debe ser un número entero, la forma de distribución de 2 fue establecida por Pearson en 1900; por lo tanto, es posible calcular en qué proporción de casos se superará cualquier valor de χ 2 . Esta proporción está representada por P, que es por lo tanto la probabilidad de que χ 2 exceda cualquier valor especificado. A cada valor de χ 2 le corresponde un cierto valor de P; a medida que χ 2 aumenta de 0 a infinito, P disminuye de 1 a 0. Igualmente, a cualquier valor de P en este rango corresponde un cierto valor de χ 2. Algebraicamente, la relación entre estas dos cantidades es compleja, por lo que es necesario tener una tabla de valores correspondientes, si la prueba de 2 debe estar disponible para uso práctico. Una tabla importante de este tipo fue preparada por Elderton, y se conoce como la Tabla de bondad de ajuste de Elderton. Elderton dio los valores de P a seis lugares decimales correspondientes a cada valor integral de χ 2 de 1 a 30, y de allí en decenas a 70. En lugar de n, se utilizó la cantidad n ' (= n +1), ya que Se creía entonces que esto podría equipararse al número de clases de

frecuencia. Se dieron valores de n ' de 3 a 30, que corresponden a valores de n de 2 a 29. Una tabla para n' = 2, o n =1, fue posteriormente suministrado por Yule. Debido a restricciones de derechos de autor [p. 79] no hemos reimprimido la tabla de Elderton, pero hemos dado una nueva tabla ( Tabla III . P. 98) en una forma que la experiencia ha demostrado ser más conveniente. En lugar de dar los valores de P correspondientes a una serie arbitraria de valores de 2 , hemos dado los valores de χ 2 correspondientes a valores especialmente seleccionados de P. Por lo tanto, hemos podido en forma compacta cubrir esas partes de las distribuciones. que hasta ahora no han estado disponibles, es decir, los valores de χ 2 menos que la unidad, que ocurren con frecuencia para valores pequeños de n, y los valores que exceden de 30, que para valores mayores de n cobran importancia. Es interesante observar que la medida de dispersión, 2 , introducida por el economista alemán Lexis, es, si se calcula con precisión, equivalente a χ 2 / n de nuestra notación. En las numerosas referencias en inglés al método de Lexis, creo que no se ha observado que el descubrimiento de la distribución de χ 2en realidad completó el método de Lexis. Si se deseara usar la notación de Lexis, nuestra tabla podría transformarse en una tabla de φ 2 simplemente dividiendo cada entrada por n. Al preparar esta tabla, hemos tenido en cuenta que en la práctica no queremos saber el valor exacto de P para ningún observed 2 observado , pero, en primer lugar, si el valor observado está o no abierto a la sospecha. Si P está entre .1 y .9, ciertamente no hay razón para sospechar la hipótesis probada. Si está por debajo de .02, está fuertemente indicado que la hipótesis no tiene en cuenta la totalidad de los hechos. No nos desviaremos a menudo si dibujamos una línea convencional en .05, y consideramos que los valores más altos de indicate 2 indican una discrepancia real. [pag. 80] Comparar valores de χ 2 , o de P, por medio de un "error probable" es simplemente sustituir una distribución inexacta (normal) por la distribución exacta dada por la tabla χ 2 . El término Bondad de ajuste ha hecho que algunos caigan en la falacia de creer que cuanto mayor sea el valor de P, más satisfactoria será la hipótesis verificada. En ocasiones, se han informado valores superiores a .999 que, si la hipótesis fuera cierta, solo ocurriría una vez en mil intentos. En general, tales casos han demostrado ser debidos al uso de fórmulas inexactas, pero en ocasiones ocurren valores pequeños de χ 2 más allá del rango esperado, como en Ex. 4 con los números de colonias obtenidos en el método de recubrimiento de recuento de bacterias. En estos casos, la hipótesis considerada es tan refutada como si P hubiera sido .001.

Cuando un gran número de valores de χ 2 están disponibles para la prueba, puede ser posible revelar discrepancias que son demasiado pequeñas para aparecer en un solo valor; entonces podemos comparar la distribución observada de 2 con la esperada. Esto se puede hacer de inmediato simplemente distribuyendo los valores observados de χ 2 entre las clases delimitadas por los valores dados en la tabla as 2 , como en Ex. 4, p. 61. Las frecuencias esperadas en estas clases se escriben fácilmente y, si es necesario, la prueba de 2 se puede usar para probar la concordancia de lo observado con las frecuencias esperadas. Es útil recordar que la suma de cualquier número de cantidades, χ 2 , se distribuye en la distribución de 2 , con n igual a la suma de los valores de ncorrespondientes a los valores de χ 2 utilizados. Tal prueba es sensible, [p. 81] y con frecuencia traerá a la luz las discrepancias que están ocultas o que aparecen de manera oscura en los valores separados. La tabla que damos tiene valores de n hasta 30; más allá de este punto, se encontrará que es suficiente suponer que [sqrt] 2 distributed 2 se distribuye normalmente con una desviación estándar de la unidad alrededor de una media [sqrt] 2n-1, Los valores de P obtenidos al aplicar esta regla a los valores de χ 2 dados para n = 30, puede ser. Funcionó como un ejercicio. Los errores son pequeños para n = 30 y se vuelven progresivamente más pequeños para valores más altos de n. Ex. 8. Comparación con la expectativa de frecuencias de clase mendelianas . - En un cruce que involucra dos factores mendelianos, esperamos que al cruzar la generación híbrida (F 1 ) se obtengan cuatro clases en la relación 9: 3: 3: 1; la hipótesis en este caso es que los dos factores se segregan independientemente y que las cuatro clases de descendientes son igualmente viables. ¿Las siguientes observaciones sobre Primula (de Winton y Bateson) están de acuerdo con esta hipótesis?

Los valores esperados se calculan a partir del total observado, de modo que las cuatro clases deben coincidir en su suma, y si se llenan arbitrariamente tres

clases, la cuarta está, por lo tanto, determinada, por lo tanto, n = 3, [p. 82] χ 2 = 10.87, la probabilidad de superar ese valor está entre .01 y .02; si tomamos P = .05 como límite de desviación significativa, diremos que en este caso las desviaciones de la expectativa son claramente significativas. Consideremos una segunda hipótesis en relación con los mismos datos, que difiere de la primera en que suponemos que las plantas con hojas engarzadas son, en cierta medida, menos viables que aquellas con hojas planas. Por supuesto, tal hipótesis podría ser probada por medio de datos adicionales; Sólo nos preocupa la cuestión de si está de acuerdo con los valores que tenemos ante nosotros. La hipótesis no nos dice nada sobre qué grado de viabilidad relativa se puede esperar; por lo tanto, tomamos los totales de hojas planas y rizadas observadas, y dividimos cada clase en la proporción 3: 1.

El valor de n es ahora 2, ya que solo dos entradas pueden hacerse de manera arbitraria; sin embargo, el valor de χ 2 se reduce tanto que P supera .2, y la desviación de la expectativa ya no es significativa. La parte significativa de la discrepancia original radica en la proporción de hojas planas a rizadas. Anteriormente se creía que al entrar en el χ 2 [pág. 83] la tabla n siempre debía equipararse a una menos que el número de clases de frecuencia; esta visión dio lugar a muchas discrepancias, y desde entonces ha sido refutada con el establecimiento de la regla mencionada anteriormente. En la perspectiva anterior, cualquier complicación de la hipótesis, como la que en la instancia anterior admitía la viabilidad diferencial, estaba destinada a darnos una mejora aparente en el acuerdo entre la observación y la hipótesis. Cuando se permite el cambio en n, este sesgo desaparece, y si el valor de P se calcula correctamente; es mucho mayor, como en este caso, el aumento puede atribuirse de manera segura a una mejora en la hipótesis, y no a un mero aumento de las constantes disponibles. Ex. 9. Comparación con las expectativas de la serie de Poisson y de la serie binomial . - En la tabla 5, pág. 59, damos las frecuencias observadas y esperadas en el caso de una serie de Poisson. Al aplicar la prueba de la χ 2 a una serie de este tipo, es deseable que el número esperado en ningún grupo

sea menor que 5, ya que la distribución calculada de χ 2 no se realiza muy de cerca para clases muy pequeñas. Por lo tanto, agrupamos los números para las celdas 0 y 1, y también los de 10 y más, y obtenemos la siguiente comparación:

[p.84] Usando 10 clases de frecuencia tenemos χ 2 = 4.390; al determinar el valor de n debemos recordar que las frecuencias esperadas se han calculado, no solo a partir del número total de valores observados (400), sino también a partir de la media observada; Quedan, por tanto, 8 grados de libertad y n = 8. Para este valor, la tabla χ 2 muestra que P está entre .8 y .9, que muestra un acuerdo cercano con la expectativa, pero no un cierre injustificado. Del mismo modo en la Tabla 10, pág. 67, hemos dado el valor de χ 2 basado en 12 clases para las dos hipótesis de "dados verdaderos" y "dados sesgados"; con "dados verdaderos", los valores esperados se calculan a partir del número total de observaciones solo, y n = 11, pero al permitir el sesgo también hemos puesto de acuerdo los medios para que n se reduzca a 10. En el primer caso χ 2 está muy lejos del rango de la tabla que muestra una desviación altamente significativa de la expectativa; en el segundo, parece que P se encuentra entre .2 y .3, de modo que el valor de χ 2 está dentro del rango esperado. 21. Pruebas de independencia, tablas de contingencia. Una clase especial e importante de casos en los que se puede probar el acuerdo entre la expectativa y la observación comprende las pruebas de independencia . Si el mismo grupo de individuos se clasifica de dos (o más) formas diferentes, ya que las personas pueden clasificarse como inoculadas y no inoculadas, y también como atacadas y no atacadas por una enfermedad, es posible que necesitemos saber si las dos clasificaciones son independiente. [pag. 85] Ex. 10: Prueba de independencia en una clasificación 2x2 . - En el caso más simple, cuando cada clasificación comprende solo dos clases, tenemos una

tabla cuádruple, como en el siguiente ejemplo (de los datos de Greenwood y Yule) para Typhoid:

Al probar la independencia, debemos comparar los valores observados con los valores calculados de modo que las cuatro frecuencias estén en proporción ; ya que deseamos probar la independencia solamente, y no ninguna hipótesis sobre los números totales atacados o inoculados, los valores "esperados" se calculan a partir de los totales marginales observados, de modo que los números esperados coincidan con los números [p. 86] observado en los márgenes; solo se necesita calcular un valor, por ejemplo

los otros se escriben a la vez por sustracción de los márgenes. Por lo tanto, es obvio que los valores observados pueden diferir de los esperados en solo 1 grado de libertad, de modo que al probar la independencia en cuatro; tabla plegable, n = 1. Dado que χ 2 = 56.234 las observaciones se oponen claramente a la hipótesis de independencia. Sin calcular los valores esperados, χ 2 puede, para tablas cuádruples, calcularse directamente por la fórmula

donde a, b, c y d son los cuatro números observados. Cuando solo una de las clasificaciones es de dos clases, el cálculo de 2 puede simplificarse en cierta medida, si no se desea calcular los números esperados. Si a, a ' representa cualquier par de frecuencias observadas, y n, n' los totales correspondientes, calculamos a partir de cada par

y la suma de estas cantidades dividida por nn ' será χ 2 . Ex. 11. Prueba de independencia en una clasificación 2xn . - De la encuesta de pigmentación de niños escoceses (datos de Tocher), los siguientes son los números de niños y niñas del mismo distrito (No. 1) cuyo color de cabello corresponde a cada una de las cinco clases: [pág. 87]

Las cantidades calculadas a partir de cada par de observaciones se dan a continuación en millones. Así

aproximadamente; el total de 39 millones impares dividido por 2100 y por 1783 da χ 2 = 10.468 · En esta tabla, 4 valores podrían llenarse arbitrariamente sin entrar en conflicto con los totales marginales, de modo que n = 4. El valor de P está entre .02 y .05, por lo que la diferencia de sexo en la clasificación por colores de cabello es probablemente significativa, como lo juzga este distrito solo. El cálculo de χ 2 a partir de los valores "esperados", aunque algo más laborioso, tendría en este caso la ventaja de mostrar en qué clases estaban los niños, y en qué clases las niñas, en exceso. De los números en la línea más

baja, se desprende que la discrepancia principal se encuentra en la clase "Jet Black". Ex. 12. Prueba de independencia en una clasificación 4x4 . - Como ejemplo de una tabla de contingencia más compleja, podemos tomar los resultados de una serie de cruces hacia atrás [pág. 88] en ratones, involucrando a los dos Brown, Self-Piebald (datos de Wachter):

Los cruces cruzados se realizaron de cuatro maneras, según que los padres varones o hembras eran heterocigotos (F 1 ) en los dos factores, y según si los dos genes dominantes se recibieron de uno (Acoplamiento) o de uno de cada padre ( Repulsión). Las relaciones mendelianas simples pueden verse alteradas por la viabilidad diferencial, por vinculación o por letales vinculados. La vinculación no se sospecha en estos datos, y si la única perturbación se debiera a la viabilidad diferencial, las cuatro clases en cada experimento deberían aparecer en la misma proporción; Para comprobar si los datos muestran salidas significativas, podemos aplicar la prueba χ 2 a toda la tabla 4x4. Los valores esperados en la hipótesis de que las proporciones son independientes de los apareamientos utilizados, o que las cuatro series son homogéneas, se indican arriba entre paréntesis. Las contribuciones a χ 2 hechas por cada celda se dan en la página 89. El valor de χ 2 es, por lo tanto, 21.832; el valor de n es 9, ya que podríamos llenar un bloque de tres filas y [p. 89]

Tres columnas y todavía ajustar las entradas restantes para verificar con los márgenes. En general para una tabla de contingencia 2 de r filas yc columnas n = (r -1) ( c -1). Para n = 9, el valor de χ muestra que P es menor que .01, y por lo tanto las desviaciones de la proporcionalidad no son fortuitas; es evidente que la discrepancia se debe al número excepcional de Piebalds de Brown en la serie de repulsión de machos F 1 . Cabe señalar que los métodos empleados en este capítulo no están diseñados para medir el grado de asociación entre una clasificación y otra, sino únicamente para probar si las desviaciones observadas de la independencia son o no de una magnitud atribuible al azar. El mismo grado de variación puede ser significativo para una muestra grande, pero insignificante para una muestra grande; Si es insignificante, no tenemos ninguna razón en los datos presentes para sospechar algún grado de asociación, y es inútil intentar medirlo. Si, por otro lado, es significativo el valor de χ 2Indica el hecho, pero no mide el grado de asociación. Siempre que la desviación sea claramente significativa, no tiene importancia práctica si P es .01 o · .000,001, y es por esta razón que no hemos tabulado el valor de χ 2más allá de .01. Para medir [pág. 90] el grado de asociación es necesario tener algunas hipótesis sobre la naturaleza de la salida de la independencia para ser medido. Con las frecuencias mendelianas, por ejemplo, el porcentaje cruzado se puede usar para medir el grado de asociación de dos factores, y la importancia de la evidencia para la vinculación se puede evaluar comparando la diferencia entre el porcentaje cruzado y el 50% ( el valor para los factores no vinculados), con su error estándar. Dicha comparación, si se realiza con precisión, debe coincidir absolutamente con la conclusión extraída del 2prueba. Para tomar un segundo ejemplo, los valores en una tabla cuádruple pueden considerarse a veces como debidos a la partición de un par de variables normalmente correlacionadas, según que los valores están por encima o por debajo de líneas divisorias elegidas arbitrariamente; como si un grupo de medidas de estatura de padres e hijos se dividiera entre los de arriba y los de menos de 68 pulgadas. En este caso, el abandono de la independencia puede medirse adecuadamente por la correlación en estatura entre padre e hijo; esta cantidad se puede estimar a partir de las frecuencias observadas, y una comparación entre el valor obtenido y su error estándar, si se realiza con precisión,

coincidirá con la χ 2prueba en cuanto a la importancia de la asociación; la importancia será cada vez más pronunciada a medida que la muestra aumenta de tamaño, pero la correlación obtenida tenderá a un valor fijo. La prueba χ 2 no intenta medir el grado de asociación, pero como prueba de significación es independiente de todas las hipótesis adicionales en cuanto a la naturaleza de la asociación. [pag. 91] Las pruebas de homogeneidad son matemáticamente idénticas a las pruebas de independencia; El último ejemplo puede ser considerado igualmente en cualquiera de las dos luces. En el capítulo III. Las pruebas de acuerdo con la Serie Binomial fueron esencialmente pruebas de homogeneidad; las diez muestras de 100 espigas de cebada (Ex. 7, p. 72) podrían haber sido representadas como una tabla de 2x10. El índice de dispersión de χ 2 sería entonces equivalente al χ 2 obtenido de la tabla de contingencia. El método de este capítulo es más general y se aplica a los casos en los que las muestras sucesivas no son todas del mismo tamaño. Ex. 13 · Homogeneidad de diferentes familias respecto al ratio negro: rojo . Los siguientes datos muestran en 33 familias de Gammarus (datos de Huxley) los números con ojos negros y rojos respectivamente:

Los totales 2565 negro y 772 rojo claramente no están en la relación 3: 1, que se atribuye al enlace. La pregunta que tenemos ante nosotros es si todas las familias indican o no la misma proporción entre negro y rojo, o si la discrepancia se debe solo a unas pocas familias. Para toda la tabla χ 2 = 35.620, n = 32. Esto es [p. 92] más allá del rango de la tabla, por lo que aplicamos el método explicado en la p. 63:

Por lo tanto, la serie no es significativamente heterogénea; efectivamente todas las familias están de acuerdo y se confirman entre sí al indicar la proporción negro-rojo observada en el total. Se adoptaría exactamente el mismo procedimiento si los números negros y rojos representaran dos muestras distribuidas de acuerdo con algún carácter o caracteres en 33 clases. La pregunta "¿Son estas muestras de la misma población?" es en efecto idéntico a la pregunta "¿La proporción de negro a rojo es la misma en cada familia?" Reconocer esta identidad es importante, ya que ha sido ampliamente ignorado. Ex. 14 · Acuerdo con expectativa de varianza normal . - Muy similar a las pruebas de homogeneidad es el uso de la distribución de 2 para probar si una serie observada de valores, normalmente o casi normalmente distribuida, concuerda en su varianza con la expectativa. Si x 1 , x 2 , ..., son una muestra de una población normal, la desviación estándar de qué población es  , entonces

se distribuye en muestras aleatorias como es χ 2 , tomando n uno menos que el número de la muestra. JW Bispham da tres series de valores experimentales del coeficiente de correlación parcial, que él asume que deben ser [pág. 93] distribuidos de manera que 1 / 2 = 29, pero que teóricamente debería tener 1 / 2 = 28. Th, los valores de S ( x - x [barra]) 2 para las tres muestras de 1000, 200, 100 respectivamente son, a juzgar por los datos agrupados, 35.0278, 7.1071, 3.6169, de donde los valores de χ 2 en las dos teorías son

Se verá que la verdadera fórmula para la varianza da un poco mejor acuerdo. Que la diferencia no es significativa puede verse en las dos últimas columnas. Se necesitarían alrededor de 6000 observaciones para discriminar experimentalmente, con alguna certeza, entre las dos fórmulas.

22. Partición de χ 2 en sus componentes Del mismo modo que los valores de χ 2 se pueden agregar para hacer una prueba más completa, en algunos casos es posible separar las contribuciones a χ 2 hechas por los grados individuales de libertad, y así probar los componentes separados de una discrepancia. Ex. I5 · Partición de las discrepancias observadas de la expectativa mendeliana . - La siguiente tabla (los datos de De Winton y Bateson) da la distribución de dieciséis familias de primula en las ocho clases obtenidas de un cruce cruzado con el triple recesivo: [pág. 94]

[pag. 95] La expectativa teórica es que las ocho clases deben aparecer en números iguales, correspondientes a la hipótesis de que en cada factor los alelomorfos se producen con la misma frecuencia, y que los tres factores están desvinculados. Esta expectativa se cumple bastante en los totales de las dieciséis familias, pero las familias individuales son algo irregulares. Los valores de χ 2 obtenidos al comparar cada familia con la expectativa se dan en la línea más baja. Cada uno de estos valores corresponde a siete grados de libertad, y parece que en 5 de los 16 casos, P es menor que .1, y de estos 2 son menores que .02. Esto confirma la impresión de irregularidad y el valor total de χ 2 (no debe confundirse con χ 2derivado de los totales), que corresponde a 112 grados de libertad, es de 151.78. Ahora

de modo que, a juzgar por el total de 2 , la evidencia de desviaciones de las expectativas en familias individuales, es clara. Cada familia es libre de diferir de las expectativas en siete formas independientes. Para continuar con el análisis, debemos separar la contribución a 2 de cada uno de estos siete grados de libertad. Matemáticamente, la subdivisión puede llevarse a cabo de más de una manera, pero la única forma que parece ser de interés biológico es la que separa las partes debido a la desigualdad de los alelomorfos de los tres factores, y las tres conexiones de vinculación posibles. Si nos separamos [p. 95] las frecuencias en valores positivos y negativos de acuerdo con las siguientes siete formas,

luego se verá que las siete subdivisiones son totalmente independientes, ya que dos de ellas concuerdan en cuatro signos y discrepan en cuatro. Los primeros tres grados de libertad representan las desigualdades en los alelomorfos de los tres factores Ch, G y W; los siguientes son los grados de libertad involucrados en una investigación sobre la vinculación de los tres pares de factores, mientras que el séptimo grado de libertad no tiene un significado biológico simple, pero es necesario para completar el análisis. Si tomamos la primera familia, por ejemplo, la diferencia entre los números de las plantas W y w, es decir, 8, entonces la contribución de este grado de libertad a χ 2 se encuentra al cuadrar la diferencia y dividir por el número en el familia, por ejemplo82/72 = 889. De esta manera, la contribución de cada uno de los 112 grados de libertad en las dieciséis familias se encuentra por separado, como se muestra en la siguiente tabla: [pág. 97]

Al observar los valores totales de χ 2 para cada columna, ya que n es 16 para estos, vemos que todos, excepto el primero, tienen valores de P entre .05 y .95, mientras que la contribución del primer grado de libertad es muy claramente significativa . Entonces, parece que la mayor parte, si no la totalidad, de la discrepancia es atribuible al comportamiento del factor Sinensis-Stellata, y su comportamiento sugiere un vínculo estrecho con un gen letal recesivo de uno de los tipos familiares. En cuatro familias, 107-121, la única contribución alta está en la primera columna. Si se excluyen estas cuatro familias χ 2 = 97.545, y esto excede la expectativa de n= 84 solo por encima del error estándar; Por lo tanto, la discrepancia total no puede considerarse significativa. Sin embargo, parece que hay un exceso de entradas muy grandes, y es notable de las siete más grandes, [pág. 98-99]

[pag. 100] Seis aparecen en parejas pertenecientes a la misma familia. La distribución de las 12 familias restantes según el valor de P es la siguiente:

de lo cual parece que hay alguna evidencia leve de un exceso de familias con valores altos de χ 2 . Este efecto, al igual que otros efectos no significativos, solo merece una discusión adicional en relación con alguna hipótesis plausible capaz de explicarlo. NB . - Tabla de χ 2 , p. 98.

PRUEBAS DE SIGNIFICADO DE MEDIOS, DIFERENCIAS DE MEDIOS Y COEFICIENTES DE REGRESIÓN 23. El error estándar de la media. La proposición fundamental en la que se basa el tratamiento estadístico de los valores medios es que: si una cantidad se distribuye normalmente con la desviación estándar  , entonces la media de una muestra aleatoria de n tales cantidades se distribuye normalmente con la desviación estándar / [sqrt] norte. La utilidad de esta proposición se ve algo aumentada por el hecho de que, incluso si la distribución original no fuera exactamente normal, la de la media suele ser normal, a medida que aumenta el tamaño de la muestra; por lo tanto, el método se aplica de manera amplia y legítima a los casos en los que no tenemos pruebas suficientes para afirmar que la distribución original era normal, pero tenemos razones para pensar que no pertenece a la clase excepcional de distribuciones para las cuales la distribución de El medio no tiende a la normalidad. Por lo tanto, si conocemos la desviación estándar de una población, podemos calcular la desviación estándar de [p. 102] la media de una muestra aleatoria de cualquier tamaño, y así probar si difiere o no significativamente de cualquier valor fijo. Si la diferencia es muchas veces mayor que el error estándar, es ciertamente significativa, y es una convención conveniente tomar el doble del error estándar como límite de significación; esto es aproximadamente equivalente al límite correspondiente P = .05, ya utilizado para la distribución 2 . Las desviaciones en la distribución normal correspondientes a una serie de valores de P se dan en la línea más baja de la tabla de t al final de este capítulo (pág. 137). En la Tabla I se proporciona información más detallada. Ex. 16. Significado de la media de una muestra grande. - Podemos considerar desde este punto de vista el experimento de fundición a presión de Weldon (Ex. 5, p. 66). La cantidad variable es el número de dados que puntúan "5" o "6" en un lanzamiento de 12 dados. En el experimento, este número varía de cero a once, con una media observada de 4.0524; la media esperada, en la hipótesis de que los dados eran verdaderos, es 4, por lo que la desviación observada es .0524 · Si ahora estimamos la varianza de la muestra total de 26,306 valores como se explica en la p. 50, pero sin usar la corrección de Sheppard (para los datos no se agrupan), encontramos

2 = 2.69825, de donde 2 / n = .0001025, y  / [sqrt] n = .01013. El error estándar de la media es, por lo tanto, alrededor de .01, y la desviación observada es casi 5.2 veces mayor; así llegamos por un camino ligeramente diferente [p. 103] en la misma conclusión que la de la p. 68. La diferencia entre los dos métodos es que nuestro tratamiento de la media no depende de la hipótesis de que la distribución es de forma binomial, pero, por otro lado, asumimos la exactitud del valor de  derivado de las observaciones. Esta suposición se desglosa para muestras pequeñas, y el propósito principal de este capítulo es mostrar cómo se puede hacer una asignación precisa en estas pruebas de importancia para los errores en nuestras estimaciones de la desviación estándar. Para volver a la teoría más cruda, a menudo podemos, como en el ejemplo anterior, comparar la media observada con el valor apropiado para una hipótesis que deseamos probar; pero igualmente o más a menudo deseamos comparar dos valores experimentales y probar su acuerdo. En tales casos, requerimos el error estándar de la diferencia entre dos cantidades cuyos errores estándar son conocidos; para encontrar esto utilizamos la proposición de que la varianza de la diferencia de dos variables independientes es igual a la suma de sus varianzas. Por lo tanto, si las desviaciones estándar son 1 , 2 , las variaciones son 1 2 , 2 2 ; en consecuencia la varianza de la diferencia es1 2 + 2 2 , y el error estándar de la diferencia es [sqrt] 1 2 + 2 2 . Ex. 17 · Error estándar de diferencia de medias de grandes muestras.. - En la Tabla 2 se da la distribución en estatura de un grupo de hombres, y también de un grupo de mujeres; los medios son 68.64 y 63.85 pulgadas, dando una diferencia de 4.79 pulgadas. La varianza obtenida para los hombres fue de 7.2964 pulgadas cuadradas; este es el valor obtenido al dividir la suma de los cuadrados de [p. 104] las desviaciones por 1164; si hubiésemos dividido por 1163, para hacer que el método sea comparable al apropiado para muestras pequeñas, deberíamos haber encontrado 7.3027. Dividiendo esto por 1164, encontramos que la varianza de la media es .006274. De manera similar, la varianza para las mujeres es .63125, que dividida por 1456 da la varianza de la media de las mujeres como .004335. Para encontrar la varianza de la diferencia entre los medios, debemos sumar estas dos contribuciones y encontrar en todo .010609; El error estándar de la diferencia entre los medios es por lo tanto. 1030 pulgadas. La diferencia de sexo en estatura puede por lo tanto expresarse como

4.79 [más o menos] .103 pulgadas. Es evidente que esta diferencia es significativa, el valor encontrado es más de 46 veces su error estándar. En este caso, no solo podemos afirmar una diferencia significativa, sino que podemos colocar su valor con cierta confianza entre 4½ y 5 pulgadas. Cabe señalar que hemos tratado las dos muestras como independientes,como si hubieran sido dadas por diferentes autoridades; de hecho, en muchos casos aparecieron hermanos y hermanas en los dos grupos; dado que los hermanos y las hermanas tienden a ser iguales en estatura, hemos sobreestimado el posible error de nuestra estimación de la diferencia de sexo. Siempre que sea posible, se debe sacar provecho de tales hechos al diseñar experimentos. En la frase común, las hermanas brindan un mejor "control" a sus hermanos que las mujeres no relacionadas. Por lo tanto, la diferencia de sexo podría estimarse con mayor precisión a partir de la comparación de cada hermano con su propia hermana. En p. 105] el siguiente ejemplo (datos de Pearson y Lee), tomado de una tabla de correlación de estatura de hermanos y hermanas, el material es casi de esta forma; Ex. I8 Error estándar de la media de las diferencias . - La siguiente tabla muestra la distribución del exceso de estatura de un hermano sobre su hermana en 1401 pares.

Tratando esta distribución como antes, obtenemos: media = 4.895, varianza = 6.4074, varianza de la media = .004573, error estándar de la media = .0676; demostrando que podemos estimar la diferencia de sexo media en 4¾ a 5 pulgadas. En los ejemplos anteriores, que son típicos del uso del error estándar aplicado a los valores medios, hemos asumido que la varianza de la población se conoce con exactitud. En 1908, "Student" señaló que, con muestras pequeñas, como son necesariamente habituales en los experimentos de campo y de laboratorio, la variación de la población solo se puede estimar aproximadamente de la muestra, y que los errores de estimación afectan seriamente El uso del error estándar. [pag. 106] Si x (por ejemplo, la media de una muestra) es un valor con distribución normal y  es su verdadero error estándar, entonces la probabilidad de que x

/ exceda cualquier valor especificado puede obtenerse de la tabla apropiada de la distribución normal; pero si no sabemos  , pero en su lugar tenemos s , una estimación del valor de  , la distribución requerida será la de x / s , y esto no es normal. El valor verdadero se ha dividido por un factor, s /  , que introduce un error. Hemos visto en el último capítulo que la distribución en muestras aleatorias de s 2 / 2es la de 2 / n , cuando n es igual al número de grados de libertad, del grupo (o grupos) de los cuales s 2 es la desviación cuadrática media. En consecuencia, la distribución de s /  calculable, y si su variación es completamente independiente de la de x /  (como en los casos a los que se aplica este método), se puede calcular la distribución real de x / s , y se permite una asignación precisa. Hecho para su salida de la normalidad. La única modificación requerida en estos casos depende únicamente del número n , que representa el número de grados de libertad disponibles para la estimación de  . Las distribuciones necesarias fueron dadas por "Estudiante" en 1908; desde entonces, el mismo autor ha proporcionado tablas más completas, y al final de este capítulo (pág. 137) proporcionamos las distribuciones de forma similar a la utilizada para nuestra tabla de 2 . 24. El significado de la media de una muestra única Si x 1 , x 2 , ..., x n , es una muestra de n ' valores de una variable, x , y si esta muestra constituye la totalidad de [p. 107] la información disponible sobre el punto en cuestión, entonces podemos comprobar si la media de x difiere significativamente de cero, calculando las estadísticas

La distribución de t para muestras aleatorias de una población normal distribuida alrededor de cero como media, se proporciona en la tabla de t para cada valor de n. Las columnas sucesivas muestran, para cada valor de n, los valores de t para los cuales P, la probabilidad de caer fuera del rango [más o menos] t, toma los valores .9, ...,. 01, a la cabeza de las columnas. Por lo tanto, la última columna muestra que, cuando n = 10, solo el 1% de dichas muestras aleatorias dará valores de t que superen +3.169, o menos de -3.169. Si se propone considerar la posibilidad de exceder los valores dados de t,solo en una dirección positiva (o negativa), entonces los valores de P deben reducirse

a la mitad. En la tabla se verá que para cualquier grado de certeza que necesitemos valores más altos de t, menor será el valor de n. La línea inferior de la tabla, correspondiente a valores infinitos de n, da los valores de una variable distribuida normalmente, en términos de su desviación estándar, para los mismos valores de P. Ex. 19. Significado de la media de una pequeña muestra . - Las siguientes cifras (datos de Cushny y Peebles) [pág. 108] que cito del artículo de Student muestra el resultado de un experimento con diez pacientes, sobre el efecto de los isómeros ópticos del bromhidrato de hiosciamina en la producción de sueño.

La última columna proporciona una comparación controlada de la eficacia de los dos fármacos como soporíficos, para los mismos pacientes que se utilizaron para probar cada uno; De la serie de diferencias encontramos.

Para n = 9, solo un valor en cien excederá 3250 por casualidad, por lo que la diferencia entre los resultados es claramente significativa. Por los métodos de la [p. 109] capítulos anteriores deberíamos, en este caso, haber llegado a la misma conclusión con casi la misma certeza; porque si los dos medicamentos hubieran sido igual de efectivos, los signos positivos y negativos aparecerían en la última columna con igual frecuencia. De los 9 valores distintos de cero, sin embargo, todos son positivos, y aparecen en la distribución binomial, (½ + ½) 9 , que todos serán del mismo signo, por casualidad, solo dos veces en 512 intentos. El método del presente capítulo difiere del que tiene en cuenta los valores reales y no meramente de sus signos, y por lo tanto es el método más confiable cuando los valores reales están disponibles. Para probar si dos muestras pertenecen a la misma población, o difieren significativamente en sus medios. Si x ' 1 , x' 2 , ..., x ' n 1 +1, y si x 1 , x 2 , ..., x n 2+1 son dos muestras, la importancia de la diferencia entre sus medias puede comprobarse calculando Las siguientes estadísticas.

Los medios se calculan como de costumbre; El estándar [pág. 110] la desviación se calcula juntando las sumas de cuadrados de las dos muestras y dividiendo por el número total de los grados de libertad que aportan; si a fuera la verdadera desviación estándar, la varianza de la primera media sería 2 /( n 1 +1), de la segunda media 2 / ( n 2 +1), y por lo tanto de la diferencia 2 {1 / ( n 1 +1) + 1 / ( n 2 +1)}; Por lo tanto, t se encuentra dividiendo x[barra] - x '[barra] por su error estándar según lo estimado, y el error de la estimación se permite ingresando la tabla con n igual al número de grados de libertad disponibles para estimar s ; es decir n = n 1 + n 2 . Por lo tanto, es posible extender el tratamiento de Student del error de a -an a la comparación de las medias de dos muestras.

Ex. 20. Significación de la diferencia de medias de pequeñas muestras . Supongamos que las cifras anteriores (Tabla 27) se obtuvieron utilizando diferentes pacientes para los dos fármacos; el experimento habría sido menos controlado y deberíamos esperar obtener resultados menos seguros de la misma cantidad de observaciones, ya que es a priori probable, y las cifras anteriores sugieren que las variaciones personales en respuesta a los medicamentos serán, en cierta medida extensión correlacionada. Tomando, entonces, las cifras para representar dos grupos diferentes de pacientes, tenemos

El valor de P está, por lo tanto, entre .1 y .05, y [p. 111] no puede considerarse significativo. Este ejemplo muestra claramente el valor del diseño en experimentos a pequeña escala y que la eficacia de dicho diseño es capaz de realizar mediciones estadísticas. El uso de la distribución de Student nos permite apreciar el valor de observar un número suficiente de casos paralelos; su valor radica, no solo en el hecho de que el error probable de una media disminuye inversamente como la raíz cuadrada del número de paralelos, sino en el hecho de que la precisión de nuestra estimación del error probable aumenta simultáneamente. La necesidad de experimentos duplicados se realiza suficientemente ampliamente; no se comprende tan bien que en algunos casos, cuando se desea colocar un alto grado de confianza (p.ej. P = .01) en los resultados, los experimentos por triplicado nos permitirán detectar con confianza diferencias tan pequeñas como una séptima parte de aquellos que, con un experimento duplicado, justificarían el mismo grado de confianza. La confianza que se debe colocar en un resultado depende no solo del valor real del valor medio obtenido, sino también del acuerdo entre experimentos paralelos. Por lo tanto, si en un experimento agrícola un primer ensayo muestra una ventaja aparente de 8 toneladas por acre, y un experimento duplicado muestra una ventaja de 9 toneladas, tenemos n = 1, t = 17, y los resultados justificarían cierta confianza en que se había observado un efecto real; pero si el segundo experimento mostró una ventaja aparente de 18 toneladas, aunque la media es ahora más alta, deberíamos depositar más confianza en la conclusión de que el tratamiento fue [p. 112] beneficioso, porque t ha caído a 2.6, un valor que para n =1 es a menudo superado por

casualidad. La aparente paradoja puede explicarse señalando que la diferencia de 10 toneladas entre los experimentos indica la existencia de circunstancias incontroladas tan influyentes que en ambos casos el beneficio aparente puede deberse al azar, mientras que en el primer caso el acuerdo relativamente estrecho de los resultados sugieren que los factores no controlados no son tan influyentes. Gran parte de la ventaja de una mayor replicación radica en el hecho de que duplicar nuestra estimación de la importancia de los factores no controlados es extremadamente peligroso. En los casos en que cada observación de una serie corresponde en algunos aspectos a una observación particular de la segunda serie, siempre es legítimo tomar las diferencias y probarlas como en Ex. 18, 19 como una sola muestra; Pero no siempre es deseable hacerlo. Mediante este método se puede obtener una comparación más precisa si los valores correspondientes de las dos series están correlacionados positivamente, y solo si están correlacionados en una medida suficiente para compensar la pérdida de precisión debida a la base de nuestra estimación de varianza en menos grados de libertad . Un ejemplo dejará esto claro. Ex. 21. Significación del cambio en los números bacterianos . - La siguiente tabla muestra el número medio de colonias bacterianas por placa obtenidas mediante cuatro métodos ligeramente diferentes de las muestras de suelo tomadas a las 4 PM y 8 PM respectivamente (datos de HG Thornton): [pág. 113]

De la serie de diferencias tenemos x [barra] = + 10.775, ¼ s 2 = 3.756, t = 5.560, n = 3, donde la tabla muestra que P está entre .01 y .02. Si, por el contrario, usamos el método del ej. 20, y al tratar las dos series separadas, encontramos x [bar] -x '[bar] = + 10.775, ½ s 2 = 2.188, t = 7.285, n = 6; esto no es solo un valor mayor de n, sino un valor mayor de t, que ahora está mucho más allá del rango de la tabla, lo que muestra que P es extremadamente pequeño. En este caso, los efectos diferenciales de los diferentes métodos son insignificantes o han actuado de manera muy diferente en las dos series, por lo

que se perdió la precisión al comparar cada valor con su contraparte en las otras series. En casos como este, a veces ocurre que un método no muestra una diferencia significativa, mientras que el otro lo resalta; Si cualquiera de los métodos indica una diferencia definitivamente significativa, su testimonio no puede ser ignorado, incluso si el otro método no muestra el efecto. Cuando no existe correspondencia entre los miembros de una serie y los de la otra, solo está disponible el segundo método. [pag. 114] 25. Coeficientes de regresión Los métodos de este capítulo son aplicables no solo a los valores medios, en el sentido estricto de la palabra, sino a la amplia clase de estadísticas conocidas como coeficientes de regresión. La idea de regresión generalmente se introduce en relación con la teoría de la correlación, pero en realidad es más general y, en algunos aspectos, una idea más simple, y los coeficientes de regresión son de interés e importancia científica en muchas clases de Los datos en los que el coeficiente de correlación, si se usa, es un concepto artificial de no utilidad real. Los siguientes ejemplos cualitativos tienen la intención de familiarizar al estudiante con el concepto de regresión y preparar el camino para el tratamiento preciso de los ejemplos numéricos. Es un lugar común que la altura de un niño depende de su edad, aunque conociendo su edad, no podemos calcular su altura con precisión. En cada edad, las alturas se dispersan en un rango considerable en una distribución de frecuencia característica de esa edad; Cualquier característica de esta distribución, como la media, será una función continua de la edad. La función que representa la altura media en cualquier edad se denomina función de regresión de la altura en la edad; se representa gráficamente mediante una curva de regresión, o una línea de regresión. En relación con tal regresión, la edad se denomina variable independiente , y altura la variable dependiente . Las dos variables tienen relaciones muy diferentes con la línea de regresión. Si se producen errores en las alturas, este [p. 115] no influirá en la regresión de la altura en la edad, siempre que en todas las edades los errores positivos y negativos sean igualmente frecuentes, de modo que se equilibren en los promedios. Por el contrario, los errores en la edad en general alterarán la regresión de la altura en la edad, por lo que a partir de un registro con edades sujetas a error, o clasificadas en grupos de edad amplios, no deberíamos obtener la verdadera relación física entre la altura media y la edad. . Se debe tener en cuenta una segunda diferencia: la función de regresión no depende de la distribución de frecuencia de la variable independiente, por lo que se puede obtener una verdadera línea de regresión incluso cuando los grupos de edad se seleccionan arbitrariamente, como cuando una investigación trata con niños de la "escuela". años."

De las instancias anteriores se desprende claramente que la regresión de la altura en la edad es bastante diferente de la regresión de la edad en la altura; y que uno puede tener un significado físico definido en los casos en que el otro solo tiene el significado convencional que le da la definición matemática. En ciertos casos, ambas regresiones son de igual posición; así, si expresamos en términos de la altura del padre la altura promedio de los hijos de padres de una altura determinada, la observación muestra que cada centímetro adicional de la altura de los padres corresponde a aproximadamente media pulgada en la altura media de los hijos . Igualmente, si tomamos la altura media de los padres de hijos de una altura determinada, encontramos que cada centímetro adicional de la altura de los hijos corresponde a media pulgada en la altura media de los padres. Sin selección [pág. 116] se ha ejercido en las alturas, ya sea de padres o de hijos; cada variable se distribuye normalmente, y el agregado de pares de valores forma una superficie de correlación normal. Ambas líneas de regresión son rectas y, por lo tanto, es posible expresar los hechos de regresión en las reglas simples establecidas anteriormente. Cuando la línea de regresión que nos ocupa es recta, o, en otras palabras, cuando la función de regresión es lineal, la especificación de regresión se simplifica mucho, ya que además de los medios generales, solo tenemos que indicar la relación que el incremento de la media de la variable dependiente se refiere al incremento correspondiente de la variable independiente. Tales relaciones se denominan coeficientes de regresión. La función de regresión toma la forma. Y = a + b ( x - x [barra]), donde b es el coeficiente de regresión de y en x, e Y es el valor medio de y para cada valor de x. Las dimensiones físicas del coeficiente de regresión dependen de las de las variables; por lo tanto, en un rango de edad en el que el crecimiento es uniforme, podríamos expresar la regresión de la altura en edad en pulgadas por año, de hecho como una tasa de crecimiento promedio, mientras que la regresión de la altura del padre en la altura del hijo es de media pulgada por pulgada, o simplemente ½. Los coeficientes de regresión pueden, por supuesto, ser positivos o negativos. Las líneas de regresión curvadas son de ocurrencia común; en tales casos tendremos que usar una función de regresión como Y = a + bx + cx 2 + dx 3 , [pág. 117] en el que los cuatro coeficientes de la función de regresión pueden, mediante un uso prolongado del término, llamarse coeficientes de regresión. Se pueden usar funciones más elaboradas de x , pero su empleo práctico ofrece

dificultades en los casos en que carecemos de orientación teórica para elegir la forma de la función de regresión, y en la actualidad la serie de potencias simples (o, el polinomio en x ) está sola en el uso frecuente . Con mucho, el caso más importante en la práctica estadística es la recta de regresión. 26. Errores de muestreo de los coeficientes de regresión. La recta de regresión con fórmula. Y = a + b ( x - x [barra]) se ajusta mediante el cálculo de los datos, las dos estadísticas

estas son estimaciones, derivadas de los datos, de las dos constantes necesarias para especificar la línea recta; la verdadera fórmula de regresión, que deberíamos obtener de una infinidad de observaciones, puede representarse por  +  ( x - x [barra]), y las diferencias a -  , b -  son los errores de muestreo aleatorio de nuestras estadísticas. Si 2 representa la varianza de y para cualquier valor de xsobre una media dada por la fórmula anterior, entonces la varianza de a , la media de n ' observaciones, será 2 / n' , mientras que la de b , que es [pag. 118] simplemente una media ponderada de los valores de y observados, será

Para probar el significado de la diferencia entre b y cualquier valor hipotético,  , con el cual se comparará, debemos estimar el valor de 2 ; La mejor estimación para el propósito es

encontrado sumando los cuadrados de las desviaciones de y de su valor calculado Y, y dividiendo por ( n ' -2). La razón por la que el divisor es ( n ' 2) es que a partir de los valores n' de y ya se han calculado dos estadísticas que entran en la fórmula para Y, por lo tanto, el grupo de diferencias, y -Y, representa en realidad solo n ' -2 grados de libertad.

Cuando n ' es pequeña, la estimación de s 2 obtenido anteriormente es algo incierto, y en la comparación de la diferencia b-  con su error estándar, con el fin de probar su significado tendremos que utilizar el método de Student, con n = n' - 2. Cuando n ' es grande, esta distribución tiende a la distribución normal. El valor de t con el que se debe introducir la tabla es

De manera similar, para probar el significado de la diferencia entre a y cualquier valor hipotético  , la tabla se ingresa con [p. 119]

esta prueba para el significado de a será más sensible que el método explicado anteriormente, si la variación en y es expresable en términos considerables en términos de x, ya que el valor de s obtenido de la línea de regresión será menor que La obtenida del grupo original de observaciones. Por otro lado, siempre se pierde un grado de libertad, de modo que si b es pequeño, no se obtiene mayor precisión. Ex. 22. Efecto de los fertilizantes nitrogenados en el mantenimiento del rendimiento . - Los rendimientos de grano vestido en bushels por acre que se muestran en la Tabla 29 se obtuvieron de dos parcelas en el campo de trigo de Broadbalk durante treinta años; la única diferencia en el tratamiento de tratamiento fue que "9 a " recibió nitrato de sodio, mientras que "7 b " recibió una cantidad equivalente de nitrógeno como sulfato de amoniaco. En el curso de la trama experimento "9 una " parece estar ganando en rendimiento en la parcela "7 b ". ¿Es esta ganancia aparente significativa? Una gran parte de la variación en el rendimiento de un año a otro es evidentemente similar en las dos parcelas; En consecuencia, la serie de diferencias dará el resultado más claro. En un aspecto, los datos anteriores son especialmente simples, ya que los treinta valores de la variable independiente forman una serie con intervalos iguales entre los valores sucesivos, con un solo valor de la variable dependiente correspondiente a cada uno. En tales casos, el trabajo se simplifica utilizando la fórmula S ( x - x [barra]) 2 = 1/12 n ' ( n' 2 -1), [pág. 120]

donde n ' es el número de términos, o 30 en este caso. Para evaluar 6 es necesario calcular. S { y ( xx [barra])}; Esto se puede hacer de varias maneras. Podemos multiplicar [pág. 121] los valores sucesivos de y por -29, -27,… +27, +29, sumar y dividir por 2. Este es el método directo sugerido por la fórmula. El mismo resultado se obtiene multiplicando por 1, 2, ..., 30 y restando 15½ veces la suma de los valores de y ; este último método puede llevarse a cabo convenientemente

por adición sucesiva. A partir de la parte inferior de la columna, se anotan las sumas sucesivas 2.69, 9.76, 6.82, ..., cada una de las cuales se encuentra agregando un nuevo valor de y al total ya acumulado; La suma de la nueva columna, menos 15½ veces la suma de la columna anterior, será el valor requerido. En este caso encontramos el valor 599.615, y dividiendo por 2247.5, el valor de bse encuentra que es .2668. El rendimiento de trama "9 un " por lo tanto parece haber ganado en la de "7 b " a una velocidad algo más de un cuarto de un bushel por año. Para estimar el error estándar de 6, requerimos el valor de S ( y -Y) 2 ; sabiendo el valor de b , es fácil calcular los treinta valores de Y a partir de la fórmula Y = y [barra] + ( x - x [barra]) b ; para el primer valor, xx [barra] = -14.5 y los valores restantes se pueden encontrar en sucesión agregando b cada vez. Al restar cada valor de Y de la ycorrespondiente , la cuadratura y la suma, la cantidad requerida se puede calcular directamente. Este método es laborioso, y es preferible en la práctica utilizar el hecho algebraico de que [pág. 122]

El trabajo consiste entonces en cuadrar los valores de y y sumar, luego restar las dos cantidades que se pueden calcular directamente del valor medio de y y el valor de b. En el uso de este método abreviado cabe señalar que los pequeños errores en y [bar] y b puede introducir errores considerables en el resultado, por lo que es necesario para asegurarse de que éstos se calculan con precisión a tantas cifras significativas que son necesarios en el Cantidades a restar. Los errores de aritmética que tendrían poco efecto en el primer método, pueden viciar los resultados si se usa el segundo método. El trabajo posterior en el cálculo del error estándar de bse puede seguir mejor en el esquema que se da junto a la tabla de datos; el error estándar estimado es .1169, de modo que al probar la hipótesis de que = 0, es decir, que la gráfica "9 a " no ha ido ganando en la gráfica "7 b ", dividimos b entre esta cantidad y encontramos t = 2.282. Dado que s se encontró a partir de 28 grados de libertad n = 28, y la tabla de t muestra que P está entre .02 y .05. · El resultado debe juzgarse significativo, aunque apenas sea así; En vista de los datos, no podemos ignorar la posibilidad de que en este campo, y en relación con los demás estiércol utilizados, el nitrato de soda haya conservado la

fertilidad mejor que el sulfato de amoniaco; Sin embargo, estos datos no demuestran el punto más allá de la posibilidad de duda. El error estándar de y [barra], calculado a partir de los datos anteriores, es 1.012, por lo que no puede haber ninguna duda de que [p. 123] la diferencia en los rendimientos medios es significativa; Si hubiéramos probado el significado de la media, sin tener en cuenta el orden de los valores, que es el cálculo de s 2 al dividir 1020.56 por 29, el error estándar habría sido 1.083. El valor de b era, por lo tanto, lo suficientemente alto como para haber reducido el error estándar. Esto sugiere la posibilidad de que si hubiéramos ajustado una línea de regresión más compleja a los datos, los errores probables se reducirían aún más hasta un punto que pondría la importancia de b fuera de toda duda. Trataremos más adelante el ajuste de las líneas de regresión curvas a este tipo de datos. Al igual que el método de comparación de medias es aplicable cuando las muestras son de diferentes tamaños, al obtener una estimación del error combinando las sumas de cuadrados obtenidas de las dos muestras diferentes, podemos comparar los coeficientes de regresión cuando la serie de valores de la variable independiente no es idéntica; o si son idénticos, podemos ignorar el hecho al comparar los coeficientes de regresión. Ex. 23. Comparación de la tasa de crecimiento relativo de dos cultivos de un alga . - La Tabla 30 muestra el logaritmo (en la base 10) de los volúmenes ocupados por células de algas en días sucesivos, en cultivos paralelos, cada uno tomado durante un período durante el cual la tasa de crecimiento relativo fue aproximadamente constante. En la cultura A hay nueve valores disponibles, y en la cultura B ocho (datos del Dr. M. Bristol-Roach). El método para hallar S y ( x - x [barra]) por suma se muestra en el segundo par de columnas: los valores originales se suman desde la parte inferior, dando sucesivas [pág. 124] totales de 6.087 a 43.426; el valor final debe, por supuesto, coincidir con el total debajo de los valores originales. De la suma de la columna de totales se resta la suma de los valores originales multiplicada por 5 para A y por 4½ para B. Las diferencias son S y ( x - x [barra]); estos deben dividirse por los valores respectivos de S ( x - x barra]) 2 ,

a saber, 60 y 42, para dar los valores de b , midiendo las tasas de crecimiento relativas de las dos culturas. Para probar si la diferencia es significativa , calculamos en los dos casos S ( y 2 ) y restamos sucesivamente el producto de la media con el total, y el producto de b con S y ( x - x [barra]); este proceso deja los dos valores de S ( y -Y) 2 , que se agregan como se muestra en la tabla, y la suma dividida por n , para dar s 2 . El valor de nse encuentra agregando los 7 grados de libertad de la serie A a los 6 grados de la serie B, y por lo tanto es 13. [p. 125] Las estimaciones de la varianza de los dos coeficientes de regresión se obtienen al dividir s 2 entre 60 y 42, y la de la varianza de su diferencia es la suma de estos. Tomando la raíz cuadrada, encontramos que el error estándar es .01985, y t = 1.844 · La diferencia entre los coeficientes de regresión, aunque es relativamente grande, no puede considerarse significativa. No hay pruebas suficientes para afirmar que el cultivo B estaba creciendo más rápidamente que el cultivo A. 27. La adaptación de líneas de regresión curvadas Se ha avanzado poco con la teoría del ajuste de las líneas de regresión curvas, salvo en el caso limitado pero más importante cuando la variabilidad de la variable independiente es la misma para todos los valores de la variable dependiente, y es normal para cada uno de esos valores. Cuando este es el caso, una técnica ha sido completamente desarrollada para ajustarse por etapas sucesivas en cualquier línea del formulario. Y = a + bx + cx 2 + dx 3 + ..;

Daremos detalles del caso donde los valores sucesivos de x están en intervalos iguales. Tal como está, la forma anterior sería un inconveniente en la práctica, ya que la adaptación no se pudo realizar en etapas sucesivas. Lo que se requiere es obtener sucesivamente la media de y , una ecuación lineal en x , una ecuación cuadrática en x , y así sucesivamente, cada ecuación se obtiene del último al sumar, un nuevo término que se calcula al llevar un solo proceso de [ pag. 126] computación a través de una nueva etapa. Para hacer esto tomamos Y = A + B 1 + C 2 + D 3 +…, donde 1 , 2 , 3 serán funciones de x de los grados 1º, 2º y 3º, a partir de los cuales se puede construir la fórmula de regresión. Se puede mostrar que las funciones requeridas para este propósito se pueden expresar en términos de los momentos de la distribución x , de la siguiente manera:

donde los valores de las funciones momento se han expresado en términos de n', el número de observaciones, por lo que se necesita para curvas de ajuste de hasta el 5 º grado. Los valores de x se toman para aumentar por unidad. Algebraicamente el proceso de ajuste ahora puede ser representado por las ecuaciones

[pag. 127]

y, en general, el coeficiente del término del grado r es

A medida que se ajusta cada término, la línea de regresión se acerca más a los valores observados, y la suma de los cuadrados de la desviación S ( y -Y) 2 se disminuye Es deseable poder calcular esta cantidad, sin evaluar los valores reales de Y en cada punto de la serie; esto se puede hacer restando de S ( y 2) las cantidades sucesivas

y así. Estas cantidades representan la reducción que sufre la suma de los cuadrados de los residuos cada vez que la curva de regresión se ajusta a un grado mayor; y permite que su valor se calcule en cualquier etapa mediante una mera extensión del proceso ya utilizado en los ejemplos anteriores. Para obtener una estimación, s 2 , de la varianza residual, dividimos por n , el número de grados de libertad que queda después del ajuste, que se encuentra en n ' al restar el número de constantes en la fórmula de regresión. Por lo tanto, si se ha ajustado una línea recta, n = n ' -2; mientras que si se ha ajustado una curva de quinto grado, n = n ' -6. [pag. 128] 28. El procedimiento aritmético de la adaptación. El principal trabajo aritmético de ajustar líneas de regresión curvas a datos de este tipo puede reducirse a una repetición del proceso de suma ilustrado en Ex. 23. Asumiremos que los valores de y se escriben en una columna en orden de valores crecientes de x, y que en cada etapa la suma comienza en la parte superior de la columna (no en la parte inferior, como en ese ejemplo) . Las sumas de las columnas sucesivas se indicarán por S 1 , S 2 , ... Cuando se hayan obtenido estos valores, cada uno se divide por un divisor apropiado, que

depende solo de n ', lo que nos da una nueva serie de cantidades a, b, c, ... deacuerdo a las siguientes ecuaciones

y así. De estas, una nueva serie de cantidades a ', b', c ', ... se obtienen mediante las ecuaciones independientes n', de las cuales damos a continuación las primeras seis, que son suficientes para llevar el proceso de ajuste hasta el 5º grado:

[pag. 129] Estas nuevas cantidades son proporcionales a los coeficientes requeridos de la ecuación de regresión, y solo necesitan ser divididas por un segundo grupo de divisores para dar los valores reales. Las ecuaciones son

La parte numérica del factor es

para el término de grado r . Si se ha ajustado una ecuación de grado r , la estimación de los errores estándar de los coeficientes se basa en el mismo valor de s 2 , es decir

a partir del cual el error estándar estimado de cualquier coeficiente, como el de p , se obtiene dividiendo por

y sacando la raíz cuadrada. El número de grados de libertad en que se basa la estimación es (n'-r- 1), y esto debe equipararse a n en el uso de la tabla de t. Se puede obtener un ejemplo adecuado del uso de este método ajustando los valores de Ej. 22 (p. 120) con una curva de segundo o tercer grado. [pag. 130] 29. Regresión con varias variables independientes. Con frecuencia sucede que los datos nos permiten expresar el valor promedio de la variable dependiente y , en términos de un número de diferentes variables independientes x 1 , x 2 , ... x p. Por ejemplo, la precipitación en cualquier punto dentro de un distrito se puede registrar en una cantidad de estaciones para las cuales se conocen la longitud, latitud y altitud. Si todas estas tres variables influyen en la lluvia, puede ser necesario determinar el efecto promedio de cada una por separado. Al hablar de la longitud, la latitud y la altitud como variables independientes, todo lo que está implícito es que es en términos de ellos que se expresará la precipitación promedio; no está implícito que estas variaciones varían independientemente, en el sentido de que no están correlacionadas. Por el contrario, puede suceder que las estaciones más al sur descansen más hacia el oeste que las estaciones más al norte, de modo que para las estaciones disponibles, la longitud medida hacia el oeste puede estar correlacionada negativamente con la medida de latitud hacia el norte. Si entonces la lluvia aumentó hacia el oeste, pero fue independiente de la latitud, debemos obtenerla simplemente, al comparar la precipitación registrada en diferentes latitudes, una regresión ficticia que indica una caída de la lluvia a medida que aumenta la latitud. Lo que necesitamos es una ecuación que tenga en cuenta las tres variables en cada estación y que esté de acuerdo lo más cerca posible con los valores registrados; Esto se denomina ecuación de regresión parcial y sus coeficientes se conocen como coeficientes de regresión parcial. [pag. 131] Esto se

denomina ecuación de regresión parcial y sus coeficientes se conocen como coeficientes de regresión parcial. [pag. 131] Esto se denomina ecuación de regresión parcial y sus coeficientes se conocen como coeficientes de regresión parcial. [pag. 131] Para simplificar el álgebra, supongamos que y, x 1 , x 2 , x 3 , todos se miden a partir de sus valores medios, y que estamos buscando una fórmula de la forma Y = b 1, x 1 + b 2x 2 + b 3x 3. Si S representa la suma de todos los conjuntos de observaciones, construimos las tres ecuaciones

de los cuales los nueve coeficientes se obtienen a partir de los datos, ya sea por multiplicación y adición directa, o, si los datos son numerosos, construyendo tablas de correlación para cada uno de los seis pares de variables. Las tres ecuaciones simultáneas para b 1 , b 2 y b 3 se resuelven de manera ordinaria; el primer b 3 se elimina del primero y el tercero, y de la segunda y tercera ecuaciones, dejando dos ecuaciones para b 1 y b 2 ; eliminando b 2 de estos, se encuentra b 1 , y de allí por sustitución, b 2 yb 3 . Con frecuencia sucede que, para el mismo conjunto de valores de las variables independientes, se desea examinar las regresiones para más de un conjunto de valores de las variables dependientes; por ejemplo, si para el mismo conjunto de estaciones de lluvia teníamos datos para varios meses o años diferentes. En tales casos, es preferible evitar resolver las ecuaciones simultáneas de nuevo en cada ocasión, pero obtener una fórmula más simple que se pueda aplicar a cada nuevo caso. Esto se puede hacer resolviendo de una vez por todas [pág. 132] tres conjuntos, cada uno compuesto por tres ecuaciones simultáneas:

Las tres soluciones de estos tres conjuntos de ecuaciones pueden escribirse.

Una vez que se conocen los seis valores de c , entonces los coeficientes de regresión parcial pueden obtenerse en cualquier caso particular simplemente calculando S ( x 1 y ), S ( x 2 y ), S ( x 3 y ) y sustituyendo en las fórmulas,

El método de regresión parcial es de muy amplia aplicación. Vale la pena señalar que las diferentes variables independientes pueden estar relacionadas de alguna manera; por ejemplo, si quisiéramos expresar la lluvia como una función lineal de la latitud y la longitud, y como una función cuadrática de la altitud, el cuadrado de la altitud se introduciría como una cuarta variable independiente, sin interrumpir de ninguna manera el proceso. descrito anteriormente, excepto que S ( x 3 x 4 ), S ( x 3 3 ) se calcularía directamente a partir de la distribución de altitud. En la estimación de los errores de muestreo de parcial [p. 133] coeficientes de regresión que necesitamos para saber cuánto de nuestro valor calculado, Y, ha reproducido los valores observados de y ; como en casos anteriores, la suma de los cuadrados de ( y- Y) se puede calcular por diferencias, para, con tres variables, S ( y -Y) 2 = S ( y 2 ) - b 1 S (x 1 y ) - b 2 S ( x 2 y ) - b 3 S ( x 3 y ). · Si tuviéramos n ' observaciones, y p variables independientes, deberíamos encontrar

y para probar si b 1 , difería significativamente de cualquier valor hipotético, 1 , debemos calcular

entrando en la tabla de t con n = n'-p -1. En el uso práctico de varias variables, es conveniente utilizar tarjetas, en cada una de las cuales se ingresan los valores de las diversas variables que pueden ser necesarias. Al clasificar estas tarjetas en unidades de agrupación adecuadas con respecto a cualquiera de las dos variables, la tabla de correlación correspondiente puede construirse con poco riesgo de error, y de allí se obtienen las sumas necesarias de cuadrados y productos. Ex. 24. Dependencia de las precipitaciones en la posición y altitud . - Las situaciones de 57 estaciones de lluvia en Hertfordshire tienen una longitud media de 12'.4 W., una latitud media de 51 ° 48'.5 N. y una altitud media de 302 pies. Tomando como unidades 2 minutos de longitud, uno [p. 134] minuto de latitud y 20 pies de altitud, se obtuvieron los siguientes valores de las sumas de cuadrados y productos de desviaciones de la media:

Para encontrar los multiplicadores adecuados para cualquier conjunto particular de datos meteorológicos de estas estaciones, primero resuelva las ecuaciones 1934.1 c 11 772.2 c 12 + -772.2 c 11 + 2889.5 c 12 + +924.1 c 11 + 119.6 c 13 [ sic ] + 1750.8 c 13 = 0;

924.1 c 13 = 119.6 c 13 =

1 0

Usando la última ecuación para eliminar c 13 de los dos primeros, tenemos 2532.3 c 11 = 1462.5 c 11 + 5044.6 c 12 = 0;

1462.5 c 12 =

De estos se eliminan c 12 , obteniendo 10,635.5 c 11 = 8,8321; De dónde

1.7508

c 11 = .00083043, c 12 = .00024075, c 13 = -.00045476 Los dos últimos se obtienen sucesivamente por sustitución. Dado que las ecuaciones correspondientes para c 12 , c 22 , c 23 difieren solo en los cambios en el número de la mano derecha, podemos escribir inmediatamente -1462.5 c 12 + 5044.6 c 22 = 1.7508; de donde, sustituyendo por c 12 el valor ya obtenido, c 22 = .00041686, c 23 = -.00015554; [pag. 135] Finalmente, para obtener c 33 solo tenemos que sustituir en la ecuación. 924.1 c 13 + 119.6 c 23 + 1750.8 c 33 = 1, dando c 33 = .00082182. Por lo general, vale la pena, para facilitar la detección de pequeños errores mediante la comprobación, para mantener por encima de un lugar más decimal que la garantía de datos. La regresión parcial de cualquier dato meteorológico particular sobre estas tres variables se puede encontrar ahora con poco trabajo. En enero de 1922, la precipitación media registrada en estas estaciones fue de 3.87 pulgadas, y las sumas de los productos de las desviaciones con las de las tres variables independientes fueron (tomando 0.1 pulgadas como unidad para la lluvia) S ( x 1 y ) = +1137.4, S ( x 2 y ) = -592.9, S ( x 3 y ) = +891.8; multiplicando estos primero por c 11 , c 12 , c 13 y sumando, tenemos para la regresión parcial en longitud b 2 = .39624; de manera similar, utilizando los multiplicadores c 12 , c 22 , c 23 obtenemos para la regresión parcial en latitud b 2 = -11204; y finalmente, usando c 13 , c 23 , c 33 ,

b 3 = .30787 Da la regresión parcial sobre la altitud. Recordando ahora las unidades empleadas, parece que en el mes en cuestión la lluvia aumentó en 0.0198 de pulgada por cada minuto de longitud hacia el oeste, [pág. 136] se reduce en .0112 de pulgada por cada minuto de latitud hacia el norte, y se incrementa en .00154 de pulgada por cada pie de altitud. Calculemos hasta qué punto la regresión en altitud se ve afectada por errores de muestreo. Para las 57 desviaciones registradas de la lluvia de su valor medio, en las unidades utilizadas anteriormente S ( y 2 ) = 1786.6; de donde, conociendo los valores de b 1 , b 2 y b 3 , obtenemos por diferencias S ( y -Y) 2 = 994,9. Para encontrar s 2 , debemos dividir esto por el número de grados de libertad que quedan después de ajustar una fórmula que incluye tres variables, es decir, entre 53, de modo que s 2 = 8,772; multiplicando esto por c 33 , y tomando la raíz cuadrada, s [sqrt] c 33 = .12421. Dado que n es tan alto como 53, no estaremos muy equivocados al tomar la regresión de la precipitación en altitud para estar en unidades de trabajo .308, con un error estándar .124; o en pulgadas de lluvia por 100 pies como .154, con un error estándar .062.

EL COEFICIENTE DE CORRELACIÓN 30. Ninguna cantidad es más característica del trabajo estadístico moderno que el coeficiente de correlación, y ningún método se ha aplicado con éxito a datos tan diversos como el método de correlación. Los datos de observación en particular, en los casos en que podemos observar la aparición de varias posibles causas contributivas de un fenómeno, pero no podemos controlarlas, se ha dado por sus medios una importancia totalmente nueva. En el trabajo experimental propiamente dicho su posición es mucho menos central; se encontrará útil en las etapas exploratorias de una investigación, como cuando dos factores que se habían considerado independientes parecen estar asociados en su aparición; pero rara vez, con condiciones experimentales controladas, se desea expresar nuestra conclusión en forma de un coeficiente de correlación. Uno de los primeros y más sorprendentes éxitos del método de correlación fue en el estudio biométrico de la herencia. En un momento en que no se sabía nada del mecanismo de la herencia, o de la estructura del material germinal, este método podía demostrar la existencia de la herencia, y [p. 139] "medir su intensidad"; y esto en un organismo en el que no se podía practicar la reproducción experimental, a saber, el Hombre. Al comparar los resultados obtenidos de las mediciones físicas en el hombre con los obtenidos de otros organismos, se estableció que la naturaleza del hombre no está menos gobernada por la herencia que la del resto del mundo animado. Estos resultados siguen siendo de importancia fundamental, ya que no solo la herencia en el hombre sigue siendo incapaz de un estudio experimental, y los métodos existentes de prueba mental aún no pueden analizar la disposición mental, sino que incluso con organismos adecuados para la experimentación y la medición, es solo en los casos más favorables de que los diversos factores que causan la variabilidad fluctuante pueden resolverse, y sus efectos estudiarse, mediante métodos mendelianos. Dicha variabilidad fluctuante, con una distribución aproximadamente normal, es característica de la mayoría de las cualidades útiles de las plantas y animales domésticos; y aunque hay fuertes razones para pensar que la herencia en tales casos es en última instancia mendeliana, el método de estudio biométrico es actualmente solo capaz de mantener la esperanza de un progreso inmediato. Damos en la Tabla 31 un ejemplo de una tabla de correlación. Consiste en un registro en forma compacta de la estatura de 1376 padres e hijas. (Los datos de Pearson y Lee.) Las mediciones se agrupan en [pág. 140-141] [tabla] [pág. 142] pulgadas, y aquellos cuya medida se registró como un número integral de pulgadas se han dividido; por lo tanto, un padre registrado a partir de 67 pulgadas aparecerá como 1/2 debajo de 66.5 y 1/2 debajo de 67.5. Del

mismo modo con las hijas; en consecuencia, cuando ambas mediciones son números enteros, el caso aparece en cuatro trimestres. Esto le da a la tabla una apariencia confusa, ya que la mayoría de las entradas son fraccionarias, aunque representan frecuencias. Es preferible, si se puede evitar el sesgo en la medición, agrupar las observaciones de tal manera que cada observación posible se encuentre completamente dentro de un grupo.

La característica más obvia de la tabla es que no ocurren casos en los que el padre es muy alto y la hija muy baja, y viceversa; las esquinas superior derecha e inferior izquierda de la tabla están en blanco, por lo que podemos llegar a la conclusión de que es tan raro que ocurran en una muestra de aproximadamente 1400 casos. Las observaciones registradas se encuentran en una figura aproximadamente elíptica que se encuentra en diagonal sobre la mesa. Si marcamos la región en la que las frecuencias exceden de 10, parece que esta región, aparte de las irregularidades naturales, es similar y se encuentra en una situación similar. La frecuencia de ocurrencia aumenta desde todos los lados hasta la región central de la tabla, donde se pueden ver unas pocas frecuencias por encima de 30. Las líneas de igual frecuencia son

aproximadamente elipsis similares y similares. En la zona exterior las observaciones ocurren solo ocasionalmente, y por lo tanto irregularmente; más allá de esto solo podríamos explorar tomando una muestra mucho más grande. La tabla se ha dividido en cuatro cuadrantes por [p. 143] marcando valores centrales de las dos variables; estos valores, 67.5 pulgadas para los padres y 63.5 pulgadas para las hijas, están cerca de los medios. Cuando la tabla está tan dividida, es obvio que los cuadrantes inferior derecho e izquierdo son claramente más poblados que los otros dos; No solo hay más cuadrados ocupados, sino que las frecuencias son más altas. Es evidente que los hombres altos tienen hijas altas con más frecuencia que los hombres bajos, y viceversa. El método de correlación tiene como objetivo medir el grado en que existe esta asociación. Los totales marginales muestran las distribuciones de frecuencia de los padres y las hijas, respectivamente. Estas son distribuciones aproximadamente normales, como suele ser el caso con datos biométricos recopilados sin selección. Esto marca una diferencia frecuente entre los datos biométricos y los experimentales. Un experimentador quizás se habría criado a partir de dos grupos contrastados de padres de, por ejemplo, 63 y 72 pulgadas de altura; todos sus padres pertenecerían entonces a estas dos clases, y el coeficiente de correlación, si se usara, carecería de sentido. Tal experimento serviría para determinar la regresión de la altura de la hija en la altura del padre, y así determinar el efecto en las hijas de la selección aplicadas a los padres, Del mismo modo que la variación normal con una variable puede especificarse mediante una fórmula de frecuencia en la que [p. 144] el logaritmo de la frecuencia es una función cuadrática de la variable, por lo que con dos variables la frecuencia puede expresarse en términos de una función cuadrática de los valores de las dos variables. Entonces tenemos una superficie de correlación normal, para la cual la frecuencia puede escribirse convenientemente en la forma

En esta expresión, x e y son las desviaciones de las dos variables de sus medias, 1 y 2 son las dos desviaciones estándar, y  es la correlación entre x e y. La correlación en la expresión anterior puede ser positiva o negativa, pero no puede exceder la unidad en magnitud; Es un número puro sin dimensiones físicas. Si  = 0, la expresión para la frecuencia degenera en el producto de los dos factores

que muestra que el límite de la superficie de correlación normal, cuando la correlación se desvanece, es simplemente el de dos variables normalmente distribuidas que varían en completa independencia. En el otro extremo, cuando p es +1 o -1, la variación de las dos variables es en proporción estricta, de modo que el valor de cualquiera de ellas puede calcularse con precisión a partir del otro. En otras palabras, dejamos de tener estrictamente dos variables, pero simplemente dos medidas de la misma cantidad variable. Si seleccionamos los casos en los que una variable tiene un valor asignado, tenemos lo que se denomina una matriz; [pag. 145] las columnas y filas de la tabla pueden, excepto en lo que respecta a la variación dentro de los límites del grupo, ser consideradas como matrices. Con la correlación normal, la variación dentro de una matriz puede obtenerse a partir de la fórmula general, dando a x un valor constante, (por ejemplo) a , y dividiendo por la frecuencia total con la que ocurre este valor; entonces nosotros tenemos

mostrando (i.) que la variación de y dentro de la matriz es normal; (ii.) que el valor medio de y para esa matriz es a 2 / 1 , de modo que la regresión de y sobre x es lineal, con coeficiente de regresión

y (iii.) que la varianza de y dentro de la matriz es 2 2 (1- 2 ), y es la misma dentro de cada matriz. Podemos expresar esto diciendo que de la varianza total de y la fracción (1- 2 ) es independiente de x , mientras que la fracción restante, 2 , está determinada por, o calculable a partir del valor de x . Estas relaciones son recíprocas, la regresión de x sobre y es lineal, con un coeficiente de regresión 1 / 2 ; la correlación  es, pues, la media geométrica de las dos regresiones. Las dos líneas de regresión que representan el valor medio de x para una y dada , y el valor medio de y para una x dada , no pueden coincidir a menos que = [más o menos] 1. La variación

de x dentro de una matriz en la que y es fija, es normal con una varianza igual a 1 2(1- 2 ), por lo que podemos decir que de la varianza de x la fracción (1- 2 ) [p. 146] es independiente de y , y la fracción restante, 2 , está determinada por, o calculable a partir del valor de y. Tales son las consecuencias matemáticas formales de la correlación normal. Muchos datos biométricos muestran ciertamente un acuerdo general con las características que se esperan de este supuesto; aunque no tengo conocimiento de que la pregunta haya sido sometida a una investigación suficientemente crítica. El acuerdo aproximado es quizás todo lo que se necesita para justificar el uso de la correlación como una cantidad descriptiva de la población; su eficacia a este respecto es indudable, y no es improbable que en algunos casos proporcione una descripción completa de la variación simultánea de las variables. 31. La estimación estadística de la correlación. Del mismo modo que la media y la desviación estándar de una población normal en una variable pueden estimarse de manera más satisfactoria a partir de los dos primeros momentos de la distribución observada, la única estimación satisfactoria de la correlación, cuando las variables están normalmente correlacionadas, se encuentra en el "momento del producto". Si x e y representan las desviaciones de las dos variables de sus medias, calculamos las tres estadísticas s 1 , s 2 , r mediante las tres ecuaciones ns 1 2 = S ( x 2 ), ns 2 2 = S ( y 2 ), nrs 1 s 2 = S ( xy ); entonces s 1 y s 2 son estimaciones de las desviaciones estándar 1 , y 2 , y r es una estimación de la correlación  . Dicha estimación se denomina coeficiente de correlación , o la correlación del momento del producto , el último término [p. 147] en referencia a la suma de los términos del producto, xy, en la última ecuación. El método de cálculo anterior podría haberse derivado de la consideración de que la correlación de la población es la media geométrica de los dos coeficientes de regresión; para nuestras estimaciones de estas dos regresiones sería

de modo que esté de acuerdo con estas estimaciones para tomar como nuestra estimación de 

que es de hecho la correlación producto momento. Ex. 25. Correlación parental en estatura. - El trabajo numérico requerido para calcular el coeficiente de correlación se muestra a continuación en la Tabla 32. Las primeras ocho columnas no requieren explicación, ya que simplemente repiten el proceso habitual de encontrar la media y la desviación estándar de las dos distribuciones marginales. En realidad, no es necesario encontrar la media, al dividir el total de la tercera columna, 480.5, por 1376, ya que podemos trabajar con los totales no divididos. La corrección por el hecho de que significa nuestro trabajo no es la media real se realiza restando (480,5) 2/1376 en la cuarta columna; una corrección similar aparece al pie de la 8 ªColumna, y al pie de la última columna. La corrección de la suma de productos se realiza restando 4805x2605 / 1376 · Esta corrección de [pág. 148] [tabla] [pág. 149] el término del producto puede ser positivo o negativo; Si las desviaciones totales de las dos variables son de signo opuesto, se debe agregar la corrección. La suma de los cuadrados, con y sin la corrección de Sheppard (1376/12), se muestra por separado; no hay una corrección correspondiente que deba hacerse al término del producto.

La novena columna muestra las desviaciones totales de la altura de la hija para cada una de las 18 columnas en las que se divide la tabla. Cuando los números son pequeños, generalmente se pueden escribir por inspección de la tabla. En el presente caso, donde los números son grandes y las entradas se complican por la división en cuartos, se requiere más cuidado. El total de la columna 9 se verifica con el de la tercera columna. Para que lo haga, debe incluirse la entrada central +15.5, que no contribuye a los productos. Cada entrada en la novena columna se multiplica por la desviación paterna para dar la décima columna. En el presente caso, todas las entradas en la columna 10 son positivas; con frecuencia se producen entradas tanto positivas como negativas, y es conveniente formar una columna separada para cada una. Se proporciona una verificación útil al repetir el trabajo de las dos últimas columnas, intercambiando las variables; Entonces deberíamos encontrar la desviación total de los padres para cada grupo de hijas, y multiplicar por la desviación de las hijas. Los totales no corregidos, 5136.25, entonces deberían estar de acuerdo. Esta verificación es especialmente útil con tablas pequeñas, en las que el trabajo de las dos últimas columnas, llevado a cabo rápidamente, está sujeto a errores. El valor del coeficiente de correlación, utilizando la corrección de Sheppard, se encuentra al dividir 5045.28 [p. 150] por la media geométrica de 9209.0 y 10,392.5; su valor es + .5157 · Si la corrección de Sheppard no se hubiera utilizado, deberíamos haber obtenido +.5097. En este caso, la diferencia no es grande en comparación con los errores del muestreo aleatorio, y los efectos

completos sobre la distribución en muestras aleatorias del uso de la corrección de Sheppard nunca se han examinado por completo, pero puede haber pocas dudas de que se deba usar la corrección de Sheppard, y Que su uso da en general una mejor estimación de la correlación. Por otro lado, la distribución en muestras aleatorias del valor no corregido es más simple y mejor comprendida, por lo que el valor no corregido debe usarse en pruebas de importancia, en las cuales el efecto de la corrección no tiene que ser, por supuesto, ser pasado por alto Por simplicidad, se debe evitar la agrupación gruesa donde se pretenden tales pruebas. El hecho de que con muestras pequeñas la correlación obtenida mediante el uso de la corrección de Sheppard pueda exceder la unidad, ilustra la perturbación introducida en la distribución de muestreo aleatorio. 32. Correlaciones parciales Una gran extensión de la utilidad de la idea de correlación reside en su aplicación a grupos de más de dos variables. En tales casos, donde se conoce la correlación entre cada par de tres variables, es posible eliminar cualquiera de ellas, y así encontrar cuál sería la correlación de las otras dos en una población seleccionada de manera que la tercera variable fuera constante. Ex. 26. Eliminación de la edad en las correlaciones orgánicas [p. 151] con niños en crecimiento. - Por ejemplo, se encontró (datos de Mumford y Young) en un grupo de niños de diferentes edades, que la correlación de la altura de pie con la circunferencia del pecho fue de +.836. Se podría esperar que parte de esta asociación se debiera al crecimiento general con la edad. Sería más conveniente para muchos propósitos conocer la correlación entre las variables para los niños de una edad determinada; pero, de hecho, solo algunos de los niños tendrán exactamente la misma edad, e incluso si hacemos grupos de edad tan amplios como un año, tendremos en cada grupo mucho menos que el número total medido. Para utilizar todo el material, solo necesitamos conocer las correlaciones de la altura de pieCon la edad , y de la circunferencia del pecho con la edad . Estos se dan como .714 y .708. · La fórmula fundamental para calcular los coeficientes de correlación parcial puede escribirse

Aquí las tres variables están numeradas 1, 2 y 3, y deseamos encontrar la correlación entre 1 y 2, cuando se elimina 3; esto se denomina correlación "parcial" entre 1 y 2, y se designa con r 12. 3 , para mostrar que la variable 3 se ha eliminado. Los símbolos r 12 , r 13 , r 23 , indican las correlaciones

encontradas directamente entre cada par de variables; estas correlaciones se distinguen como correlaciones "totales". Al insertar los valores numéricos en la fórmula anterior encontramos r 12. 3 = · .668, que muestra que cuando se elimina la edad, la correlación, aunque todavía considerable, [pág. 152] se ha reducido notablemente. El valor medio dado por los autores mencionados anteriormente para las correlaciones encontradas al agrupar a los niños por años, es .653, no un valor muy diferente. De manera similar, dos o más variables pueden ser eliminadas en sucesión; por lo tanto, con cuatro variables, primero podemos eliminar la variable 4, aplicando tres veces la fórmula anterior para encontrar r 12. 4 , r 13. 4 , y r 23. 4 . Luego aplicando la misma fórmula nuevamente, a estos tres nuevos valores, tenemos

La mano de obra aumenta rápidamente con el número de variables a eliminar. Para eliminar las variables s , el número de operaciones involucradas, cada una de las aplicaciones de la fórmula anterior es 1/6 s ( s +1) ( s +2); para valores de s de 1 a 6, esto da 1, 4, 10, 20, 35, 56 operaciones. Gran parte de este trabajo se puede ahorrar utilizando tablas de [sqrt] 1-r 2 como la publicada por JR Miner. [ 1 ] El significado del coeficiente de correlación debe tenerse en cuenta claramente. El objetivo original de medir la "fortaleza de la herencia" mediante este método se basó claramente en la suposición de que toda la clase de factores que tienden a hacer que los familiares sean iguales, en contraste con la diferencia de personas no relacionadas, pueden agruparse como herencia. El hecho de que esto sea así para todos los propósitos prácticos es, creo, admitido, pero la correlación no nos dice que esto sea así; simplemente [p. 153] nos dice el grado de semejanza en la población real estudiada, entre padre e hija. Nos dice hasta qué punto la altura del padre es información relevante con respecto a la altura de la hija, o, si se interpreta de otra manera, nos dice la importancia relativa de los factores que actúan por igual en las alturas de padre e hija, En comparación con la totalidad de los factores en el trabajo. Si sabemos que B es causada por A, junto con otros factores independientes de A, y que B no tiene influencia sobre A, entonces la correlación entre A y B nos dice cuán importante, en relación con las otras causas en el trabajo, es la influencia de A. Si no tenemos tal conocimiento, la correlación no nos dice si A causa B, o B causa A, o si ambas influencias están actuando, junto con los efectos de causas comunes.

Esto es verdad igualmente de las correlaciones parciales. Si sabemos que un fenómeno A no es en sí mismo influyente para determinar ciertos otros fenómenos B, C, D, ..., pero, por el contrario, probablemente esté directamente influenciado por ellos, entonces el cálculo de las correlaciones parciales A con B, C, D, ... en cada caso, eliminar los valores restantes, formará un análisis muy valioso de la causa de A. Si por el contrario, elegimos un grupo de fenómenos sociales sin conocimiento previo de la causa o ausencia de causa entre ellos, Entonces, el cálculo de los coeficientes de correlación, total o parcial, no nos hará avanzar un paso hacia la evaluación de la importancia de las causas en el trabajo. La correlación entre las medidas A y B, en una [p. 154] escala convencional, la importancia de los factores que (en un balance de acción similar y diferente) actúan por igual en A y B, en comparación con los factores restantes que afectan a A y B de forma independiente. Si eliminamos una tercera variable C, estamos eliminando de la comparación todos los factores que se vuelven inoperantes cuando C es fijo. Si estos son solo los que afectan a A y B de forma independiente, entonces la correlación entre A y B, ya sea positiva o negativa, aumentará numéricamente. Habremos eliminado los factores perturbadores irrelevantes y habremos obtenido, por así decirlo, un experimento mejor controlado. También es posible que debamos eliminar C si estos factores actúan de manera similar, o de manera opuesta en las dos variables correlacionadas; en tal caso, la variabilidad de C en realidad enmascara el efecto que deseamos investigar. En tercer lugar,viceversa. El grado en que C es el canal a través del cual pasa la influencia puede estimarse eliminando C; como se puede demostrar el pequeño efecto de los factores latentes en la herencia humana al encontrar la correlación de abuelo y nieto, eliminando al padre intermedio. En ningún caso, sin embargo, podemos juzgar si es rentable eliminar una cierta variedad a menos que sepamos, o estamos dispuestos a asumir, un esquema cualitativo de causalidad. Para el propósito puramente descriptivo de especificar una población con respecto a un número de variables, las correlaciones parciales o totales son efectivas, y las correlaciones de cualquier tipo pueden ser de interés. Como ilustración podemos considerar en qué sentido [pág. 155] el coeficiente de correlación mide la "fuerza de la herencia", suponiendo que la herencia solo se preocupa por causar el parecido entre los familiares; es decir, que cualquier efecto ambiental se distribuye al azar. En primer lugar, podemos observar que si los efectos ambientales aumentan en magnitud, las correlaciones se reducirían; por lo tanto, la misma población, genéticamente hablando, mostraría correlaciones más altas si se criara en condiciones nutricionales relativamente uniformes, que si las condiciones nutricionales hubieran sido muy diversas; Aunque los procesos genéticos en los dos casos fueron idénticos. En segundo lugar, si los efectos ambientales tuvieran alguna influencia (como en la población estudiada parece no ser el caso), deberíamos

obtener mayores correlaciones de una población mixta de cepas genéticamente muy diversas, que las que deberíamos obtener de una población más uniforme. En tercer lugar, aunque la influencia del padre sobre la hija es en cierto sentido directa, en el sentido de que el padre contribuye a la composición germinal de su hija, no debemos suponer que este hecho es necesariamente la causa de toda la correlación; porque se ha demostrado que el marido y la mujer también muestran un parecido considerable en estatura, y en consecuencia los padres más altos tienden a tener hijas más altas en parte porque eligen, o son elegidas por, esposas más altas. Por esta razón, por ejemplo, debemos esperar encontrar una correlación positiva notable entre los padrastros y las hijastras; también que, cuando se elimina la estatura de la esposa, la correlación parcial entre el padre y la hija será menor que la correlación total. [pag. 156] Estas consideraciones sirven, en cierta medida, para definir el sentido en el que debe interpretarse la frase algo vaga, "fuerza de herencia", al hablar del coeficiente de correlación. Se comprenderá fácilmente que, en casos menos entendidos, las consideraciones análogas pueden ser de cierta importancia y, si es posible, deben considerarse críticamente. 33. Exactitud del coeficiente de correlación Con muestras grandes y correlaciones moderadas o pequeñas, la correlación obtenida de una muestra de n pares de valores se distribuye normalmente sobre el valor verdadero  , con varianza,

por lo tanto, es habitual adjuntar a un valor observado r , un error estándar (1r 2 ) / [srqt] n -1, o (1- r 2 ) / [sqrt] n . Este procedimiento solo es valido bajo las restricciones mencionadas anteriormente; con muestras pequeñas, el valor de r suele ser muy diferente del valor verdadero,  , y del factor 1 -r 2 , correspondientemente en error; además la distribución de restá lejos de ser normal, por lo que las pruebas de significación basadas en la fórmula anterior son a menudo muy engañosas. Dado que es con muestras pequeñas, menos de 100, que el investigador práctico normalmente desea utilizar el coeficiente de correlación, daremos cuenta de métodos más precisos para manejar los resultados. En todos los casos, el procedimiento es similar para las correlaciones totales y parciales. Se pueden tener en cuenta exactamente las diferencias en las distribuciones en los dos casos, [pág. 157] al deducir la unidad del número de muestra para cada variable eliminada; por lo tanto, una correlación parcial

encontrada al eliminar tres variables, y en base a los datos que dan 13 valores para cada variable, se distribuye exactamente igual que una correlación total basada en 10 pares de valores. 34. El significado de una correlación observada Al probar la importancia de una correlación observada, necesitamos calcular la probabilidad de que dicha correlación surja, mediante un muestreo aleatorio, de una población no correlacionada. Si la probabilidad es baja, consideramos que la correlación es significativa. La tabla de t que se proporciona al final del capítulo anterior (pág. 137) puede utilizarse para realizar una prueba exacta. Si n ' es el número de pares de observaciones en que se basa la correlación, y r la correlación obtenida, sin usar la corrección de Sheppard, entonces tomamos

y se puede demostrar que la distribución de t calculada de este modo coincidirá con la que se da en la tabla. Debe observarse que esta prueba, como es obviamente necesario, es idéntica a la que se dio en el último capítulo para probar si el coeficiente de regresión lineal difiere significativamente de cero o no. La TABLA VA (pág. 174) permite que esta prueba se aplique directamente desde el valor de r , para muestras de hasta 100 pares de observaciones. Tomando los cuatro niveles definidos [pág. 158] de importancia, representada por P = · .10, .05, .02 y .01, la tabla muestra para cada valor de n , de 1 a 20, y de allí en intervalos mayores a 100, los valores correspondientes de r . Ex. 27. Significado de un coeficiente de correlación entre las precipitaciones de otoño y la cosecha de trigo . - Durante los veinte años, 1885-1904, se encontró que el rendimiento promedio de trigo del este de Inglaterra estaba correlacionado con la lluvia de otoño; La correlación encontrada fue .629. ¿Es este valor significativo? Lo obtenemos en sucesión.

Para n = 18, esto muestra que P es menor que .01, y la correlación es definitivamente significativa. La misma conclusión puede leerse de inmediato en la Tabla VA ingresada con n = 18. Si hubiéramos aplicado el error estándar,

Nosotros deberíamos tener

un valor mucho mayor que el verdadero, exagerando mucho el significado. Además, suponiendo que r se distribuyera normalmente ( n = [infinito]), el significado del resultado sería exagerado. Esta ilustración será suficiente para mostrar cuán engañoso, en muestras pequeñas, es el uso del error estándar de la [pág. 159] coeficiente de correlación, en el supuesto de que se distribuirá normalmente. Sin este supuesto, el error estándar es sin utilidad. El carácter engañoso de la fórmula aumenta si n ' se sustituye por n'1, como se hace a menudo. A juzgar por la desviación normal de 4.536, deberíamos suponer que la correlación obtenida se superaría en muestras aleatorias de material no correlacionado solo 6 veces en un millón de pruebas. En realidad, se superaría unas 3000 veces en un millón de intentos, o con 500 veces la frecuencia supuesta. Es necesario advertir al alumno enfáticamente contra el carácter engañoso del error estándar del coeficiente de correlación deducido de una muestra

pequeña, porque la utilidad principal del coeficiente de correlación se encuentra en su aplicación a sujetos de los cuales se sabe poco y sobre los cuales los datos son relativamente escasos Con el extenso material apropiado para las investigaciones biométricas, existe poco peligro de que se extraigan conclusiones falsas, mientras que con los pocos casos comparativos en que el experimentador debe buscar orientación, la aplicación no crítica de métodos estandarizados en biometría debe ser tan engañosa como para poner en peligro. El crédito de esta valiosa arma de investigación. No es cierto, como muestra el ejemplo anterior, que las conclusiones válidas no se pueden extraer de muestras pequeñas; Si se utilizan métodos precisos para calcular la probabilidad, por lo tanto, tenemos en cuenta el tamaño de la muestra y, a nuestro juicio, solo debemos influir en el valor de la probabilidad indicada. El gran aumento de la certeza que se acumula al aumentar los datos es [pág. 160] reflejado en el valor de P, si se usan métodos precisos. Ex. 28. Significación de un coeficiente de correlación parcial . - En un grupo de 32 sindicatos de ayuda de la ley deficientes, Yule encontró que el cambio porcentual de 1881 a 1891 en el porcentaje de la población que recibe alivio se correlacionó con el cambio correspondiente en la proporción de los números proporcionados como socorro al aire libre a los números aliviado en el lugar de trabajo, cuando se habían eliminado otras dos variables, a saber, los cambios correspondientes en el porcentaje de la población mayor de 65 años, y en la propia población. La correlación encontrada por Yule después de eliminar las dos variables fue de +.457; tal correlación se denomina correlación parcial del segundo orden. Prueba su significado. Se ha demostrado que la distribución en muestras aleatorias de los coeficientes de correlación parcial puede derivarse de la de los coeficientes de correlación total simplemente deduciendo del número de la muestra, el número de variables eliminadas. Deduciendo 2 de las 32 uniones utilizadas, tenemos 30 como el número efectivo de la muestra; por lo tanto n = 28 Calculando t de r como antes, encontramos t = 2.719, de donde aparece en la tabla que P se encuentra entre .02 y .01. La correlación es por lo tanto significativa. Esto, por supuesto, como en otros casos, está en el supuesto [p. 161] que las variables correlacionadas (pero no necesariamente las eliminadas) se distribuyen normalmente; las variables económicas rara vez dan distribuciones normales, pero el hecho de que estamos aquí tratando con

las tasas de cambio hace que el supuesto de distribución normal sea mucho más plausible. Los valores dados en la Tabla V. (A) para n = 25, y n = 30, dan una indicación suficiente del nivel de significancia alcanzado por esta observación. 35. Correlaciones transformadas Además de probar el significado de una correlación, para determinar si existe alguna evidencia sustancial de asociación, a menudo también se requiere realizar una o más de las siguientes operaciones, para cada una de las cuales se usaría el error estándar en la caso de una cantidad distribuida normalmente. Con las correlaciones derivadas de muestras grandes, el error estándar puede, por lo tanto, ser usado, excepto cuando la correlación se acerca [más o menos] 1; pero con muestras pequeñas como las que ocurren con frecuencia en la práctica, se deben aplicar métodos especiales para obtener resultados confiables. (i.) Para probar si una correlación observada difiere significativamente de un valor teórico dado. (ii.) Para probar si dos correlaciones observadas son significativamente diferentes. (iii.) Si se dispone de varias estimaciones independientes de una correlación, combinarlas en una estimación mejorada. (iv.) Para realizar promedio. [pag. 162]

pruebas

(i.)

y

(ii.)

con

dichos

valores

Los problemas de este tipo pueden resolverse mediante un método análogo al que hemos resuelto el problema de probar la importancia de una correlación observada. En ese caso, a partir del valor dado r, pudimos calcular una cantidad t que se distribuye de una manera conocida, para la cual las tablas estaban disponibles. La transformación llevó exactamente a una distribución que ya había sido estudiada. La transformación que ahora emplearemos conduce aproximadamente a la distribución normal en la que todas las pruebas anteriores se pueden llevar a cabo sin dificultad. Dejar z = ½ {log e (1+ r ) - log e (1- r )} luego, cuando r cambia de 0 a 1, z pasará de 0 a [infinito]. Para valores pequeños de r , z es casi igual a r , pero cuando r se acerca a la unidad, z aumenta sin límite. Para valores negativos de r , z es negativo. La ventaja de esta transformación radica en la distribución de las dos cantidades

en muestras aleatorias. La desviación estándar de r depende del valor verdadero de la correlación,  ; como se ve en la formula

Dado que  es desconocido, tenemos que sustituirlo por el valor observado r , y este valor no será, en muestras pequeñas, una estimación muy precisa de . El error estándar de z es más simple en la forma,

y es prácticamente independiente del valor de la [p. 163] correlación en la población de la que se extrae la muestra. En segundo lugar, la distribución de r es sesgada en muestras pequeñas, e incluso para muestras grandes permanece muy sesgada para correlaciones altas. La distribución de z no es estrictamente normal, pero tiende a normalizarse rápidamente a medida que aumenta la muestra, cualquiera sea el valor de la correlación. Daremos ejemplos para probar el efecto de la salida de la distribución z desde la normalidad. Finalmente, la distribución de r cambia de forma rápidamente a medida que se cambia  ; por consiguiente, no se puede hacer ningún intento, con una esperanza razonable de éxito, de permitir la asimetría de la distribución. Por el contrario, la distribución de z es casi constante en su forma, y la precisión de las pruebas puede mejorarse con pequeñas correcciones de sesgo; Sin embargo, tales correcciones son, en cualquier caso, algo laboriosas, y no nos ocuparemos de ellas. La simple suposición de que z se distribuye normalmente será, en todos los casos ordinarios, lo suficientemente precisa. Estas tres ventajas de la transformación de r a z pueden verse comparando las Figs. 7 y 8. En la Fig. 7 se muestran las distribuciones reales de r , para 8 pares de observaciones, de poblaciones que tienen correlaciones 0 y 0.8; La figura 8 muestra las curvas de distribución correspondientes para z. Las dos curvas en la Fig. 7 son muy diferentes en sus alturas modales; ambas son curvas claramente no normales; en la forma también están fuertemente contrastados, uno simétrico y el otro altamente asimétrico. Por el contrario, en

[p. 164] Fig. 8 las dos curvas no difieren mucho en altura; aunque no son exactamente normales en su forma, se acercan tanto a ella, incluso para una pequeña muestra de 8 pares de observaciones, [pág. 165] que el ojo no puede detectar la diferencia; y esta normalidad aproximada se mantiene hasta los límites extremos  = [más o menos] 1. Una característica adicional es presentada por la Fig. 8; en la distribución para = 0.8, aunque la curva en sí misma es tan simétrica como el ojo puede juzgar, sin embargo, la ordenada de error cero no se coloca en el centro. La figura, de hecho, revela el pequeño sesgo que se introduce en la estimación del coeficiente de correlación como se calcula ordinariamente; trataremos más allá de este sesgo en la siguiente sección, y en el siguiente capítulo trataremos un sesgo similar introducido en el cálculo de las correlaciones intraclase.

Para facilitar la transformación, damos en la Tabla V. (B) (pág. 175) los valores de r correspondientes a los valores de z , que se realizan por intervalos de, 01, de 0 a 3. En la parte anterior de esta tabla será visto que los valores de r y z no difieren mucho; pero con correlaciones más altas, los cambios pequeños en r corresponden a cambios relativamente grandes en z . De hecho, medida en la escala z , una correlación de .99 difiere de una correlación de .95 en más de una correlación .6 supera a cero. Los valores de z dan una imagen más precisa de la importancia relativa de las correlaciones de diferentes tamaños, que los valores de r . Para encontrar el valor de z correspondiente a un valor dado de r , digamos .6, las entradas en la tabla que se encuentran a cada lado de .6, se encuentran primero, donde vemos que z se encuentra entre .69 y .70; el intervalo entre estas entradas se divide proporcionalmente para encontrar la fracción que se agregará a .69. En este caso tenemos 20/64, o .31, de modo que z = .6931. Del mismo modo, en encontrar [p. 166] el valor de r correspondiente a cualquier valor de z , digamos .9218, vemos de inmediato que se encuentra entre .7259 y .7306; la diferencia es 47, y el 18 por ciento de esto da 8 para agregarse al valor anterior, lo que nos da finalmente r = .7267. La misma tabla puede ser utilizada para transformar.r en z , y para revertir el proceso. Ex. 29. Prueba de la normalidad aproximada de la distribución de z . - Para ilustrar el tipo de precisión que se puede obtener mediante el uso de z , tomemos el caso que ya ha sido tratado por un método exacto en Ex. 26. Se ha obtenido una correlación de -629 a partir de 20 pares de observaciones; prueba su importancia. Para r = -.629 tenemos, usando una tabla de logaritmos naturales, o la tabla especial para z , z = .7398. Dividir esto por su error estándar es equivalente a multiplicarlo por [sqrt] 17. · Esto da -3.050, que interpretamos como una desviación normal. De la tabla de desviaciones normales, parece que este valor se superará aproximadamente 23 veces en 10,000 intentos. La frecuencia real, como hemos visto, es aproximadamente 30 veces en 10,000 intentos. El error tiende ligeramente a exagerar el significado del resultado. Ex. 30. · Prueba adicional de la normalidad de la distribución de z . - Se obtuvo una correlación parcial de +.457 de una muestra de 32, después de eliminar dos variables. ¿Esto difiere significativamente de cero? Aquí z = .4935; deduciendo las dos variables eliminadas, el tamaño efectivo de la muestra es 30, y el error estándar de z es 1 / [sqrt] 27; multiplicando z por [sqrt] 27, tenemos como a. Variable normal 2.564. Tabla IV. muestra, como antes, que P está justo por encima de .01. Hay una ligera exageración [p. 167] de importancia, pero es incluso más ligero que en el ejemplo anterior.

Los ejemplos anteriores muestran que la transformación z dará una variable que, para los propósitos más prácticos, se puede considerar que se distribuye normalmente. En el caso de pruebas simples de significación, se prefiere el uso de la tabla de t ; en los siguientes ejemplos, este método no está disponible, y el único método disponible que es tolerablemente preciso y suficientemente rápido para el uso práctico reside en el uso de z . Ex. 31 · Significación de la desviación de la expectativa de un coeficiente de correlación observado . - En una muestra de 25 pares de padres e hijos, se encontró que la correlación era de .60. ¿Es este valor consistente con la opinión de que la verdadera correlación en ese carácter era .46? El primer paso es encontrar la diferencia de los valores correspondientes de z . Esto se muestra a continuación:

Para obtener la desviación normal, multiplicamos por [sqrt] 22 y obtenemos .918. La desviación es menor que la desviación estándar y, por lo tanto, el valor obtenido está bastante de acuerdo con la hipótesis. [pag. 168] Ex. 32. Significación de la diferencia entre dos correlaciones observadas . De las dos muestras, la primera, de 20 pares, da una correlación .6, la segunda, de 25 pares, da una correlación .8: ¿son estos valores significativamente diferentes? En este caso requerimos no solo la diferencia de los valores de z , sino también el error estándar de la diferencia. La varianza de la diferencia es la suma de los recíprocos de 17 y 22; El trabajo se muestra a continuación:

El error estándar que se agrega a la diferencia de los valores de z es la raíz cuadrada de la varianza encontrada en la misma línea. La diferencia no excede el doble del error estándar y, por lo tanto, no puede considerarse significativa. Por lo tanto, no hay pruebas suficientes para concluir que las dos muestras no se tomaron de poblaciones igualmente correlacionadas. Ex. 33 · Combinación de valores a partir de pequeñas muestras. Suponiendo que las dos muestras en el último ejemplo se tomaron de poblaciones igualmente correlacionadas, estime el valor de la correlación. Los dos valores de z deben tener un peso inversamente proporcional a su varianza. Por lo tanto [p. 169] multiplica el primero por 17, el segundo por 22 y suma, dividiendo el total por 39. Esto da un valor estimado de z para la población, y el valor correspondiente de r se puede encontrar en la tabla.

El valor promedio ponderado de z es .9218, al que corresponde el valor r = .7267; el valor de z así obtenido puede considerarse sujeto a errores distribuidos normalmente de muestreo aleatorio con una varianza igual a 1/39 · La precisión es, por lo tanto, equivalente a la de un valor único obtenido de 42 pares de observaciones. Por lo tanto, se pueden aplicar pruebas de importancia a tales valores promediados de z , como a valores individuales.

36. Errores sistemáticos En relación con el promedio de las correlaciones obtenidas a partir de pequeñas muestras, vale la pena considerar los efectos de dos clases de errores sistemáticos que, aunque de poca o ninguna importancia cuando solo hay valores individuales disponibles, adquieren una importancia creciente a medida que aumenta el número de muestras. se promedian El valor de z obtenido de cualquier muestra es una estimación de un valor verdadero, r , perteneciente a la muestra [p. 170] población, así como el valor de r obtenido de una muestra es una estimación del valor de una población,  . Si el método para obtener la correlación estuviera libre de sesgo, los valores de z se distribuirían normalmente alrededor de una media z [barra], que coincidiría en valor con  . En realidad, hay un pequeño sesgo que hace que el valor medio de z sea un poco mayor numéricamente que ; por lo tanto, la correlación, ya sea positiva o negativa, es ligeramente exagerada. Este sesgo puede corregirse efectivamente restando del valor de z la corrección

Para muestras individuales, esta corrección no es importante, ya que es pequeña en comparación con el error estándar de z . Por ejemplo, si n ' = 10, el error estándar de z es .378, mientras que la corrección es  / l8 y no puede exceder de .056. Sin embargo, si z [bar] fuera la media de 1000 valores de z , derivados de muestras de 10, el error estándar de z [bar] es solo .012, y la corrección, que no se altera al tomar la media, puede cobran gran importancia. El segundo tipo de error sistemático es el que se introduce al descuidar la corrección de Sheppard. Al calcular el valor de z , siempre debemos tomar el valor de r encontrado sin usar la corrección de Sheppard, ya que esta última complica la distribución. Pero la omisión de la corrección de Sheppard introduce un error sistemático, en la dirección opuesta a la mencionada anteriormente; y que, aunque normalmente es muy pequeño, aparece tanto en muestras grandes como grandes. En caso de promediar las correlaciones de un número de [pág. 171] muestras pequeñas agrupadas de forma gruesa, el promedio z debe obtenerse de los valores de r encontrados sin la corrección de Sheppard, y para el

resultado se puede aplicar una corrección, que representa el efecto promedio de la corrección de Sheppard. 37. Correlación entre series El caso extremadamente útil en el que se requiere encontrar la correlación entre dos series de cantidades, como las cifras anuales, dispuestas en intervalos iguales de tiempo, es en realidad un caso de correlación parcial, aunque puede tratarse más directamente por El método de ajuste de las líneas de regresión curvadas que se muestra en el último capítulo (pág. 128). Si, por ejemplo, tuviéramos un registro del número de muertes por una determinada enfermedad por años sucesivos, y quisiéramos estudiar si esta mortalidad estaba asociada con condiciones meteorológicas, o la incidencia de alguna otra enfermedad, o la mortalidad de otra edad. Grupo, la dificultad destacada en la aplicación directa del coeficiente de correlación es que la cantidad de muertes consideradas probablemente muestre un cambio progresivo durante el período disponible. Dichos cambios pueden deberse a cambios en la población entre los cuales ocurren las muertes, ya sea la población total de un distrito o la de un grupo de edad en particular, o a cambios en las condiciones sanitarias en que vive la población, o en el Habilidad y disponibilidad de asistencia médica, o cambios en la composición racial o genética de la población. En cualquier caso, generalmente se encuentra que los cambios aún son evidentes [p. 172] cuando el número de muertes se convierte en una tasa de mortalidad en la población existente en cada año, por lo que se elimina uno de los efectos directos del cambio de población. Si el cambio progresivo pudiera representarse efectivamente por una línea recta, sería suficiente considerar el tiempo como una tercera variable y eliminarlo al calcular el coeficiente de correlación parcial correspondiente. Generalmente, sin embargo, el cambio no es tan simple, y necesitaría una expresión que involucre los poderes cuadrado y superior del tiempo de manera adecuada para representarlo. La correlación parcial requerida es una que se encuentra eliminando no solo t , sino t 2 , t 3 , t 4 , ..., considerando estas como variables separadas; porque si hemos eliminado todo esto hasta (digamos) el cuarto grado, hemos eliminado incidentalmente de la correlación cualquier función del tiempo deEl cuarto grado, incluido aquel por el cual el cambio progresivo está mejor representado. Esta correlación parcial se puede calcular directamente a partir de los coeficientes de la función de regresión obtenidos como en el último capítulo (pág. 128). Si y y y ' son las dos cantidades a correlacionar, obtenemos para y los coeficientes A, B, C, ..., y para y' los coeficientes correspondientes

A ', B', C ', ...; la suma de los cuadrados de las desviaciones de las variables de las líneas de regresión curvas se obtiene como antes, de las ecuaciones

[pag. 173] mientras que la suma de los productos se puede obtener de la ecuación similar

siendo la correlación parcial requerida, entonces,

En este proceso, el número de variables eliminadas es igual al grado de t al que se ha llevado la adaptación; Se entenderá que ambas variables deben ajustarse en el mismo grado, incluso si una de ellas es capaz de representarse adecuadamente mediante una curva de menor grado que la otra. [pag. 174]

[pag. 175]

Notas al pie [1] Tablas de [sqrt] 1-r 2 para uso en trigonometría . Johns Hopkins Press, 1922.

correlación

parcial

y

en

CORRELACIONES DE INTRACLASS Y EL ANÁLISIS DE LA VARIANZA 38.Un tipo de datos, que es muy frecuente, puede tratarse con métodos muy similares a los de la tabla de correlación, mientras que al mismo tiempo puede tratarse de manera más útil y precisa mediante el análisis de varianza, es decir, mediante la separación de la varianza atribuible a un grupo de causas, desde la varianza atribuible a otros grupos. En este capítulo, trataremos primero de esos casos, que surgen en la biometría, en los que la analogía con las correlaciones tratadas en el último capítulo puede ser útil, y luego pasar a los casos más generales, prevalentes en los resultados experimentales, en los que el tratamiento La correlación parece artificial, y en la que el análisis de varianza parece arrojar una luz real sobre los problemas que tenemos ante nosotros. Una comparación de los dos métodos de tratamiento ilustra el principio general, que a menudo se pierde de vista, que las pruebas de significación, en la medida en que se llevan a cabo con precisión, están de acuerdo en cualquier proceso estadístico de reducción. [pag. 177] Si tenemos medidas de n ' pares de hermanos, podemos determinar la correlación entre hermanos de dos maneras ligeramente diferentes. En primer lugar, podemos dividir a los hermanos en dos clases, como por ejemplo el hermano mayor y el hermano menor, y encontrar la correlación entre estas dos clases exactamente como lo hacemos con los padres y el niño. Si procedemos de esta manera, hallaremos la media de las medidas de los hermanos mayores y, por separado, la de los hermanos menores. Igualmente, las desviaciones estándar sobre la media se encuentran por separado para las dos clases. La correlación así obtenida, siendo que entre dos clases de mediciones, se denomina por distinción una correlación interclase . Dicho procedimiento sería imperativo si las cantidades a correlacionar fueran, por ejemplo, lasedades , o alguna característica que depende sensiblemente de la edad, en una fecha fija. Por otro lado, es posible que no sepamos, en cada caso, qué medida pertenece al mayor y cuál al hermano menor, o tal distinción puede ser bastante irrelevante para nuestro propósito; en tales casos, es habitual utilizar una media común derivada de todas las mediciones, y una desviación estándar común sobre esa media. Si x 1 , x ' 1 ; x 2 , x ' 2 ; ...; x n ' ; x ' n' son los pares de medidas dados, calculamos

[pag. 178] Cuando se hace esto, r se distingue como una correlación intraclase , ya que hemos tratado a todos los hermanos como pertenecientes a la misma clase y con la misma media y desviación estándar. La correlación intraclase, cuando su uso está justificado por la irrelevancia de cualquier distinción como la edad, puede esperarse que proporcione una estimación más precisa del valor verdadero que cualquiera de las posibles correlaciones interclase derivadas del mismo material, ya que hemos utilizado estimaciones de la media y desviación estándar basadas en 2 n 'en lugar de en n'valores. De hecho, este es el caso; La correlación intraclase no es una estimación equivalente a una correlación interclase, pero es algo más precisa. Sin embargo, como veremos, la distribución de errores se ve afectada también de otras maneras, lo que requiere que la correlación intraclase se trate por separado. La analogía de este tratamiento con la de las correlaciones interclases puede ilustrarse adicionalmente mediante la construcción de lo que se llama una tabla simétrica. En lugar de ingresar cada par de observaciones una vez en dicha tabla de correlación, se ingresa dos veces, las coordenadas de las dos entradas son, por ejemplo, ( x 1 , x ' 1 ) y ( x' 1 , x 1 ). El total de entradas en la tabla será entonces 2 n ' , y las dos distribuciones marginales serán idénticas, cada una representando la distribución de todo el 2 n'observaciones Las ecuaciones anteriores, para calcular la correlación intraclase, tienen la misma relación con la tabla simétrica que las ecuaciones para la correlación interclase con la tabla asimétrica correspondiente con n ' entradas. Aunque la correlación intraclase es algo más precisa, [pág. 179] de ninguna manera es tan precisa como lo es una correlación interclase con 2 n 'Pares de observaciones independientes. El contraste entre los dos tipos de correlación se vuelve más obvio cuando tenemos que tratar no con pares, sino con conjuntos de tres o más mediciones; por ejemplo, si se han medido tres hermanos en cada familia. En tales casos también se puede construir una tabla simétrica. Cada trío de hermanos proporcionará tres pares, cada uno de los cuales dará dos entradas, de modo que cada trío proporcionará 6 entradas en la tabla. Para calcular la correlación de una tabla de este tipo es equivalente a las siguientes ecuaciones:

En muchos casos, el número de observaciones en la misma "fraternidad" o clase es grande, como cuando se estudia el parecido entre las hojas en el mismo árbol al recoger 26 hojas de varios árboles diferentes, o cuando se toman 100 vainas de cada una. Árbol en otro grupo de estudios de correlación. Si k es el número en cada clase, entonces cada conjunto de valores de k proporcionará los valores de k (k -1) para la tabla simétrica, que por lo tanto puede contener un número enorme de entradas y ser muy laborioso de construir. Para evitar esta dificultad, Harris introdujo un método abreviado de cálculo mediante el cual el valor de [p. 180] la correlación dada por la tabla simétrica se puede obtener directamente de dos distribuciones: (i.) La distribución de todo el grupo de kn 'observaciones, de las cuales obtenemos, como arriba, los valores de x [barra] y s ; (ii.) La distribución de los n ' medios de clases. Si x [barra] 1 , x[barra] 2 , ..., x [barra] n representan estos medios derivados de k valores, entonces

es una ecuación a partir de la cual se puede calcular el valor de r , la correlación intraclase derivada de la tabla simétrica. Es instructivo verificar este hecho, para el caso k = 3, derivando de ello la fórmula completa para r dada anteriormente para ese caso. Un hecho sobresaliente surge de la relación anterior; para la suma de un número de cuadrados, y por lo tanto la mano izquierda de esta ecuación, es necesariamente positiva. En consecuencia, r no puede tener un valor negativo menor que -1 / ( k -1) No existe tal limitación para los valores positivos, siendo posibles todos los valores hasta +1. Además, si k , el número en cualquier clase, no es necesariamentemenos que algún valor fijo, la correlación en la población no puede ser negativa en absoluto. Por ejemplo, en juegos de cartas, donde el número de palos se limita a cuatro, la correlación entre el número de cartas en palos diferentes en la misma mano puede tener valores negativos hasta -1/3; pero es probable que no haya nada en la producción de una hoja o un niño que requiera que el número en tal clase sea menor que cualquier número, por grande que sea, y en ausencia de una

restricción tan necesaria no podemos esperar encontrar correlaciones negativas [p . 181] dentro de tales clases. Esto contrasta más claramente con la aparición sin restricciones de valores negativos entre las correlaciones interclases, y es obvio, ya que los límites extremos de variación son diferentes en los dos casos. 39. Errores de muestreo de las correlaciones intraclase. El caso k = 2, que es una correlación interclase estrechamente análoga, puede tratarse mediante la formación empleada previamente, a saber z = 1/2 {log (1+ r ) - log (1- r )}; Luego, z se distribuye casi en una distribución normal, la distribución es totalmente independiente del valor de la correlación  en la población de la cual se extrae la muestra y, por consiguiente , la varianza de z depende solo del tamaño de la muestra. por la formula

La transformación tiene, por lo tanto, las mismas ventajas en este caso que para las correlaciones interclases. Se observará que la precisión ligeramente mayor de la correlación intraclase, en comparación con una correlación interclase basada en el mismo número de pares, se indica mediante el uso de n '-3/2 en lugar de n' -3. La ventaja es, por lo tanto, equivalente a 11/2 pares adicionales de observaciones. Una segunda diferencia radica en el sesgo al que están sujetas dichas estimaciones. Para interclases [p. 182] correlaciones el valor encontrado en las muestras, ya sea positivo o negativo, se exagera en la medida en que requiere una corrección,

Para ser aplicado al valor promedio de z. Con las correlaciones intraclase, el sesgo siempre está en la dirección negativa y es independiente de  ; la

corrección necesaria en estos casos es

o

aproximadamente. Este sesgo es característico de las correlaciones intraclase para todos los valores de k , y se debe al hecho de que la tabla simétrica no nos proporciona la mejor estimación de la correlación. El efecto de la transformación sobre las curvas de error puede verse comparando las Figs. 9 y 10. La Fig. 9 muestra las curvas de error reales de rderivadas de una tabla simétrica formada por 8 pares de observaciones, extraídas de poblaciones que tienen correlación o y 0 · 8. La figura 10 muestra las curvas de error correspondientes para la distribución de z. Las tres principales ventajas señaladas en las Figs. 7 y 8 son igualmente visibles en la comparación de las Figs. 9 y 10. Las curvas de varianza muy desigual son reemplazadas por curvas de varianza igual, curvas de sesgo por curvas aproximadamente normales, curvas de forma diferente por curvas de forma similar. En un aspecto, el efecto de la transformación es más perfecto para las clases intraclase que para las correlaciones interclases, ya que, en ambos casos, las curvas no son precisamente [pág. 183] normal, con las correlaciones intraclase son completamente constantes en varianza y forma, mientras que con las correlaciones entre clases existe una ligera variación en ambos [p. 184], ya que la correlación en la población es variada. La Fig. 10 muestra claramente el efecto del sesgo introducido al estimar la correlación de la tabla simétrica; el sesgoz .

Ex. 34 · Exactitud de una correlación intraclase observada . - Una correlación intraclase .6000 se deriva de 13 pares de observaciones: estime la correlación en la población de la que se extrajo y encuentre los límites dentro de los cuales probablemente se encuentre. Colocando los valores de r y z en columnas paralelas, tenemos

El cálculo se lleva a cabo en la columna z , y los valores correspondientes de r se encuentran como se requiere en la Tabla V. (B) (pág. 175). El valor de rse obtiene de la tabla simétrica y se calcula el valor correspondiente de z. Estos valores sufren de un pequeño sesgo negativo, y esto se elimina agregando a z la corrección; la estimación no desviada de z es, por lo tanto, .7330, y el valor correspondiente de r , .6249, es una estimación no sesgada, basada en la muestra, de la correlación en la población de la cual la muestra [p. 185] fue dibujado. Para encontrar los límites dentro de los cuales se puede esperar que se encuentre esta correlación, el error estándar de zse calcula, y el doble de este valor se agrega y se resta del valor estimado para obtener los valores de zen los límites superior e inferior. De estos obtenemos los valores correspondientes de r . La correlación observada debe considerarse significativa en este caso, ya que el límite inferior es positivo; rara vez nos equivocaremos al llegar a la conclusión de que excede .14 y es menor que .87 · Los errores de muestreo de los casos en que k excede de 2 pueden tratarse más satisfactoriamente desde el punto de vista del análisis de varianza; pero para aquellos casos en los que se prefiere pensar en términos de correlación, es posible dar una transformación análoga adecuada para todos los valores de k. Dejar

una transformación, que se reduce a la forma utilizada anteriormente cuando k = 2. Luego, en muestras aleatorias de conjuntos de observaciones k , la distribución de errores en z es independiente del valor verdadero y se aproxima a la normalidad a medida que n ' aumenta, aunque no tan

rápidamente como cuando k = 2. La varianza de z puede tomarse, cuando n ' es suficientemente grande, para ser aproximadamente

Para encontrar r para un valor dado de z en esta transformación, la Tabla V (B) todavía puede utilizarse, como en el siguiente ejemplo. [pag. 186] Ex. 35 · Uso extendido de la Tabla V. (B) . - Encuentra el valor de r correspondiente a z = +1.0605, cuando k = 100. Primero deduzca del valor dado de z lamitad del logaritmo natural de ( k -1); ingrese la diferencia como " z " en la tabla y multiplique el valor correspondiente de " r " por k ; sume k -2 y divida por 2 ( k -1). El trabajo numérico se muestra a continuación:

Ex. 36. Significación de la correlación intraclase de muestras grandes . - Se encontró una correlación +.0684 entre los "óvulos que fallan" en las diferentes vainas del mismo árbol de Cercis Canadensis. Se tomaron 100 vainas de cada uno de los 60 árboles (datos de Harris). ¿Es esta una correlación significativa? Como muestra el último ejemplo, z = I.0605; el error estándar de z es .0933 · El valor de z supera su error estándar más de 11 veces, y la correlación es sin duda significativa. Cuando n ' es lo suficientemente grande, hemos visto que, sujeto a limitaciones algo severas, es posible suponer que la correlación interclase se distribuye normalmente en muestras aleatorias con error estándar

[pag. 187] La fórmula correspondiente para las correlaciones intraclase, utilizando k en una clase, es

La utilidad de esta fórmula está sujeta a limitaciones aún más drásticas que la de la correlación interclase, ya que n ' es más pequeña en el primer caso. Además, las regiones para las que la fórmula es inaplicable, incluso cuando n ' es grande, ahora no están en la vecindad de [más o menos] 1, sino

en la vecindad de +1 y cuando k es grande, este último se aproxima a cero, por lo que una distribución muy sesgada para rSe encuentra no solo con altas correlaciones sino también con muy bajas. Por lo tanto, no suele ser una fórmula precisa para usar en pruebas de importancia. Esta anormalidad en la vecindad del cero es particularmente notable, ya que solo en esta vecindad se puede ganar mucho al tomar valores altos de k . Cerca de cero, como muestra la fórmula anterior, la precisión de una correlación intraclase es con muestras grandes equivalentes a la de 1/2 k ( k -1) n ' pares de observaciones independientes; Lo que da a los altos valores de k una enorme ventaja en precisión. Para las correlaciones cerca de 0,5, por grande k hacerse, la precisión no es mayor que la que puede obtenerse a partir de 9 n'/2 pares; mientras que cerca de +1 tiende a no ser más preciso que los n ' pares. [pag. 188] 40. La correlación intraclase como un ejemplo del análisis de varianza Se introduce una gran simplificación en las preguntas relacionadas con la correlación intraclase cuando reconocemos que en tales casos, la correlación simplemente mide la importancia relativa de dos grupos de factores que causan variación. Hemos visto que en el cálculo práctico de la correlación intraclase solo obtenemos las dos cantidades necesarias kn's 2 y n's 2 {1+ ( k 1 ) r }, al compararlas con las dos cantidades

de los cuales el primero es la suma de los cuadrados ( kn ' en número) de las desviaciones de todas las observaciones de su media general, y el segundo es k veces la suma de los cuadrados de las n' desviaciones de la media de cada clase De la media general. Ahora se puede demostrar fácilmente que

en el que el último término es la suma de los cuadrados de las desviaciones de cada medida individual de la media de la clase a la que pertenece. La siguiente tabla resume estas relaciones al mostrar el número de grados de libertad involucrados en cada caso y, en la última columna, la interpretación aplicada a cada expresión en el cálculo de una correlación intraclase que corresponde al valor obtenido de una tabla simétrica. [pag. 189]

Ahora se observará que z de la sección anterior es, aparte de una constante, la mitad de la diferencia de los logaritmos de las dos partes en las que se ha analizado la suma de los cuadrados. El hecho de que la forma de la distribución de z en muestras aleatorias sea independiente de la correlación de la población muestreada es, por lo tanto, una consecuencia del hecho de que las desviaciones de las observaciones individuales de los medios de sus clases son independientes.de las desviaciones de esos medios de la media general. Los datos nos proporcionan estimaciones independientes de dos variaciones; si estas varianzas son iguales, la correlación es cero; Si nuestras estimaciones no difieren significativamente, la correlación es insignificante. Sin embargo, si son significativamente diferentes, podríamos, si elegimos, expresar el hecho en términos de una correlación. La interpretación de tal desigualdad de varianza en términos de una correlación se puede aclarar de la siguiente manera, mediante un método que

también sirve para demostrar que la interpretación hecha por el uso de la tabla simétrica es [pág. 190] ligeramente defectuoso. Deje que una cantidad se componga de dos partes, cada una distribuida normalmente e independientemente; deja que la varianza de la primera parte sea A, y la de la segunda parte, B; entonces es fácil ver que la varianza de la cantidad total es A + B. Considere una muestra de n ' valores de la primera parte, y a cada una de ellas agregue una muestra de k valores de la segunda parte, tomando una nueva muestra de k en cada caso. Entonces tenemos n ' clásicos de valores con ken cada clase En la población infinita de la cual se extraen, la correlación entre pares de números de la misma clase será

De tal conjunto de valores de kn ' podemos hacer estimaciones de los valores de A y B, o en otras palabras, podemos analizar la varianza en las porciones contribuidas por las dos causas; la correlación intraclase será simplemente la fracción de la varianza total debida a la causa que tienen en común las observaciones en la misma clase. El valor de B puede estimarse directamente, ya que la variación dentro de cada clase se debe únicamente a esta causa, por lo tanto

La media de las observaciones en cualquier clase se compone de dos partes, la primera parte con varianza A y una segunda parte, que es la media de los valores k de las segundas partes de los valores individuales, y por lo tanto tiene una varianza B / k ; en consecuencia de lo observado [p. 191] variación de los medios de las clases, tenemos

Por lo tanto, la Tabla 38 se puede reescribir, escribiendo en la última columna s 2 para A + B, yr para la estimación no correlacionada de la correlación.

Comparando la última columna con la de la Tabla 38, es evidente que la diferencia surge únicamente de poner n ' -1 en lugar de n' en la segunda línea; la relación entre las sumas de cuadrados se altera en la relación n ' : ( n' -1), que elimina con precisión el sesgo negativo observado en z derivado del método anterior. El error de ese método consistió en suponer que la varianza total derivada de n ' conjuntos de individuos relacionados podría estimarse con precisión comparando la suma de los cuadrados de todos los individuos de su media, con n's 2 k ; este error no es importante cuando n ' es grande, como suele ser cuandok = 2, pero con valores más altos de k, los datos pueden ser de gran valor incluso cuando n ' es muy pequeño, y en tales casos surgen discrepancias serias del uso de los valores no corregidos. [pag. 192] La prueba directa de la importancia de una correlación intraclase puede aplicarse a una tabla de este tipo del análisis de varianza sin calcular realmente r . Si no hay correlación, entonces A no es significativamente diferente de cero; no hay diferencia entre las varias clases que no se tienen en cuenta, como un efecto de muestreo aleatorio de la diferencia dentro de cada clase. De hecho, todo el grupo de observaciones es un grupo homogéneo con varianza igual a B. 41. Prueba de significación de la diferencia de varianza. La prueba de significación de las correlaciones intraclase es, por lo tanto, simplemente un ejemplo de la clase mucho más amplia de pruebas de significación que surgen en el análisis de la varianza. Todas estas pruebas se pueden reducir al único problema de comprobar si una estimación de varianza derivada de n 1 grados de libertad es significativamente mayor que una segunda estimación derivada de n 2 grados de libertad. Este problema se reduce a su forma más simple calculando z igual a la mitad de la diferencia de la naturallogaritmos de las estimaciones de la varianza, o de la diferencia de los logaritmos de las desviaciones estándar correspondientes. Entonces, si P es la probabilidad de exceder este valor por casualidad, es posible calcular el valor de z que corresponden a diferentes valores de p, n 1 , y n 2 .

Una tabla completa de este tipo, que incluya tres variables, sería muy extensa; por lo tanto, solo proporcionamos una pequeña tabla para P = · .05 y valores seleccionados de n 1 y n 2 , que serán de ayuda inmediata en la práctica [pág. 193] problemas, pero podría amplificarse con ventaja (Tabla VI., P. 210). Daremos varios ejemplos del uso de esta tabla, cuando tanto n 1 como n 2 son grandes, y también para valores moderados cuando son iguales o casi iguales, la distribución de z es suficientemente normal para que se pueda hacer un uso efectivo de Su desviación estándar, que puede estar escrita.

Esto incluye el caso de la correlación intraclase, cuando k = 2, porque si tenemos n ' pares de valores, la variación entre clases se basa en n' -1 grados de libertad, y eso dentro de las clases se basa en n ' grados de libertad, para que n 1 = n ' -1, n 2 = n' , y para valores moderadamente grandes de n ' podemos tomar z para que se distribuya normalmente como se explicó anteriormente. Cuando k excede de 2, tenemos n 1 = n ' -1, n 2 = ( k -1) n' ; estos pueden ser muy desiguales, por lo que, a menos que n ' sea bastante grande, la distribución de z será perceptiblemente asimétrica y la desviación estándar no proporcionará una prueba de significación satisfactoria. Ex. 37 · Diferencia de sexo en la varianza de la estatura . - A partir de 1164 mediciones de varones, se encontró que la suma de los cuadrados de las desviaciones era 8493; mientras que a partir de 1456 mediciones de hembras fue de 9747: ¿existe una diferencia significativa en la variabilidad absoluta? [pag. 194]

Los cuadrados medios se calculan a partir de las sumas de cuadrados dividiendo por los grados de libertad; la diferencia de los logaritmos es .0864, de modo que z es .0432. · La varianza de z es la mitad de la suma de la última columna, de modo que la desviación estándar de z es .02781. La diferencia en la variabilidad, aunque sugiere un efecto real, no puede considerarse significativa en estos datos. Ex. 38. Homogeneidad de pequeñas muestras . - En un experimento sobre la precisión del recuento de bacterias del suelo, una muestra de suelo se dividió en cuatro muestras paralelas, y de cada una de estas, después de la dilución, se inocularon siete placas. El número de colonias en cada placa se muestra a continuación. ¿Los resultados de las cuatro muestras coinciden dentro de los límites del muestreo aleatorio? En otras palabras, ¿el conjunto completo de 28 valores es homogéneo o existe una correlación intraclase perceptible? [pag. 195]

De estos valores obtenemos

La variación dentro de las clases es en realidad la mayor, de modo que si se indica alguna correlación, debe ser negativa. Los números de grados de libertad son pequeños y desiguales, por lo que usaremos la Tabla VI. Esto se ingresa con n 1 igual a los grados de libertad correspondientes a la varianza mayor, en este caso 24; n 2 = 3. La tabla muestra que P = .05 para z = 1.078I, por lo que la diferencia observada, .3224, es realmente muy [pág. 196] moderado, y bastante insignificante. Todo el conjunto de 28 valores parece ser homogéneo con una variación de alrededor de 57.07. Debe notarse que si solo hubieran estado presentes dos clases, la prueba en el ejemplo anterior hubiera sido equivalente a probar la importancia de t , como se explica en el Capítulo V. De hecho, los valores para n 1 = 1 en la tabla de z (p. 210) no son más que los logaritmos de los valores para P = .05 en la tabla de t (p. 137) · De manera similar, los valores para n 2 = 1 en la Tabla VI. son los logaritmos de los recíprocos de los valores, que aparecerían en la Tabla IV. bajo P = .95 · El presente método puede considerarse como una extensión del método del Capítulo V., apropiado cuando deseamos comparar más de dos medios. Igualmente, puede considerarse como una extensión de los métodos del Capítulo IV.n 2 si infinito z sería igual a 1/2 log 2 / n de la Tabla III. para P = .05, y si n 1 fuera infinito sería igual a -1/2 log 2 / n para P = .95. Por lo tanto, las pruebas de bondad de ajuste, en las cuales la varianza muestral no es calculable a priori , pero pueden estimarse a partir de los datos, se pueden hacer por medio de la Tabla VI. Ex. 39 · Comparación de correlaciones intraclase . - Se proporcionan las siguientes correlaciones (datos de Harris) para el número de óvulos en diferentes vainas del mismo árbol, y se cuentan 100 vainas en cada árbol ( Cercis Canadensis ): Tierras Altas de Meramec

60 arboles

+.3527

Lawrence, Kansas

22 árboles

+.3999

[pag. 197] ¿Es la correlación en Lawrence significativamente mayor que la de las tierras altas de Meramec? Primero encontramos z en cada caso a partir de la fórmula. z = 1/2 {log (1 + 99 r ) - log (1- r )} (p. 185); esto da z = 2.0081 para Meramec y 2.1071 para Lawrence; ya que estos se obtuvieron por el método de la tabla simétrica, insertaremos la pequeña corrección 1 / (2 n ' -1) y obtendremos 2.0165 para Meramec, y 2.1506 para Lawrence, como los valores que se habrían obtenido por el método del Análisis de variación. Para determinar a qué errores están sujetas estas determinaciones, considere primero el caso de Lawrence, que al estar basado en solo 22 árboles está sujeto a los errores más grandes. Tenemos n 1 = 21, n 2 = 22x99 = 2178 · Estos valores no se dan en la tabla, pero a partir del valor de n 1 = 24, n 2 = [infinito], parece que se producirán errores positivos superiores a .2085 en Más del 5 por ciento de las muestras. Solo este hecho resuelve la cuestión de la importancia, ya que el valor para Lawrence solo supera al obtenido para Meramec en .1341. · En otros casos puede requerirse mayor precisión. En la tabla para z, los cinco valores 6, 8, 12, 24, [infinito] se eligen para estar en progresión armónica, y así facilitar la interpolación, si usamos 1 / n como variable. Si tenemos que interpolar tanto para n 1 como para n 2 , procedemos en tres pasos. Primero encontramos los valores de z para n 1 = 12, n 2 = 2178, y para n 1 = 24, n 2 = 2178, y de estos obtenemos el valor requerido para n 1 = 21, n 2 = 2178. [pag. 198] Para encontrar el valor para n 1 = 12, n 2 = 2178, observe que

para n 2 = [infinito] tenemos .2804, y para n 2 = 24 un valor mayor en .1100, de modo que .2804 + .0110x.1100 = 2816 da el valor aproximado para n 2 = 2178. Del mismo modo para n 1 = 24 .2085 + .0110x.1340 = .2100.

De estos dos valores debemos encontrar el valor para n 1 = 21; ahora

de modo que debemos agregar al valor para n 1 = 24 una séptima parte de su diferencia del valor para n 1 = 2; esto da

que es aproximadamente la desviación positiva que se superaría por casualidad en el 5% de las muestras aleatorias. Así como hemos encontrado el punto del 5 por ciento para las desviaciones positivas, el punto del 5 por ciento para las desviaciones negativas se puede encontrar al intercambiar n 1 y n 2 ; esto resulta ser .2957 · Si asumimos que nuestro valor observado no transgrede el punto del 5 por ciento en ninguna de las desviaciones, es decir, que se encuentra en las nueve décimas partes de su distribución de frecuencias, podemos decir que el valor de z para Lawrence, Kansas, se encuentra entre 1.9304 y 2.4463; estos valores se encuentran [p. 199] respectivamente, restando las desviaciones positivas y agregando la desviación negativa al valor observado. El hecho de que las dos desviaciones son claramente desiguales, como suele ser el caso cuando n 1 y n 2 son desiguales y no ambos grandes, muestra que tal caso no puede tratarse con precisión por medio de un error probable. Se pueden obtener valores algo más precisos que los anteriores mediante métodos mejorados de interpolación; sin embargo, el método anterior será suficiente para todos los requisitos ordinarios, excepto en la esquina de la tabla donde n 1 y n 2 exceden de 24. Para los casos que se encuentran en esta región, la siguiente fórmula proporciona el punto del 5 por ciento dentro de uno. centésima parte de su valor. Si h es la media armónica de n 1 y n 2 , entonces

entonces

Apliquemos esta fórmula a los valores anteriores Highlands, n 1 = 59, n 2 = 5940; El cálculo es el siguiente:

para Meramec

El punto del 5 por ciento para las desviaciones positivas es, por lo tanto, de .1397 y para las desviaciones negativas de .1660; [pag. 200] con los mismos estándares que antes, por lo tanto, podemos decir que el valor para Meramec se encuentra entre 1.8768 y 2.1825; la gran superposición de este rango con la de Lawrence muestra que las correlaciones encontradas en los dos distritos no son significativamente diferentes. 42. Análisis de la varianza en más de dos porciones A menudo es necesario dividir la varianza total en más de dos porciones; A veces sucede, tanto en datos experimentales como observacionales, que las observaciones pueden agruparse en clases de más de una manera; cada observación pertenece a una clase de tipo A y a una clase diferente de tipo B. En tal caso, podemos encontrar por separado la varianza entre clases de tipo A y entre clases de tipo B; el balance de la varianza total puede representar solo la varianza dentro de cada subclase, o puede haber además una interacción de causas, de modo que un cambio en la clase de tipo A no tenga el mismo efecto en todas las clases B. Si las observaciones no ocurren individualmente en las subclases, la varianza dentro de las subclases se puede determinar de forma independiente y se puede verificar la presencia o ausencia de interacción. A veces también, por ejemplo, Ex. 40. Variación diurna y anual de la frecuencia de lluvia . - Las siguientes frecuencias de lluvia a diferentes horas en diferentes meses se observaron en Richmond durante 10 años (citado de Shaw, con dos correcciones en los totales). [pag. 201]

;[pag. 202] La varianza se puede analizar de la siguiente manera:

La media de los 288 valores dados en los datos es 24.7, y si los datos originales hubieran representado posibilidades de muestreo independientes, deberíamos esperar que el residuo cuadrado medio sea casi tan grande como este o mayor, si la distribución de lluvia durante el día difiere en diferentes meses Claramente, la varianza residual es subnormal, y la razón de esto es obvia cuando consideramos que la probabilidad de que llueva en la segunda hora no es independiente de si está lloviendo o no en la primera hora del mismo día.Por lo tanto, probablemente se habrá ingresado a cada ducha varias veces, y los valores para las horas vecinas en el mismo mes se relacionarán positivamente. Gran parte de la variación aleatoria se ha incluido en la asignada a los meses, y probablemente explica la secuencia muy irregular de los totales mensuales. Sin embargo, la variación entre las 24 horas es bastante mayor que la variación residual, y esto muestra que las horas de lluvia han sido en general similares en los diferentes meses, de modo que las

cifras indican claramente la influencia de la hora del día. [pag. 203] A partir de los datos, no es posible estimar la influencia de la época del año o discutir si el efecto de la hora del día es el mismo en todos los meses. Ex. 41 · Análisis de variación en ensayos de campo experimental . - La tabla en la página siguiente muestra el rendimiento en libras por planta en un experimento con papas (datos de Rothamsted). Una parcela de tierra, la totalidad de la cual había recibido un apósito de estiércol, se dividió en 36 parches, en los cuales se cultivaron 12 variedades, cada una con 3 parches dispersos en el área. Cada parche se dividió en tres líneas, una de las cuales recibió, además del estiércol, solo un apósito basal, que no contenía potasa, mientras que las otras dos recibieron aderezos adicionales de sulfato y cloruro de potasa, respectivamente. De datos de este tipo se puede derivar una variedad de información. Los rendimientos totales de los 36 parches nos dan 35 grados de libertad, de los cuales 11 representan diferencias entre las 12 variedades y 24 representan las diferencias entre los diferentes parches que crecen en la misma variedad. Al comparar la varianza en estas dos clases, podemos probar la importancia de las diferencias de variedad en el rendimiento para el suelo y el clima del experimento. Los 72 grados adicionales de libertad otorgados por los rendimientos de las filas separadas constan de 2 debido al tratamiento manurial, que podemos subdividir en uno que representa las diferencias debidas a un apósito de potasa frente al apósito basal, y un segundo que representa la diferencia manurial entre el sulfato y el cloruro; y 70 más que representan las diferencias observadas en la respuesta manurial en la [pág. 204] [Tabla 46] [p 205] diferentes parches. Estos últimos a su vez pueden dividirse en 22 que representan la diferencia en la respuesta manurial de las diferentes variedades, y 48 que representan las diferencias en la respuesta manurial en diferentes parches que crecen en la misma variedad. Para probar la importancia de los efectos de manura, podemos comparar la varianza en cada uno de los dos grados de libertad de manura con la de los 70 restantes; para probar el significado de las diferencias en la respuesta varietal al estiércol, comparamos la varianza en los 22 grados de libertad con la del 48; mientras que para probar la importancia de la diferencia en el rendimiento de la misma variedad en diferentes parches,

Para cada variedad se requerirá el rendimiento total para la totalidad de cada parche, el rendimiento total para los 3 parches y el rendimiento total para cada estiércol; también necesitaremos el rendimiento total de cada abono para el agregado de las variedades de It; estos valores se dan a continuación (Tabla 47) · [pág. 206]

[pag. 207]

La suma de los cuadrados de las desviaciones de todos los 108 valores de su media es 71.699; dividido, según los parches, en 36 clases de 3, el valor para los 36 parches es 61.078; dividiendo esto nuevamente según las variedades en 12 clases de 3, el valor para las 12 variedades es 43.638 · Podemos expresar los hechos de la siguiente manera:

El valor de z , que se encuentra como la diferencia de los logaritmos en la última columna, es casi 85, o más del doble del valor del 5%; El efecto de la variedad es por lo tanto muy significativo. De la variación dentro de los parches, la porción atribuible a las dos diferencias de tratamiento manurial puede derivarse de los totales para los tres tratamientos manuriales. La suma de los cuadrados de las tres desviaciones, dividida por 36, es .3495; de esto, el cuadrado de la diferencia de los totales para los dos apósitos de potasa, dividido por 72, contribuye .0584, mientras que el cuadrado de la diferencia entre su media y el total para el aderezo basal, dividido por 54, da el resto,. 2913. Es posible, sin embargo, que la [p. 208] el efecto total de los apósitos puede no aparecer en estas figuras, ya que si las diferentes variedades hubieran respondido de diferentes maneras, o en diferentes grados, a los apósitos, el efecto total no aparecería en los totales. Los setenta grados de libertad restantes no serían homogéneos. Los 36 valores,de variedad, 2 las diferencias de abono y las 22 restantes muestran las diferencias en la respuesta de las diferentes variedades. El análisis de este grupo se muestra a continuación:

Para probar el significado de la variación observada en el rendimiento de los parches que tienen la misma variedad, podemos comparar el valor .727 encontrado arriba de 24 grados de libertad, con .1683 recién encontrado de 48 grados. El valor de z , la mitad de la diferencia de los logaritmos, es .7316, mientras que el punto del 5 por ciento de la tabla de z es aproximadamente .28. La evidencia de la fertilidad desigual de los diferentes parches es, por lo tanto, inconfundible. [pag. 209] Como siempre se encuentra en pruebas de campo cuidadosas, las irregularidades locales en la naturaleza o profundidad del suelo afectan materialmente los rendimientos. En este caso, la irregularidad del suelo quizás se combinó con la calidad o cantidad desigual del estiércol suministrado. No hay signos de respuesta diferencial entre las variedades; de hecho, la diferencia entre parches con diferentes variedades es menor que la encontrada para parches con la misma variedad. La diferencia entre los valores no es significativa; z = .2623, mientras que el punto del 5 por ciento es aproximadamente .33 · Finalmente, el efecto de los apósitos maniales probados es pequeño; la diferencia debida a la potasa es de hecho mayor que el valor para los efectos diferenciales, que ahora podemos llamar fluctuaciones aleatorias, pero z es solo .3427, y requeriría que aproximadamente .7 sea significativo. Sin una respuesta total, es de esperarse, aunque no como una consecuencia necesaria, que los efectos diferenciales sean insignificantes. Evidentemente, las plantas con el aderezo basal tenían toda la potasa necesaria y, además, no se produjo ningún efecto aparente en el rendimiento por la diferencia entre los iones cloruro y sulfato. [pag. 210]

MÁS APLICACIONES DEL ANÁLISIS DE LA VARIANZA 43. En este capítulo daremos ejemplos de las aplicaciones adicionales del método del análisis de varianza desarrollado en el último capítulo en relación con la teoría de las correlaciones intraclase. Es imposible en un breve espacio dar ejemplos de todas las diferentes aplicaciones que se pueden hacer con este método; por lo tanto, nos limitaremos a aquellos de la importancia práctica más inmediata, prestando especial atención a aquellos casos en los que se han utilizado en gran medida métodos erróneos, o donde hasta ahora no se ha presentado ningún método alternativo de ataque. 44. Forma física de las fórmulas de regresión

No existe una necesidad más apremiante en relación con el examen de los resultados experimentales que probar si un conjunto de datos dado está o no de acuerdo con alguna hipótesis sugerida. Los capítulos anteriores se han referido en gran medida a tales pruebas apropiadas para hipótesis que involucran frecuencia de ocurrencia, como la hipótesis mendeliana de [p. 212] genes de segregación, o la hipótesis de la disposición lineal en grupos de enlace, o las hipótesis más generales de la independencia o correlación de variables. Más frecuentemente, sin embargo, se desea probar hipótesis que involucren, en lenguaje estadístico, la forma de líneas de regresión. Podemos desear probar, por ejemplo, si el crecimiento de un animal, planta o población sigue una ley asignada, si por ejemplo aumenta con el tiempo en progresión aritmética o geométrica, o según la llamada ley de aumento "autocatalítica"; es posible que deseamos probar si con el aumento de las aplicaciones del crecimiento de plantas de estiércol aumenta de acuerdo con las leyes que se han presentado, o si, de hecho, los datos en cuestión son incompatibles con tal suposición. Tales preguntas surgen no solo en pruebas cruciales de leyes ampliamente reconocidas, sino en todos los casos en que una relación, por empírica que sea, se considera descriptiva de los datos, y son de valor no solo en la etapa final del establecimiento de las leyes de la naturaleza. pero en las primeras etapas de probar la eficiencia de una técnica. Los métodos que presentaremos para probar la bondad de ajuste de las líneas de regresión están dirigidos no solo a simplificar los cálculos al reducirlos a una forma estándar, y así hacerlo es posible que deseamos probar si con el aumento de las aplicaciones del crecimiento de plantas de estiércol aumenta de acuerdo con las leyes que se han presentado, o si, de hecho, los datos en cuestión son incompatibles con tal suposición. Tales preguntas surgen no solo en pruebas cruciales de leyes ampliamente reconocidas, sino en todos los casos en que una relación, por empírica que sea, se considera descriptiva de los datos, y son de valor no solo en la etapa final del establecimiento de las leyes de la naturaleza. pero en las primeras etapas de probar la eficiencia de una técnica. Los métodos que presentaremos para probar la bondad de ajuste de las líneas de regresión están dirigidos no solo a simplificar los cálculos al reducirlos a una forma estándar, y así hacerlo es posible que deseamos probar si con el aumento de las aplicaciones del crecimiento de plantas de estiércol aumenta de acuerdo con las leyes que se han presentado, o si, de hecho, los datos en cuestión son incompatibles con tal suposición. Tales preguntas surgen no solo en pruebas cruciales de leyes ampliamente reconocidas, sino en todos los casos en que una relación, por empírica que sea, se considera descriptiva de los datos, y son de valor no solo en la etapa final del establecimiento de las leyes de la naturaleza. pero en las primeras etapas de probar la eficiencia de una técnica. Los métodos que presentaremos para probar la bondad de ajuste de las líneas de regresión están dirigidos no solo a simplificar los cálculos al reducirlos a una forma estándar, y así hacerlo o si, de hecho, los datos en cuestión son inconsistentes con tal suposición. Tales preguntas surgen no solo en pruebas cruciales de leyes

ampliamente reconocidas, sino en todos los casos en que una relación, por empírica que sea, se considera descriptiva de los datos, y son de valor no solo en la etapa final del establecimiento de las leyes de la naturaleza. pero en las primeras etapas de probar la eficiencia de una técnica. Los métodos que presentaremos para probar la bondad de ajuste de las líneas de regresión están dirigidos no solo a simplificar los cálculos al reducirlos a una forma estándar, y así hacerlo o si, de hecho, los datos en cuestión son inconsistentes con tal suposición. Tales preguntas surgen no solo en pruebas cruciales de leyes ampliamente reconocidas, sino en todos los casos en que una relación, por empírica que sea, se considera descriptiva de los datos, y son de valor no solo en la etapa final del establecimiento de las leyes de la naturaleza. pero en las primeras etapas de probar la eficiencia de una técnica. Los métodos que presentaremos para probar la bondad de ajuste de las líneas de regresión están dirigidos no solo a simplificar los cálculos al reducirlos a una forma estándar, y así hacerlo y son de valor no solo en la etapa final de establecer las leyes de la naturaleza, sino en las primeras etapas de prueba de la eficiencia de una técnica. Los métodos que presentaremos para probar la bondad de ajuste de las líneas de regresión están dirigidos no solo a simplificar los cálculos al reducirlos a una forma estándar, y así hacerlo y son de valor no solo en la etapa final de establecer las leyes de la naturaleza, sino en las primeras etapas de prueba de la eficiencia de una técnica. Los métodos que presentaremos para probar la bondad de ajuste de las líneas de regresión están dirigidos no solo a simplificar los cálculos al reducirlos a una forma estándar, y así hacerloEs posible realizar pruebas precisas , pero al mostrar todo el proceso, puede ser evidente exactamente a qué preguntas puede responder un examen estadístico de los datos. Si para cada uno de una serie de valores seleccionados de la variable independiente x se realiza una cantidad de observaciones de la variable dependiente y, deje que la cantidad de valores de x disponibles sea a ; entonces a es el número [pág. 213] de matrices en nuestros datos. Al designar cualquier matriz en particular mediante el sufijo p , el número de observaciones en cualquier matriz se indicará por n p , y la media de sus valores por y [barra] p ; y [barra] es la media general de todos los valores de y . Entonces sea cual sea la naturaleza de los datos, la identidad puramente algebraica. S ( y - y [bar]) 2 = S { n p ( y [bar] p - y [bar]) 2 } + SS ( yy [bar] p ) 2 expresa el hecho de que la suma de los cuadrados de las desviaciones de todos los valores de y de su media general puede dividirse en dos partes, una que representa la suma de los cuadrados de las desviaciones de las medias de las matrices de la media general , cada una multiplicada por el número en la matriz, mientras que la segunda es la suma de los cuadrados de las desviaciones de cada observación de la media de la matriz en la que

ocurre. Esto se asemeja al análisis utilizado para las correlaciones intraclase, salvo que ahora el número de observaciones puede ser diferente en cada matriz. Las desviaciones de las observaciones de los medios de las matrices se deben a causas de variación, incluidos errores de agrupación, errores de observación, etc., que no dependen del valor de x; la desviación estándar debida a estas causas proporciona una base para la comparación por la cual podemos probar si las desviaciones de las medias de las matrices de los valores esperados por hipótesis son o no significativas. Deje que Y p represente el valor medio en cualquier matriz esperada en la hipótesis a probar, entonces S { n p ( y [bar] p -Y p ) 2 } [p. 214] Medirá la discrepancia entre los datos y la hipótesis. Al comparar esto con las variaciones dentro de las matrices, debemos, por supuesto, considerar cuántos grados de libertad están disponibles, en los cuales las observaciones pueden diferir de la hipótesis. En algunos casos, que son relativamente raros, la hipótesis especifica el valor medio real que se espera en cada matriz; en tales casos un grado de libertad están disponibles, unasiendo el número de las matrices. Con más frecuencia, la hipótesis especifica solo la forma de la línea de regresión, teniendo uno o más parámetros que deben determinarse a partir de las observaciones, como cuando deseamos probar si la regresión se puede representar mediante una línea recta, de modo que nuestra hipótesis se justifique si Cualquier línea recta se ajusta a los datos. En tales casos, para encontrar el número de grados de libertad debemos deducir de un número de parámetros obtenidos de los datos. Ex. 42 Prueba de rectitud de la línea de regresión . - Los siguientes datos se tomaron de un artículo de AH Hersh ( Journal of Experimental Zoology , xxxix. P. 62) sobre la influencia de la temperatura en el número de facetas oculares en Drosophila melanogaster , en varias fases homocigotas y heterocigotas de la "barra". "factor. Representan hembras heterocigotas para "completo" y "ultra-bar", siendo medido el número de faceta en unidades factoriales, efectivamente una escala logarítmica. ¿Se puede representar la influencia de la temperatura en el número de faceta mediante una línea recta, en estas unidades? [pag. 215]

Hay 9 matrices que representan 9 temperaturas diferentes. Tomando una media de trabajo en -1.93, calculamos el exceso total y promedio sobre la media de trabajo de cada matriz, y para el agregado de los 9. Cada promedio se encuentra dividiendo el exceso total por el número en la matriz; tres decimales son suficientes, salvo en el agregado, donde se necesitan cuatro. Tenemos [p. 216]

La suma de los productos de estos nueve pares de números, menos el producto del par final, da el valor de S { n p ( y [barra] p - y [barra]) 2 } = 12,370,

mientras que a partir de la distribución del agregado de todos los valores de y tenemos S ( y - y [barra]) 2 = 16,202, de donde se deduce la siguiente tabla:

La varianza dentro de los arreglos es, por lo tanto, solo alrededor de 4.7; la varianza entre las matrices se compondrá de una parte que puede representarse mediante una regresión lineal y de una parte que representa las desviaciones de los medios observados de las matrices desde una línea recta. Parte superior. 217] encuentra la parte representada por una regresión lineal, calcula S ( x - x [barra]) 2 = 4742.21 y S ( x - x [barra]) ( y - y [barra]) = -7535.38, qué último se puede obtener multiplicando los valores de exceso totales anteriores por xx [barra]; entonces desde

Podemos completar el análisis de la siguiente manera:

Es útil verificar la figura, 396, encontrada por diferencias, calculando el valor real de Y para la fórmula de regresión y evaluando S { n p ( y [bar] p - Y p ) 2 }; tal comprobación tiene la ventaja de que muestra a qué matrices en particular se debe la mayor parte de la discrepancia, en este caso a las observaciones a 23 y 25 ° C. Las desviaciones de la regresión lineal son evidentemente mayores de lo que se esperaría, si la regresión fuera realmente lineal, de las variaciones dentro de las matrices. Para el valor de z , tenemos [p. 218]

mientras que el punto del 5 por ciento es de alrededor de .35. Por lo tanto, no se puede cuestionar el significado estadístico de las desviaciones con respecto a la línea recta, aunque esta última representa la mayor parte de la variación. Tenga en cuenta que la corrección de Sheppard no debe aplicarse al realizar esta prueba; una cierta proporción tanto de la variación dentro de las matrices como de las desviaciones de la línea de regresión es atribuible a los errores de agrupación, pero deducir de cada uno el error promedio debido a esta causa

sería excesivamente acentuar su desigualdad y, por lo tanto, hacer impreciso La prueba de la significación. 45. La "relación de correlación"  Hemos visto cómo, a partir de la suma de los cuadrados de las desviaciones de todas las observaciones de la media general, se puede separar una parte que representa las diferencias entre diferentes matrices. La relación que esto lleva al conjunto a menudo se denota por el símbolo 2 , de modo que 2 = S { n p (y [bar] p - y [bar]) 2 } / S ( y - y [bar]) 2 , y la raíz cuadrada de esta relación,  , se llama correlación [p. 219] relación de y sobre x . De manera similar, si Y es la función de regresión hipotética, podemos definir R, de modo que R 2 = S { n p (Y- y [bar]) 2 } / S ( y - y [bar]) 2 , entonces R será el coeficiente de correlación entre y y Y, y si la regresión es lineal, R 2 = r 2 , donde r es el coeficiente de correlación entre x y y. A partir de estas relaciones, es obvio que  excede a R y, por lo tanto, que  proporciona un límite superior, de modo que no se puede encontrar una función de regresión, cuya correlación con y es mayor que  . Como estadística descriptiva, la utilidad de la relación de correlación es extremadamente limitada. Se notará que el número de grados de libertad en el numerador de 2 depende del número de arreglos, de modo que, por ejemplo, en el Ejemplo 42, el valor de  obtenido dependerá, no solo del rango de temperaturas explorado. , pero en el número de temperaturas empleadas dentro de un rango dado. Probar si un valor observado de la relación de correlación es significativo es probar si la variación entre matrices es significativamente mayor de lo que se puede esperar sin correlación, a partir de la variación dentro de las matrices, y esto puede hacerse a partir del análisis de varianza (Tabla 52 ) Por medio de la tabla de z . Se han realizado intentos para probar la importancia de la relación de correlación mediante el cálculo de un error estándar, pero en tales intentos se pasa por alto el hecho de que, incluso con muestras indefinidamente grandes, la distribución de  para la correlación cero no tiende a la normalidad, a menos que el número De matrices también se incrementa sin límite. Por el contrario, [p. 220] con muestras muy grandes, cuando N es el número total de observaciones, N 2tiende a distribuirse como es 2 cuando n , el número de grados de libertad, es igual a ( a -1). 46. El criterio de Blakeman

En el mismo sentido que · 2 mide la diferencia entre diferentes matrices, por lo que 2 -R 2 mide la desviación agregada de las medias de las matrices de la línea de regresión hipotética. El intento de obtener un criterio de linealidad de regresión al comparar esta cantidad con su error estándar, resulta en la prueba conocida como el criterio de Blakeman. En esta prueba, tampoco se tiene en cuenta el número de matrices y, en consecuencia, no proporciona ni siquiera una primera aproximación al estimar qué valores de 2 - r 2 son admisibles. Similarmente con  con correlación cero, entonces con 2 -r 2 , la correlación es lineal, si el número de observaciones aumenta sin límite, la distribución no tiende a la normalidad, pero la de N ( 2 - r 2 ) tiende a distribuirse como es 2 cuando n = a - 2. Su valor medio es entonces ( a -2), e ignorar el valor de a es ignorar la característica principal de su distribución muestral. En el Ejemplo 42, hemos visto que con 9 matrices, el alejamiento de la linealidad fue muy significativo; es fácil ver que si hubieran habido matrices, con los mismos valores de 2 y r 2 , la desviación de la linealidad hubiera sido incluso menor que la expectativa basada en la variación dentro de cada matriz. Usando el criterio de Blakeman, sin embargo, estas dos condiciones opuestas son indistinguibles. [pag. 221] Al igual que en otros casos de prueba de bondad de ajuste, por lo que al probar las líneas de regresión es esencial que si se debe ajustar algún parámetro a las observaciones, este proceso de ajuste se haya llevado a cabo de manera eficiente. En el Capítulo V se ha dado una explicación de los métodos eficientes. En general, salvo en los casos más complicados, de los cuales este libro no trata, la condición necesaria puede cumplirse mediante el procedimiento conocido como Método de mínimos cuadrados, por el cual medida de desviación S { n p ( y [bar] p -Y p ) 2 } se reduce a un mínimo sujeto a las condiciones hipotéticas que gobiernan la forma de Y. 47. Importancia del coeficiente de correlación múltiple Si, como en la Sección 29 (p. 130), la regresión de una variable dependiente y en un número de variables independientes x 1 , x 2 , x 3 , se expresa en la forma Y = b 1x 1 + b 2x 2 + b 3x 3

entonces la correlación entre y e Y es mayor que la correlación de y con cualquier otra función lineal de las variables independientes y, por lo tanto, mide, en un sentido, la medida en que el valor de y depende de, o está relacionado con, la combinación de Variación de estas variables. El valor de la correlación así obtenida, denotado por R, se puede calcular a partir de la fórmula R 2 = { b 1 S ( x 1 y ) + b 2 S ( x 2 y ) + b 3 S ( x 3 y )} / S ( y 2 ) La correlación múltiple, R, difiere de la correlación obtenida con una sola variable independiente en que siempre es positiva; además ha sido reconocido [p. 222] en el caso de la correlación múltiple de que su distribución aleatoria de muestreo debe depender del número de variables independientes empleadas. De hecho, el caso es estrictamente comparable con el de la relación de correlación, y puede tratarse con precisión mediante una tabla del análisis de varianza. En el apartado referido hemos hecho uso del hecho de que S ( y 2 ) = S ( y -Y) 2 + { b 1 S ( x 1 y ) + b 2 S ( x 2 y ) + b 3 S ( x 3 y )} si n ' es el número de observaciones de y , y p el número de variables independientes, estos tres términos representarán respectivamente n' -1, n'-p 1 y pgrados de libertad. En consecuencia el análisis de varianza toma la forma:

asumiendo que y se mide a partir de su valor medio. Si en realidad no existe una conexión entre las variables independientes y la variable dependiente y , los valores en la columna encabezada "suma de cuadrados" se dividirán aproximadamente en proporción al número de grados de libertad; mientras que si existe una conexión significativa, entonces los pgrados de libertad en la [p. 223] la función de regresión obtendrá claramente más que su parte. La prueba, si R es o no significativa, es de hecho exactamente la prueba de si el cuadrado medio atribuible a la función de

regresión es o no significativamente mayor que el cuadrado medio de las desviaciones de la función de regresión, y se puede llevar a cabo, como En todos estos casos, mediante la tabla de z . Ex. 43. Significado de una correlación múltiple . - Para ilustrar el proceso, podemos realizar la prueba de si los datos de lluvia del Ejemplo 23 se relacionaron significativamente con la longitud, latitud y altitud de las estaciones de grabación. A partir de los valores encontrados en ese ejemplo, la siguiente tabla puede construirse inmediatamente.

El valor de z es, por lo tanto, de 1.3217, mientras que el punto del 5 por ciento es de aproximadamente .4415, lo que demuestra que la correlación múltiple es claramente significativa. El valor real de la correlación múltiple se puede calcular fácilmente a partir de la tabla anterior, para R 2 = 791.7 / 1786.6 = .4431 R = .6657; pero este paso no es necesario para probar el significado. [pag. 224] 48. Técnica de experimentación de la trama. El procedimiento estadístico del análisis de varianza es esencial para comprender los principios subyacentes a los métodos modernos de organización de experimentos de campo. El primer requisito que rige todos los experimentos bien planificados es que el experimento debe producir no solo una comparación de diferentes abonos, tratamientos, variedades, etc., sino también un medio para probar la importancia de las diferencias que se observan. En consecuencia, todos los tratamientos deben ser al menos duplicados, y preferiblemente replicados más a fondo, para que se pueda usar una comparación de réplicas como un estándar con el cual comparar las diferencias observadas. Este es un requisito común a la mayoría de los tipos de experimentación; la peculiaridad de los experimentos de campo agrícola se

basa en el hecho, verificado en todos los ensayos de uniformidad cuidadosos, que el área de tierra elegida para las parcelas experimentales puede asumirse que es marcadamente heterogénea, en el sentido de que su fertilidad varía de manera sistemática y, a menudo, de manera complicada de un punto a otro. Para que nuestra prueba de significación sea válida, la diferencia en la fertilidad entre parcelas elegidas como paralelas debe ser verdaderamente representativa de las diferencias entre parcelas con diferentes tratamientos; y no podemos asumir que este es el caso si nuestras parcelas han sido elegidas de alguna manera de acuerdo con un sistema preestablecido; La disposición sistemática de nuestras parcelas puede tener, y las pruebas con los resultados de las pruebas de uniformidad muestran que a menudo las tiene, características en común con la variación sistemática de la fertilidad, y por lo tanto la prueba de significación está totalmente viciada. [pag. 225] Y a menudo una manera complicada de un punto a otro. Para que nuestra prueba de significación sea válida, la diferencia en la fertilidad entre parcelas elegidas como paralelas debe ser verdaderamente representativa de las diferencias entre parcelas con diferentes tratamientos; y no podemos asumir que este es el caso si nuestras parcelas han sido elegidas de alguna manera de acuerdo con un sistema preestablecido; La disposición sistemática de nuestras parcelas puede tener, y las pruebas con los resultados de las pruebas de uniformidad muestran que a menudo las tiene, características en común con la variación sistemática de la fertilidad, y por lo tanto la prueba de significación está totalmente viciada. [pag. 225] Y a menudo una manera complicada de un punto a otro. Para que nuestra prueba de significación sea válida, la diferencia en la fertilidad entre parcelas elegidas como paralelas debe ser verdaderamente representativa de las diferencias entre parcelas con diferentes tratamientos; y no podemos asumir que este es el caso si nuestras parcelas han sido elegidas de alguna manera de acuerdo con un sistema preestablecido; La disposición sistemática de nuestras parcelas puede tener, y las pruebas con los resultados de las pruebas de uniformidad muestran que a menudo las tiene, características en común con la variación sistemática de la fertilidad, y por lo tanto la prueba de significación está totalmente viciada. [pag. 225] Para que nuestra prueba de significación sea válida, la diferencia en la fertilidad entre parcelas elegidas como paralelas debe ser verdaderamente representativa de las diferencias entre parcelas con diferentes tratamientos; y no podemos asumir que este es el caso si nuestras parcelas han sido elegidas de alguna manera de acuerdo con un sistema preestablecido; La disposición sistemática de nuestras parcelas puede tener, y las pruebas con los resultados de las pruebas de uniformidad muestran que a menudo las tiene, características en común con la variación sistemática de la fertilidad, y por lo tanto la prueba de significación está totalmente viciada. [pag. 225] Para que nuestra prueba de significación sea válida, la diferencia en la fertilidad entre parcelas elegidas como paralelas debe ser verdaderamente representativa de las diferencias entre parcelas con diferentes tratamientos; y no podemos asumir que este es el caso si nuestras parcelas han sido elegidas de alguna manera de acuerdo con

un sistema preestablecido; La disposición sistemática de nuestras parcelas puede tener, y las pruebas con los resultados de las pruebas de uniformidad muestran que a menudo las tiene, características en común con la variación sistemática de la fertilidad, y por lo tanto la prueba de significación está totalmente viciada. [pag. 225] Las características en común con la variación sistemática de la fertilidad, y por lo tanto la prueba de significación está totalmente viciada. [pag. 225] Las características en común con la variación sistemática de la fertilidad, y por lo tanto la prueba de significación está totalmente viciada. [pag. 225] Ex. 44. Precisión alcanzada por acuerdo aleatorio . - La forma directa de superar esta dificultad es organizar las parcelas completamente al azar. Por ejemplo, si se usaran 20 franjas de tierra para probar 5 tratamientos diferentes, cada uno por cuadruplicado, podríamos tomar un arreglo como el siguiente, que se encuentra al barajar 20 cartas a fondo y ponerlas en orden:

Las letras representan 5 tratamientos diferentes; debajo de cada una se muestra el peso de las raíces de manglar obtenidas por Mercer y Hall en un ensayo de uniformidad con 20 de tales tiras. Las desviaciones en el rendimiento total de cada tratamiento son UNA

segundo do

re

mi

+290

+216

-243

-204

-59

en el análisis de varianza, la suma de cuadrados correspondiente a "tratamiento" será la suma de estos cuadrados dividida por 4. Dado que la suma de los cuadrados de las 20 desviaciones de la media general es 289,766, tenemos el siguiente análisis: [p . 226]

Se verá que el error estándar de una sola parcela estimada a partir de tal disposición es 124.1, mientras que, en este caso, sabemos que su verdadero valor es 223.5; este es un acuerdo extremadamente cercano, e ilustra la manera en que una disposición de parcelas puramente aleatoria garantiza que el error experimental calculado sea una estimación no compensada de los errores realmente presentes. Ex. 45. Restricciones a disposición aleatoria.- Si bien se adhiere a la condición esencial de que los errores por los que se ven afectados los valores observados deben ser una muestra aleatoria de los errores que contribuyen a nuestra estimación del error experimental, todavía es posible eliminar gran parte del efecto de la heterogeneidad del suelo, y de modo que aumente la precisión de nuestras observaciones imponiendo restricciones en el orden en que se colocan las tiras. Como ilustración de un método que es ampliamente aplicable, podemos dividir las 20 tiras en 4 bloques e imponer la condición de que cada tratamiento ocurra una vez en cada bloque; entonces podremos separar la varianza en tres partes que representan (i.) diferencias locales entre bloques, (ii.) [p. 227] diferencias debidas al tratamiento, (iii.) Errores experimentales; y si los cinco tratamientos se organizan al azar dentro de cada bloque, nuestra estimación del error experimental será una estimación no sesgada de los errores reales en las diferencias debidas al tratamiento. Como ejemplo de una disposición aleatoria sujeta a la restricción anterior, se obtuvo lo siguiente: AECDB | CBEDA | ADEBC | CEBA D. Al analizar, con los mismos datos que antes, las contribuciones de las diferencias locales entre bloques y del tratamiento, encontramos

Las diferencias locales entre los bloques son muy importantes, por lo que la precisión de nuestras comparaciones mejora mucho, de hecho, la varianza restante se reduce casi al 55% de su valor anterior. El acuerdo al que se llegó por casualidad resultó ser ligeramente desfavorable, los errores en los valores de tratamiento son un poco más de lo habitual, mientras que la estimación del error estándar es 88.7 contra un valor verdadero de 92.0. Dicha variación es de esperar, y de hecho, sobre ella se basa nuestro cálculo de significación. [pag. 228] Podría haberse pensado que era preferible organizar el experimento en un orden sistemático, como ABCDE | EDCBA | ABCDE | EDCBA, y, de hecho, debido al marcado gradiente de fertilidad exhibido por los rendimientos en el presente ejemplo, tal disposición habría producido errores más pequeños en los totales de los cuatro tratamientos. Sin embargo, con tal acuerdo, no tenemos garantía de que una estimación del error estándar derivado de las discrepancias entre gráficos paralelos sea realmente representativa de las diferencias producidas entre los diferentes tratamientos, por lo que no se puede confiar en tal estimación del error estándar, y ninguna prueba de significación es posible Una forma más prometedora de eliminar esa parte del gradiente de fertilidad que no se incluye en las diferencias entre bloques, sería imponer la restricción de que cada tratamiento debe ser "equilibrado" con respecto a la posición dentro del bloque. Así, si algún tratamiento ocupara en un bloque la primera tira, en otro bloque la tercera tira, y en los dos bloques restantes la cuarta tira (los números ordinales que suman 12), sus posiciones en los bloques se equilibrarían, y el total El rendimiento no se vería afectado por el gradiente de fertilidad. De los muchos arreglos posibles sujetos a esta restricción, se podría elegir uno, y eliminar un grado adicional de libertad, que representa la varianza debida al gradiente de fertilidad promedio dentro de los bloques. En los datos actuales, donde el gradiente de fertilidad es grande, esto parecería [pág. 229] proporciona un gran aumento en la precisión, reduciéndose el error estándar estimado de 92.0 a 73.4. Pero al examinarlo, parece que tal estimación no es genuinamente

representativa de los errores por los cuales se ven afectadas las comparaciones, 49. La plaza latina Sin embargo, el método para establecer restricciones en la distribución de las parcelas y eliminar los correspondientes grados de libertad de la varianza es capaz de cierta extensión en experimentos adecuadamente planificados. En un bloque de 25 parcelas organizadas en 5 filas y 5 columnas, que se utilizarán para probar 5 tratamientos, podemos organizar que cada tratamiento se realice una vez en cada fila, y también una vez en cada columna, al tiempo que permite un alcance libre al azar en la distribución. sujeto a estas restricciones. Luego, de los 24 grados de libertad, 4 representarán tratamiento; 8 que representan diferencias de suelo entre diferentes filas o columnas, pueden ser eliminadas; y 12 quedarán para la estimación de error. Estos 12 proporcionarán una estimación no desviada de los errores en la comparación de los tratamientos siempre que cada par de parcelas, no en la misma fila o columna, Ex. 46. Acuerdos doblemente restringidos . - Mercer y Hall encontraron los siguientes pesos de raíz para manglares en 25 parcelas; Hemos distribuido cartas que representan 5 tratamientos diferentes de tal manera que cada uno aparece una vez que es cada fila y columna. [pag. 230]

Analizando las contribuciones de filas, columnas y tratamientos que tenemos

Al eliminar las diferencias de suelo entre las diferentes filas y columnas, el cuadrado medio se ha reducido a menos de la mitad, y el valor del experimento como un medio para detectar las diferencias debidas al tratamiento es, por lo tanto, más del doble. Este método de igualar las filas y columnas se puede combinar ventajosamente con el de igualar la distribución en diferentes bloques de tierra, de modo que se puedan obtener resultados muy precisos al usar una cantidad de bloques cada uno [pág. 231] dispuestos en, por ejemplo, 5 filas y columnas. De esta manera, el método se puede aplicar incluso en casos con solo tres tratamientos para comparar. Además, como el método es adecuado, independientemente de las diferencias en la fertilidad real del suelo, se puede utilizar el mismo método estadístico de reducción cuando, por ejemplo, las parcelas son 25 tiras que se encuentran una al lado de la otra. Tratando cada bloque de cinco franjas a su vez como si fueran columnas sucesivas en la disposición anterior, podemos eliminar, no solo la diferencia entre los bloques, sino diferencias como las debidas a un gradiente de fertilidad, que afectan el rendimiento según el orden De las tiras en el bloque. Por lo tanto, cuando el número de tiras empleadas es el cuadrado del número de tratamientos, cada tratamiento puede ser no soloequilibrados pero completamente igualados con respecto al orden en el bloque, y podemos confiar en el valor (generalmente) reducido del error estándar obtenido al eliminar los correspondientes grados de libertad. Dicha doble eliminación puede ser especialmente fructífera si los bloques de tiras coinciden con alguna característica física del campo, como las "tierras" de Ploughman, que a menudo producen una periodicidad característica en la fertilidad debido a las variaciones en la profundidad del suelo, el drenaje y tales factores. . En resumen: se deben evitar los arreglos sistemáticos de las parcelas en las pruebas de campo, ya que con estas generalmente es posible estimar el error experimental de varias maneras diferentes, dando resultados muy diferentes, cada una dependiendo de una serie de suposiciones en cuanto a la distribución de fertilidad natural, que puede o no estar justificada. Con aleatorio sin restricciones [p. 232] disposición de las parcelas el error experimental, aunque

estimado con precisión, será generalmente innecesariamente grande. En un experimento bien planificado, se pueden imponer ciertas restricciones sobre la disposición aleatoria de las parcelas de tal manera que el error experimental aún pueda estimarse con precisión, mientras que la mayor parte de la influencia de la heterogeneidad del suelo puede eliminarse. Cabe señalar que cuando, mediante un método mejorado de organización de las parcelas, podemos reducir el error estándar a la mitad, el valor del experimento se incrementa al menos cuatro veces; porque solo repitiendo el experimento cuatro veces en su forma original podría lograrse la misma precisión. Este argumento realmente subestima la preponderancia en el valor científico de los experimentos más precisos, ya que, en el trabajo de parcelas agrícolas, el experimento no puede repetirse en condiciones climáticas y de suelo idénticas.

FUENTES UTILIZADAS PARA DATOS Y MÉTODOS JW BISPHAM (1923). Determinación experimental de la distribución del coeficiente de correlación parcial en muestras de treinta. Metron, ii. 684-696. J. BLAKEMAN (1905). En pruebas de linealidad de regresión en distribuciones de frecuencia. Biometrika, iv. 332. · JT ROTTOMLEY. Tablas matemáticas de cuatro cifras. Macmillan y Co. M. BRISTOL-ROACH (1925). Sobre la relación de ciertas algas de suelo a algunos compuestos orgánicos solubles. Ana. Bot., Xxxix. J. BURGESS (1895). En la integral definida, etc. Trans. Roy Soc. Edin., Xxxix. 257-321. WP ELDERTON (1902). Tablas para probar la bondad de ajuste de la teoría a la observación. Biometrika, i. 155. · RA FISHER (1921). Sobre los fundamentos matemáticos de la estadística teórica. Phil Trans., A. ccxxii. 309-368. RA FISHER (1921). Un examen de la producción de grano vestido de Broadbalk. Revista de Ciencias Agrícolas, xi. 107-135. R, A. FISHER (1921). En el "error probable" de un coeficiente de correlación deducido de una pequeña muestra. Metron, yo. pt. 4, 1-32. RA FISHER (1922). Sobre la interpretación de 2 de las tablas de contingencia y sobre el cálculo de P. Journal de la Royal Statistical Society, lxxxv. 81-94. RA FISHER (1922). La bondad de ajuste de la fórmula de regresión y la distribución de los coeficientes de regresión. Revista de la Royal Statistical Society, lxxxv. 597-612. RA FISHER, HG THORNTON y WA MACKENZIE (1922). La precisión del método de colocación de placas para estimar la densidad de las poblaciones bacterianas. Anales de biología aplicada, ix. 325-359. [pag. 234] · RA FISHER y WA MACKENZIE (1923). La respuesta manurial de diferentes variedades de papa. Revista de Ciencias Agrícolas, xiii. 311-320.

RA FISHER (1924). La distribución del coeficiente de correlación parcial. Metron, iii. 329-332. · RA FISHER (1924). Las condiciones bajo las cuales 2 mide la discrepancia entre la observación y la hipótesis. Revista de la Royal Statistical Society, lxxxvii. 442-449. RA FISHER (1924). La influencia de la lluvia sobre el rendimiento de trigo en Rothamsted. Phil Trans., B. ccxiii. 89-142. JGH FREW (1924). En Chlorops Tœniopus Meig. (La mosca de la gota de la cebada.) Annals of Applied Biology, xi. 175-219. GEISSLER (1889). Beiträge zur Frage des Geschlechts verhältnisses der Geborenen. Zeitschift des K. Sachsischen Statistischen Bureaus. JWL GLAISHER (1871). En una clase de integrales definidas. Phil Mag., Serie IV. xlii 421-436. M. GREENWOOD y GU YULE (1915) Las estadísticas de las inoculaciones antitifoideas y anticolóricas, y la interpretación de dichas estadísticas en general. Pro. Roy Segundo. Medicina; Sección de epidemiología y medicina estatal, viii. 113. · RP GREGORY, D. DE WINTON, y W. BATESON (1923). Genética de la prímula sinensis. Diario de Genética, xiii. 219-253. W. HALL. Tablas de cuatro cifras y constantes. JA HARRIS (1916). Una aportación al problema de la homotosis. Biometrika, xi. 201-214. AH HERSH (1924). Los efectos de la temperatura sobre los heterocigotos en la serie de barras de Drosophila. Revista de zoología experimental, xxxix. 5571. · JS HUXLEY (1923). Más datos sobre el enlace en Gammarus Chevreuxi y su relación con la citología. British Journal of Exp. Biología, i. 79-96. TLKELLEY (1923). Método estadístico. Macmillan y Co. "Las matemáticas" (1924). Estudio estadístico sobre el efecto del abono en la infestación de la cebada por la mosca de la gota. Anales de biología aplicada, xi. 220-235.

BM MERCER y AD HALL (1911). El error experimental de los ensayos de campo. Revista de Ciencias Agrícolas, iv. 107-132. JR MINER (1922). Tablas de [sqrt] 1- r 2 y 1- r 2 . Johns Hopkins Press, Baltimore. [pag. 235] AA MUMFORD y M. YOUNG (1923). Las interrelaciones de las medidas físicas y la capacidad vital. Biometrika, xv. 109-133. · K. PEARSON (1900). En el criterio de que un sistema dado de desviaciones de las probables en el caso de un sistema correlacionado de variables es tal que se puede suponer razonablemente que surgió de un muestreo aleatorio. Phil Mag., Serie V. 1. 157-175. K. PEARSON y A. LEE (1903). Herencia de personajes físicos. Biometrika, ii. 357-462. K. PEARSON (1922). Tablas de la función  incompleta . Oficina de papelería. N. SHAW (1922). El aire y sus caminos. Prensa de la Universidad de Cambridge. WF SHEPPARD (1907) Tabla normal. Biometrika, v. 404-406.

de

"Estudiante" (1907). Sobre el error hemocitómetro. Biometrika, v. 351-360.

desviaciones de

de

contar

la

curva

con

un

"Estudiante" (1908). El probable error de una media. Biometrika, vi. 1-25. · "Student" (1917) Tablas para estimar la probabilidad de que la media de una muestra única de observaciones se encuentre entre - [infinito] y cualquier distancia dada de la media de la población de la cual se extrae la muestra. Biometrika, xi. 414-417. · JF TOCHER (1908). Encuesta Escocia. Biometrika, vi. 129-235.

de

pigmentación

de

escolares

en

GU YULE (1917). Una introducción a la teoría de la estadística. C. Griffin and Co., Londres. GU YULE (I923). Sobre la aplicación del método 2 a las tablas de asociación y contingencia, con ilustraciones experimentales. Revista de la Royal Statistical Society, lxxxv. 95-104.