Modelos y Procesos Hidrologicos

MODELOS Y PROCESOS HIDROLOGICOS Msc. Ing. Alberto Pilares Hualpa MODELOS HIDROLÓGICOS Según Chow. Maiduant y Mays (1984

Views 102 Downloads 0 File size 3MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

MODELOS Y PROCESOS HIDROLOGICOS Msc. Ing. Alberto Pilares Hualpa

MODELOS HIDROLÓGICOS Según Chow. Maiduant y Mays (1984), un modelo de sistema hidrológico es una aproximación al sistema real: sus entradas y salidas son variables hidrológicos mensurables y su estructura es un conjunto de ecuaciones que conectan las entradas y salidas. Los modelos hidrológicos pueden dividirse en dos categorías: modelos físicos y modelos abstractos. Los primeros incluyen, modelos de escala que refrendan el sistema en una escala reducida, tal como un modelo hidráulico del vertedero de una prosa. Los modelos abstractos representan el sistema en forma matemática, la operación del sistema se describe por medio de un conjunto de ecuaciones que relacionan los variables de entrada y salida. Estas funciones pueden ser funciones de espacio y del tiempo y también pueden ser variables probabilísticas y aleatorias, que no tienen un valor fijo en un punto particular del espacio y tiempo, pero que están descritas a través de distribuciones de probabilidad. MODELO MATEMATICO Un modelo matemático es una simplificación de una situación real, expresada mediante una serie de hipótesis o suposiciones, traducidas en lenguaje matemático y que conducen, después de una adecuada manipulación, utilizando para ello las técnicas matemáticas apropiadas, a una serie de resultados de cuyo análisis se espera sacar a la luz aspectos de la situación original no fácilmente apreciables a simple vista. CHOW (1964) señala que los modelos matemáticos son aplicados para simular el fenómeno hidrológico natural, el cual es considerado como un proceso o sistema. Cualquier fenómeno que esté sometido a cambios, particularmente con respecto al tiempo, es llamado un proceso. Como prácticamente todos los fenómenos hidrológicos cambian con el tiempo pueden ser llamados procesos hidrológicos. Si la oportunidad de ocurrencia de las variables envueltas en tal proceso es ignorada y el modelo se considera que sigue una ley de certeza pero ninguna ley de probabilidad, el proceso y el modelo son descritos como determinísticos. De otra forma, si la oportunidad de ocurrencia de la variable es tomada en consideración y el concepto de probabilidad es introducido en la formulación del modelo, el proceso y el modelo son descritos como estocásticos o probabilísticos (CHOW, 1964).

Estrictamente hablando, un proceso estocástico es diferente a uno probabilístico en que el primero es considerado dependiente del tiempo y el segundo independiente del tiempo. Podría decirse, entonces, que los modelos Probabilísticos hacen predicciones, mientras que los modelos estocásticos hacen pronósticos (CHOW et al., 1994). En realidad, todos los procesos hidrológicos son más o menos estocásticos. Se asumen determinísticos o probabilísticos sólo para simplificar su análisis.

Tipos de modelos matemáticos de cuencas Un modelo matemático de cuenca consiste en varios componentes, cada uno describe cierta fase o fases del ciclo hidrológico. Un modelo matemático puede ser de tres tipos: (1) teórico, (2) conceptual, o (3) empírico. Los modelos teóricos y empíricos son exactamente opuestos en significado, con modelos conceptuales que se ubican entre ellos. En suma, un modelo matemático puede ser determinístico o probabilístico, lineal o no lineal, invariable en el tiempo o variable en el tiempo, global o distribuido, continúo o discreto, analítico o numérico, evento guiado o proceso continuo. En la práctica del modelado de cuenca, cuatro tipos generales de modelos matemáticos se reconocen comúnmente: (1) determinísticos, (2) probabilísticos, (3) conceptuales, y (4) paramétricos. Los modelos determinísticos, son formulados siguiendo las leyes de los procesos físicos y procesos químicos descriptos por ecuaciones diferenciales. Un modelo determinístico es formulado en términos de un grupo de variables y parámetros y ecuaciones relacionadas a ellos. Un modelo determinístico implica una relación causa-efecto entre los valores de los parámetros elegidos y los resultados obtenidos de la aplicación de las ecuaciones. Idealmente, un modelo determinístico debería proveer el mejor detalle en la simulación de los procesos físicos o químicos. En la práctica, sin embargo, la aplicación de modelos determinísticos está asociada frecuentemente a la incapacidad del modelo o del modelador de resolver la variabilidad temporal y espacial del fenómeno natural en incrementos suficientemente pequeños. Los modelos probabilísticos, son exactamente lo opuesto en significado a los modelos determinísticos. Un modelo probabilístico se formula siguiendo las leyes del azar o probabilidad. Los modelos probabilísticos son de dos tipo: (1) estadísticos, y (2) estocásticos. El desarrollo de los modelos estadísticos es gobernado por las leyes de la probabilidad y aleatoriedad los modelos estadísticos tratan con ejemplos observados, y requieren invariablemente el uso de datos; mientras que los modelos estocásticos enfocan en las propiedades aleatorias o estructura del azar observada en ciertas series de tiempo hidrológicas - por ejemplo, flujos diarios de corriente en cuencas de tamaño medio. los modelos

estocásticos enfatizan sobre las características estocásticas de los procesos hidrológicos. Los modelos conceptuales son representaciones simplificadas de los procesos físicos, obtenida por los variaciones espacial y temporal y usualmente recaen sobre descripciones matemáticas (ya sean en forma algebraica o por ecuaciones diferenciales ordinarias), que simulan procesos complejos basándose en unas pocas claves de parámetros conceptuales. El uso extensivo de los modelos conceptuales en la ingeniería hidrológica refleja la complejidad inherente del fenómeno y la incapacidad práctica de considerar los componentes determinísticos en todas las instancias. De allí que los modelos conceptuales son sustitutos útiles y prácticos para los modelos determinísticos. Los modelos paramétricos, (esto es: empírico, o caja negra) son los más simples de todas las propuestas de modelado. Como su nombre indica, el énfasis de los modelos paramétricos está en los parámetros empíricos en los que está basada la solución. Usualmente, un modelo paramétrico consiste en una ecuación (o ecuaciones) algebraica que contiene uno o más parámetros a ser determinados por el análisis de datos u otro medio empírico. La aplicabilidad de los modelos paramétricos está restringida al rango de datos utilizados en la determinación de los valores de los parámetros. Los modelos paramétricos son útiles cuando los modelos conceptuales, determinísticos o probabilísticos no son prácticos o son demasiado caros. VARAS E. Y FERRER P. (1972), Los fenómenos que se presentan en la ingeniería, pueden clasificarse desde el punto de vista de la certeza de su ocurrencia, en determinísticos y probabilísticos. Si la probabilidad de ocurrencia de las variables en proceso es cierta, es decir asegurar una ley determinada no probabilístico. En cambio si se toma en cuenta la probabilidad de ocurrencia y la falta de certeza existente entonces se habla de un proceso de naturaleza probabilística en el campo de la ingeniería de la hidrológica pertenecen a la categoría de los probabilísticos o estadísticos. En rigor, existen diferencias entre los procesos probabilísticos y los estocásticos. Los primeros son independientes del tiempo y los segundos son dependientes. Se denominan proceso estadístico a un conjunto de variables aleatorias cuyas características varían en el tiempo. En un proceso probabilístico, independiente de la variable del tiempo, la secuencia de las variables no interesan y se supone que ellas siguen un determinado comportamiento dado por el modelo probabilístico o distribución. Los ejemplos de tipos de modelos matemáticos de cuencas y los componentes del modelo pueden hallarse en una variedad de aplicaciones hidrológicas. Por ejemplo, la técnica del ruteo de onda cinemática es determinística, fundada en principios básicos de conservación de masa y momentum. Una vez que los parámetros de la curva de valor cinemática han sido determinados, las soluciones analíticas de las ondas cinemáticas llevan a soluciones predecibles.

Las soluciones numéricas, sin embargo, están sujetas a la difusión y dispersión causadas por la naturaleza finita de la malla. De allí que, evaluaciones cuidadosas son necesarias para asegurarse que todos los procesos relevantes estén siendo cuantificados apropiadamente. El método de Gumbel para el análisis de frecuencia de inundación (creciente) es un ejemplo típico del uso de los métodos probabilísticos en hidrología. El método de Gumbel es estadístico, ya que los parámetros de la distribución de la frecuencia son evaluados a partir de los datos medidos. Los métodos estocásticos ha sido utilizada primeramente en la generación sintética de series hidrológicas temporales, tales como flujos diarios de corriente de cuencas de tamaño medio, las cuales muestran componentes sustanciales del azar. La cascada de reservorios lineales es un ejemplo típico de modelo conceptual. En este caso, los procesos físicos de la concentración del escurrimiento y la difusión del mismo están siendo simulados en el medio por la difusión inherente en la solución matemática de un reservorio lineal. Dos o más reservorios en serie producen suficiente difusión de modo que la traslación (concentración del escurrimiento) y el almacenaje (difusión del escurrimiento) son simuladas efectivamente. Como en cualquier modelo conceptual, los datos de lluviaescurrimiento medidos son necesarios para determinar los valores apropiados de los parámetros del modelo. El análisis regional es un ejemplo típico de proyecto paramétrico para el modelado de cuencas hidrológicas. En este caso, las técnicas de regresión estadística son utilizadas para desarrollar ecuaciones predictivas que tengan aplicabilidad regional. Los parámetros de la ecuación de regresión tienen significancia regional, por ello, la extrapolación más allá de la región de definición no está garantizada. Relaciones precipitación-duración-frecuencia. Uno de los primeros pasos que debe seguirse en muchos proyectos de diseño hidrológico es la determinación del o los eventos de precipitación que deben usarse. La forma más común de hacerlo es utilizar una lluvia de diseño o un evento que involucre una relación entre la precipitación, la duración de esta, y las frecuencias o períodos de retorno apropiados para la obra y el sitio. Estos eventos, por otra parte, pueden estar basados en análisis regionales o de sitio específico (CHOW et al., 1994 y ZALINA et al., 2002). Procedimiento de análisis. AYALA y FERRER (1973) señalan que el procedimiento de análisis de frecuencia comprende las siguientes etapas: − verificar la confiabilidad de los datos hidrológicos − suponer ciertos modelos probabilísticos − estimar los parámetros estadísticos de las funciones de distribución de probabilidades de cada modelo elegido − realizar pruebas que permitan seleccionar el modelo probabilístico que mejor describe el fenómeno que se intenta representar

− estimar él o los valores de diseño correspondientes al período de retorno de interés. Según BROWN y VARGAS (1986); JARA (1986); BOOY y LYE (1989); CHOW et al. (1994) y VARAS y BOIS (1998), al estimar estos valores de diseño, existen varias fuentes de incertidumbre hidrológica que pueden ser divididas en tres categorías: − Incertidumbre natural o inherente con respecto al proceso de generación aleatoria del fenómeno de interés − Incertidumbre de modelo, al representar un proceso con un modelo inadecuado − Incertidumbre de parámetro, asociada a la metodología usada en la estimación de los parámetros del modelo. Análisis de confiabilidad de datos hidrológicos. VARAS (1996) indica que en un análisis de frecuencia la confiabilidad de las estimaciones depende esencialmente de la longitud, continuidad, precisión y representatividad de los registros disponibles. En consecuencia, que previo a usar la información recogida en una estación, esta debe ser examinada por posibles errores. Si tales errores son apreciables, ellos debieran ser analizados y corregidos antes de que el análisis de frecuencia sea realizado. Modelos de distribución de probabilidades. GRAY (1973) y KITE (1977) indican que el criterio más importante en la elección de un modelo particular es que hay una teoría sólida describiendo un fenómeno y que el modelo debe extraer la máxima información de los datos usando apropiadas técnicas de estimación. AYALA y FERRER (1973) señalan que de acuerdo a las propiedades de los datos hidrológicos, en general, las funciones de densidad de probabilidades de cada modelo deben tener las siguientes características: − la función debe ser continua y estar definida para todo valor positivo de la variable − el límite inferior debe ser cero o un valor positivo de la variable − el límite superior debe estar definido hasta el infinito − para valores grandes de la variable, la función debe hacerse asintótica con cero. Esto es lógico por cuanto valores menos frecuentes de las variables hidrológicas son aquellos valores altos − la forma general de la función debe ser de campana unimodal con dos colas y con gran variedad de asimetría. BENJAMIN y CORNELL (1981) y DUAN et al. (1998), señalan que la habilidad de un modelo probabilístico para ajustarse a los datos de precipitación depende de la flexibilidad y la naturaleza intrínseca de la forma de la función de distribución de probabilidades (fdp). Mientras más parámetros tenga un modelo, más versátil se vuelve su fdp y mejor se la puede ajustar a los datos. Según HARGREAVES (1988); BOBÉE et al. (1993) y ZALINA et al. (2002), no existe en hidrología ninguna base teórica sólida para justificar una función

específica de distribución de probabilidades. Como no hay un procedimiento teórico para decidir que modelo probabilístico es el “mejor” en un análisis de frecuencia particular, es habitual verificar y comparar la conveniencia o conformidad de muchas distribuciones candidatas y hacer una elección entre ellas basándose en consideraciones como ajuste de datos disponibles, facilidad computacional y consistencia con varios tamaños de muestra. Estimación de parámetros. AYALA y FERRER (1973) y KITE (1977), señalan que una vez que un modelo probabilístico ha sido escogido, la segunda fuente de error es aparente: los parámetros estadísticos de la función de distribución de probabilidades deben ser estimados desde la muestra. Dado que la muestra está sujeta a errores, el método de estimación debe minimizar estos errores. Según OBREGÓN (1977) y YEVJEVICH (1978), un estimador es un estadígrafo cuyo valor observado intentamos usar para estimar el valor de un parámetro desconocido de una función de distribución de probabilidades. De este modo, pueden ser clasificados en términos de sesgo, eficiencia, consistencia, suficiencia y eficiencia asintótica. Se dice que un estimador es insesgado si su valor esperado es igual al parámetro que se intenta estimar, sea cual fuere el tamaño de la muestra. Se dice que un estimador es más eficiente que otro si, teniendo ambos el mismo valor esperado (en particular si ambos son insesgados), la varianza del primero es menor que la del segundo. Se dice que el estimador es consistente si, cuando el tamaño de la muestra tiende a infinito, su media tiende al parámetro que intenta estimar y su varianza tiende a cero (en otras palabras si converge en probabilidad al parámetro que intenta estimar). Se dice que un estimador es suficiente, si hace uso de toda la información que está contenida en la muestra. Se dice que un estimador es asintóticamente eficiente si es consistente y además, para tamaños de muestra suficientemente grandes, su varianza es menor que la de cualquier otro estimador del mismo parámetro. Kuczera (1982), citado por ARORA y SINGH (1989); WALLIS y WOOD (1985) y BOBÉE et al. (1993), indican que un estimador es robusto, si las cualidades de éste (sesgo, varianza, entre otras) son insensibles a pequeñas desviaciones respecto de la suposición que justifica el procedimiento de estimación. Por ende, un estimador robusto es estable (resistente) y eficiente frente a fluctuaciones del tamaño de la muestra, como la adición o sustracción de un dato. Gumbel sugirió que la distribución de valores extremos es apropiada para los análisis de avenidas, ya que la avenida anual podría ser considerada como la máxima de una muestra de 365 valores posibles cada año.

Fisher y Tipet mostraron que si uno selecciona el evento más grande de cada una de muchas muestras grandes, la distribución de estos valores extremos o máximos era independiente de la muestra original y se aproximaba a una distribución límite que sería la teoría a usar.

Entre las distribuciones posibles tenemos entre otras: -

Distribución Logarítmica Normal.

-

Distribución de valores extremos o Tipo I: Gumbel o Tipo III: Log – Pearson III

Seleccionar la distribución teórica más adecuada para los datos.

PROBLEMA:

Densidad de probabilidad: dotación log- normal P = PROBABILIDAD DE EXCEDENTA P  (x  X )

TR = PERIODO DE RETORNO

a) Determinar la probabilidad de igualación o excedencia de un caudal dado (TR dado Q).

b) Determinar el valor del caudal para una probabilidad dada:

SOLUCIÓN GRÁFICA:

Papel Probabilística adecuado.

SOLUCIÓN ANALÍTICA

QMAX  QMAX  K SQ m ax FACTOR DE FRECUENCIA

Log Qm ax  Log Qm ax  K S Log

Qmac

K depende de la distribución teórica K (TR,…)

PROBABILIDAD EMPÍRICA.- EXPERIMENTAL Ejemplo 11.1.1 Los valores de precipitación anual en Collage Station, Texas, desde 1911 hasta 1979 se muestran en la tabla 11.1.1 y en forma gráfica como una serie de tiempo en la figura 11.1.2 a) ¿Cuál es la probabilidad de que la precipitación anual R en cualquier año sea menor que 35 pulg.? ¿Mayor que 45 pulg.? ¿Entre 35 y 45 pulg.?

Solución. Existen n = 79 – 11 + 1 = 69años de información. Sea A el evento de que R < 35.0 pulg. B el evento de que R > 45.0 pulg. Los números de valores en la tabla 11.1.1 que caen en estos rangos son n1 = 23 y n8 = 19, luego P(A) = 23/69 = 0.333 y P(B) = 19/69 = 0.275. De la ecuación (11.1.3) la probabilidad deque la precipitación anual está entre 35 y 45 pulg. puede calcularse ahora

P (35.0  Y  45.0 pu lg)  1  P ( R  35.0)  P ( R  45.0)  1  0.333  0.275  0.392

Ejemplo 11.1.2 Suponiendo que la precipitación anual en College Station es un proceso independiente, calcule la probabilidad de que haya dos años sucesivos con precipitación menor que 35.0 pule. Compare esta probabilidad estimada con la frecuencia relativa de este evento en la información desde 1911 a 1979 (tabla 11.1.1)

Solución. Sea C el evento de que R < 35.0 pulg., para dos años sucesivos. Del ejemplo 11.1.1. P(R 60 pulg., y cada intervalos intermedios cubre un rango de 5 pulg. Ajuste de una precipitación normal a la precipitación anual en Collage Station, Texas, 1911-1979

Se calcula la función de frecuencia relativa f1 ( X ) (columna 3) con n=69. Por ejemplo, para ¡=4 (30-35 pulg.), ni = 14. La función de frecuencia acumulada (columna 4) se encuentra sumando las frecuencias relativas. Para ¡=4, 4

FS ( X 4 )   f S ( X j )  FS ( X 3 )  f S ( X 4 )  0.130  0.203  0.333 j 1

Puede notarse que esta es P(X  35.0 pulg.). Para ajustar la función de distribución normal, las estadísticas de la muestra x=39:77 pulg., y s=9 17 pulg., de la información obtenida desde 1911 hasta 1979 y se usan como estimativos para

 y  . Se calcula la variable normal estándar z

correspondiente al límite superior en cada uno de los intervalos de la información que se muestra en la columna 5 de la tabla. Por ejemplo para ¡=4,

z 

x





35.0  39.77   0.520 9.17

El valor correspondiente de la función de probabilidad normal acumulada está dado como 0.301, tal como se muestra en a columna 6 de la tabla. Se calcula la función de probabilidad incremental. Para ¡=4, p ( X 4 )  P(30  X  35 pu lg)  F (35)  F (30)  0.301  0.144  0.158

y los valores calculados en forma similar para otros intervalos se muestran en la columna 7. Las funciones de frecuencia relativa fS(xi) y p(xi) se grafican en la figura Fa y las funciones de frecuencia acumulada y de distribución de probabilidad Fs(xi) y F(x) están graficadas en la figura. Debido a la similitud de las dos funciones mostradas en cada una de las gráficas, es evidente que la distribución normal se ajusta muy bien a esta información de precipitación anual. Para verificar la bondad del ajuste, se calcula la prueba de estadística x2. Para ¡=4,

n f S ( X 4 )  p( X 4 ) 69 x (0.20290  0.157777)2   0.891 p( X 4 ) 0.157777 2

tal como se muestra en la columna 8. El valor total de esta columna es 2,377. El valor de

para una probabilidad

acumulada de 1-  = 0.95. Grados de libertad:   m  p  1  10  2  1  7

X 2 7 , 0,95  14 .1 Como este valor es mayor que x2 calculado, la hipótesis no puede rechazarse con un nivel de confianza de 95% el ajuste de la distribución normal a la información de precipitación anual de Collage Station se acepta.

Precipitación anual (pulg.) ◘ Muestra, fs(xi) Ajuste, p(xi) a) Función de frecuencia relativa

Precipitación anual (pulg.) • Muestra Fs (xi) – Ajuste F(xi) b) Función de frecuencia acumulada Figura.- Funciones de frecuencia para una distribución normal ajustada a la precipitación anual en Collage Station, Texas