domingo, 24 de mayo de 2020

Solución de ecuaciones diferenciales(SEXTA UNIDAD)

               Solución de ecuaciones diferenciales 

                6.1 Métodos de un paso. 

Métodos de un paso: Método de Euler, Método de Euler mejorado y Método de Runge-Kutta


  • Método de Euler
Una de las técnicas más simples para aproximar soluciones de una ecuación diferencial es el método de Euler o de las rectas tangentes.
 

Este se obtiene de considerar una aproximación lineal a la para la solución exacta Y (x) del problema de valor inicial.



La aproximación lineal de Y 0(x) se representa como:


de donde, despejando Y (x + h) obtenemos:



Denotando Y (x+h) como yn+1 y f[x, y(x)] por f(xn, yn) obtenemos la fórmula del método de Euler.








  • Método de Euler Mejorado:

Mejora el cálculo de la pendiente, utilizando dos puntos (inicial y final de cada intervalo) para luego obtener un promedio, es decir:

  • Método de Runge-Kutta:

Los métodos de Runge-Kutta extienden la fórmula general de los métodos de un paso, utilizando el siguiente.

 
donde: (xi, yi, h) se denomina función incremento y representa una aproximación de la pendiente del intervalo [xi, xi+1]. Dicha aproximación se calcula como una combinación lineal de las pendientes en puntos específicos del intervalo.




6.2 Método de pasos múltiples. 

  • Se considera el problema de valores iniciales (P.V.I.) 8<: y0(x) = f(x; y(x)); x 2 [a; b]; y(a) = y0 dado, el que supondremos tiene solución única, y : [a; b]
Dada una partición del intervalo [a; b]: a = x0 < x1 <    < xN = b; los métodos que hemos visto hasta aquí sólo usan la información del valor yi de la solución calculada en xi para obtener yi+1. Por eso se denominan métodos de paso simple.
Parece razonable pensar que también podrían utilizarse los valores yi.
Para ello, si integramos y0(x) = f(x; y(x)) en el intervalo [xi; xi+1], se tiene: Z xi+1 xi y0(x) dx = Z xi+1 xi f(x; y(x)).

  • Los métodos de un paso descritos en las secciones anteriores utilizan información en un solo punto xi para 
predecir un valor de la variable dependiente yi+1 en un punto futuro xi+1. Procedimientos alternativos, 
llamados métodos multipaso, se basan en el conocimiento de que una vez empezado el cálculo, se tiene 
información valiosa de los puntos anteriores y esta a nuestra disposición. La curvatura de las líneas que 
conectan esos valores previos proporciona información con respecto a la trayectoria de la solución. Los 
métodos multipaso que exploraremos aprovechan esta información para resolver las EDO. Antes de describir 
las versiones de orden superior, presentaremos un método simple de segundo orden que sirve para 
demostrar las características generales de los procedimientos multipaso.

6.3 Sistemas de ecuaciones diferenciales ordinarias.
Un sistema de ecuaciones diferenciales es un conjunto de varias ecuaciones diferenciales  con varias funciones incógnitas y un conjunto de condiciones de contorno. Una solución del mismo es un conjunto de funciones diferenciables que satisfacen todas y cada una de las ecuaciones del sistema. Según el tipo de ecuaciones diferenciales pude tenerse un sistema de ecuaciones diferenciales ordinarias o un sistema de ecuaciones en derivadas parciales.
En un sistema de ecuaciones diferenciales ordinarias de cualquier orden, puede ser reducido a un sistema equivalente de primer orden, si se introducen nuevas variables y ecuaciones. Por esa razón en este artículo sólo se consideran sistemas de ecuaciones de primer orden. Un sistema de ecuaciones diferenciales ordinarias de primer orden escrito en forma explícita es un sistema de ecuaciones de la forma:




                     6.4 Aplicaciones 







Interpolación y ajuste de funciones (QUINTA UNIDAD)


Interpolación  y ajuste de funciones


5.1 Polinomio de interpolación de Newton.

Uno de estas formas de interpolación se denomina Polinomios de Interpolación de

Newton, que trabaja directamente en la tabla obtenida mediante el proceso de Diferencias Divididas; En el desarrollo de estas diferencias finitas, se obtuvo en primer lugar las diferencias finitas ordinarias y luego las diferencias finitas divididas.

Interpolación polinomial de Newton
Algunos casos: lineal, de segundo grado y de tercer grado.


 

Interpolación lineal
Utilizando triángulos semejantes

Reordenando


5.2 Polinomio de interpolacion de Lagrange


En análisis numérico, el polinomio de Lagrange, llamado así en honor a Joseph-Louis de Lagrange, es el polinomio que interpola un conjunto de puntos dado en la forma de Lagrange. Fue descubierto por Edward Waring en 1779 y redescubierto más tarde por Leonhard Euler en 1783


Dado que existe un único polinomio interpolador para un determinado conjunto de puntos, resulta algo confuso llamar a este polinomio el polinomio interpolador de Lagrange. Un nombre más conciso es interpolación polinómica en la forma de Lagrange.
Existen en todas las ramas de la ciencia, en la Física, en la Matemática, en la Química, en la Astronomía, en Biología, etc.. situaciones en las que conociendo un conjunto de datos experimentales en un cierto intervalo de la variable independiente, esto es, conociendo una cierta cantidad de datos tabulados, se hace preciso encontrar una función que verifique todos esos datos y permita, por consiguiente, predecir la existencia de otros valores con la aproximación adecuada. El problema de la interpolación es de gran importancia en el análisis numérico. En este artículo vemos muy brevemente una manera elemental de interpolación y la obtención de la conocida Fórmula Interpoladora de Lagrange.

  • Interpolacion y Polinomio de Interpolacion de Lagrange
Se trata de encontrar un polinomio de grado n que pase por los puntos (x0f(x0)), (x1f(x1)), ... (xnf(xn)), se construye un cociente Ln,k(xk) con la propiedad de que
Ln,k(xi) = 0 cuando ¹ k y Ln,k(xk) = 1
Se requiere entonces que el numerador contenga
(x – x0) (x – x1)... (x – xk–1)(x – xk+1)... (x – xn)
El denominador debe coincidir con el numerador cuando x = xk.
  • N-ésimo polinomio interpolante de Lagrange
Teorema
Si x0x1x2, ... xn, son n+1 números distintos y si f es una función cuyos valores están dados en esos números, entonces existe un polinomio de grado a lo más n, con la propiedad de que
f(xk) = P(xk) para cada k = 0, 1, 2, ...n
Este polinomio está dado por:

Donde 


5.3 Interpolación segmentada 


Esta interpolación se llama interpolación segmentaria o interpolación por splines. La idea central es que en vez de usar un solo polinomio para interpolar los datos, podemos usar segmentos de polinomios y unirlos adecuadamente para formar nuestra interpolación. Cabe mencionar que entre todas, las splines cúbicas han resultado ser las más adecuadas para aplicaciones como la mencionada anteriormente. Así pues, podemos decir de manera informal, que una funcion spline está formada por varios polinomios, cada uno definido en un intervalo y que se unen entre si bajo ciertas condiciones de continuidad. 

Interpolación Segmentaria Lineal 

Este es el caso más sencillo. En él, vamos a interpolar una función f(x) de la que se nos dan un número N de pares (x,f(x)) por los que tendrá que pasar nuestra función polinómica P(x). Esta serie de funciones nuestras van a ser lineales, esto es, con grado 1: de la forma P(x) = ax + b. Definiremos una de estas funciones por cada par de puntos adyacentes, hasta un total de (N-1) funciones, haciéndolas pasar obligatoriamente por los puntos que van a determinarlas, es decir, la función P(x) será el conjunto de segmentos que unen nodos consecutivos; es por ello que nuestra función será continua en dichos puntos, pero no derivable en general.


Interpolación Segmentaria Cuadrática 

En este caso, los polinomios P(x) a través de los que construimos el Spline tienen grado 2. Esto quiere decir, que va a tener la forma P(x) = ax² + bx + c Como en la interpolación segmentaria lineal, vamos a tener N-1 ecuaciones (donde N son los puntos sobre los que se define la función). La interpolación cuadrática nos va a asegurar que la función que nosotros generemos a trozos con los distintos P(x) va a ser continua, ya que para sacar las condiciones que ajusten el polinomio, vamos a determinar como condiciones: Que las partes de la función a trozos P(x) pasen por ese punto. Es decir, que las dos Pn(x) que rodean al f(x) que queremos aproximar, sean igual a f(x) en cada uno de estos puntos. Que la derivada en un punto siempre coincida para ambos "lados" de la función definida a trozos que pasa por tal punto común. Esto sin embargo no es suficiente, y necesitamos una condición más. ¿Por qué?. Tenemos 3 incógnitas por cada P(x). En un caso sencillo con f(x) definida en tres puntos y dos ecuaciones P(x) para aproximarla, vamos a tener seis incógnitas en total. Para resolver esto necesitaríamos seis ecuaciones, pero vamos a tener tan sólo cinco: cuatro que igualan el P(x) con el valor de f(x) en ese punto (dos por cada intervalo), y la quinta al igualar la derivada en el punto común a las dos P(x). Se necesita una sexta ecuación,¿de dónde se extrae? Esto suele hacerse con el valor de la derivada en algún punto, al que se fuerza uno de los P(x). 


Interpolación Segmentaria Cúbica 

En este caso, cada polinomio P(x) a través del que construimos los Splines en [m,n] tiene grado 3. Esto quiere decir, que va a tener la forma P(x) = ax³ + bx² + cx + d En este caso vamos a tener cuatro variables por cada intervalo (a,b,c,d), y una nueva condición para cada punto común a dos intervalos, respecto a la derivada segunda: Que las partes de la función a trozos P(x) pasen por ese punto. Es decir, que las dos Pn(x) que rodean al f(x) que queremos aproximar, sean igual a f(x) en cada uno de estos puntos. Que la derivada en un punto siempre coincida para ambos "lados" de la función definida a trozos que pasa por tal punto común. Que la derivada segunda en un punto siempre coincida para ambos "lados" de la función definida a trozos que pasa por tal punto común. Como puede deducirse al compararlo con el caso de splines cuadráticos, ahora no nos va a faltar una sino dos ecuaciones (condiciones) para el número de incógnitas que tenemos. La forma de solucionar esto, determina el carácter de los splines cúbicos. Así, podemos usar: Splines cúbicos naturales: La forma más típica. La derivada segunda de P se hace 0 para el primer y último punto sobre el que está definido el conjunto de Splines, esto son, los puntos m y n en el intervalo [m,n]. Dar los valores de la derivada segunda de m y n de forma "manual", en el conjunto de splines definidos en el intervalo [m,n]. Hacer iguales los valores de la derivada segunda de m y n en el conjunto de splines definidos en el intervalo [m,n]. 

 5.4 Regresión y correlación
La correlación lineal y la regresión lineal simple son métodos estadísticos que estudian la relación lineal existente entre dos variables. Antes de profundizar en cada uno de ellos, conviene destacar algunas diferencias:
  • La correlación cuantifica como de relacionadas están dos variables, mientras que la regresión lineal consiste en generar una ecuación (modelo) que, basándose en la relación existente entre ambas variables, permita predecir el valor de una a partir de la otra.
  • El cálculo de la correlación entre dos variables es independiente del orden o asignación de cada variable a X e Y, mide únicamente la relación entre ambas sin considerar dependencias. En el caso de la regresión lineal, el modelo varía según qué variable se considere dependiente de la otra (lo cual no implica causa-efecto).
  • A nivel experimental, la correlación se suele emplear cuando ninguna de las variables se ha controlado, simplemente se han medido ambas y se desea saber si están relacionadas. En el caso de estudios de regresión lineal, es más común que una de las variables se controle (tiempo, concentración de reactivo, temperatura…) y se mida la otra.
  • Por norma general, los estudios de correlación lineal preceden a la generación de modelos de regresión lineal. Primero se analiza si ambas variables están correlacionadas y, en caso de estarlo, se procede a generar el modelo de regresión.

Correlación lineal


Para estudiar la relación lineal existente entre dos variables continuas es necesario disponer de parámetros que permitan cuantificar dicha relación. Uno de estos parámetros es la covarianza, que indica el grado de variación conjunta de dos variables aleatorias.
Covarianza muestral=Cov(X,Y)=i=1n(xix¯)(yiy¯)N1
siendo x¯ e y¯ la media de cada variable y xi e yi el valor de las variables para la observación i.
La covarianza depende de las escalas en que se miden las variables estudiadas, por lo tanto, no es comparable entre distintos pares de variables. Para poder hacer comparaciones se estandariza la covarianza, generando lo que se conoce como coeficientes de correlación. Existen diferentes tipos, de entre los que destacan el coeficiente de PearsonRho de Spearman y Tau de Kendall.
  • Todos ellos varían entre +1 y -1. Siendo +1 una correlación positiva perfecta y -1 una correlación negativa perfecta.
  • Se emplean como medida de fuerza de asociación (tamaño del efecto):
    • 0: asociación nula.
    • 0.1: asociación pequeña.
    • 0.3: asociación mediana.
    • 0.5: asociación moderada.
    • 0.7: asociación alta.
    • 0.9: asociación muy alta.
Las principales diferencias entre estos tres coeficientes de asociación son:
  • La correlación de Pearson funciona bien con variables cuantitativas que tienen una distribución normal. En el libro Handbook of Biological Statatistics se menciona que sigue siendo bastante robusto a pesar de la falta de normalidad. Es más sensible a los valores extremos que las otras dos alternativas.
  • La correlación de Spearman se emplea cuando los datos son ordinales, de intervalo, o bien cuando no se satisface la condición de normalidad para variables continuas y los datos se pueden transformar a rangos. Es un método no paramétrico.
  • La correlación de Kendall es otra alternativa no paramétrica para el estudio de la correlación que trabaja con rangos. Se emplea cuando se dispone de pocos datos y muchos de ellos ocupan la misma posición en el rango, es decir, cuando hay muchas ligaduras.
Además del valor obtenido para el coeficiente de correlación, es necesario calcular su significancia. Solo si el p-value es significativo se puede aceptar que existe correlación, y esta será de la magnitud que indique el coeficiente. Por muy cercano que sea el valor del coeficiente de correlación a +1 o 1, si no es significativo, se ha de interpretar que la correlación de ambas variables es 0, ya que el valor observado puede deberse a simple aleatoriedad.
El test paramétrico de significancia estadística empleado para el coeficiente de correlación es el t-test. Al igual que ocurre siempre que se trabaja con muestras, por un lado está el parámetro estimado (en este caso el coeficiente de correlación) y por otro su significancia a la hora de considerar la población entera. Si se calcula el coeficiente de correlación entre X e Y en diferentes muestras de una misma población, el valor va a variar dependiendo de las muestras utilizadas. Por esta razón se tiene que calcular la significancia de la correlación obtenida y su intervalo de confianza.
t=rN21r2,   df=N2

Para este test de hipótesis, H0 considera que las variables son independientes (coeficiente de correlación poblacional = 0) mientras que, la Ha, considera que existe relación (coeficiente de correlación poblacional  0)
La correlación lineal entre dos variables, además del valor del coeficiente de correlación y de sus significancia, también tiene un tamaño de efecto asociado. Se conoce como coeficiente de determinación R2. Se interpreta como la cantidad de varianza de Y explicada por X. En el caso del coeficiente de Pearson y el de SpearmanR2 se obtiene elevando al cuadrado el coeficiente de correlación. En el caso de Kendall no se puede calcular de este modo. (No he encontrado como se calcula).
Mediante bootstrapping también se puede calcular la significancia de un coeficiente de correlación. Es una alternativa no paramétrica al t-testResampling: Test de permutación, Simulación de Monte Carlo y Bootstrapping).

Coeficiente de Pearson


El coeficiente de correlación de Pearson es la covarianza estandarizada, y su ecuación difiere dependiendo de si se aplica a una muestra, Coeficiente de Pearson muestral (r), o si se aplica la población Coeficiente de Pearson poblacional (ρ).
ρ=Cov(X,Y)σxσy

rxy=i=1n(xix¯)(yiy¯)i=1n(xix¯)2i=1n(yiy¯)2¯

Condiciones
  • La relación que se quiere estudiar entre ambas variables es lineal (de lo contrario, el coeficiente de Pearson no la puede detectar).
  • Las dos variables deben de ser cuantitativas.
  • Normalidad: ambas variables se tienen que distribuir de forma normal. Varios textos defienden su robustez cuando las variables se alejan moderadamente de la normal.
  • Homocedasticidad: La varianza de Y debe ser constante a lo largo de la variable X. Esto se puede identificar si en el scatterplot los puntos mantienen la misma dispersión en las distintas zonas de la variable XEsta condición no la he encontrado mencionada en todos los libros.
Características
  • Toma valores entre [-1, +1], siendo +1 una correlación lineal positiva perfecta y -1 una correlación lineal negativa perfecta.
  • Es una medida independiente de las escalas en las que se midan las variables.
  • No varía si se aplican transformaciones a las variables.
  • No tiene en consideración que las variables sean dependientes o independientes.
  • El coeficiente de correlación de Pearson no equivale a la pendiente de la recta de regresión.
  • Es sensible a outliers, por lo que se recomienda en caso de poder justificarlos, excluirlos del análisis.
Interpretación
Además del valor obtenido para el coeficiente, es necesario calcular su significancia. Solo si el p-value es significativo se puede aceptar que existe correlación y esta será de la magnitud que indique el coeficiente. Por muy cercano que sea el valor del coeficiente de correlación a +1 o -1, si no es significativo, se ha de interpretar que la correlación de ambas variables es 0 ya que el valor observado se puede deber al azar. (Ver más adelante como calcular la significancia).

Coeficiente de Spearman (Spearman’s rho)


El coeficiente de Spearman es el equivalente al coeficiente de Pearson pero con una previa transformación de los datos a rangos. Se emplea como alternativa cuando los valores son ordinales, o bien, cuando los valores son continuos pero no satisfacen la condición de normalidad requerida por el coeficiente de Pearson y se pueden ordenar transformándolos en rangos. Al trabajar con rangos, es menos sensible que Pearson a valores extremos. Existe una diferencia adicional con respecto a Pearson. El coeficiente de Spearman requiere que la relación entre las variables sea monótona, es decir, que cuando una variable crece la otra también lo hace o cuando una crece la otra decrece (que la tendencia sea constante). Este concepto no es exactamente el mismo que linealidad.
rs=16di2n(n21),

Siendo di la distancia entre los rangos de cada observación (xiyi) y n el número de observaciones.

Coeficiente Tau de Kendall


Trabaja con rangos, por lo que requiere que las variables cuya relación se quiere estudiar sean ordinales o que se puedan transformar en rangos. Al ser no paramétrico, es otra alternativa al Coeficiente de correlación de Pearson cuando no se cumple la condición de normalidad. Parece ser más aconsejable que el coeficiente de Spearman cuando el número de observaciones es pequeño o los valores se acumulan en una región por lo que el número de ligaduras al generar los rangos es alto.
τ=CD12n(n1),

Siendo C el número de pares concordantes, aquellos en los que el rango de la segunda variable es mayor que el rango de la primera variable. D el número de pares discordantes, cuando el rango de la segunda es igual o menor que el rango de la primera variable.
Tau represents a probability; that is, it is the difference between the probability that the two variables are in the same order in the observed data versus the probability that the two variables are in different orders.

Jackknife correlation


El coeficiente de correlación de Pearson resulta efectivo en ámbitos muy diversos. Sin embargo, tiene la desventaja de no ser robusto frente a outliers a pesar de que se cumpla la condición de normalidad. Si dos variables tienen un pico o un valle común en una única observación, por ejemplo por un error de lectura, la correlación va a estar dominada por este registro a pesar de que entre las dos variables no haya correlación real alguna. Lo mismo puede ocurrir en la dirección opuesta. Si dos variables están altamente correlacionadas excepto para una observación en la que los valores son muy dispares, entonces la correlación existente quedará enmascarada. Una forma de evitarlo es recurrir a la Jackknife correlation, que consiste en calcular todos los posibles coeficientes de correlación entre dos variables si se excluye cada vez una de las observaciones. El promedio de todas las Jackknife correlations calculadas atenuará en cierta medida el efecto del outlier.
θ¯(A,B)=Promedio Jackknife correlation (A,B)=1ni=1nr^i
Donde n es el número de observaciones y r^i es el coeficiente de correlación de Pearson estimado entre las variables A y B, habiendo excluido la observación i.
Además del promedio, se puede estimar su error estándar (SE) y así obtener intervalos de confianza para la Jackknife correlation y su correspondiente p-value.
SE=n1ni=1n(r^iθ¯)2

Intervalo de confianza del 95% (Z=1.96)
Promedio Jackknife correlation (A,B)± 1.96SE

θ¯1.96n1ni=1n(r^iθ¯)2 ,  θ¯+1.96n1ni=1n(r^iθ¯)2
P-value para la hipótesis nula de que θ¯=0:
Zcalculada=θ¯H0SE=θ¯0n1ni=1n(r^iθ¯)2

pvalue=P(Z>Zcalculada)

Cuando se emplea este método es conveniente calcular la diferencia entre el valor de correlación obtenido por Jackknife correlation (θ¯) y el que se obtiene si se emplean todas las observaciones (r¯). A esta diferencia se le conoce como Bias. Su magnitud es un indicativo de cuanto está influenciada la estimación de la correlación entre dos variables debido a un valor atípico u outlier.
Bias=(n1)(θ¯r^)

Si se calcula la diferencia entre cada correlación (r^i) estimada en el proceso de Jackknife y el valor de correlación (r^) obtenido si se emplean todas las observaciones, se puede identificar que observaciones son más influyentes.
Cuando el estudio requiere minimizar al máximo la presencia de falsos positivos, a pesar de que se incremente la de falsos negativos, se puede seleccionar como valor de correlación el menor de entre todos los calculados en el proceso de Jackknife.
Correlacion=min{r^1,r^2,...,r^n}

A pesar de que el método de Jackknife permite aumentar la robustez de la correlación de Pearson, si los outliers son muy extremos su influencia seguirá siendo notable. Siempre es conveniente una representación gráfica de los datos para poder identificar si hay valores atípicos y eliminarlos. Otras alternativas robustas son la correlación de Spearman o el método de Bootsrapping.

Ejemplo correlación lineal


Se dispone de un data set con información sobre diferentes coches. Se quiere estudiar si existe una correlación entre el peso de un vehículo (Weight) y la potencia de su motor (Horsepower).
R contiene funciones que permiten calcular los diferentes tipos de correlaciones y sus niveles de significancia: cor() y cor.test(). La segunda función es más completa ya que además de calcular el coeficiente de correlación indica su significancia (p-value) e intervalo de confianza.
library(MASS)
library(ggplot2)
data("Cars93")
En primer lugar se representan las dos variables mediante un diagrama de dispersión para intuir si existe relación lineal o monotónica. Si no la hay, no tiene sentido calcular este tipo de correlaciones.
ggplot(data = Cars93, aes(x = Weight, y = Horsepower)) + 
  geom_point(colour = "red4") +
  ggtitle("Diagrama de dispersión") +
  theme_bw() +
  theme(plot.title = element_text(hjust = 0.5))
El diagrama de dispersión parece indicar una posible relación lineal positiva entre ambas variables.
Para poder elegir el coeficiente de correlación adecuado, se tiene que analizar el tipo de variables y la distribución que presentan. En este caso, ambas variables son cuantitativas continuas y pueden transformarse en rangos para ordenarlas, por lo que a priori los tres coeficientes podrían aplicarse. La elección se hará en función de la distribución que presenten las observaciones.
 5.5 Mínimos cuadrados
El método de mínimos cuadrados sirve para interpolar valores, dicho en otras palabras, se usa para buscar valores desconocidos usando como referencia otras muestras del mismo evento.
El método consiste en acercar una línea o una curva, según se escoja, lo más posible a los puntos determinados por la coordenadas [x, f(x)], que normalmente corresponden a muestras de algún experimento.
Cabe aclarar que este método, aunque es sencillo de implantar no es del todo preciso, pero si proporciona una interpolación aceptable.

Como se comento previamente se puede usar una recta o una curva como base para calcular nuevos valores.

Solución de ecuaciones diferenciales(SEXTA UNIDAD)

               Solución de ecuaciones diferenciales                  6.1 Métodos de un paso.   Métodos de un paso: Método de Euler, Méto...