Supongamos que tenemos dos variables aleatorias $X,Y$ y queremos medir cómo la variable aleatoria $Y$ varía con respecto a $X$. Tomamos $N$ puntos $\big\{(x_i,y_i)\big\}_{i=1}^N$ donde $\{x_i\}_{i=1}^N$ son muestras de la variable aleatoria $X$, así como $\{y_i\}_{i=1}^N$ de $Y$. En todo esto habría que tener en cuenta que al tomar muestras de cada variable aleatoria no solo hay una incertidumbre en la medida por las limitaciones del aparato con el que medimos, sino que también puede haber un error accidental o incluso sistemático al tomar cada medida. Sin embargo, no nos vamos a preocupar por esto ahora.
Supongamos que existe una funcion $f$ (que no necesariamente conocemos) tal que podamos escribir $Y=f(X)$, es decir, que $X,Y$ estén correlacionadas mediante $f$. La definición de derivada, se da como un límite, que se puede escribir de dos formas equivalentes: $$ f^{(1)}(x) = \lim_{h\to0} \frac{f(x+h)-f(x)}{h} = \lim_{h\to0} \frac{f(x)-f(x-h)}{h} $$ Sin embargo, no podemos tomar ese límite de manera continua, entre otras cosas, porque no tenemos un conjunto continuo, sino simplemente un conjunto discreto de puntos. Supongamos que $f$ es suficientemente derivable en cada punto que queramos calcular su derivada. Tomando un desarrollo de Taylor en torno a $x$ y en serie de potencias de $h$ nos llega a las siguientes. $$ \frac{f(x+h_2)-f(x)}{h_2} = f^{(1)}(x) + \frac{h_2}{2}f^{(2)}(x) + \frac{{h_2}^2}{6}f^{(3)}(x) + \mathcal{O}\big({h_2}^3\big) $$ $$ \frac{f(x)-f(x-h_1)}{h_1} = f^{(1)}(x) - \frac{h_1}{2}f^{(2)}(x) + \frac{{h_1}^2}{6}f^{(3)}(x) + \mathcal{O}\big({h_1}^3\big) $$ Que son las definiciones de derivada progresiva y derivada regresiva respectivamente. Sin embargo, vemos rápidamente que en ambas fórmulas lo estamos o bien infraestimando o sobreestimando. Esto sin contar que si bien $h_1$ o $h_2$ no son lo suficientemente pequeños, o si bien las sucesivas derivadas son grandes, la aproximación es bastante mala. Consideremos esta mejora: $$ \frac{f(x+h_2)-f(x-h_1)}{h_2+h_1} = f^{(1)}(x) + \frac{h_2-h_1}{2}f^{(2)}(x) + \frac{{h_2}^2-h_2h_1+{h_1}^2}{6}f^{(3)}(x)+\cdots $$ Esto es bastante mejor, ya que como $h_1\approx h_2$, los sucesivos términos desaparacen prácticamente y se les da mucha menos importancia. Aunque no lo parezca mucho, así se ha disminuido mucho el error. De hecho, para el caso particular que $h_1=h_2:=h$, se tiene que es realmente bella. $$ \frac{f(x+h)-f(x-h)}{2h} = f^{(1)}(x) + \frac{h^2}{6}f^{(3)}(x) + \mathcal{O}\big(h^4\big) $$ Esto se conoce como la derivada centrada, que como se puede observar tiene un error asociado mucho menos que los dos casos que inicialmente se contemplaron.
Así pues, todo se puede resumir en: $$ {y_i}^\prime \approx \begin{cases} \displaystyle \frac{y_2-y_1}{x_2-x_1} & i=1 \\[9pt] \displaystyle \frac{y_{i+1}-y_{i-1}}{x_{i+1}-x_{i-1}} & i=2,\cdots,N-1 \\[9pt] \displaystyle \frac{y_N-y_{N-1}}{x_N-x_{N-1}} & i=N \end{cases} $$
Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.
Supongamos que existe una funcion $f$ (que no necesariamente conocemos) tal que podamos escribir $Y=f(X)$, es decir, que $X,Y$ estén correlacionadas mediante $f$. La definición de derivada, se da como un límite, que se puede escribir de dos formas equivalentes: $$ f^{(1)}(x) = \lim_{h\to0} \frac{f(x+h)-f(x)}{h} = \lim_{h\to0} \frac{f(x)-f(x-h)}{h} $$ Sin embargo, no podemos tomar ese límite de manera continua, entre otras cosas, porque no tenemos un conjunto continuo, sino simplemente un conjunto discreto de puntos. Supongamos que $f$ es suficientemente derivable en cada punto que queramos calcular su derivada. Tomando un desarrollo de Taylor en torno a $x$ y en serie de potencias de $h$ nos llega a las siguientes. $$ \frac{f(x+h_2)-f(x)}{h_2} = f^{(1)}(x) + \frac{h_2}{2}f^{(2)}(x) + \frac{{h_2}^2}{6}f^{(3)}(x) + \mathcal{O}\big({h_2}^3\big) $$ $$ \frac{f(x)-f(x-h_1)}{h_1} = f^{(1)}(x) - \frac{h_1}{2}f^{(2)}(x) + \frac{{h_1}^2}{6}f^{(3)}(x) + \mathcal{O}\big({h_1}^3\big) $$ Que son las definiciones de derivada progresiva y derivada regresiva respectivamente. Sin embargo, vemos rápidamente que en ambas fórmulas lo estamos o bien infraestimando o sobreestimando. Esto sin contar que si bien $h_1$ o $h_2$ no son lo suficientemente pequeños, o si bien las sucesivas derivadas son grandes, la aproximación es bastante mala. Consideremos esta mejora: $$ \frac{f(x+h_2)-f(x-h_1)}{h_2+h_1} = f^{(1)}(x) + \frac{h_2-h_1}{2}f^{(2)}(x) + \frac{{h_2}^2-h_2h_1+{h_1}^2}{6}f^{(3)}(x)+\cdots $$ Esto es bastante mejor, ya que como $h_1\approx h_2$, los sucesivos términos desaparacen prácticamente y se les da mucha menos importancia. Aunque no lo parezca mucho, así se ha disminuido mucho el error. De hecho, para el caso particular que $h_1=h_2:=h$, se tiene que es realmente bella. $$ \frac{f(x+h)-f(x-h)}{2h} = f^{(1)}(x) + \frac{h^2}{6}f^{(3)}(x) + \mathcal{O}\big(h^4\big) $$ Esto se conoce como la derivada centrada, que como se puede observar tiene un error asociado mucho menos que los dos casos que inicialmente se contemplaron.
Así pues, todo se puede resumir en: $$ {y_i}^\prime \approx \begin{cases} \displaystyle \frac{y_2-y_1}{x_2-x_1} & i=1 \\[9pt] \displaystyle \frac{y_{i+1}-y_{i-1}}{x_{i+1}-x_{i-1}} & i=2,\cdots,N-1 \\[9pt] \displaystyle \frac{y_N-y_{N-1}}{x_N-x_{N-1}} & i=N \end{cases} $$
Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.