viernes, 12 de abril de 2024

(983) - Cómo aproximar los ceros (las raíces) de una función. Métodos de Newton-Rhapson y Newton-Fourier

Supongamos que tenemos una función $f(x)$ dos veces derivable en un intervalo $[a,b]$, que tiene una raíz $\alpha\in[a,b]$, es decir $f(\alpha)=0$.Además suponemos que tanto la primera derivada, $f^{(1)}(x)$, como la segunda, $f^{(2)}(x)$, no se anulan en el intervalo $[a,b]$.

En el método de Newton-Rhapson suponemos que el extremo derecho del intervalo, $x_0=b$, es una buena estimación para la raíz (de hecho valdría otro punto del intervalo, pero tomaremos este por simplicidad). Se calcula la recta tangente a la función $f(x)$ en el punto $x=x_0$, es decir, $f(x_0) + f^{(1)}(x_0)\,(x-x_0)$, donde estamos despreciando términos de orden $\mathcal{O}\big((x-x_0)^2\big)$. Como la recta tangente a la función es una buena aproximación local a la función, calculamos el punto donde se anula la recta tangente, que lo llamamos $x_1$: $$ x_1 = x_0 - \frac{f(x_0)}{f^{(1)}(x_0)} $$ Si ahora iteramos esto con el punto $x_1$, se llega a otro punto $x_2$, y así sucesivamente se obtiene una sucesión $\{x_n\}_{n=0}^\infty$ que converge hacia la raíz $\alpha$. Lo bueno de este método es que existe una constante $\displaystyle M=\frac{1}{2}\sup_{x\in[a,b]}\left\{\left|\frac{f^{(2)}(x)}{f^{(1)}(x)}\right|\right\}>0$ tal que $|x_{n+1}-\alpha|\leqslant M (x_n-\alpha)^2$, es decir, converge cuadráticamente, y donde se satisface: $\displaystyle \lim_{n\to\infty} \frac{x_{n+1}-\alpha}{(x_n-\alpha)^2}= \frac{f^{(2)}(\alpha)}{2f^{(1)}(\alpha)} $.

El método de Newton-Fourier en la iteración inicial considera el extremo izquierdo del intervalo, $z_0=a$, es una buena primera estimación. En vez de considerar la recta tangente, considera la recta paralela a la recta tangente del método de Newton-Raphson, es decir, con la pendiente $f^{(1)}(x_0)$, pero que pase por el punto $\big(z_0,f(z_0)\big)$, por lo que la ecuación de esta recta queda $f(z_0) + f^{(1)}(x_0)\,(x-z_0)$. Una vez más vemos donde se anula, que llamaremos $z_1$, dando: $$ z_1 = z_0 - \frac{f(z_0)}{f^{(1)}(x_0)} $$ Donde una vez más se puede crear una secuencia $\{z_n\}_{n=0}^\infty$ que converge hacia la raíz $\alpha$. Es más, la secuencia $\{z_n\}_{n=0}^\infty$ es estrictamente decreciente, mientras que la secuencia $\{z_n\}_{n=0}^\infty$ es estrictamente creciente, ambas convergiendo a la raíz $\alpha$ de forma cuadrática, ya que existe una constante $K>0$ tal que $|x_{n+1}-z_{n+1}|\leqslant K (x_n-z_n)^2$ donde se satisface: $\displaystyle \lim_{n\to\infty} \frac{x_{n+1}-z_{n+1}}{(x_n-z_n)^2}= \frac{f^{(2)}(\alpha)}{2f^{(1)}(\alpha)} $.

Si reunimos toda la información $$ \left\{ \begin{matrix} x_{n+1} & = & \displaystyle x_n-\frac{f(x_n)}{f^{(1)}(x_n)} &\quad & x_0=b &\quad& x_n\downarrow\alpha \\ z_{n+1} & = & \displaystyle z_n-\frac{f(z_n)}{f^{(1)}(x_n)} &\quad & z_0=a &\quad& z_n\uparrow\alpha\\ \end{matrix} \right. \\ a = z_0 \lneq z_1 \lneq \cdots \lneq z_n \lneq \cdots \lneq \alpha \lneq \cdots \lneq x_n \lneq \cdots \lneq x_1 \lneq x_0 = b $$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 29 de marzo de 2024

(977) - El nieto de Darwin & Weber corrigen a Coulomb & Maxwell. Los otros Darwin

"Un matemático es un ciego en un cuarto a oscuras buscando un gato negro, que no está ahí" es una frase normalmente asociada al biólogo Charles Robert Darwin ($1809-1882$). Sin embargo, es una cita falsa. En su propia biografía escribió: "Me he arrepentido profundamente de que no seguí lo suficientemente lejos para al menos entender los grandes principios gobernantes de la matemática, que para aquellos que los entienden, parece que tienen un sentido extra."

Estos fuertes sentimientos se los transmitió a su hijo George Howard Darwin ($1845-1912$), matemático y astrónomo, y este al suyo, Charles Galton Darwin ($1887-1962$), un físico.

En el artículo de hoy, tratamos un tema entre la mecánica teórica y la electrodinámica semi-clásica. La ley de Coulomb se suele plantear como una ley empírica para cargas puntuales en reposo (luego se suele generalizar para distribuciones varias de cargas). Nótese el "en reposo". Dos cargas tendrán una interacción tipo Coulomb entre ellas, que perturbará su estado de reposo. El lagrangiano que describe la interacción entre dos partículas es el debido a las partículas sin interacción (simplemente con la energía cinética clásica y una corrección relativista a primer order), y el de la interacción per se entre las partículas: el de la interacción Coulombiana y el lagrangiano de Darwin, que describe las interacciones a primer orden relativista entre dos partículas, que se debe a que cada partícula reacciona al campo magnético generado por la otra.

El físico alemán Wilhelm Eduard Weber ($1804-1891$) es el padre de una concepción de la electrodinámica que lleva su nombre, donde ahora la Ley de Coulomb se corrige para ser dependiente de la velocidad: $$ \vec{F} = \frac{q_1 q_2}{4 \pi \varepsilon_0r^2}\left(1-\frac{\dot{\vec{r}}\cdot\dot{\vec{r}}}{2 c^2}+\frac{\vec{r}\cdot\ddot{\vec{r}}}{c^2}\right) \widehat{r} $$ Darwin no paró ahí sus contribuciones a la electridinámica. Por ejemplo en el tratamiento del átomo de hidrógeno hay muchos matices: normalmente se resuelve la ecuación de la forma más simple posible y luego se tiene en cuenta a posteriori los diferentes efectos que hay presentes, que se introducen como términos extra sucesivos. Entre ellos, está el término de Darwin (en la expansión no-relativista de la ecuación de Dirac, que proviene en las fluctuaciones cuánticas del movimiento del electrón - Zitterbewegung).




Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 15 de marzo de 2024

(971) - Integral exponencial

Consideremos la función integral exponencial, que para valores positivos se define tal que: $$\begin{array}{ cccc }
\operatorname{Ei}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\
& x & \longmapsto & \displaystyle -\!\!\!\!\!\!\int_{-x}^\infty\!\frac{e^{-t}}{-t} \text{d}t
\end{array}$$ Hay quien incluso prefiere definir la integral exponencial entera: $$\begin{array}{ cccc }
\operatorname{Ein} : & \mathbb{R}& \longrightarrow & \mathbb{R}\\
& x & \longmapsto & \displaystyle \int_0^x\! \frac{1-e^{-t}}{t} \text{d}t
\end{array}$$
Sin embargo, esta definición inicial presenta ciertos problemas en algunos casos, por lo que se prefiere a veces definir una familia de funciones íntimamente relacionadas:
$$\begin{array}{ cccc }
\operatorname{E}_n : & \mathbb{R}& \longrightarrow & \mathbb{R}\\
& x & \longmapsto & \displaystyle \int_1^\infty\!\frac{e^{-xt}}{t^n} \text{d}t
\end{array}$$
Donde se tiene que $$ \operatorname{E}_1(x) = -\operatorname{Ei}(-x) $$
Que es una relación muy útil a la hora de relacionar las dos definiciones. Es más, $$ \operatorname{E}_1(x) = -\!\!\!\!\!\!\int_x^\infty\!\frac{e^{-t}}{t} \text{d}t $$ Que es básicamente sustituir en la definición anterior la identidad expresadad.
Si denotamos $\gamma$ la constante de Euler-Mascheroni, se tiene que: $$\operatorname{Ein}(z)=\gamma+\ln(z)+\operatorname{E}_1(z)$$

Nótese que aunque la familia de funciones integrales exponenciales puede parecer más aparatoso, se tienen las siguientes relaciones que simplifican los cálculos. $$ {\operatorname{E}_n}^{(1)}(x) = -\operatorname{E}_{n-1}(x) \iff \operatorname{E}_{n+1}(x) = \frac{e^{-x}-x\operatorname{E}_n(x)}{n} $$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 1 de marzo de 2024

(967) - Trigonometría integral

Consideremos dos funciones definidas a partir de integrales. El seno integral se define como: $$\begin{array}{ cccc } \operatorname{Si}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\ & x & \longmapsto & \displaystyle \int_0^x \!\frac{\sin(t)}{t} \text{d}t \end{array}$$ Sin embargo, hay quienes prefieren la definición: $$\begin{array}{ cccc } \operatorname{si}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\ & x & \longmapsto & \displaystyle -\int_x^\infty \!\frac{\sin(t)}{t} \text{d}t \end{array}$$ Donde ambas están interrelacionadas por $$ \operatorname{Si}(z)-\operatorname{si}(z)=\frac{\pi}{2}$$ La función coseno integral viene definida por $$\begin{array}{ cccc } \operatorname{ci}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\ & x & \longmapsto & \displaystyle -\int_x^\infty \!\frac{\cos(t)}{t} \text{d}t \end{array}$$ A su vez, hay quien recurre a la función coseno integral entero para definir la anterior, donde se tiene que: $$\begin{array}{ cccc } \operatorname{Cin}: & \mathbb{R}& \longrightarrow & \mathbb{R}\\ & x & \longmapsto & \displaystyle \int_0^x \!\frac{1-\cos(t)}{t} \text{d}t \end{array}$$ Si denotamos $\gamma$ la constante de Euler-Mascheroni, se tiene que: $$\operatorname{Ci}(z)=\gamma+\ln(z)-\operatorname{Cin}(z)$$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 16 de febrero de 2024

(953) - Polinomios de Bernstein

$$ B_N(x) = \sum_{k=0}^N f\left(a+\frac{b-a}{N}k\right)\binom{N}{k} \frac{(x-a)^k(b-x)^{N-k}}{(b-a)^N} $$
$$ B_N(x) = \sum_{k=0}^N \beta_k B_{N,k}(x) ;$$
Base de los polinomios de Bernstein de grado $N$ tiene $(N+1)$ polinomios de grado $N$ , $\Big\{ B_{N,k}(x)\Big\}_{k=0}^N$ viene dado por
$$ B_{N,k}(x) = \binom{N}{k} \frac{(x-a)^k(b-x)^{N-k}}{(b-a)^N} \qquad \beta_k = f\left(a+\frac{b-a}{N}k\right) $$
Donde $\beta_k$ son los coeficientes de Bernstein-Bézier

Tras una normalización donde se define la nueva variable independiente $t=\displaystyle \frac{x-a}{b-a}$ se simplifican a
$$ \binom{N}{k} \left(\frac{k}{N}\right)^k\left(1-\frac{k}{N}\right)^{N-k} = \binom{N}{k}\frac{k^k (N-k)^{N-k}}{N^N} \geqslant B_{N,k}(t) \geqslant 0 $$

$$ \frac{N!}{2^N \displaystyle \left(\frac{N}{2}\right)!^2} \geqslant B_{N,\frac{N}{2}}(t) \geqslant 0 $$

$$ B_{N,k}(t)=B_{N,N-k}(1-t) $$
$$ B_N(t) = \sum_{k=0}^N f\left(\frac{k}{N}\right)\binom{N}{k} t^k(1-t)^{N-k} $$
$$ 0 \leqslant t \leqslant 1 \implies \sum_{k=0}^N B_{N,k}(t) = 1 $$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 2 de febrero de 2024

(941) - Cómo calcular rápidamente la raíz cuadrada de cualquier número

Supongamos que tenemos un número $a$ positivo, $a>0$, del que queremos calcular su raíz cuadrada, $\sqrt{a\;}$. De alguna forma nos damos cuenta que existe otro número $n$ tal que $a\approx n^2$, es decir, $n\approx \sqrt{a\;}$.

Al aproximar $\sqrt{a\;}$ por $n$, estaremos cometiendo un error $\varepsilon$, que es de la forma $\varepsilon=\sqrt{a\;}-n$. Escrito de otra forma, $\sqrt{a\;}=n+\varepsilon$, por lo que $a=(n+\varepsilon)^2$. Si pudiésemos calcular de forma exacta el error $\varepsilon$, por ejemplo a través de una fórmula, podríamos calcular la raíz cuadrada de este forma. Si desarrollamos la última expresión, se llega a $\varepsilon^2 + 2n\,\varepsilon + (n^2-a)=0$, que es una ecuación polinómica de segundo grado en $\varepsilon$, por lo que: $$ \varepsilon = \frac{-2n\pm\sqrt{(2n)^2-4(n^2-a)\;}}{2} = -n\pm\sqrt{a\;}$$ O sea, que para no tener que calcular una raíz cuadrada, hay que calcular una raíz cuadrada... Hemos llegado otra vez al problema que queríamos evitar. Sin embargo, esto tiene fácil solución: Si nuestra aproximación $n$ es suficientemente buena a la raíz cuadrada $\sqrt{a\;}$, esto implicará que el error será pequeño, $\varepsilon\ll 1$, y en especial su cuadrado más, $\varepsilon^2\approx0$. Ahora sustituyendo esta aproximación para el error en la fórmula anterior: $$ 2n\,\varepsilon + (n^2-a) \approx 0 \implies \varepsilon \approx \frac{a-n^2}{2n} $$ Entonces la fórmula que buscamos es $$ \boxed{ \sqrt{a\;} \approx n + \frac{a-n^2}{2n} } $$ Por ejemplo si queremos calcular la raíz de $a=15$, tomamos $n=4$, ya que $4^2=16\approx 15$ y al usar la fórmula anterior, $$ \boldsymbol{3\mathrm{'}87}29833\dots = \sqrt{15\;} \approx 4 + \frac{15-4^2}{2\cdot 4} = 3\frac{7}{8} = \boldsymbol{3\mathrm{'}87}5 $$ Lo bueno de esta fórmula es que se puede usar de forma recursiva para ir encontrando sucesivas aproximaciones que tienden a la raíz: Ahora $n=3\mathrm{'}875$ y $n^2=15\mathrm{'}015625$ $$ \boldsymbol{3\mathrm{'}872983}3\dots = \sqrt{15\;} \approx 4 + \frac{15-3\mathrm{'}875^2}{2\cdot 3\mathrm{'}875} = 3\frac{433}{496} = \boldsymbol{3\mathrm{'}872983}8\dots $$
Otro ejemplo si queremos calcular la raíz de $a=2$, tomamos $n=1$, ya que $1^2=1\approx 2$ y al usar la fórmula anterior, $$ \boldsymbol{1}\mathrm{'}4142135\dots = \sqrt{2\;} \approx 1 + \frac{2-1^2}{2\cdot 1} = 3\frac{1}{2} = \boldsymbol{1}\mathrm{'}5 $$ Y en la siguiente iteración $n=1\mathrm{'}5$ y $n^2=2\mathrm{'}25$ $$ \boldsymbol{1\mathrm{'}41}42135\dots = \sqrt{2\;} \approx 4 + \frac{2-1\mathrm{'}5^2}{2\cdot 1\mathrm{'}5} = 1\frac{5}{12} = \boldsymbol{1\mathrm{'}41}\bar{6}\dots $$ Y en la siguiente iteración $n=1\mathrm{'}41\bar{6}$ y $n^2=2\mathrm{'}0069\bar{4}$ $$ \boldsymbol{1\mathrm{'}41421}35\dots = \sqrt{2\;} \approx 1\mathrm{'}41\bar{6} + \frac{2-1\mathrm{'}41\bar{6}^2}{2\cdot 1\mathrm{'}41\bar{6}} = 1\frac{169}{408} = \boldsymbol{1\mathrm{'}41421}56\dots $$ En general si queremos hallarla raíz $p-$ésima de un número $a$, $\sqrt[p]{a\;}$, tal que $a\approx n^p \iff n\approx\sqrt[p]{a\;}$ se puede hallar de forma similar con: $$ \boxed{ \sqrt[p]{a\;} \approx n + \frac{a-n^p}{p n^{p-1}} } $$


Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.

viernes, 22 de diciembre de 2023

(937) - Notación de Landau ampliada

Veamos algunos ejemplos de notación de las llamadas O:
  • Denotamos $f(x)\in{\scriptsize \mathcal{O}}\big(g(x)\big)$ cuando $x\to a$ si existe $M>0$ para $|x-a|<\delta$ tal que $|f(x)|\lneq M g(x)$ o con su definición de límites, $\displaystyle \lim_{x\to a}\frac{f(x)}{g(x)}=0$
  • Denotamos $f(x)\in\mathcal{O}\big(g(x)\big)$ cuando $x\to a$ si existe $M>0$ para $|x-a|<\delta$ tal que $|f(x)|\leqslant M g(x)$ o con su definición de límites, $\displaystyle \limsup_{x\to a}\frac{f(x)}{g(x)}<\infty$
  • Denotamos $f(x)\in\omega\big(g(x)\big)$ cuando $x\to a$ si existe $M>0$ para $|x-a|<\delta$ tal que $f(x)> M g(x)$ ocon su definición de límites, $\displaystyle \lim_{x\to a}\frac{f(x)}{g(x)}=\infty$.
  • Denotamos $f(x)\in\Omega\big(g(x)\big)$ cuando $x\to a$ si existe $M>0$ para $|x-a|<\delta$ tal que $|f(x)|\geqslant M g(x)$ ocon su definición de límites, $\displaystyle \limsup_{x\to a}\left|\frac{f(x)}{g(x)}\right|>0$, es decir, si $f(x)\not\in{\scriptsize \mathcal{O}}\big(g(x)\big)$.
  • Denotamos $f(x)\in\Omega_{+}\big(g(x)\big)$ cuando $x\to a$ con su definición de límites, $\displaystyle \limsup_{x\to a}\frac{f(x)}{g(x)}>0$.
  • Denotamos $f(x)\in\Omega_{-}\big(g(x)\big)$ cuando $x\to a$ con su definición de límites, $\displaystyle \liminf_{x\to a}\frac{f(x)}{g(x)}<0$.
  • Denotamos $f(x)\in\Theta\big(g(x)\big)$ cuando $x\to a$ si existe $M_1,M_2>0$ para $|x-a|<\delta$ tal que $M_1g(x)\leqslant|f(x)|\leqslant M_2g(x)$ o con su definición de límites, $\displaystyle \liminf_{x\to a}\frac{f(x)}{g(x)}>0 \quad \limsup_{x\to a}\frac{f(x)}{g(x)}<\infty$
  • Denotamos $f(x)\sim g(x)$ cuando $x\to a$ si existe $\varepsilon>0$ para $|x-a|<\delta$ tal que $\displaystyle \left|1-\frac{f(x)}{g(x)}\right|<\varepsilon$ o con su definición de límites, $\displaystyle \lim_{x\to a}\frac{f(x)}{g(x)}=1$

  • También equiste la notación con virgulilla, por ejemplo $f(x)\in\tilde{\mathcal{O}}\big(g(x)\big)$, que que significa que existe $k\in\mathbb{N}$ tal que $f(x)\in\mathcal{O}\Big(g(x)\ln^k\!\big(g(x)\big)\Big)$


    Autor: Đɑvɪẟ Ƒernández-De la Cruʒ.